spark支持python吗,spark编程基础python
对于下面的数据帧
df=火花。createdataframe(data=[ Alice ,4.300),yldzh ,7.677 ) ],schema=[name , High]
whentrytofindminmaxiamonlygettingminvalueinoutput。
df .AgG(高):)max),(高):)分钟.show)))。
最小(高)
2094900
为什么tagg(givebothmaxminlikeinpandas?
正如您在这里看到的:
AgG(*Exprs)。
计算聚集和返回结果数据帧。
可用的聚合函数是eavg,max,min,sum,count。
如果从字符串到字符串的exprsissiasingletictmapping,则keyisthecolumntoperformationon,而和评价聚合函数
或者,exprscanalsbealistofaggregatecolumnexpressions。
参数:exprsadictmappingfromcolumnname(string)到aggregatefunctions(string),或一列。
youcanusealistofcolumnandapplythefunctionthayounedoneverycolumn,如下所示:
from py spark . sqlimportfunctionsashxsdbl/pdf . agg(最小)测向高)、最大)测向高)、平均)和df.high)
最小(高)最大)高)总和)高
4.3 7.677 5.9885 11.977
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。