到底选spark还是python,spark python入门教程

  到底选spark还是python,spark python入门教程

  

  spark能跑Python么?

  Spark可以运行Python程序。python写的算法,或者扩展库,比如sklearn,都可以在spark上运行。也可以直接用spark的mllib,大部分算法都有。

  Spark是一个通用引擎,可以用来完成各种操作,包括SQL查询、文本处理、机器学习等。

  本实验运行在linux下的spark环境下。spark版本是1.6.1,相当于在spark本地执行。spark文件放在/opt/models/spark-1.6.1/(您将在代码中看到它)

  编写python测试程序

  #test.py文件

  # -*-编码:utf-8 -*-

  导入操作系统

  导入系统

  #配置环境变量并导入pyspark

  OS . environ[ SPARK _ HOME ]=r /opt/moudles/SPARK-1 . 6 . 1

  sys . path . append(/opt/moudles/spark-1 . 6 . 1/python )

  sys . path . append(/opt/moudles/spark-1 . 6 . 1/python/lib/py4j-0.9-src . zip )

  从pyspark导入SparkContext,SparkConf

  AppName=spark_1 #应用程序名称

  master= spark ://Hadoop 0133607077 # Hadoop 01是主节点的主机名,请将其更改为您自己的主节点主机名。

  conf=SparkConf()。setAppName(appName)。setMaster(主机)

  sc=SparkContext(conf=conf)

  数据=[1,2,3,4,5]

  distData=sc.parallelize(data)

  res=distData.reduce(lambda a,b: a b)

  打印(===================================)

  打印(分辨率)

  打印(=================================)来执行python程序

  执行以下命令

  python.py的执行和结果如下图所示:

  这就是spark能够运行Python的细节。更多信息请关注热门IT软件开发工作室其他相关文章!

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: