这篇文章主要为大家详细介绍了windows下pycharm搭建spark环境并成功运行的实现方法,具有一定的参考价值,可以用来参考一下。
感兴趣的小伙伴,下面一起跟随四海网的雯雯来看看吧!
Spark在Win10下的环境搭建
若是左侧的python中没有,可点击‘'+‘'号进行添加
配置spark环境:总共3个(SPARK_HOME、HADOOP_HOME、PYTHONPATH)
(注:SPARK_HOME和HADOOP_HOME已在系统的环境变量添加,故这里不再添加)
在编写代码时,建议添加如下代码,保证程序能够运行成功:
代码如下:
import os
import sys
import findspark # 一定要在最前面导入
'''初始化spark环境'''
findspark.init()
# Path for spark source folder
os.environ['SPARK_HOME'] = "G:\Spark\Install\spark-2.4.3-bin-hadoop2.7"
# Append pyspark to Python Path
sys.path.append("G:\Spark\Install\spark-2.4.3-bin-hadoop2.7\python")
'''示例'''
from pyspark import SparkContext,SparkConf
from pyspark.sql import SparkSession
from pyspark.sql import Row
# SparkContext是spark功能的主要入口
sc = SparkContext("local", "app")
RawSalesDataRDD = sc.textFile("G:\\Spark\\作业\\taxi.csv")
print(RawSalesDataRDD.take(5))
salesRDD = RawSalesDataRDD.map(lambda line: line.split(","))
print(salesRDD.take(5))
taxi_Rows = salesRDD.map(lambda p:
Row(
id=p[0],
lat=p[1],
lon=p[2],
time=p[3]
))
sqlContext = SparkSession.builder.getOrCreate()
taxi_df = sqlContext.createDataFrame(taxi_Rows)
print(taxi_Rows.take(5))
print('查看dataframe的字段名称和前5行数据:')
taxi_df.printSchema()
taxi_df.show(5)
'''使用SQL语句 操作表数据'''
# #创建临时表taxi_table
taxi_df.registerTempTable("taxi_table")
# 查询编号为 5 的出租车的 GPS 数据的前 10 行
taxi_df.filter("id='5'").show(10)
taxi_df.where("id='5'").show(10)
sqlContext.sql("select * from taxi_table where id='5'").show(10)
windows下pycharm搭建spark环境并成功运行 附源码
到此这篇关于windows下pycharm搭建spark环境并成功运行 附源码的文章就介绍到这了,更多相关pycharm搭建spark环境内容请搜索四海网以前的文章或继续浏览下面的相关文章希望大家以后多多支持四海网!
本文来自:http://www.q1010.com/181/19057-0.html
注:关于windows下pycharm搭建spark环境并成功运行的实现方法的内容就先介绍到这里,更多相关文章的可以留意四海网的其他信息。
关键词:python
四海网收集整理一些常用的php代码,JS代码,数据库mysql等技术文章。