windows下spark的安裝和運(yùn)行 建議看到這篇文章(描述非常詳細(xì))
Spark在Win10下的環(huán)境搭建
若是左側(cè)的python中沒有,可點(diǎn)擊‘'+‘'號(hào)進(jìn)行添加
配置spark環(huán)境:總共3個(gè)(SPARK_HOME、HADOOP_HOME、PYTHONPATH)
(注:SPARK_HOME和HADOOP_HOME已在系統(tǒng)的環(huán)境變量添加,故這里不再添加)
在編寫代碼時(shí),建議添加如下代碼,保證程序能夠運(yùn)行成功:
import os import sys import findspark # 一定要在最前面導(dǎo)入 '''初始化spark環(huán)境''' findspark.init() # Path for spark source folder os.environ['SPARK_HOME'] = "G:\Spark\Install\spark-2.4.3-bin-hadoop2.7" # Append pyspark to Python Path sys.path.append("G:\Spark\Install\spark-2.4.3-bin-hadoop2.7\python") '''示例''' from pyspark import SparkContext,SparkConf from pyspark.sql import SparkSession from pyspark.sql import Row # SparkContext是spark功能的主要入口 sc = SparkContext("local", "app") RawSalesDataRDD = sc.textFile("G:\\Spark\\作業(yè)\\taxi.csv") print(RawSalesDataRDD.take(5)) salesRDD = RawSalesDataRDD.map(lambda line: line.split(",")) print(salesRDD.take(5)) taxi_Rows = salesRDD.map(lambda p: Row( id=p[0], lat=p[1], lon=p[2], time=p[3] )) sqlContext = SparkSession.builder.getOrCreate() taxi_df = sqlContext.createDataFrame(taxi_Rows) print(taxi_Rows.take(5)) print('查看dataframe的字段名稱和前5行數(shù)據(jù):') taxi_df.printSchema() taxi_df.show(5) '''使用SQL語句 操作表數(shù)據(jù)''' # #創(chuàng)建臨時(shí)表taxi_table taxi_df.registerTempTable("taxi_table") # 查詢編號(hào)為 5 的出租車的 GPS 數(shù)據(jù)的前 10 行 taxi_df.filter("id='5'").show(10) taxi_df.where("id='5'").show(10) sqlContext.sql("select * from taxi_table where id='5'").show(10)
代碼運(yùn)行結(jié)果:
到此這篇關(guān)于windows下pycharm搭建spark環(huán)境并成功運(yùn)行 附源碼的文章就介紹到這了,更多相關(guān)pycharm搭建spark環(huán)境內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
標(biāo)簽:欽州 三沙 宿遷 濟(jì)南 景德鎮(zhèn) 喀什 臺(tái)灣 黃山
巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《windows下pycharm搭建spark環(huán)境并成功運(yùn)行 附源碼》,本文關(guān)鍵詞 windows,下,pycharm,搭建,spark,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。