导航:首页 > 编程语言 > sparkpython安装

sparkpython安装

发布时间:2022-09-09 00:12:00

1. spark部署python脚本怎么部署三方库

1、Spark脚本提交/运行/部署
1.1 spark-shell(交互窗口模式)
运行Spark-shell需要指向申请资源的standalone spark集群信息,其参数为MASTER,还可以指定executor及driver的内存大小。
sudo spark-shell --executor-memory 5g --driver-memory1g --master spark://192.168.180.216:7077
spark-shell启动完后,可以在交互窗口中输入Scala命令,进行操作,其中spark-shell已经默认生成sc对象,可以用:
val user_rdd1 = sc.textFile(inputpath, 10)
读取数据资源等。
1.2 spark-shell(脚本运行模式)
上面方法需要在交互窗口中一条一条的输入scala程序;将scala程序保存在test.scala文件中,可以通过以下命令一次运行该文件中的程序代码:
sudo spark-shell --executor-memory 5g --driver-memory1g --master spark//192.168.180.216:7077 < test.scala
运行后会自动进入spark-shell交互窗口并且运行test.scala中的程序,运行完成后,会自动退出spark-shell。
如果程序退出终端后,Linux终端失效,可以试试:stty echo 命令
1.3 spark-submit (程序部署)
Spark提供了一个容易上手的应用程序部署工具bin/spark-submit,可以完成Spark应用程序在local、Standalone、YARN、Mesos上的快捷部署。可以指定集群资源master,executor/ driver的内存资源等。
sudo spark-submit --masterspark://192.168.180.216:7077 --executor-memory 5g --class mypackage.test workcount.jar hdfs://192.168.180.79:9000/user/input.txt
workcount .scala 代码打包workcount.jar,并将文件需要上传到spark的安装目录下面;
hdfs//192.168.180.79:9000/user/input.txt为输入参数;

2. 如何在ipython或python中使用Spark

在ipython中使用spark
说明:
spark 1.6.0
scala 2.10.5
spark安装路径是/usr/local/spark;已经在.bashrc中配置了SPARK_HOME环境变量。
方法一
/usr/local/Spark/bin/pyspark默认打开的是Python,而不是ipython。通过在pyspark文件中添加一行,来使用ipython打开。
cp pyspark ipyspark
vi ipyspark
# 在最前面添加
IPYTHON=1
# 启动
ipyspark
方法二:
通过为spark创建一个ipython 配置的方式实现。
# 为spark创建一个ipython 配置
ipython profile create spark
# 创建启动配置文件
cd ~/.config/ipython/profile_spark/startup
vi 00-pyspark-setup.py
在00-pyspark-setup.py中添加如下内容:
import os
import sys
# Configure the environment
if 'SPARK_HOME' not in os.environ:
os.environ['SPARK_HOME'] = '/srv/spark'
# Create a variable for our root path
SPARK_HOME = os.environ['SPARK_HOME']
# Add the PySpark/py4j to the Python Path
sys.path.insert(0, os.path.join(SPARK_HOME, "python", "pyspark"))
sys.path.insert(0, os.path.join(SPARK_HOME, "python", "lib", "py4j-0.9-src.zip"))
sys.path.insert(0, os.path.join(SPARK_HOME, "python"))
启动ipython
ipython –profile spark
测试程序
在ipython中输入一下命令,如果下面的程序执行完后输出一个数字,说明正确。
from pyspark import SparkContext
sc = SparkContext( 'local', 'pyspark')
def isprime(n):
"""
check if integer n is a prime
"""
# make sure n is a positive integer
n = abs(int(n))
# 0 and 1 are not primes
if n < 2:
return False
# 2 is the only even prime number
if n == 2:
return True
# all other even numbers are not primes
if not n & 1:
return False
# for all odd numbers
for x in range(3, int(n**0.5)+1, 2):
if n % x == 0:
return False
return True
# Create an RDD of numbers from 0 to 1,000,000
nums = sc.parallelize(xrange(1000000))
# Compute the number of primes in the RDD
print 逗Result: 地, nums.filter(isprime).count()
方法三
将上面的程序放入test.py文件,执行命令python test.py。发现错误。因为没有将pyspark路径加入PYTHONPATH环境变量。
在~/.bashrc或/etc/profile中添加如下内容:
# python can call pyspark directly
export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/pyspark:$SPARK_HOME/python/lib/py4j-0.9-src.zip:$PYTHONPATH
执行如下命令:
# 使配置生效
source ~/.bashrc
# 测试程序
python test.py
此时,已经能够运行了。

3. 如何在spark集群中装python

前段时间使用了一下google的博客空间,感觉也很一般,所以现在把那里的几篇文章转过来。 执行python脚本只需要对python文件做如下操作即可: 在python文件里第一行加上#! /usr/bin/python,即你的python解释器所在的目录

4. spark python脚本怎么执行

前段时间使用了一下google的博客空间,感觉也很一般,所以现在把那里的几篇文章转过来。
执行python脚本只需要对python文件做如下操作即可:
在python文件里第一行加上#!
/usr/bin/python,即你的python解释器所在的目录。另外还有一种写法是#!
/usr/bin/env
python
编辑完成python脚本文件后为它加上可执行权限。例如你的python脚本文件叫做runit.py,那么就在shell中输入如下命令:chmod
+x
runit.py
之后直接在shell中输入./runit.py就可以执行你的python程序了。
当然这是在Linux下的操作,如果想在windows下直接执行Python程序,就需要使用py2exe工具将python源程序编译成exe文件了。

5. 最新的spark支持python的什么版本

两种方法:
使用 spark-submit 解释执行python脚本
使用 python 解释执行python脚本
1. 使用Spark-submit解释执行python脚本
python脚本中需要在开头导入spark相关模块,调用时使用spark-submit提交,示例代码如下:
===========================================================
"""odflow.py"""
from pyspark import SparkContext
fileDir = "/TripChain3_Demo.txt"
# sc = SparkContext("local", "ODFlow")
sc = SparkContext("spark://ITS-Hadoop10:7077", "ODFlow")
lines = sc.textFile(fileDir)
# python不能直接写多行的lambda表达式,所以要封装在函数中
def toKV(line):
arr = line.split(",")
t = arr[5].split(" ")[1].split(":")
return (t[0]+t[1]+","+arr[11]+","+arr[18],1)
r1 = lines.map( lambda line : toKV(line) ).receByKey(lambda a,b: a+b)
# 排序并且存入一个(repartition)文件中
r1.sortByKey(False).saveAsTextFile("/pythontest/output")
===========================================================
发布命令为:
spark-submit \
--master spark://ITS-Hadoop10:7077 \
odflow.py
2. 使用 python 解释执行python脚本
直接用python执行会出现错误:
ImportError: No mole named pyspark
ImportError: No mole named py4j.java_gateway
缺少pyspark和py4j这两个模块,这两个包在Spark的安装目录里,需要在环境变量里定义PYTHONPATH,编辑~/.bashrc或者/etc/profile文件均可
vi ~/.bashrc # 或者 sudo vi /etc/profile
# 添加下面这一行
export PYTHONPATH=$SPARK_HOME/python/:$SPARK_HOME/python/lib/py4j-0.8.2.1-src.zip:$PYTHONPATH
# 使其生效
source ~/.bashrc # 或者 sudo source /etc/profile
然后关闭终端,重新打开,用python执行即可
python odflow.py

6. 机器学习实践:如何将Spark与Python结合

可以学习一下林大贵这本书,从头到尾教你如何使用python+spark+hadoop实现常用的算法训练和部署。

《Python+Spark2.0+Hadoop机器学习与大数据实战_林大贵》

链接:https://pan..com/s/1VGUOyr3WnOb_uf3NA_ZdLA

提取码:ewzf

7. xgboost4j-spark 怎么安装使用

xgboost4j-spark 怎么安装使用
1.windows server 2008是64位
2.先安装python 64位,版本选用2.7.10
3.安装numpy和scipy,版本都是64位,兼容python 2.7,这两个扩展包都选用http://www.lfd.uci.e/~gohlke/pythonlibs/下的wheel文件,原因是安装时候不报错,其他安装方法,比如直接pip install scipy,easy_install numpy,会爆出各种莫名其妙的错误;
4.安装visual studio 2010或者2013均可,我开始装的是visual studio2015,各种按钮下拉框找不着,很麻烦;
5.安装vs2013后,直接将xgboost下windows文件夹中xgboost.sln导入solution,在vs上方选择好x64和release两个选项,在build下拉菜单中选择rebuild,最后出现 ========== Build: 3 succeeded, 0 failed, 0 up-to-date, 0 skipped ==========, 表明已经编译成功,不过我编译时候出了一个差错,说找不到jni.h文件,是fatal error,不过细看下应该是生成javawrapper时候出错,结果会导致无法以java方式调用xgboost,不过这些都是小事,我没打算用java调用xgboost;
6.dos下,进入xgboost\python-package目录下,输入命令python setup.py install,开始往c:\python27\lib\site-packages中装内容
7.然后import xgboost,导入成功
至此,一切搞定

8. 如何运行含spark的python脚本

2~spark$ bin/spark-submit first.py
-----------first.py-------------------------------
from pyspark import SparkConf, SparkContext
conf = SparkConf().setMaster("local").setAppName("My App")
sc = SparkContext(conf = conf)
lines = sc.textFile("first.py")
pythonLines = lines.filter(lambda line: "Python" in line)
print "hello python"
print pythonLines.first()
print pythonLines.first()
print "hello spark!"
---------------------------------------------------
hello python
pythonLines = lines.filter(lambda line: "Python" in line)
pythonLines = lines.filter(lambda line: "Python" in line)
hello spark!

到spark的安装目录下/bin 下面 spark-submit ***.py 即可

9. python怎么引入sparksession

~spark$bin/spark-submitfirst.py-----------first.py-------------------------------frompysparkimportSparkConf,SparkContextconf=SparkConf().setMaster("local").setAppName("MyApp")sc=SparkContext(conf=conf)lines=sc.textFile("first.py")pythonLines=lines.filter(lambdaline:"Python"inline)print"hellopython"printpythonLines.first()printpythonLines.first()print"hellospark!"---------------------------------------------------hellopythonpythonLines=lines.filter(lambdaline:"Python"inline)pythonLines=lines.filter(lambdaline:"Python"inline)hellospark!到spark的安装目录下/bin下面spark-submit***.py即可

阅读全文

与sparkpython安装相关的资料

热点内容
华为交换机dhcp配置命令 浏览:314
androidbitmap缩小 浏览:270
单片机串口控制灯 浏览:83
大讯云服务器安装视频 浏览:783
华为算法领先世界 浏览:653
linux路由重启 浏览:565
php的模板编程 浏览:319
编译器原理与实现书 浏览:708
dos选择命令 浏览:16
apm固件编译到单片机 浏览:120
联通深蓝卡都包含什么app 浏览:263
如何判断网络服务器正常 浏览:649
路由器搭桥远端服务器地址是什么 浏览:515
编译动态库时会连接依赖库吗 浏览:708
淘宝手机加密是随机的吗 浏览:672
解压包子怎么装饰 浏览:586
四个数凑24算法 浏览:676
哪一种不是vi编译器的模式 浏览:170
xp在此处打开命令窗口 浏览:128
代码编译运行用什么软件 浏览:999