在大数据中,如何使用spark?
Spark的应用有个流程:
其实就是数据分析的过程 - 接收,处理,输出一次性完成的过程!
使用Spark最简单的方法:就是直接在你的机器上使用Pyspark。
它的前提需要安装Python。
然后到Spark的官网上去下载Spark的安装包。
Spark支持多种语言,其中有一种就是Python,还有Java/Scala/R语言。
安装后,你就可以把PySpark的交互界面打开,在里面输入一个简单的case 看一下运行结果。
关注我查看我的原创视频,只要3分29秒你就知道怎么用Spark
你可能想看: