Spark中用Scala和java开发有什么区别?

很高兴回答你的问题:

由于Spark是由Scala开发的所以大家在开发Spark应用程序的时候多数会选择Scala语言,不过Spark官方网站中也给出了用java实现的实例。

1、构建系统的选择,sbt更合适用来构建Scala工程,maven更合适用来构建Java工程。

2、对于spark中的API来说,Java和Scala有差别,但差别并不大。

3、如果用Scala开发spark原型程序,可以用spark-shell“打草稿”,或者直接使用spark-shell做交互式实时查询。

4、用Scala代码量将减少甚至一个数量级,不过Scala的使用门槛较高

5、Scala 开发效率更高,代码更精简。

6、使用Spark过程中出现异常情况,在排查时如果对Spark源码比较熟悉,可以事半功倍。

7、另外Spark基本使用函数式编程,使用Java的话可能需要写一大堆匿名类,而Scala只需要一个lambda表达式。

8、Java不支持自动类型推导,RDD类基本都是范型,声明时需要写一串类类型,而Scala基本可以省略变量类型。

综上所述:

就个人体会来说,Scala相对于Java的优势是巨大的。熟悉Scala之后再看Java代码,有种读汇编的感觉……

另外,如果喜欢,可以混合Java和Scala,因为二者最终都是编译成class文件,使用Scala能够随意调用Java实现的类和方法。

从表面上看,无论采用哪种语言,都能完成一样的功能,只是代码量有多有少,开发人员根据自己的情况选择使用Java还是Scala都可。

据说目前最新的Java 8已经支持函数式接口了,Java 9也将推出Java Shell功能,慢慢地会变得和Scala一样简洁。

你可能想看:
分享给朋友: