㈠ spark1.5.2对应scala哪个版本
下载的可直接运行的是2.10.x,源码支持2.11.x,但是编译的时候需要加上条件-Dscala-2.11,但是版Spark does not yet support its JDBC component for Scala 2.11. 所以需要这部分权功能的还是用2.10.x
㈡ 大数据是先学spark还是scala
使用Spark,Scala不是必须抄的,Spark有java、Python、R的API。但是要想深入袭学习,还是建议学习Scala的。我现在的感觉就是,如果你会Scala,Spark都不用怎么学。因为一般的Scala程序就是这么写的,用Spark的区别就是换了一套API而已...
㈢ hadoop2.7.3应该用什么版本的scala和spark
㈣ Spark 中用 Scala 和 java 开发有什么区别
语言不同:Scala 是一门函数式语言,Java是面向对象语言,二者在语言特点上差异特别大。但是scala也是运行在java虚拟机上,两者可以方便的互相调用。
Spark作为一个数据统计分析的工具,它是偏向于函数式处理的思想,因此在spark应用开发时,天然与scala亲近,所以用scala写spark十分的简洁明了,用java代码100行写出来的spark程序,可能用scala几行就搞定了。
Java写spark则是java出生的开发人员快速使用spark的最佳选择。另外,Java 8之后,也添加了一些函数式语言得语法,这使得Java写spark简洁不少。
㈤ 如何查看scala版本对应的依赖库的版本
如果是spark1的话应该用的是2.10,2的话应该是2.11,具体的到spark安装目录下看一下jars中scala开头的jar包就可以了
㈥ spark需要安装scala吗
需要,并且要保持对应的版本。
㈦ spark2.1对应kafka哪个版本
hadoop、storm、spark、akka是分布式处理框架; kafka是一种消息队列; zookeeper是bbo的服务注册中心; 由上可见,这些东西相关性没那么大,学习是要看应用场景的,如果你在大数据公司里做分布式处理,那hadoop、spark二者之一估计是必学的
㈧ spark-2.6.0对应的scala版本
楼主应该是写错了吧,到目前为止spark版本只到 1.6.1,对应scala版本为 2.10.x。
㈨ spark哪个版本支持scala2.11
1,构建系统的选择,sbt更合适用来构建Scala工程,maven更合适用来构建Java工程2,对于spark中的API来说,Java和Scala有差别,但差别并不大3,如果用Scala开发spark原型程序,可以用spark-shell“打草稿”,或者直接使用spark-shell做交互式实时查询4,用Scala代码量将减少甚至一个数量级,不过Scala的使用门槛较高