㈠ spark1.5.2對應scala哪個版本
下載的可直接運行的是2.10.x,源碼支持2.11.x,但是編譯的時候需要加上條件-Dscala-2.11,但是版Spark does not yet support its JDBC component for Scala 2.11. 所以需要這部分權功能的還是用2.10.x
㈡ 大數據是先學spark還是scala
使用Spark,Scala不是必須抄的,Spark有java、Python、R的API。但是要想深入襲學習,還是建議學習Scala的。我現在的感覺就是,如果你會Scala,Spark都不用怎麼學。因為一般的Scala程序就是這么寫的,用Spark的區別就是換了一套API而已...
㈢ hadoop2.7.3應該用什麼版本的scala和spark
㈣ Spark 中用 Scala 和 java 開發有什麼區別
語言不同:Scala 是一門函數式語言,Java是面向對象語言,二者在語言特點上差異特別大。但是scala也是運行在java虛擬機上,兩者可以方便的互相調用。
Spark作為一個數據統計分析的工具,它是偏向於函數式處理的思想,因此在spark應用開發時,天然與scala親近,所以用scala寫spark十分的簡潔明了,用java代碼100行寫出來的spark程序,可能用scala幾行就搞定了。
Java寫spark則是java出生的開發人員快速使用spark的最佳選擇。另外,Java 8之後,也添加了一些函數式語言得語法,這使得Java寫spark簡潔不少。
㈤ 如何查看scala版本對應的依賴庫的版本
如果是spark1的話應該用的是2.10,2的話應該是2.11,具體的到spark安裝目錄下看一下jars中scala開頭的jar包就可以了
㈥ spark需要安裝scala嗎
需要,並且要保持對應的版本。
㈦ spark2.1對應kafka哪個版本
hadoop、storm、spark、akka是分布式處理框架; kafka是一種消息隊列; zookeeper是bbo的服務注冊中心; 由上可見,這些東西相關性沒那麼大,學習是要看應用場景的,如果你在大數據公司里做分布式處理,那hadoop、spark二者之一估計是必學的
㈧ spark-2.6.0對應的scala版本
樓主應該是寫錯了吧,到目前為止spark版本只到 1.6.1,對應scala版本為 2.10.x。
㈨ spark哪個版本支持scala2.11
1,構建系統的選擇,sbt更合適用來構建Scala工程,maven更合適用來構建Java工程2,對於spark中的API來說,Java和Scala有差別,但差別並不大3,如果用Scala開發spark原型程序,可以用spark-shell「打草稿」,或者直接使用spark-shell做互動式實時查詢4,用Scala代碼量將減少甚至一個數量級,不過Scala的使用門檻較高