基本操作
Spark SQL中的DataFrame類似于一張關系型數據表。在關系型數據庫中對單表或進行的查詢操作,在DataFrame中都可以通過調用其API接口來實現。可以參考,Scala提供的DataFrame API。
本文中的代碼基于Spark-1.6.2的文檔實現。
一、DataFrame對象的生成
Spark-SQL可以以其他RDD對象、parquet文件、json文件、hive表,以及通過JDBC連接到其他關系型數據庫作為數據源來生成DataFrame對象。本文將以MySQL數據庫為數據源,生成DataFrame對象后進行相關的DataFame之上的操作。
文中生成DataFrame的代碼如下:
object DataFrameOperations {
def main (args: Array[String ]) {
val sparkConf = new SparkConf().setAppName( "Spark SQL DataFrame Operations").setMaster( "local[2]" )
val sparkContext = new SparkContext(sparkConf)
val sqlContext = new SQLContext(sparkContext)
val url = "jdbc:mysql://m000:3306/test"
val jdbcDF = sqlContext.read.format( "jdbc" ).options(
Map( "url" -> url,
"user" -> "root",
"password" -> "root",
"dbtable" -> "spark_sql_test" )).load()
val joinDF1 = sqlContext.read.format( "jdbc" ).options(
Map("url" -> url ,
"user" -> "root",
"password" -> "root",
"dbtable" -> "spark_sql_join1" )).load()
val joinDF2 = sqlContext.read.format( "jdbc" ).options(
Map ( "url" -> url ,
"user" -> "root",
"password" -> "root",
"dbtable" -> "spark_sql_join2" )).load()
... ...
}
}
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
后續代碼都在上面... ...
處。
二、DataFrame對象上Action操作
1、show
:展示數據
以表格的形式在輸出中展示jdbcDF
中的數據,類似于select * from spark_sql_test
的功能。
show
方法有四種調用方式,分別為,
(1)show
只顯示前20條記錄。
示例:
jdbcDF.show
- 1
結果:
(2)show(numRows: Int)
顯示numRows
條
示例:
jdbcDF.show(3)
- 1
結果:
(3)show(truncate: Boolean)
是否最多只顯示20個字符,默認為true
。
示例:
jdbcDF.show(true)
jdbcDF.show(false)
- 1
- 2
結果:
(4)show(numRows: Int, truncate: Boolean)
綜合前面的顯示記錄條數,以及對過長字符串的顯示格式。
示例:
jdbcDF.show(3, false)
- 1
結果:
2、collect
:獲取所有數據到數組
不同于前面的show
方法,這里的collect
方法會將jdbcDF
中的所有數據都獲取到,并返回一個Array
對象。
jdbcDF.collect()
- 1
結果如下,結果數組包含了jdbcDF
的每一條記錄,每一條記錄由一個GenericRowWithSchema
對象來表示,可以存儲字段名及字段值。
3、collectAsList
:獲取所有數據到List
功能和collect
類似,只不過將返回結構變成了List
對象,使用方法如下
jdbcDF.collectAsList()
- 1
結果如下,
4、describe(cols: String*)
:獲取指定字段的統計信息
這個方法可以動態的傳入一個或多個String
類型的字段名,結果仍然為DataFrame
對象,用于統計數值類型字段的統計值,比如count, mean, stddev, min, max
等。
使用方法如下,其中c1
字段為字符類型,c2
字段為整型,c4
字段為浮點型
jdbcDF .describe("c1" , "c2", "c4" ).show()
- 1
結果如下,
5、first, head, take, takeAsList
:獲取若干行記錄
這里列出的四個方法比較類似,其中
(1)first
獲取第一行記錄
(2)head
獲取第一行記錄,head(n: Int)
獲取前n行記錄
(3)take(n: Int)
獲取前n行數據
(4)takeAsList(n: Int)
獲取前n行數據,并以List
的形式展現
以Row
或者Array[Row]
的形式返回一行或多行數據。first
和head
功能相同。
take
和takeAsList
方法會將獲得到的數據返回到Driver端,所以,使用這兩個方法時需要注意數據量,以免Driver發生OutOfMemoryError
使用和結果略。
二、DataFrame對象上的條件查詢和join等操作
以下返回為DataFrame類型的方法,可以連續調用。
1、where條件相關
(1)where(conditionExpr: String)
:SQL語言中where關鍵字后的條件
傳入篩選條件表達式,可以用and
和or
。得到DataFrame類型的返回結果,
示例:
jdbcDF .where("id = 1 or c1 = 'b'" ).show()
- 1
結果,
(2)filter
:根據字段進行篩選
傳入篩選條件表達式,得到DataFrame類型的返回結果。和where
使用條件相同
示例:
jdbcDF .filter("id = 1 or c1 = 'b'" ).show()
- 1
結果,
2、查詢指定字段
(1)select
:獲取指定字段值
根據傳入的String
類型字段名,獲取指定字段的值,以DataFrame類型返回
示例:
jdbcDF.select( "id" , "c3" ).show( false)
- 1
結果:
還有一個重載的select
方法,不是傳入String
類型參數,而是傳入Column
類型參數。可以實現select id, id+1 from test
這種邏輯。
jdbcDF.select(jdbcDF( "id" ), jdbcDF( "id") + 1 ).show( false)
- 1
結果:
能得到Column
類型的方法是apply
以及col
方法,一般用apply
方法更簡便。
(2)selectExpr
:可以對指定字段進行特殊處理
可以直接對指定字段調用UDF函數,或者指定別名等。傳入String
類型參數,得到DataFrame對象。
示例,查詢id
字段,c3
字段取別名time
,c4
字段四舍五入:
jdbcDF .selectExpr("id" , "c3 as time" , "round(c4)" ).show(false)
- 1
結果,
(3)col
:獲取指定字段
只能獲取一個字段,返回對象為Column類型。
val idCol = jdbcDF.col(“id”)果略。
(4)apply
:獲取指定字段
只能獲取一個字段,返回對象為Column類型
示例:
val idCol1 = jdbcDF.apply("id")
val idCol2 = jdbcDF("id")
- 1
- 2
結果略。
(5)drop
:去除指定字段,保留其他字段
返回一個新的DataFrame對象,其中不包含去除的字段,一次只能去除一個字段。
示例:
jdbcDF.drop("id")
jdbcDF.drop(jdbcDF("id"))
- 1
- 2
結果:
3、limit
limit
方法獲取指定DataFrame的前n行記錄,得到一個新的DataFrame對象。和take
與head
不同的是,limit
方法不是Action操作。
jdbcDF.limit(3).show( false)
- 1
結果,
4、order by
(1)orderBy
和sort
:按指定字段排序,默認為升序
示例1,按指定字段排序。加個-
表示降序排序。sort
和orderBy
使用方法相同
jdbcDF.orderBy(- jdbcDF("c4")).show(false)
// 或者
jdbcDF.orderBy(jdbcDF("c4").desc).show(false)
- 1
- 2
- 3
結果,
示例2,按字段字符串升序排序
jdbcDF.orderBy("c4").show(false)
- 1
結果,
(2)sortWithinPartitions
和上面的sort
方法功能類似,區別在于sortWithinPartitions
方法返回的是按Partition排好序的DataFrame對象。
5、group by
(1)groupBy
:根據字段進行group by
操作
groupBy
方法有兩種調用方式,可以傳入String
類型的字段名,也可傳入Column
類型的對象。
使用方法如下,
jdbcDF .groupBy("c1" )
jdbcDF.groupBy( jdbcDF( "c1"))
- 1
- 2
(2)cube
和rollup
:group by的擴展
功能類似于SQL
中的group by cube/rollup
,略。
(3)GroupedData對象
該方法得到的是GroupedData
類型對象,在GroupedData
的API中提供了group by
之后的操作,比如,
max(colNames: String*)
方法,獲取分組中指定字段或者所有的數字類型字段的最大值,只能作用于數字型字段min(colNames: String*)
方法,獲取分組中指定字段或者所有的數字類型字段的最小值,只能作用于數字型字段mean(colNames: String*)
方法,獲取分組中指定字段或者所有的數字類型字段的平均值,只能作用于數字型字段sum(colNames: String*)
方法,獲取分組中指定字段或者所有的數字類型字段的和值,只能作用于數字型字段-
count()
方法,獲取分組中的元素個數運行結果示例:
count
max
這里面比較復雜的是以下兩個方法,
agg
,該方法和下面介紹的類似,可以用于對指定字段進行聚合操作。
pivot
6、distinct
(1)distinct
:返回一個不包含重復記錄的DataFrame
返回當前DataFrame中不重復的Row記錄。該方法和接下來的dropDuplicates()
方法不傳入指定字段時的結果相同。
示例:
jdbcDF.distinct()
- 1
結果,
(2)dropDuplicates
:根據指定字段去重
根據指定字段去重。類似于select distinct a, b
操作
示例:
jdbcDF.dropDuplicates(Seq("c1"))
- 1
結果:
7、聚合
聚合操作調用的是agg
方法,該方法有多種調用方式。一般與groupBy
方法配合使用。
以下示例其中最簡單直觀的一種用法,對id
字段求最大值,對c4
字段求和。
jdbcDF.agg("id" -> "max", "c4" -> "sum")
- 1
結果:
8、union
unionAll
方法:對兩個DataFrame進行組合
類似于SQL
中的UNION ALL
操作。
示例:
jdbcDF.unionALL(jdbcDF.limit(1))
- 1
結果:
9、join
重點來了。在SQL
語言中用得很多的就是join
操作,DataFrame中同樣也提供了join
的功能。
接下來隆重介紹join
方法。在DataFrame中提供了六個重載的join
方法。
(1)、笛卡爾積
joinDF1.join(joinDF2)
- 1
(2)、using
一個字段形式
下面這種join類似于a join b using column1
的形式,需要兩個DataFrame中有相同的一個列名,
joinDF1.join(joinDF2, "id")
- 1
joinDF1
和joinDF2
根據字段id
進行join
操作,結果如下,using
字段只顯示一次。
(3)、using
多個字段形式
除了上面這種using
一個字段的情況外,還可以using
多個字段,如下
joinDF1.join(joinDF2, Seq("id", "name"))
- 1
(4)、指定join
類型
兩個DataFrame的join
操作有inner, outer, left_outer, right_outer, leftsemi
類型。在上面的using
多個字段的join情況下,可以寫第三個String
類型參數,指定join
的類型,如下所示
joinDF1.join(joinDF2, Seq("id", "name"), "inner")
- 1
(5)、使用Column
類型來join
如果不用using
模式,靈活指定join
字段的話,可以使用如下形式
joinDF1.join(joinDF2 , joinDF1("id" ) === joinDF2( "t1_id"))
- 1
結果如下,
(6)、在指定join
字段同時指定join
類型
如下所示
joinDF1.join(joinDF2 , joinDF1("id" ) === joinDF2( "t1_id"), "inner")
- 1
10、獲取指定字段統計信息
stat
方法可以用于計算指定字段或指定字段之間的統計信息,比如方差,協方差等。這個方法返回一個DataFramesStatFunctions
類型對象。
下面代碼演示根據c4
字段,統計該字段值出現頻率在30%
以上的內容。在jdbcDF
中字段c1
的內容為"a, b, a, c, d, b"
。其中a
和b
出現的頻率為2 / 6
,大于0.3
jdbcDF.stat.freqItems(Seq ("c1") , 0.3).show()
- 1
結果如下:
11、獲取兩個DataFrame中共有的記錄
intersect
方法可以計算出兩個DataFrame中相同的記錄,
jdbcDF.intersect(jdbcDF.limit(1)).show(false)
- 1
結果如下:
12、獲取一個DataFrame中有另一個DataFrame中沒有的記錄
示例:
jdbcDF.except(jdbcDF.limit(1)).show(false)
- 1
結果如下,
13、操作字段名
(1)withColumnRenamed
:重命名DataFrame中的指定字段名
如果指定的字段名不存在,不進行任何操作。下面示例中將jdbcDF
中的id
字段重命名為idx
。
jdbcDF.withColumnRenamed( "id" , "idx" )
- 1
結果如下:
(2)withColumn
:往當前DataFrame中新增一列
whtiColumn(colName: String , col: Column)
方法根據指定colName
往DataFrame中新增一列,如果colName
已存在,則會覆蓋當前列。
以下代碼往jdbcDF
中新增一個名為id2
的列,
jdbcDF.withColumn("id2", jdbcDF("id")).show( false)
- 1
結果如下,
14、行轉列
有時候需要根據某個字段內容進行分割,然后生成多行,這時可以使用explode
方法
下面代碼中,根據c3
字段中的空格將字段內容進行分割,分割的內容存儲在新的字段c3_
中,如下所示
jdbcDF.explode( "c3" , "c3_" ){time: String => time.split( " " )}
- 1
結果如下,
15、其他操作
API中還有na, randomSplit, repartition, alias, as
方法,待后續補充。
http://blog.csdn.net/dabokele/article/details/52802150
文章列表