成人视屏在线观看-国产99精品-国产精品1区2区-欧美一级在线观看-国产一区二区日韩-色九九九

您的位置:首頁技術文章
文章詳情頁

SparkSQL使用IDEA快速入門DataFrame與DataSet的完美教程

瀏覽:151日期:2024-07-12 15:04:25
目錄1.使用IDEA開發Spark SQL1.1創建DataFrame/DataSet1.1.1指定列名添加Schema1.1.2StructType指定Schema1.1.3反射推斷Schema1.使用IDEA開發Spark SQL1.1創建DataFrame/DataSet

1、指定列名添加Schema

2、通過StrucType指定Schema

3、編寫樣例類,利用反射機制推斷Schema

1.1.1指定列名添加Schema

//導包import org.apache.spark.rdd.RDDimport org.apache.spark.sql.SparkSession//代碼// 1.創建SparkSession val spark = SparkSession.builder().master('local[*]').appName('sql').getOrCreate()// 2.使用spark 獲取sparkContext 上下文對象 val sc = spark.sparkContext// 3.使用SparkContext 讀取文件并按照空格切分 返回RDD val rowRDD: RDD[(Int, String, Int)] = sc.textFile('./data/person.txt').map(_.split(' ')).map(x=>(x(0).toInt,x(1),x(2).toInt))// 4.導入隱式類 import spark.implicits._//5.將RDD 轉換為DataFrame 指定元數據信息 val dataFrame = rowRDD.toDF('id','name','age')//6.數據展示 dataFrame.show()1.1.2StructType指定Schema

//導包import org.apache.spark.sql.{Row, SparkSession}import org.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType}//編寫代碼//1.實例SparkSession val spark = SparkSession.builder().master('local[*]').appName('sql').getOrCreate()//2.根據SparkSession獲取SparkContext 上下文對象 val sc = spark.sparkContext// 3.使用SparkContext讀取文件并按照空開切分并返回元組 val rowRDD = sc.textFile('./data/person.txt').map(_.split(' ')).map(x=>Row(x(0).toInt,x(1),x(2).toInt))// 4.導入隱式類 import spark.implicits._//5.使用StructType 添加元數據信息 val schema = StructType(List( StructField('id', IntegerType, true), StructField('name', StringType, true), StructField('age', IntegerType, true) ))//6.將數據與元數據進行拼接 返回一個DataFrame val dataDF = spark.createDataFrame(rowRDD,schema)//7.數據展示 dataDF.show()1.1.3反射推斷Schema

//導包import org.apache.spark.rdd.RDDimport org.apache.spark.sql.SparkSession//定義單例對象 case class Person(Id:Int,name:String,age:Int)//編寫代碼//1.實例sparkSession val spark = SparkSession.builder().master('local[*]').appName('sql').getOrCreate()//2.通過sparkSession獲取sparkContext 上下文對象 val sc = spark.sparkContext//3.通過sparkContext 讀取文件并按照空格切分 將每一個數據保存到person中 val rowRDD: RDD[Person] = sc.textFile('./data/person.txt').map(_.split(' ')).map(x=>Person(x(0).toInt,x(1),x(2).toInt))// 4.導入隱式類 import spark.implicits._//5.將rowRDD轉換為dataFrame val dataFrame = rowRDD.toDF() //6.數據展示 dataFrame.show()

到此這篇關于SparkSQL使用IDEA快速入門DataFrame與DataSet的文章就介紹到這了,更多相關SparkSQL快速入門內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: IDEA
相關文章:
主站蜘蛛池模板: 久久中文亚洲国产 | 中国老妇另类xxxx | 亚洲精品国产经典一区二区 | 国产精品三级手机在线观看 | 国产一级强片在线观看 | 国产成人久久777777 | 欧美ab片| 国产日韩亚洲不卡高清在线观看 | 波多野结衣一区二区三区高清在线 | 国产香蕉尹人综合在线观 | 亚洲波多野结衣日韩在线 | 国产精品国产三级在线高清观看 | 国语精品视频在线观看不卡 | 欧美一级片毛片 | 免费观看欧美一级高清 | 成年人免费在线观看网站 | 久久精品国产99国产精品 | 国产成人在线影院 | 欧美一级毛片在线看视频 | 欧美精品成人3d在线 | 国产午夜精品理论片影院 | 国产一区二区三区在线免费 | 男人的天堂在线免费视频 | 看片免费黄 | 高清国产美女一级a毛片录 高清国产亚洲va精品 | 国产精品亚洲第五区在线 | 亚洲最大网址 | 久草热在线观看 | 久久亚洲国产的中文 | 亚洲黄色免费在线观看 | 经典香港一级a毛片免费看 精品400部自拍视频在线播放 | 欧美成人亚洲高清在线观看 | 一区二区三区在线视频观看 | 乱系列中文字幕在线视频 | 久久亚洲欧美成人精品 | 亚洲国产第一 | 国产99视频精品免费视频免里 | 国产一级内谢a级高清毛片 国产一级片毛片 | 午夜宅男在线永远免费观看网 | 99热碰 | 午夜亚洲国产成人不卡在线 |