codecamp

Spark SQL 数据源

DataFrame接口允许不同的DataSource在Spark SQL上工作。 它是一个临时表,可以作为正常的RDD操作。 将DataFrame注册为表允许您对其数据运行SQL查询。
在本章中,我们将描述使用不同Spark DataSource加载和保存数据的一般方法。 此后,我们将详细讨论可用于内置数据源的特定选项。
SparkSQL中提供了不同类型的数据源,下面列出了其中的一些数据源:

编号数据源
1JSON数据集
Spark SQL可以自动捕获JSON数据集的模式,并将其作为DataFrame加载。

2蜂巢表
Hive与Spark库捆绑为HiveContext,它继承自SQLContext。

3Parquet文件
Parquet是一种柱状格式,由许多数据处理系统支持。

Spark SQL 数据帧
Spark SQL 有用的资源
温馨提示
下载编程狮App,免费阅读超1000+编程语言教程
取消
确定
目录

关闭

MIP.setData({ 'pageTheme' : getCookie('pageTheme') || {'day':true, 'night':false}, 'pageFontSize' : getCookie('pageFontSize') || 20 }); MIP.watch('pageTheme', function(newValue){ setCookie('pageTheme', JSON.stringify(newValue)) }); MIP.watch('pageFontSize', function(newValue){ setCookie('pageFontSize', newValue) }); function setCookie(name, value){ var days = 1; var exp = new Date(); exp.setTime(exp.getTime() + days*24*60*60*1000); document.cookie = name + '=' + value + ';expires=' + exp.toUTCString(); } function getCookie(name){ var reg = new RegExp('(^| )' + name + '=([^;]*)(;|$)'); return document.cookie.match(reg) ? JSON.parse(document.cookie.match(reg)[2]) : null; }