共计 8579 个字符,预计需要花费 22 分钟才能阅读完成。
字符串函数
1. concat
对字符串进行拼接:concat(str1, str2, …, strN),参数:str1、str2… 是要进行拼接的字符串。
— return the concatenation of str1、str2、…, strN
— SparkSQL
select concat(‘Spark’, ‘SQL’);
2. concat_ws
在拼接的字符串两头增加某种分隔符:concat_ws(sep, [str | array(str)]+)。
参数 1:分隔符,如 –;参数 2:要拼接的字符串(可多个)
— return the concatenation of the strings separated by sep
— Spark-SQL
select concat_ws(“-“, “Spark”, “SQL”);
3. encode
设置编码格局:encode(str, charset)。
参数 1:要进行编码的字符串;参数 2:应用的编码格局,如 UTF-8
— encode the first argument using the second argument character set
select encode(“HIVE”, “UTF-8”);
4. decode
转码:decode(bin, charset)。
参数 1:进行转码的 binary;参数 2:应用的转码格局,如 UTF-8
— decode the first argument using the second argument character set
select decode(encode(“HIVE”, “UTF-8”), “UTF-8”);
5. format_string / printf
格式化字符串:format_string(strfmt, obj, …)
— returns a formatted string from printf-style format strings
select format_string(“Spark SQL %d %s”, 100, “days”);
6. initcap / lower / upper
initcap:将每个单词的首字母转为大写,其余字母小写。单词之间以空白分隔。
upper:全副转为大写。
lower:全副转为小写。
— Spark Sql
select initcap(“spaRk sql”);
— SPARK SQL
select upper(“sPark sql”);
— spark sql
select lower(“Spark Sql”);7. length
返回字符串的长度。
— 返回 4
select length(“Hive”);8. lpad / rpad
返回固定长度的字符串,如果长度不够,用某种字符进行补全。
lpad(str, len, pad):左补全
rpad(str, len, pad):右补全
留神:如果参数 str 的长度大于参数 len,则返回的后果长度会被截取为长度为 len 的字符串
— vehi
select lpad(“hi”, 4, “ve”);
— hive
select rpad(“hi”, 4, “ve”);
— spar
select lpad(“spark”, 4, “ve”);9. trim / ltrim / rtrim
去除空格或者某种字符。
trim(str) / trim(trimStr, str):首尾去除。
ltrim(str) / ltrim(trimStr, str):左去除。
rtrim(str) / rtrim(trimStr, str):右去除。
— hive
select trim(” hive “);
— arkSQLS
SELECT ltrim(“Sp”, “SSparkSQLS”) as tmp;10. regexp_extract
正则提取某些字符串
— 2000
select regexp_extract(“1000-2000”, “(\d+)-(\d+)”, 2);11. regexp_replace
正则替换
— r-r
select regexp_replace(“100-200”, “(\d+)”, “r”);12. repeat
repeat(str, n):复制给定的字符串 n 次
— aa
select repeat(“a”, 2);13. instr / locate
返回截取字符串的地位。如果匹配的字符串不存在,则返回 0
— returns the (1-based) index of the first occurrence of substr in str.
— 6
select instr(“SparkSQL”, “SQL”);
— 0
select locate(“A”, “fruit”);14. space
在字符串后面加 n 个空格
select concat(space(2), “A”);15. split
split(str, regex):以某字符拆分字符串 split(str, regex)
— [“one”,”two”]
select split(“one two”, ” “);16. substr / substring_index
— k SQL
select substr(“Spark SQL”, 5);
— 从前面开始截取,返回 SQL
select substr(“Spark SQL”, -3);
— k
select substr(“Spark SQL”, 5, 1);
— org.apache。留神:如果参数 3 为负值,则从左边取值
select substring_index(“org.apache.spark”, “.”, 2);17. translate
替换某些字符为指定字符
— The translate will happen when any character in the string matches the character in the matchingString
— A1B2C3
select translate(“AaBbCc”, “abc”, “123”);
JSON 函数
1. get_json_object
— v2
select get_json_object(‘{“k1”: “v1”, “k2”: “v2”}’, ‘$.k2’);
2. from_json
select tmp.k from (
select from_json(‘{“k”: “fruit”, “v”: “apple”}’,’k STRING, v STRING’, map(“”,””)) as tmp
); 这个办法能够给 json 定义一个 Schema, 这样在应用时,就能够间接应用 a.k 这种形式了,会简化很多。
3. to_json
— 能够把所有字段转化为 json 字符串,而后示意成 value 字段
select to_json(struct(*)) AS value;
工夫函数
1. current_date / current_timestamp
获取以后工夫
select current_date;
select current_timestamp;
2. 从日期工夫中提取字段 / 格式化工夫
1)year、month、day、dayofmonth、hour、minute、second
— 20
select day(“2020-12-20”);
2)dayofweek(1 = Sunday, 2 = Monday, …, 7 = Saturday)、dayofyear
— 7
select dayofweek(“2020-12-12”);
3)weekofyear(date)
/**
- Extracts the week number as an integer from a given date/timestamp/string.
* - A week is considered to start on a Monday and week 1 is the first week with more than 3 days,
- as defined by ISO 8601
* - @return An integer, or null if the input was a string that could not be cast to a date
- @group datetime_funcs
- @since 1.5.0
*/
def weekofyear(e: Column): Column = withExpr {WeekOfYear(e.expr) }
— 50
select weekofyear(“2020-12-12”);
4)trunc
截取某局部的日期,其余局部默认为 01。第二个参数: YEAR、YYYY、YY、MON、MONTH、MM
— 2020-01-01
select trunc(“2020-12-12”, “YEAR”);
— 2020-12-01
select trunc(“2020-12-12”, “MM”);
5)date_trunc
参数:YEAR、YYYY、YY、MON、MONTH、MM、DAY、DD、HOUR、MINUTE、SECOND、WEEK、QUARTER
— 2012-12-12 09:00:00
select date_trunc(“HOUR” ,”2012-12-12T09:32:05.359″);
6)date_format
依照某种格局格式化工夫
— 2020-12-12
select date_format(“2020-12-12 12:12:12”, “yyyy-MM-dd”);
3. 日期工夫转换
1)unix_timestamp
返回以后工夫的 unix 工夫戳。
select unix_timestamp();
— 1609257600
select unix_timestamp(“2020-12-30”, “yyyy-MM-dd”);
2)from_unixtime
将 unix epoch(1970-01-01 00:00:00 UTC)中的秒数转换为以给定格局示意以后零碎时区中该时刻的工夫戳的字符串。
select from_unixtime(1609257600, “yyyy-MM-dd HH:mm:ss”);
3)to_unix_timestamp
将工夫转化为工夫戳。
— 1609257600
select to_unix_timestamp(“2020-12-30”, “yyyy-MM-dd”);
4)to_date / date
将工夫字符串转化为 date。
— 2020-12-30
select to_date(“2020-12-30 12:30:00”);
select date(“2020-12-30”);
5)to_timestamp
将工夫字符串转化为 timestamp。
select to_timestamp(“2020-12-30 12:30:00”);
6)quarter
从给定的日期 / 工夫戳 / 字符串中提取季度。
— 4
select quarter(“2020-12-30”);
4. 日期、工夫计算
1)months_between(end, start)
返回两个日期之间的月数。参数 1 为截止工夫,参数 2 为开始工夫
— 3.94959677
select months_between(“1997-02-28 10:30:00”, “1996-10-30”);
2)add_months
返回某日期后 n 个月后的日期。
— 2020-12-28
select add_months(“2020-11-28”, 1);
3)last_day(date)
返回某个工夫的当月最初一天
— 2020-12-31
select last_day(“2020-12-01”);
4)next_day(start_date, day_of_week)
返回某工夫后 the first date 基于 specified day of the week。
参数 1:开始工夫。
参数 2:Mon、Tue、Wed、Thu、Fri、Sat、Sun。
— 2020-12-07
select next_day(“2020-12-01”, “Mon”);
5)date_add(start_date, num_days)
返回指定工夫减少 num_days 天后的工夫
— 2020-12-02
select date_add(“2020-12-01”, 1);
6)datediff(endDate, startDate)
两个日期相差的天数
— 3
select datediff(“2020-12-01”, “2020-11-28”);
7)对于 UTC 工夫
— to_utc_timestamp(timestamp, timezone) – Given a timestamp like ‘2017-07-14 02:40:00.0’, interprets it as a time in the given time zone, and renders that time as a timestamp in UTC. For example, ‘GMT+1’ would yield ‘2017-07-14 01:40:00.0’.
select to_utc_timestamp(“2020-12-01”, “Asia/Seoul”) ;
— from_utc_timestamp(timestamp, timezone) – Given a timestamp like ‘2017-07-14 02:40:00.0’, interprets it as a time in UTC, and renders that time as a timestamp in the given time zone. For example, ‘GMT+1’ would yield ‘2017-07-14 03:40:00.0’.
select from_utc_timestamp(“2020-12-01”, “Asia/Seoul”);
罕用的开窗函数
开窗函数格局通常满足:
function_name([argument_list])
OVER (
[PARTITION BY partition_expression,…]
[ORDER BY sort_expression, … [ASC|DESC]])
function_name: 函数名称,比方 SUM()、AVG()
partition_expression:分区列
sort_expression:排序列
留神:以下举例波及的表 employee 中字段含意:name(员工姓名)、dept_no(部门编号)、salary(工资)
1. cume_dist
如果按升序排列,则统计:小于等于以后值的行数 / 总行数 (number of rows ≤ current row)/(total number of rows)。如果是降序排列,则统计:大于等于以后值的行数 / 总行数。用于累计统计。
举例:
1)统计小于等于以后工资的人数占总人数的比例,用于累计统计
SELECT
name,
dept_no,
salary,
cume_dist() OVER (ORDER BY salary) as cume
FROM employee;
2)依照部门统计小于等于以后工资的人数占部门总人数的比例
SELECT
name,
dept_no,
salary,
cume_dist() OVER (PARTITION BY dept_no ORDER BY salary) as cume_val
FROM employee;
2. lead(value_expr[,offset[,default]])
用于统计窗口内往下第 n 行值。第一个参数为列名,第二个参数为往下第 n 行(可选,默认为 1),第三个参数为默认值(当往下第 n 行为 NULL 时候,取默认值,如不指定,则为 NULL)。
举例:依照部门统计每个部门员工的工资以及大于等于该员工工资的下一个员工的工资
SELECT
name,
dept_no,
salary,
lead(salary, 1) OVER (PARTITION BY dept_no ORDER BY salary) as lead_val
FROM employee;
3. lag(value_expr[,offset[,default]])
与 lead 相同,用于统计窗口内往上第 n 行值。第一个参数为列名,第二个参数为往上第 n 行(可选,默认为 1),第三个参数为默认值(当往上第 n 行为 NULL 时候,取默认值,如不指定,则为 NULL)。
举例:依照部门统计每个部门员工的工资以及小于等于该员工工资的上一个员工的工资
SELECT
name,
dept_no,
salary,
lag(salary, 1) OVER (PARTITION BY dept_no ORDER BY salary) as lag_val
FROM employee;
4. first_value
取分组内排序后,截止到以后行,第一个值。
举例:依照部门统计每个部门员工工资以及该部门最低的员工工资
SELECT
name,
dept_no,
salary,
first_value(salary) OVER (PARTITION BY dept_no ORDER BY salary) as first_val
FROM employee;
5. last_value
取分组内排序后,截止到以后行,最初一个值。
举例:按部门分组,统计每个部门员工工资以及该部门最高的员工工资
SELECT
name,
dept_no,
salary,
last_value(salary) OVER (PARTITION BY dept_no ORDER BY salary RANGE
BETWEEN UNBOUNDED PRECEDING AND UNBOUNDED FOLLOWING) as last_val
FROM employee; 留神:
last_value 默认的窗口是 RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW,示意以后行永远是最初一个值,需改成 RANGE BETWEEN UNBOUNDED PRECEDING AND UNBOUNDED FOLLOWING。
此外:
RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW:为默认值,即当指定了 ORDER BY 从句,而省略了 window 从句,示意从开始到以后行(以后行永远是最初一个值)。
RANGE BETWEEN CURRENT ROW AND UNBOUNDED FOLLOWING:示意从以后行到最初一行。
RANGE BETWEEN UNBOUNDED PRECEDING AND UNBOUNDED FOLLOWING:示意所有行。
n PRECEDING m FOLLOWING:示意窗口的范畴是 [(以后行的行数)- n,(以后行的行数)+ m] row。
6. rank
对组中的数据进行排名,如果名次雷同,则排名也雷同,然而下一个名次的排名序号会呈现不间断。比方查找具体条件的 topN 行。RANK() 排序为 (1,2,2,4)。
7. dense_rank
dense_rank 函数的性能与 rank 函数相似,dense_rank 函数在生成序号时是间断的,而 rank 函数生成的序号有可能不间断。大数据培训当呈现名次雷同时,则排名序号也雷同。而下一个排名的序号与上一个排名序号是间断的。
DENSE_RANK() 排序为 (1,2,2,3)。
8. SUM/AVG/MIN/MAX
数据:
id time pv
1 2015-04-10 1
1 2015-04-11 3
1 2015-04-12 6
1 2015-04-13 3
1 2015-04-14 2
2 2015-05-15 8
2 2015-05-16 6
后果:
SELECT id,
time,
pv,
SUM(pv) OVER(PARTITION BY id ORDER BY time) AS pv1, -- 默认为从终点到以后行
SUM(pv) OVER(PARTITION BY id ORDER BY time ROWS BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW) AS pv2, -- 从终点到以后行,后果同 pv1
SUM(pv) OVER(PARTITION BY id) AS pv3, -- 分组内所有行
SUM(pv) OVER(PARTITION BY id ORDER BY time ROWS BETWEEN 3 PRECEDING AND CURRENT ROW) AS pv4, -- 以后行 + 往前 3 行
SUM(pv) OVER(PARTITION BY id ORDER BY time ROWS BETWEEN 3 PRECEDING AND 1 FOLLOWING) AS pv5, -- 以后行 + 往前 3 行 + 往后 1 行
SUM(pv) OVER(PARTITION BY id ORDER BY time ROWS BETWEEN CURRENT ROW AND UNBOUNDED FOLLOWING) AS pv6 --- 以后行 + 往后所有行
FROM data;9. NTILE
NTILE(n),用于将分组数据依照程序切分成 n 片,返回以后切片值。
NTILE 不反对 ROWS BETWEEN,比方 NTILE(2) OVER(PARTITION BY cookieid ORDER BY createtime ROWS BETWEEN 3 PRECEDING AND CURRENT ROW)。
如果切片不平均,默认减少第一个切片的散布。
10. ROW_NUMBER
从 1 开始,依照程序,生成分组内记录的序列。
比方,依照 pv 降序排列,生成分组内每天的 pv 名次
ROW_NUMBER() 的利用场景十分多,比方获取分组内排序第一的记录。
SparkSQL 函数算子以上函数都是能够间接在 SQL 中利用的。
那么如果是在 Spark SQL 的 DataFrame/DataSet 的算子中调用,能够参考 DataFrame/DataSet 的算子以及 org.apache.spark.sql.functions._下的函数: