×

用户登录


忘记密码 | 立即注册

×

找回登录密码


×

找回密码

×

用户注册


服务条款

已有账号?

服务条款

犀牛代理用户注册协议

  1. 1.您确认:您在使用本服务之前,已经充分阅读、理解并接受本服务条款的全部内容,您应当是具备完全民事权利能力和完全民事行为能力的自然人、法人或其他组织;
  2. 2.用户应保证在注册时提供的资料均真实、完整、无误;
  3. 3.不得利用本软件发表、传送、传播、储存违反国家法律、危害国家安全、祖国统一、社会稳定的内容,或任何不当的、侮辱诽谤的、淫秽的、暴力的及任何违反国家法律法规政策的内容;
  4. 4.不得利用本软件进行任何危害计算机网络安全的行为,包括但不限于:使用未经许可的数据或进入未经许可的服务器/帐户; 未经允许进入公众计算机网络或者他人计算机系统并删除、修改、增加存储信息;未经许可,企图探查、扫描、测试本软件系统或网络的弱点或其它实施破坏网络安全的行为; 企图干涉、破坏本软件系统或网站的正常运行,故意传播恶意程序或病毒以及其他破坏干扰正常网络信息服务的行为;伪造TCP/IP数据包名称或部分名称;
  5. 5.在完成注册或激活流程时,您应当按照法律法规要求,按相应页面的提示准确提供并及时更新您的资料,以使之真实、及时,完整和准确。 如有合理理由怀疑您提供的资料错误、不实、过时或不完整的,犀牛代理有权向您发出询问及/或要求改正的通知,并有权直接做出删除相应资料的处理,直至中止、终止对您提供部分或全部服务。 犀牛代理对此不承担任何责任,您将承担因此产生的任何直接或间接损失及不利后果。
  6. 6.为保障服务器的稳定和给用户一个良好的网络环境,请勿迅雷下载,在线视频等大流量操作,否则我们有权在不通知情况下禁用帐号;
  7. 7.系统可能因下列状况无法正常运作,使您无法使用各项互联网服务时,犀牛代理不承担损害赔偿责任,该状况包括但不限于: 犀牛代理在系统停机维护期间;电信设备出现故障不能进行数据传输的;因台风、地震、海啸、洪水、停电、战争、恐怖袭击等不可抗力之因素,造成犀牛代理系统障碍不能执行业务的; 由于黑客攻击、电信部门技术调整或故障、网站升级、银行方面的问题等原因而造成的服务中断或者延迟。
  8. 8.除第三方产品或服务外,本网站上所有内容,包括但不限于著作、图片、档案、资讯、资料、架构、页面设计,均由犀牛代理关联企业依法拥有其知识产权,包括但不限于商标权、专利权、著作权、商业秘密等。 非经犀牛代理或犀牛代理关联企业书面同意,任何人不得擅自使用、修改、复制、公开传播、改变、散布、发行或公开发表本网站上程序或内容; 尊重知识产权是您应尽的义务,如有违反,您应承担损害赔偿责任。
  9. 9.使用本软件必须遵守国家有关法律和政策等,维护国家利益,保护国家安全,并遵守本协议,对于用户违法或违反本协议的使用而引起的一切责任,由用户负全部责任,一概与犀牛代理动态无关,导致犀牛代理IP 加速损失的,犀牛代理有权要求用户赔偿,并有权立即停止向其提供服务,保留相关记录,保留配合司法机关追究法律责任的权利;
  10. 10.您理解并同意,犀牛代理可依据自行判断,通过网页公告、电子邮件、手机短信或常规的信件传送等方式向您发出通知,且犀牛代理可以信赖您所提供的联系信息是完整、准确且当前有效的;上述通知于发送之日视为已送达收件人。

除非本服务条款另有约定或犀牛代理与您另行签订的协议明确规定了通知方式,您发送给犀牛代理的通知,应当通过犀牛代理对外正式公布的通信地址、传真号码、电子邮件地址等联系信息进行送达。 若犀牛代理发现使用本网服务存在进行如上任意一项行为时,本网站将立即停止其使用权,并保留相关信息以追求各项法律相关责任的权利。

为您提供相关的解决办法

以下基本常见问题,如有使用问题请反馈联系我们!

当前位置:新闻资讯

HiveQL快速使用

2018-12-14

   hive命令包括Hive cli 和 hiveQL命令。
   Hive cli
   cli 就是命令行界面,可以通过cli创建表,检查模式和查询表。
   hive --help --service cli
显示cli所提供的命令的选项列表
hive -e
hive -e 'select * from default.student';
hive -e 可以直接执行sql命令
hive -s
hive -S -e 'show tables' > a.txt
hive -s 可以将数据存储到指定的目录
hive -f
vi hfile.sql
select * from default.student ;
hive -f hfile.sql
hive -f 可以执行sql脚本
--define可以定义用户变量
--hivevar可以定义用户遍历
--hiveconf使用key-value得到hive-site.xml配值的变量
hive shell
hive中使用!可以支持shell命令
! cat !pwd
使用 -- 表示注释
-- this is a command
执行 select * from table;后可能不会显示表的头,可以通过hiveconf配置
set hive.cli.print.header = true
hive dfs
在hive中执行hadoop命令,只要去掉hadoop,只以dfs开头就行
dfs -ls
dfs -put /data /user/pcap/data
   同时要注意hive中struct,map,array数据类型
所有的数据类型都是Java接口的实现,所有所有的具体行为细节和实现与对应的java是一致的。BINARY和关系型数据库VARBINARY数据类型相似,但是和BLOB数据类型不同,因为BINARY的列是存储在记录中的,而BLOB不是,BLOB是一个可以存储二进制文件的容器。 集合的数据类型,STRUCT {FIELD1 string,FIELD2} 那么第一个字段可以通过元素来引用。集合类型主要包括:array,map,struct等,hive的特性支持集合类型,这特性是关系型数据库所不支持的,利用好集合类型可以有效提升SQL的查询速率。
   hiveQL
hiveQL对数据库的创建与修改与mysql数据库一致
create database shopdb;
hiveQL对表的创建具有很显著的扩展,可以定义表的存储位置,以及用什么格式存储。
create table t_person(
id int,
name string,
likes array< string > )
row format delimited
fields terminated by ','
collection items terminated by '_';
load data local inpath 'Documents/hive/t_person.txt' into table t_person;
   最终创建数据格式如下:
1,王力宏,唱歌钢琴二胡作曲演戏导演书法
row format delimited
fields terminated by ',' 列分割符
collection items terminated by '_';数组分割符
create table t_person(
id int,
name string,
tedia map< string,string > )
row format delimited
fields terminated by ','
collection items terminated by '_'
map keys terminated by ':';
   最终创建数据格式如下:
1,王力宏,性别:男_形象:非常健康
create table t_person(
id int,
name string,
address struct< city:string,street:string > )
row format delimited
fields terminated by ','
collection items terminated by '_';
1,王力宏,台湾省_台北市
默认表存储在/user/hive/warehourse下
通常创建的都是内部表(管理表)但是管理表不方便和其他工作共享数据。
   外部表
主要解决其他工具创建的数据也想使用hive进行处理数据,可以创建外部表指向这部分数据。 主要在创建时加 external 关键词 查看,修改与删除表与mysql基本一致.    分区表
分区表的使用时在创建表的时候创建好分区表,然后将信息添加进去。每一个分区表会行成一个文件夹。
CREATE TABLE order_created_partition (
order_number string,
event_time string
)
PARTITIONED BY (event_month string)
ROW FORMAT DELIMITED FIELDS TERMINATED BY "\t";
-- 建表语句,指定分区字段为event_month,这个字段是伪列
-- 会在数据load到表的这个分区时,在hdfs上创建名为event_month=2017-12的子目录
LOAD DATA LOCAL INPATH "/tmp/order_created.txt"
OVERWRITE INTO TABLE order_created_partition
PARTITION (event_month='2017-12');
alter table test1.order_created_partition
add partition (event_month='2018-01');
   桶表
   启用桶表
vim ~/.hiverc
添加:set hive.enforce.bucketing = true;
   创建桶表
create table btable1 (id int) clustered by(id) into 4 buckets;
   创建中间表
create table btest2(id int);
load data local inpath 'btest2' into table btest2;
   桶表中插入数据
insert into table btest1 select * from btest2;
   修改桶数量
alter table btest3 clustered by(name,age) sorted by(age) into 10 buckets;
   抽样查询
select * from table_name tablesample(bucket X out of Y on field); X表示从哪个桶中开始抽取,Y表示相隔多少个桶再次抽取。 Y必须为分桶数量的倍数或者因子,比如分桶数为6,Y为6,则表示只从桶中抽取1个bucket的数据;若Y为3,则表示从桶中抽取6/3(2)个bucket的数据
order by
select col1,other...
from table
where conditio
order by col1,col2 [asc|desc]
order by后面可以有多列进行排序,默认按字典排序 order by为全局排序 order by需要reduce操作,且只有一个reduce,与配置无关。数据量很大时,慎用。 从表中读取数据,执行where条件,以col1,col2列的值做成组合key,其他列值作为value,然后在把数据传到同一个reduce中,根据需要的排序方式进行。
groupby
select col1 [,col2] ,count(1),sel_expr(聚合操作)from table
where condition -->Map端执行
group by col1 [,col2] -->Reduce端执行
[having] -->Reduce端执行
select后面非聚合列,必须出现在group by中 select后面除了普通列就是一些聚合操作 group by后面也可以跟表达式,比如substr(col) 特性 使用了reduce操作,受限于reduce数量,设置reduce参数mapred.reduce.tasks 输出文件个数与reduce数相同,文件大小与reduce处理的数据量有关。 问题 网络负载过重 数据倾斜,优化参数hive.groupby.skewindata为true,会启动一个优化程序,避免数据倾斜。
   执行流程
从表中读取数据,执行where条件,以col1列分组,把col列的内容作为key,其他列值作为value,上传到reduce,在reduce端执行聚合操作和having过滤。
   join
两个表m,n之间按照on条件连接,m中的一条记录和n中的一条记录组成一条新记录。 join等值连接(内连接),只有某个值在m和n中同时存在时。 left outer join左外连接,左边表中的值无论是否在b中存在时,都输出;右边表中的值,只有在左边表中存在时才输出。 right outer join和left outer join相反。left semi join类似exists。即查找a表中的数据,是否在b表中存在,找出存在的数据。 mapjoin:在map端完成join操作,不需要用reduce,基于内存做join,属于优化操作.
select m.col as col1, m.col2 as col2, n.col3 as col3 from
(select col1,col2 from,test where ... (map端执行)
)m (左表)
[left outer |right outer | left semi] join
n (右表)
on m.col=n.col
where condition (reduced端执行)
set hive.optimize.skewjoin=true;
mapjoin(map side join) 在map端把小表加载到内存中,然后读取大表,和内存中的小表完成连接操作。其中使用了分布式缓存技术。 优点 不消耗集群的reduce资源(reduce相对紧缺)。 减少了reduce操作,加快程序执行。 降低网络负载。 缺点 占用部分内存,所以加载到内存中的表不能过大,因为每个计算节点都会加载一次。 生成较多的小文件。
union all
union all必须满足如下要求 字段名字一样 字段类型一样 字段个数一样 子表不能有别名 如果需要从合并之后的表中查询数据,那么合并的表必须要有别名
select * from (
select * from m
union all
select * from n
)temp;
如果两张表的字段名不一样,要将一个表修改别名同另一个表的字段名一样。
select * from (
select col1,col2 from m
union all
select col1,col3 as col2 from n
)temp;
   抽样查询
对于数据量大的问题,有时用户需要使用一个具有代表性的查询语句,而不是全部结果,可以通过分桶抽样实现。 select * from table_name tablesample(bucket X out of Y on field); X表示从哪个桶中开始抽取,Y表示相隔多少个桶再次抽取。
   数据块抽样
create table xxx_new as select * from xxx tablesample(10 percent) 根据hive表数据的大小按比例抽取数据,并保存到新的hive表中。如:抽取原hive表中10%的数据. (注意:测试过程中发现,select语句不能带where条件且不支持子查询,可通过新建中间表或使用随机抽样解决) 也可以 tablesample(n M) 指定抽样数据的大小,单位为M。
3)tablesample(n rows) 指定抽样数据的行数,其中n代表每个map任务均取n行数据,map数量可通过hive表的简单查询语句确认(关键词:number of mappers: x) 随机抽样 使用rand()函数进行随机抽样,limit关键字限制抽样返回的数据,其中rand函数前的distribute和sort关键字可以保证数据在mapper和reducer阶段是随机分布的,案例如下 select * from table_name where col=xxx distribute by rand() sort by rand() limit num;
2)使用order 关键词
   案例如下:
select * from table_name where col=xxx order by rand() limit num; 经测试对比,千万级数据中进行随机抽样 order by方式耗时更长,大约多30秒左右。 hiveQL的视图与索引的创建与mysql基本一致。 hive函数 有类似mysql函数,count(),sin(),exp(),sum()等
   UDF
编写Apache Hive用户自定义函数(UDF)有两个不同的接口,一个非常简单,另一个复杂
简单API: org.apache.hadoop.hive.ql.exec.UDF
Text,IntWritable,LongWriable,DoubleWritable等等
复杂API: org.apache.hadoop.hive.ql.udf.generic.GenericUDF
操作内嵌数据结构,如Map,List和Set
用简单UDF API来构建一个UDF只涉及到编写一个类继承实现一个方法(evaluate),以下是示例:
class SimpleUDFExample extends UDF {
public Text evaluate(Text input) {
return new Text("Hello " + input.toString());
 }
}
   hive运行
%> hive hive> ADD JAR target/hive-extensions-1.0-SNAPSHOT-jar-with-dependencies.jar; hive> CREATE TEMPORARY FUNCTION helloworld as 'com.matthewrathbone.example.SimpleUDFExample'; hive> select helloworld(name) from people limit 1000; 
使用换IP软件防封,犀牛代理不错,IP数量多,质量有保障,性价比高。

支付方式

  • 微信支付
  • 支付宝支付

售后服务

  • 技术支持QQ:337292404
  • 投诉建议QQ:337292407

商务合作

关注微信公众号

优惠多多

声明:本站资源仅限用来计算机技术学习及大数据抓取、爬虫研究等合法行为。 利用本站资源从事任何违反中国法律法规的行为,由此引起的一切后果与本站无关。

枣庄联宇商贸有限公司版权所有