时间:2020-10-04来源:www.pcxitongcheng.com作者:电脑系统城
DataGrip 连接 HiveServer2 报错
一、Heap memory
Exception in thread "main" java.lang.OutOfMemoryError: Java heap space
因为 DataGrip 会开好几个 Session,我这里是 4 个 Session

因此有时候如果执行的语句过大,会造成堆内存来不起回收。导致堆内存溢出,反应在 DataGrip 就是执行语句卡住没反应,等很久然后报错。这里有个超时时间,等很久就是超过这个超时时间后报错。
我们可以适当调大 heap 内存:
?| 1 2 3 |
# 在 hive/bin 目录下的 hive-config.sh,最后一行就是设置 heap 的大小。 69 # Default to use 256MB 70 export HADOOP_HEAPSIZE=${HADOOP_HEAPSIZE:-2048} |
二、Too many open files

| 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
lzq@hadoop102 ~ ulimit -a-t: cpu time (seconds) unlimited-f: file size (blocks) unlimited-d: data seg size (kbytes) unlimited-s: stack size (kbytes) 8192-c: core file size (blocks) 0-m: resident set size (kbytes) unlimited-u: processes 10000-n: file descriptors 4096-l: locked-in-memory size (kbytes) 64-v: address space (kbytes) unlimited-x: file locks unlimited-i: pending signals 31830-q: bytes in POSIX msg queues 819200-e: max nice 0-r: max rt priority 0-N 15: unlimited |
修改最大文件连接数量
-n: file descriptors 4096 描述的就是一进程可以打开文件最大的数量ulimit -n 4096 把最大打开文件调整到 4096,如果重启会还原成默认值| 1 2 3 4 |
vim /etc/security/limits.conf 在最后加入* soft nofile 65535 * hard nofile 65535 |
安装 lsof
?| 1 | sudo yum install lsof -y |
查看当前系统打开的文件数量
?| 1 2 |
lsof | wc -l watch "lsof | wc -l" |
| 1 2 3 4 5 6 7 8 9 10 |
lzq@hadoop102 ~ jps25696 Jps1522 NameNode22627 RunJar1716 DataNode3140 Kafka2309 NodeManager2647 QuorumPeerMain22889 RunJar23322 RunJar |
查看某一进程的打开文件数量
?| 1 2 3 4 5 |
# RunJar 就是 HiveServer2 的进程lsof -p pid | wc -l lsof -p 22627 | wc -l lsof -p 22889 | wc -llsof -p 23322 | wc -l |
到此这篇关于DataGrip 连接 HiveServer2 报错的文章就介绍到这了,更多相关DataGrip 连接 HiveServer2 报错内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!
2023-03-15
Navicat远程连接MongoDB最全实现方法以及报错解决2023-03-15
MongoDB的启动方法详细总结2023-03-11
详解分库分表后非分片键如何查询GROUP BY 语句用于结合合计函数,根据一个或多个列对结果集进行分组,下面这篇文章主要给大家介绍了关于高版本Mysql使用group by分组报错的解决方案,文中通过实例代码介绍的非常详细,需要的朋友可以参考下...
2023-03-06