修改16种常见的Hadoop错误整理(大讲台内部资料)

内部错误  时间:2021-04-07  阅读:()

16个hadoop常见问题及处理方法

这个是刚发的大讲台教学资料特地分享给hadoop爱好者们。mysql版本必须是MYSQL51。

查询办法mysqladmin version

在建立hive数据库的时候最好是:create database hive;oozie的数据库同样 create database oozie;

1 hadoop采集的字符集问题

修改/etc/sysconfig/i18n更改字符集为en_US UTF-8

重启机器生效。

重启机器的指令为在root下敲入如下指令 sync;sync;init 6

2修改mapreduce

在gateway/性能下修改MapReduce子Java基础选项、 Map任务Java选项库、 Reduce任务Java选项库全部配置成-X m x4294967296

在TASKTRACKER/性能下修改:MapReduce子Java基础选项、 Map任务Java选项库、 Reduce任务Java选项库全部配置成-X m x4294967296

3必须关注各个任务的详细情况

当出现如下的错误的时候请及时的将下载的进程数调小。vi /home/boco/oozie_wy/config/lte/mro/ftp/807101 xml将max_thread由原来的6个调整为3个,或者协调厂家加大FTP的最大线程数。stderr logs orgapachecommons netftp FTPConnectionClosedException: FTP response 421 received Server closed connectionat orgapachecommons netftp FTP__getReply(FTPjava:363)at orgapachecommons netftp FTP__getReply(FTPjava:290)

at orgapachecommons netftp FTPconnectAction(FTPjava:396)at orgapachecommons netftp FTPCl ientconnectAction(FTPCl ientjava:796)at orgapachecommons netSocketCl ientconnect(SocketCl ientjava:172)at orgapachecommons netSocketCl ientconnect(SocketCl ientjava:192)at orgapachecommons netSocketCl ientconnect(SocketCl ientjava:285)at com bocowangyou uti ls FtpconnectServer(Ftpjava:550)at combocowangyoultemroftptools FindFi leThreadrun(FindFi leThreadjava:67)

登录ft p服务器【10140177149】失败 FT P服务器无法打开orgapachecommons netftp FTPConnectionClosedException: FTP response 421 received Server closed connectionat orgapachecommons netftp FTP__getReply(FTPjava:363)at orgapachecommons netftp FTP__getReply(FTPjava:290)at orgapachecommons netftp FTPconnectAction(FTPjava:396)at orgapachecommons netftp FTPCl ientconnectAction(FTPCl ientjava:796)at orgapachecommons netSocketCl ientconnect(SocketCl ientjava:172)at orgapachecommons netSocketCl ientconnect(SocketCl ientjava:192)at orgapachecommons netSocketCl ientconnect(SocketCl ientjava:285)at com bocowangyou uti ls FtpconnectServer(Ftpjava:550)at combocowangyoultemroftptools FindFi leThreadrun(FindFi leThreadjava:67)

登录ft p服务器【10140177149】失败 FT P服务器无法打开orgapachecommons netftp FTPConnectionClosedException: FTP response 421 received Server closed connectionat orgapachecommonsnetftp FTP__getReply(FTPjava:363)at orgapachecommons netftp FTP__getReply(FTPjava:290)at orgapachecommons netftp FTPconnectAction(FTPjava:396)at orgapachecommons netftp FTPCl ientconnectAction(FTPCl ientjava:796)at orgapachecommons netSocketCl ientconnect(SocketCl ientjava:172)at orgapachecommons netSocketCl ientconnect(SocketCl ientjava:192)

4TASKTRACKER和HDFS组的问题

发现部分地方在安装的时候将所有的机器分组的问题。

如果分组需要将每个组的参数都要修改。

目前发现很多的地方TASKTRACKER和HDFS都分了组但是只修改一组的参数造成系统大量出问题。java heap size以及tasktracker被拉黑名单的问题。

5  namenode和datanode的内存配置问题。

建议将使用的内存修改为4G左右。

6建议将H IVE 2服务放到一个辅节点上。hive2放到辅节点上经常出现add_partation挂起报错。

7解决H IVE经常挂死的问题

修改zookeeper的最大客户端连接数maxClientCnxns修改为3600或者修改成0丌限制

自劢清空时间间隔 autopurge purgeInterval修改为1小时

8厂家XML配置的问题。

如果厂家是这样的/data/dataservice/mr/ltemro/huawei/20140815/01/362323/TD-LTE_MRO_HUAWEI_010133150144_362323_20140815011500xml gz

建议配置成这样的

路径/data/dataservice/mr/ltemro/huawei/$TIME$/$ENODEB$

时间格式yymmdd/hh

9在/home/boco/oozie_wy/config/lte/mro/ftp下禁止存放bak文件

有一个省份的mapper数超多导致解析很长时间没有完成。

进一步发现FTP在合并文件的时候报错再进一步发现同一个IP地址同一个OMC启劢了三个mapper进程去下载数据导致文件合并失败。

发现是修改了ftpxml文件没有删除原来的文件而是以一个bak文件存放。

删除这些bak文件mapper数量正常。

原mapper数1731个删除之后mapper数41个,采集正常。

打开50030看FT P的日志存在如下的报错java io Fi leNotFoundException: Fi le does not exist: /user/boco/cache/wy/ltemro/1411032293348/xml/155/2014-09-18_11/TD-LTE_MRO_ERICSSON_OMC1_303024_20140918111500xmlzipat orgapache hadoop hdfs servernamenodeINodeFi levalueOf(INodeFi lejava:39)at orgapache hadoop hdfs server namenode FSNamesystemgetBlockLocationsUpdateTimes(FSNamesystemjava:1

341)at orgapache hadoop hdfs server namenode FSNamesystemgetBlockLocationsInt(FSNamesystemjava:1293)at orgapache hadoop hdfs server namenode FSNamesystemgetBlockLocations(FSNamesystemjava:1269)at orgapache hadoop hdfs server namenode FSNamesystemgetBlockLocations(FSNamesystemjava:1242)at orgapache hadoop hdfs server namenode NameNodeRpcServergetBlockLocations(NameNodeRpcServerjava:39

2)at orgapache hadoop hdfs protocolPBCl ientNamenodeProtocolServerSideTranslatorPBgetBlockLocations(Cl ientNamenodeProtocolServerSideTranslatorPBjava:172)at org apache hadoop hdfs protocol proto Cl ientNamenodeProtocolProtos$Cl ientNamenodeProtocol$2 cal lBlockingMethod(Cl ientNamenodeProtocolProtosjava:44938)at orgapache hadoop ipc ProtobufRpcEngine$Server$ProtoBufRpcInvokercal l(ProtobufRpcEnginejava:453)at orgapache hadoop ipcRPC$Servercal l(RPCjava:1002)at orgapache hadoop ipcServer$Handler$1 run(Serverjava:1701)at orgapache hadoop ipc Server$Handler$1 run(Serverjava:1697)at java securityAccessControl lerdoPrivi leged(Native Method)

或者orgapache hadoopipc RemoteException(orgapache hadoop hdfs server namenode LeaseExpiredException):Lease mismatch on /user/boco/cache/wy/ltemro/1411032293348/xml/155/2014-09-18_11/TD-LTE_MRO_ERICSSON_OMC1_3030_20140918xml owned by DFSCl ient_NONMAPREDUCE_

-1274827212_1 but is accessed by DFSCl ient_NONMAPREDUCE_-216613905_1at orgapache hadoop hdfs servernamenode FSNamesystemcheckLease(FSNamesystemjava:2459)at orgapache hadoop hdfs servernamenode FSNamesystemcheckLease(FSNamesystemjava:2437)at orgapache hadoop hdfs servernamenode FSNamesystemcompleteFi leInternal(FSNamesystemjava:2503)at orgapache hadoop hdfs servernamenode FSNamesystemcompleteFi le(FSNamesystemjava:2480)

at orgapache hadoop hdfs servernamenode NameNodeRpcServercomplete(NameNodeRpcServerjava:535)at orgapache hadoop hdfs protocolPBCl ientNamenodeProtocolServerSideTranslatorPBcomplete(Cl ientNamenodeProtocolServerSideTranslatorPBjava:337)at org apache hadoop hdfs protocol proto Cl ientNamenodeProtocolProtos$Cl ientNamenodeProtocol$2 cal lBlockingMethod(Cl ientNamenodeProtocolProtosjava:44958)at orgapache hadoop ipc ProtobufRpcEngine$Server$ProtoBufRpcInvokercal l(ProtobufRpcEnginejava:453)at orgapache hadoop ipcRPC$Servercal l(RPCjava:1002)

解析时候报错错误如下rediscl ientsjedisexceptionsJedisConnectionException:Could not get a resource from the poolat redis cl ients uti l Pool getResource(Pooljava:22)at combocowangyouuti lsJedisUti lsgetJedis(JedisUti lsjava:47)at combocowangyou uti lsJedisUti lsgetTableValues(JedisUti lsjava:119)at com bocowangyou lte mro tdl tools LteMroXMLParser

此问题一般是因为REDIS没有启劢导致。

10克隆机器安装的问题

把一个节点的第二步都装好了把它克隆到其它主机上再把克隆到的主机的IP

(注意在修改IP配置文件的时候将HWaddr也改了一般是这种格式00:50:56:80:4E:D6

否则在连接时会找丌到硬盘)和主机名改下。

此种情况主要出现在使用vmvare vsphere克隆导致的。

注意

克隆之后的机器要修改IP地址主机名MAC地址。

11 redis挂死导致无法采集

#现象redis.clients.jedis.exceptions.JedisDataException:

MISCONF Redis is configured to save RDB snapshots,but is currently not able to persist on disk

启动客户端

/usr/local/redis/redis-cl i

输入config set stop-writes-on-bgsave-error no

12主节点7180无法访问

1)检查主节点是丌是日志空间满了如果满了需要删除/va r/l og/h ive下面日志

2)删除浏览器的cooki e访问记录hadoop相关服务启劢命令sudo service cloudera-scm-server stopsudo service cloudera-scm-server-db stopsudo service cloudera-scm-server startsudo service cloudera-scm-server-db start

13 LTEMRO采集报错

主要是在这一步报错CREATE_EXTERNAL_TABLE_NODE

有效的采样点数据是如下的八个字段必须有值

MR LteScEarfcn主小区频点

MR LteScPci主小区PCI

MR LteScRSRP主小区的RSRP

MR LteScRSRQ主小区RSRQ

MR LteNcEarfcn邻小区频点

MR LteNcPci邻小区PCI

MR LteNcRSRP邻小区的RSRP

MR LteNcRSRQ邻小区RSRQ

只要有有效数据就丌会报这个错。

14查看日志

H IVE的日志主要是在:/va r/l og/h ive/oozie的日志主要在: /va r/l og/oozie/

HDFS的日志主要在: /var/log/hadoop-hdfs/zookeeper的日志主要在:/var/log/zookeeper/

在出现问题的时候可以看看这些日志。

15 zookeeper无法启劢

处理办法到master主机的/var/lib/zookeeper 删除所有的文件重启zookeeper即可。sudo mkdir version-2sudo chown -R zookeeper:zookeeper version-2

16 loudera-manager-instal lerbin安装报错

报错如下

Loaded plugins: al iases, changelog, downloadonly, fastestmirror, kabi, presto,

: refresh-packagekit, security, tmprepo, verify, versionlock

Loading support for CentOS kernel ABI

Loading mirror speeds from cached hostfi lehttp://10233963/cdh430/cdh43/repodata/repomdxml : [Errno 14] PYCURL ERROR 22 - "The requested URL returned error:403"

Trying other mirror

Error:Cannot retrieve repository metadata (repomdxml) for repository: cloudera-cdh4 Please verify its path and try again

处理办法

删除集群中每一台机器上原有的repo文件 rm-rf/etc/yum repos d/*

然后修改cloudera-chd4 repo、 cloudera-impala repo和cloudera-manager repo文件将文件中的地址换成主节点的地址。

将cloudera-chd4 repo、 cloudera-impala repo和cloudera-manager repo文件上传到集群中每一台机器的/etc/yum repos d/目录下。

云步云72.5元/月起云服务器,香港安畅/葵湾/将军澳/沙田/大浦CN2机房,2核2G5M

云步云怎么样?云步云是创建于2021年的品牌,主要从事出售香港vps、美国VPS、日本VPS、香港独立服务器、香港站群服务器等,机房有香港、美国、日本东京等机房,目前在售VPS线路有CN2+BGP、CN2 GIA,香港的线路也是CN2直连大陆,该公司旗下产品均采用KVM虚拟化架构。目前,云步云提供香港安畅、沙田、大浦、葵湾、将军澳、新世界等CN2机房云服务器,2核2G5M仅72.5元/月起。点击进...

咖啡主机22元/月起,美国洛杉矶弹性轻量云主机仅13元/月起,高防云20G防御仅18元/月

咖啡主机怎么样?咖啡主机是一家国人主机销售商,成立于2016年8月,之前云服务器网已经多次分享过他家的云服务器产品了,商家主要销售香港、洛杉矶等地的VPS产品,Cera机房 三网直连去程 回程CUVIP优化 本产品并非原生地区本土IP,线路方面都有CN2直连国内,机器比较稳定。咖啡主机目前推出美国洛杉矶弹性轻量云主机仅13元/月起,高防云20G防御仅18元/月;香港弹性云服务器,香港HKBN CN...

CloudCone 新增洛杉矶优化线路 年付17.99美元且简单线路测试

CloudCone 商家在以前的篇幅中也有多次介绍到,这个商家也蛮有意思的。以前一直只有洛杉矶MC机房,而且在功能上和Linode、DO、Vultr一样可以随时删除采用按时计费模式。但是,他们没有学到人家的精华部分,要这样的小时计费,一定要机房多才有优势,否则压根没有多大用途。这不最近CloudCone商家有点小变化,有新人洛杉矶优化线路,具体是什么优化的等会我测试看看线路。内存CPU硬盘流量价格...

内部错误为你推荐
小企业如何做品牌中小企业该如何才能打造自己的品牌?phpcms模板PHPCMS V9模板asp.net空间哪里可以申请asp空间的?什么是支付宝支付宝是什么意思?360防火墙在哪里设置360防火墙怎么开启啊 我要9.3的ipad代理ipad在哪里买是正品?pletecuteftp三友网有了解唐山三友集团的吗?大学生待遇如何,工资收入,福利保障,工作环境等等科创板首批名单中国兰男队员名单颁发的拼音发字的多音字组词
美国服务器托管 云南服务器租用 美国主机评论 优惠码 表格样式 win8升级win10正式版 轻量 炎黄盛世 河南m值兑换 空间技术网 网站在线扫描 drupal安装 免费ftp 国外在线代理服务器 广州虚拟主机 lamp兄弟连 免费蓝钻 大化网 云销售系统 netvigator 更多