Hadoop localhost: frankxulei@localhost: Permission denied (publickey,password)

简介: Hadoop localhost: frankxulei@localhost: Permission denied (publickey,password),错误解决办法

Hadoop启动HDFS进程的时候报错,提示权限不够,具体信息如图所示:
localhost: frankxulei@localhost: Permission denied (publickey,password).
image

frankxulei@ubuntu:/usr/local/hadoopsbin/startall.shWARNING:AttemptingtostartallApacheHadoopdaemonsasfrankxuleiin10seconds.WARNING:Thisisnotarecommendedproductiondeploymentconfiguration.WARNING:UseCTRLCtoabort.Startingnamenodeson[localhost]localhost:frankxulei@localhost:Permissiondenied(publickey,password).Startingdatanodeslocalhost:frankxulei@localhost:Permissiondenied(publickey,password).Startingsecondarynamenodes[ubuntu]ubuntu:frankxulei@ubuntu:Permissiondenied(publickey,password).StartingresourcemanagerStartingnodemanagerslocalhost:frankxulei@localhost:Permissiondenied(publickey,password).frankxulei@ubuntu:/usr/local/hadoop
解决办法,复制导入公钥就可以了,SSH链接需要使用公钥认证:

切换到ssh目录:cd ~/.ssh/

ssh-keygen -t rsa -P ""
cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys
AI 代码解读

image

再次启动HDFS就可以了,
sbin/start-dfs.sh
image

目录
打赏
0
0
0
0
4006
分享
相关文章
Centos7配置Hadoop出现Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password)的解决
Centos7配置Hadoop出现Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password)的解决
1601 0
org.apache.hadoop.security.AccessControlException Permission denied: user=anonymous, access=WRITE...
在尝试通过 HiveServer2 远程执行 DDL 操作时遇到权限错误,错误信息显示匿名用户(`anonymous`)无权执行写操作。解决方案包括:1) 使用 `hdfs dfs -chmod -R +777 /warehouse` 给目录授权(不推荐,仅适用于测试环境);2) 配置 Hive 和 Hadoop,创建具有权限的用户,如 `ad`,并将该用户添加到 Hive 的管理员角色和 Hadoop 的 proxyuser 配置中,然后重启相关服务。通过 `beeline` 测试连接和操作,确认权限问题已解决。
648 0
【hadoop】解决Datanode denied communication with namenode because hostname cannot be resolved
【hadoop】解决Datanode denied communication with namenode because hostname cannot be resolved
568 0
【hadoop】解决:Datanode denied communication with namenode because hostname cannot be resolve
【hadoop】解决:Datanode denied communication with namenode because hostname cannot be resolve
265 0
启动hdfs报错:hadoop100 Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password)
启动hdfs报错:hadoop100 Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password)
460 0
启动hdfs报错:hadoop100 Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password)
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
147 79
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
324 6
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
143 2
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
159 4

相关实验场景

更多
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等