Este artigo é um artigo espelhado de tradução automática, por favor clique aqui para ir para o artigo original.

Vista: 19230|Resposta: 0

java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset.

[Copiar link]
Publicado em 26/02/2019 13:37:10 | | | |
java.io.FileNotFoundException: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. -see https://wiki.apache.org/hadoop/WindowsProblems
        em org.apache.hadoop.util.Shell.fileNotFoundException(Shell.java:528) ~[hadoop-common-2.8.4.jar:na]
        em org.apache.hadoop.util.Shell.getHadoopHomeDir(Shell.java:549) ~[hadoop-common-2.8.4.jar:na]
        em org.apache.hadoop.util.Shell.getQualifiedBin(Shell.java:572) ~[hadoop-common-2.8.4.jar:na]
        em org.apache.hadoop.util.Shell. <clinit>(Shell.java:669) ~[hadoop-common-2.8.4.jar:na]
        em org.apache.hadoop.util.StringUtils. <clinit>(StringUtils.java:79) [hadoop-common-2.8.4.jar:na]
        em org.apache.hadoop.conf.Configuration.getBoolean(Configuration.java:1555) [hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.hbase.HBaseConfiguration.checkDefaultsVersion(HBaseConfiguration.java:66) [hbase-common-2.0.0.jar:2.0.0]
        at org.apache.hadoop.hbase.HBaseConfiguration.addHbaseResources(HBaseConfiguration.java:80) [hbase-common-2.0.0.jar:2.0.0]
        em org.apache.hadoop.hbase.HBaseConfiguration.create(HBaseConfiguration.java:94) [hbase-common-2.0.0.jar:2.0.0]
        em org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryFactoryImpl$1.call(ConfigurationFactory.java:49) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        em org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        em org.apache.phoenix.util.PhoenixContextExecutor.call(PhoenixContextExecutor.java:76) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        em org.apache.phoenix.util.PhoenixContextExecutor.callWithoutPropagation(PhoenixContextExecutor.java:91) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl.getConfiguration(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0- HBase-2.0]
        em org.apache.phoenix.jdbc.PhoenixDriver.initializeConnectionCache(PhoenixDriver.java:151) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        em org.apache.phoenix.jdbc.PhoenixDriver. <init>(PhoenixDriver.java:143) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]


A versão do servidor para Hadoop é a seguinte:

[root@master ~]# versão Hadoop
Hadoop 2.8.3
Subversãohttps://git-wip-us.apache.org/repos/asf/hadoop.git-r b3fe56402d908019d99af1f1f4fc65cb1d1436a2
Compilado por jdu em 2017-12-05T03:43Z
Compilado com protoc 2.5.0
Da fonte com soma de verificação 9ff4856d824e983fa510d3f843e3f19d
Esse comando era executado usando /home/dzkj/apache/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar


Sempre achei que minha ideia local é uma ligação para o Hadoop remoto, assim não preciso instalar o Hadoop no sistema operacional Windows local. Então, quando vi essa HADOOP_HOME, não entendi, ainda preciso instalar um Hadoop localmente????

Resposta: Você não precisa instalar o Hadoop, mas precisa configurar a variável %HADOOP_HOME%.

Solução:

Baixe os winutils correspondentes de acordo com a versão do seu servidor

Introdução ao Winutils: Binários para Windows para versões Hadoop, que são construídos diretamente a partir do mesmo commit git usado para criar a versão oficial do ASF; Eles são requisitados e construídos em uma VM do Windows dedicada a testar aplicações Hadoop/YARN no Windows. Não é um sistema para uso diário, então está isolado de ataques de segurança de drive/e-mail.


Link:https://github.com/steveloughran/winutils

Como minha versão do Hadoop é 2.8.3, o endereço de download é:https://github.com/steveloughran ... er/hadoop-2.8.3/bin

winutils.2.8.3.bin.zip (1.88 MB, Número de downloads: 15)

Clone o GitHub ou baixe uma pasta de um repositório
https://www.itsvse.com/thread-7086-1-1.html
(Fonte: Architect_Programmer)
Defina a variável ambiente %HADOOP_HOME% para apontar para o diretório acima do diretório BIN que contém o WINUTILS.EXE. Como mostrado abaixo:



Feche a ideia, reabra o projeto com a ideia, comece o projeto e a exceção desaparece.

Links de referência:https://wiki.apache.org/hadoop/WindowsProblems




Anterior:Js-window.onload só pode ser chamado uma vez!
Próximo:Método Discuz Post para ocultar links automaticamente
Disclaimer:
Todo software, material de programação ou artigos publicados pela Code Farmer Network são apenas para fins de aprendizado e pesquisa; O conteúdo acima não deve ser usado para fins comerciais ou ilegais, caso contrário, os usuários terão todas as consequências. As informações deste site vêm da Internet, e disputas de direitos autorais não têm nada a ver com este site. Você deve deletar completamente o conteúdo acima do seu computador em até 24 horas após o download. Se você gosta do programa, por favor, apoie um software genuíno, compre o registro e obtenha serviços genuínos melhores. Se houver qualquer infração, por favor, entre em contato conosco por e-mail.

Mail To:help@itsvse.com