Hadoop URL中读取数据出错:unknown protocol: hdfs

简介:

今天在学习如何从hadoop中读取数据时,写了一个简单的方法,测试时,却报以下错误:

154835_1JUC_1434710.png

以下是读取hadoop中文件并写入本地磁盘的代码:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
package  hdfs;
 
import  java.io.BufferedReader;
import  java.io.FileWriter;
import  java.io.InputStream;
import  java.io.InputStreamReader;
import  java.net.URL;
import  org.apache.hadoop.io.IOUtils;
 
public  class  HDFS {
         public  static  void  main(String[] args)  throws  Exception {
         InputStream inputStream =  null ;
         FileWriter writer =  null ;
         try  {
             URL url =  new  URL( "hdfs://localhost:9000/input.txt" );
             inputStream = url.openStream();
             writer =  new  FileWriter( "/home/wxl/桌面/tmp.txt" );
             InputStreamReader reader =  new  InputStreamReader(inputStream);
             BufferedReader bufferedReader =  new  BufferedReader(reader);
             String line =  null ;
             while ((line = bufferedReader.readLine()) !=  null ) {
                 writer.write(line);
             }
         finally  {
             IOUtils.closeStream(inputStream);
             if (writer !=  null ) {
                 writer.close();
             }
         }
     }
}

几经周折,在《Hadoop权威指南》中找到这样的结果:

    "There’s a little bit more work required to make Java recognize Hadoop’s hdfs URL scheme. This is achieved by calling the setURLStreamHandlerFactory method on URL with an instance of FsUrlStreamHandlerFactory . This method can be called only once per JVM, so it is typically executed in a static block."

    意即:“让Java程序能够识别Hadoop的hdfs URL方案还需要一些额外的工作,这里采用的方法是通过FsUrlStreamHandlerFactory实例调用URL中的setURLStreamHandlerFactory方法。由于Java虚拟机只能调用一次上述方法,因此通常在静态方法中调用上述方法。”

    于是,在类中加入静态执行块:

?
1
2
3
4
static  {
     // This method can be called at most once in a given JVM.
     URL.setURLStreamHandlerFactory( new  FsUrlStreamHandlerFactory());
}

    因此代码变成了下面这样:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
package  hdfs;
 
import  java.io.BufferedReader;
import  java.io.FileWriter;
import  java.io.InputStream;
import  java.io.InputStreamReader;
import  java.net.URL;
 
import  org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import  org.apache.hadoop.io.IOUtils;
 
public  class  HDFS {
     
     static  {
         // This method can be called at most once in a given JVM.
         URL.setURLStreamHandlerFactory( new  FsUrlStreamHandlerFactory(););
     }
     
     public  static  void  main(String[] args)  throws  Exception {
         InputStream inputStream =  null ;
         FileWriter writer =  null ;
         try  {
             URL url =  new  URL( "hdfs://localhost:9000/input.txt" );
             inputStream = url.openStream();
             writer =  new  FileWriter( "/home/wxl/桌面/tmp.txt" );
             InputStreamReader reader =  new  InputStreamReader(inputStream);
             BufferedReader bufferedReader =  new  BufferedReader(reader);
             String line =  null ;
             while ((line = bufferedReader.readLine()) !=  null ) {
                 writer.write(line);
             }
         finally  {
             IOUtils.closeStream(inputStream);
             if (writer !=  null ) {
                 writer.close();
             }
         }
     }
}

    OK,不再报错,成功运行。

目录
相关文章
|
3月前
|
存储 分布式计算 Hadoop
Hadoop:驭服数据洪流的利器
在当今信息大爆炸的时代,海量数据成为企业决策的重要依据。本文将介绍大规模数据处理框架Hadoop的概念与实践,探讨其在解决大数据应用中的重要性和优势。从分布式计算、高可靠性、扩展性等方面深入剖析Hadoop的工作原理,并结合实例说明如何利用Hadoop来处理海量数据,为读者提供了解和运用Hadoop的基础知识。
|
4月前
|
存储 分布式计算 Hadoop
Hadoop系列HDFS详解
Hadoop系列HDFS详解
40 0
|
5天前
|
分布式计算 Hadoop 测试技术
Hadoop【基础知识 05】【HDFS的JavaAPI】(集成及测试)
【4月更文挑战第5天】Hadoop【基础知识 05】【HDFS的JavaAPI】(集成及测试)
28 8
|
5天前
|
分布式计算 资源调度 Hadoop
Hadoop【基础知识 03+04】【Hadoop集群资源管理器yarn】(图片来源于网络)(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
【4月更文挑战第5天】Hadoop【基础知识 03】【Hadoop集群资源管理器yarn】(图片来源于网络)Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
31 9
|
6天前
|
分布式计算 Hadoop Shell
Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
【4月更文挑战第4天】Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
18 5
|
9天前
|
存储 分布式计算 Hadoop
【Hadoop】HDFS 读写流程
【4月更文挑战第9天】【Hadoop】HDFS 读写流程
|
3月前
|
分布式计算 关系型数据库 Hadoop
使用Sqoop将数据从Hadoop导出到关系型数据库
使用Sqoop将数据从Hadoop导出到关系型数据库
|
3月前
|
存储 分布式计算 Hadoop
Hadoop的Secondary NameNode在HDFS中的作用是什么?
Hadoop的Secondary NameNode在HDFS中的作用是什么?
36 0
|
3月前
|
存储 分布式计算 Java
HDFS的数据读取流程是怎样的?请描述数据读取的过程。
HDFS的数据读取流程是怎样的?请描述数据读取的过程。
25 0
|
3月前
|
Java API
HDFS的数据写入流程是怎样的?请描述数据写入的过程。
HDFS的数据写入流程是怎样的?请描述数据写入的过程。
20 0

相关实验场景

更多