千家信息网

怎么从Hadoop URL读取数据

发表于:2025-12-02 作者:千家信息网编辑
千家信息网最后更新 2025年12月02日,本篇内容主要讲解"怎么从Hadoop URL读取数据",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"怎么从Hadoop URL读取数据"吧!1,编写代码im
千家信息网最后更新 2025年12月02日怎么从Hadoop URL读取数据

本篇内容主要讲解"怎么从Hadoop URL读取数据",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"怎么从Hadoop URL读取数据"吧!

1,编写代码

import java.io.*;
import java.net.URL;

import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;

public class URLCat {
static {
URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
}

public static void main(String[] args) throws Exception {
InputStream in = null;
try {
in = new URL(args[0]).openStream();
IOUtils.copyBytes(in, System.out, 4096, false);
} finally {
IOUtils.closeStream(in);
}
}
}


2,编译Java代码

  1. $ Hadoopcom.sun.tools.javac.Mian -d classes URLCat.java

  2. // then the class files will be generated in the directory of classes

3,打包成jar包

  1. jar cf URLCat.jar classes/URLCat.class

  2. // then we will get the URLCat.jar, the source is from classes/URLCat.class


4,运行jar包

hadoop jar URLCat.jar URLCat hdfs://10.10.12.171/input/WordCount/file1

Result:

  1. hadoop ok

  2. hadoop fail

  3. hadoop 2.3

可见hdfs://10.10.12.171/input/WordCount/file1的内容就输出到了标准输出了。

到此,相信大家对"怎么从Hadoop URL读取数据"有了更深的了解,不妨来实际操作一番吧!这里是网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

0