本篇内容主要讲解“怎么从Hadoop URL读取数据”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么从Hadoop URL读取数据”吧!
创新互联建站是一家集网站建设,象山企业网站建设,象山品牌网站建设,网站定制,象山网站建设报价,网络营销,网络优化,象山网站推广为一体的创新建站企业,帮助传统企业提升企业形象加强企业竞争力。可充分满足这一群体相比中小企业更为丰富、高端、多元的互联网需求。同时我们时刻保持专业、时尚、前沿,时刻以成就客户成长自我,坚持不断学习、思考、沉淀、净化自己,让我们为更多的企业打造出实用型网站。
1,编写代码
import java.io.*;
import java.net.URL;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;
public class URLCat {
static {
URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
}
public static void main(String[] args) throws Exception {
InputStream in = null;
try {
in = new URL(args[0]).openStream();
IOUtils.copyBytes(in, System.out, 4096, false);
} finally {
IOUtils.closeStream(in);
}
}
}
2,编译Java代码
$ Hadoopcom.sun.tools.javac.Mian -d classes URLCat.java
// then the class files will be generated in the directory of classes
3,打包成jar包
jar cf URLCat.jar classes/URLCat.class
// then we will get the URLCat.jar, the source is from classes/URLCat.class
4,运行jar包
hadoop jar URLCat.jar URLCat hdfs://10.10.12.171/input/WordCount/file1
Result:
hadoop ok
hadoop fail
hadoop 2.3
可见hdfs://10.10.12.171/input/WordCount/file1的内容就输出到了标准输出了。
到此,相信大家对“怎么从Hadoop URL读取数据”有了更深的了解,不妨来实际操作一番吧!这里是创新互联网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!
本文标题:怎么从HadoopURL读取数据
网页URL:https://www.cdcxhl.com/article6/gshiog.html
成都网站建设公司_创新互联,为您提供网站制作、面包屑导航、动态网站、云服务器、网站设计公司、品牌网站制作
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联