2016 - 2024

感恩一路有你

macspark环境变量 怎么在windows上搭建hadoop环境?

浏览量:1304 时间:2021-03-12 05:11:43 作者:admin

怎么在windows上搭建hadoop环境?

1、下载安装JDK,以及Eclipse2、新建JAVAProject3、去cloudera网站下载hadoop的CDH3u6版本。将起解压到win7的某个目录4、选中OperateHDFS,右击,选择“property”,弹出右侧的窗口;选择“JavaBuildPath”——“Libraries”——AddExternalJars5、到上面的画面后,下面就是选择开发hadoop程序时,用到的一些jar包将lib文件夹下的所有的jar包,添加进去;将红框内的jar包,安装进去。6、创建配置文件夹7、将core-site.xml,hdfs-site.xml,mapred-site.xml放入到此文件夹中。8、右键->属性进行如下操作,添加刚刚创建conf文件夹配置搞定!写代码的过程中要写入的namenode和jobtracker地址(修改为你自己的)在你的代码中,加入如下代码就可以了Configurationconf=newConfiguration();conf.set("fs.default.name","192.1.1.2:9000")conf.set("mapred.job.tracker","192.1.1.2:9001")

怎么在windows上搭建hadoop环境?

在Eclipse的Windows->Preferences中,选择HadoopMap/Reduce,设置好Hadoop的安装目录,这里,我直接从linux的/home/hadoop/hadoop-1.0.3拷贝过来的,点击OK按钮!

macspark环境变量 搭建和配置hadoop环境 hadoop环境

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。