2016 - 2024

感恩一路有你

linux下confluence安装教程 confluence安装完之后怎么返回安装界面?

浏览量:2290 时间:2023-03-25 18:28:19 作者:采采

confluence安装完之后怎么返回安装界面?

安装合流后返回安装界面的方法如下

1.我们首先进入图形界面。

2.然后输入ctrl alt F2切换到dos界面。

3.接下来,以root用户身份登录。

5命令返回到图形界面。

5.您也可以在图形界面中找到该应用程序。

6.找到终端项目。

7.点击进入命令操作页面。

注意事项:

CentOS的版本大约每两年发布一次,每个版本的C

想建一个知识库,用什么工具比较好?

谢谢你的邀请。欢迎关注黑桃,与边肖交流互动,共享科技数字信息。

构建知识库的工具有哪些?这个要看你想建在哪里,只是想用手机做个记录?还是要多种终端,共享?这个需求不一样,工具就不一样。

Apache Mahout如何使用?

Mahout安装的详细全过程1。jdk安装22。SSH无密码认证配置23。hadoop配置34。Hadop使用65。Maven安装76。看象人装置77。Hadoop集群执行集群算法88。其他8......................................................................................................

开放 "终端 "然后输入:sh

1.3.设置JAVA_HOME环境系统变量input:VI/etc/environment Add:export JAVA _ HOME/root/JDK 1 . 6 . 0 _ 24 export JRE _ HOME/root/JDK 1 . 6 . 0 _ 24/JRE导出类路径$class path :$JAVA _ HOM:$JAVA _ HOME/JRE/lib同样,修改第二个文件。Input: vi /etc/profile在umask 022前添加以下语句:export JAVA _ HOME/root/JDK 1 . 6 . 0 _ 24 export JRE _ HOME/root/JDK 1 . 6 . 0 _ 24/JRE导出类路径$ class PATH : $JAVA _ HOM: $ JAVA _ HOM:$Java _ hom:$path:$hom:、:、Slav:,三个节点都是CentOS系统,Hadoop在/root/hadoop/目录下。在/etc/hosts上添加主机名和对应的IP地址:192 . 168 . 1 . 10 Master 192 . 168 . 1 . 20 Slave 1192 . 168 . 1 . 21 Slave 23、SSH免密码认证配置2.1 Hadoop需要使用SSH协议。Namenode将使用SSH协议启动namenode和datanode进程。伪分布式模式下的数据节点和名称节点是它们自己,所以SSH localhost必须在没有密码验证的情况下进行配置。以root用户身份登录并在主目录中执行以下命令:ssh-k:的文件

按回车默认路径创建目录。创造。

目录输入密码短语(空表示无密码短语):输入相同的密码短语again:你的身份已经保存在_

公钥已保存在_

键指纹is: c 6 : 7 : 57 : 59 : 0 a: 2d: 85 : 49 : 23 : cc: 58 : : dbecho 33-@

在目录中生成id_rsa私钥和id_。

公钥。进入

namenode节点下的目录配置如下:[。ssh]#猫id_

授权密钥。ssh]# scp授权_密钥[

。ssh]# scp授权_密钥

配置完成后,您可以测试是否需要通过ssh本地IP进行密码登录。2.2如同namenode无需密码登录所有DataNode的原理,将DataNode的公钥复制到Namenode 嘘。

在目录下。[ .ssh]# scp authoriz:/root[root @]# scp authoriz:/root

添加刚刚发送到authorized _ keys[root @]# cat authorized _ keys 1 authorized _ keys[root @]# cat authorized _ keys 2 authorized _ keys,也可以关闭和启动Datanode上的Hadoop服务。4、Hadoop配置下载hadoop-0.20.2.tar.gz。

,用于减压。塔尔zxvf hadoop-0.20.2.tar.gz

修改/etc/profil: $ path 4.1 .进入hadoop/conf,配置Hadoop配置文件4.1.1,

将# setjavaenvironment export Java _ home/root/JDK 1 . 6 . 0 _ 24添加到文件中,保存并退出。配置核心站点。xml # vicore-site.xml4.1.3配置HDFS-site . XML # vihdfs-site . XML 4 . 1 . 4配置Mapred-site . XML # viMapred-site . XML 4 . 1 . 5配置masters # Vi masters 192 . 168 . 1 . 104 . 1 . 6配置slaves # vislaves 192 . 168 . 1 . 20192 . 168 . 1 . 214 . 2、hadoop startup 4.2.1、进入/root/Hadoop/中/Hadoop Namenode。

命令启动后,可以使用jps命令检查hadoop进程是否完全启动。正常情况下应该有以下进程:10910 namenode 11431 JPS 11176二级NameNode 11053 datanode 11254 Job Tracker 11378 TaskTracker。在建设过程中,这个环节出现的问题最多,启动过程往往不完整。DataNode无常启动,或者NameNode或Tasktracker启动异常。解决方法如下:1)关闭Linux下的防火墙:使用服务iptables stop命令;2)再次格式化namenode:在/root/hadoop/bin目录下执行hadoop namenode -format命令3)重启服务器4)查看datanode或namenode对应的日志文件,该文件保存在/root/hadoop/logs目录下。5)在/bin目录中再次使用它。

命令启动所有进程,通过以上方法应该可以解决进程启动不完整的问题。4.2.3查看集群状态在bin目录中执行:Hadoop DFS admin-report # Hadoop DFS admin cr: 50070 : 50030 . 5。Hadop使用了一个测试示例wordcount:计算输入文本。中文字数统计程序。hadoop主目录中带有WordCount的java包hadoop-0.20.2-examples.jar。

,实现步骤如下:在/root/hadoop/bin/目录下,进行如下操作:。/hadoop fs -mkdir输入(新目录名可以任意命名)mkdir/root/a/vi/root/a.txt。

从本地/root/a/input写hello world hello # Hadoop fs-copy,在/root/hadoop/bin: #下执行。Hadoop-0.20.2-examples.jar。

Wordcount输入输出(提交一个作业,这里要注意输入输出是一组任务,下次执行word count程序,新目录intput1和output1不能和输入输出同名)6。Maven安装6.1,下载Maven解压tar VxZF Apache-Maven-3 . 0 . 2-bin . tar . gzmv。

Apach: $ { path } 6.3先注销,然后登录查看maven版本,看mvn -version7是否安装成功。参见:

、hadoop集群实现集群算法8.1数据准备CD/root/Hadoop wg _ control/synthetic _

。/hadoop fs -mkdir testdata。/hadoop fs -put synthetic_

测试数据。/Hadoop fs-LSR test data bin/Hadoop jar/root/mahout/mahout-examples-0.4-job . jar

检查结果,bin/mahout向量转储-seq file/user/root/output/data/part-r-00000。这将在控制台上直接显示结果。走吧。9.hadoop集群实现推荐算法分布式bin/Hadoop jar/root/trunk/mahout-distribution-0.4/mahout-core-0.4-job . jar。

-Dmapred.output.diroutput2伪分布式bin/Hadoop jar/root/trunk/mahout-distribution-0.4/mahout-core-0.4-job . jar。

-推荐者类名

-dmapred . output . dir output _ w10 wan 10,其他离开安全模式:hadoop dfsadmin -safemode离开。

目录 hadoop Hadoop 密码

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。