centos 6.5 web服务器 centos哪个版本建站好

这篇文章给大家聊聊关于centos 6.5 web服务器,以及centos哪个版本建站好对应的知识点,希望对各位有所帮助,不要忘了收藏本站哦。

CentOS6.5基本操作常用命令详解

在你准备使用Linux系统作为网站服务器系统之前,我建议大家先学习一些基本的Linux系统的操作命令,这些命令都是在日常操作中和配置Linux服务器网络环境时要用到的,了解和掌握这些命令,将有助于你更好的使用Linux服务器。本文将以CentOS 6.5为例简单讲解一下Linux系统下常用的基本操作命令。

首先大家可以使用virtualbox安装一个CENTOS6.5系统,或者直接购买一个安装了centos系统的云主机,国内推荐阿里云,橙云主机其实也不错,不过我个人在使用过程中感觉速度不是很理想,特别是磁盘性能方面。国外的大家根据实际情况选择吧,我这里就不推荐了,免得被说是广告。

登录服务器实现远程控制

windows用户推荐使用Xshell(下载地址)

mac用户可以使用系统终端工具

登录服务器之后就可以开始命令行操作了

查看你当前所在的位置 pwd( print working directory)

pwd

会显示当前的位置,例如:

/root

改变你所在的目录位置 cd( change directory)

cd/home

会让你进入到根目录下面的 home这个目录里面,/表示根目录,如果用 pwd查看一下会返回:

/home

另外cd/root= cd~

列出目录里的东西 ls

ls

ls命令应该是 list的简称,列出的意思,这个命令可以配合一些参数,例如:

ls-la

这样会使用更详细的形式列出文件与目录,并且会包含目录里面隐藏的文件,l表示 long,a表示 all。在命令的后面你可以指定具体要列出的目录,例如:

ls-la/usr/local

这会列出在系统根目录下面的 usr目录下面的 local这个目录里的所有的东西。如果想查看命令详细的使用说明,可以加上 help参数:

ls--help

现在,你已经学会了一个简单的 ls命令去列出目录里的东西,在使用其它命令的时候,你也可以这样来用,你知道命令的后面可以添加一些参数,去做更具体的事情,想得到命令的使用说明,就去在命令后面添加一个 help参数,命令的后面也可以添加更具体的信息,比如一个目录的位置,一个文件的名称等等。

创建目录 mkdir( make directory)

mkdir

下面,我们可以在你当前所在的位置去创建一个新的目录,记得使用 pwd命令确定一下你的位置:

mkdir www

上面这行命令会在当前位置上去创建一个叫 www的目录。使用 ls命令,可以查看一下当前目录里面的东西。在安装WDCP时,我们要在根目录下创建一个WWW目录来挂载数据盘,使用的命令应该是

mkdir/www

删除目录或文件 rm( remove)

rm

在命令的后面,加上你想要删除的东西,可能是一个目录的名称,或者一个文件的名称。注意想要删除目录的时候,你需要添加两个参数:-r-f,可以将两个参数系在一起,如-rf

rm-rf www

这里,r参数可以让 rm命令递归删除目录及其内容,f参数是 force,表示强制删除。合起来这行命令的意思是,递归的强制删除 www这个目录,以及这个目录里面的所有的东西。

编辑文件 vi:

vi hello.txt

上面的命令会去编辑当前目录下面的 hello.txt这个文件,如果这个文件不存在,会打开一个空白的文件,这样你在保存并退出以后,就可以创建一个叫做 hello.txt的文件。vi工具的使用需要配合一些按键,比如打开文件以后,你想编辑这个文件,可以进入到编辑模式,按一下键盘上的 i键或者insert键,然后用上下左右按键去浏览到文件的某个位置上。编辑好以后,要按一下 esc键,退出编辑模式,然后输入:(冒号),再输入 wq,表示保存并退出。如果你不想保存所做的修改,可以输入: q。有的时候,在编辑一些只读文件,你需要再添加一个!,比如:wq!,或者 q!。

i,输入编辑模式。

esc,退出模式。

:wq,保存文件并退出。

:wq!,强制保存并退出。

:q,直接退出不保存修改。

/,可以进行搜索,在/后面加上要搜索的文字,然后回车。

n,可以查找下一处。

N,可以查找上一处。

ctrl+f,向后翻页。

ctrl+b,向前翻页。

详细的使用说明,可以查看 vi命令的帮助,vi help。

移动/重命名目录或文件 mv( move)

移动或重命名目录或者文件,使用的是同一个命令:

mv要移动的目录/文件移动之后的目录/文件

在这个后面先指一定想要移动的目录或者文件的位置,一个空格,后面再加上移动以后的目录和文件所在的位置。这里我们得先理解一下几个路径的意思:

/

表示系统的根目录。

~

表示当前所登录的用户的主目录。

.

一个点表示当前的目录。

../

两个点加一个斜线,表示上一级目录。

../../

表示上两级目录。知道了这些,我们就可以去移动目录或文件了。

mv www www1

上面这行命令的意思是,把当前目录里面的 www这个目录重命名为 www1。

mv www1../

这样会把 www1这个目录移动到当前目录的上一级目录下面,你可以进入到当前目录的上一级目录:

cd../

然后列出目录里面的东西:

ls

看到 www1目录了吗?删除它可以使用 rm命令加上 rf参数:

rm-rf www1

再用 ls看一下,是不是 www1已经不在了。

*号表示所有的文件或目录,比如你想把某个目录下面的所有的目录或文件移动到某个地方,可以这样:

mv/home/www/web1/*/home/www/gb1982

上面命令会把/home/www/web1里面的东西全部都移动到/home/www/gb1982这个目录里面。

复制目录或文件 cp( copy)

cp要复制的东西要复制到哪里

比如你当前目录下面有一个 hello.txt文件,你想复制一份,复制以后的文件叫 hello.bak,可以这样:

cp hello.txt hello.bak

你想把 hello.bak复制到某个目录的下面:

cp hello.bak/home/bak

这样会把 hello.bak这个文件复制到/home/bak里面,注意,bak这个目录必须已经存在了。

复制目录,你需要添加一个-R的参数,它会递归的去复制目录以及目录里面的所有的东西。比如要把 www这个目录复制一份,复制以后的目录名是 www1:

cp-R www www1

centos 6.5怎么搭建hadoop2.7.3

总体思路,准备主从服务器,配置主服务器可以无密码SSH登录从服务器,解压安装JDK,解压安装Hadoop,配置hdfs、mapreduce等主从关系。

1、环境,3台CentOS6.5,64位,Hadoop2.7.3需要64位Linux,操作系统十几分钟就可以安装完成,

Master 192.168.0.182

Slave1 192.168.0.183

Slave2 192.168.0.184

2、SSH免密码登录,因为Hadoop需要通过SSH登录到各个节点进行操作,我用的是root用户,每台服务器都生成公钥,再合并到authorized_keys

(1)CentOS默认没有启动ssh无密登录,去掉/etc/ssh/sshd_config其中2行的注释,每台服务器都要设置,

#RSAAuthentication yes

#PubkeyAuthentication yes

(2)输入命令,ssh-keygen-t rsa,生成key,都不输入密码,一直回车,/root就会生成.ssh文件夹,每台服务器都要设置,

(3)合并公钥到authorized_keys文件,在Master服务器,进入/root/.ssh目录,通过SSH命令合并,

cat id_rsa.pub>> authorized_keys

ssh root@192.168.0.183 cat~/.ssh/id_rsa.pub>> authorized_keys

ssh root@192.168.0.184 cat~/.ssh/id_rsa.pub>> authorized_keys

(4)把Master服务器的authorized_keys、known_hosts复制到Slave服务器的/root/.ssh目录

(5)完成,ssh root@192.168.0.183、ssh root@192.168.0.184就不需要输入密码了

3、安装JDK,Hadoop2.7需要JDK7,由于我的CentOS是最小化安装,所以没有OpenJDK,直接解压下载的JDK并配置变量即可

(1)下载“jdk-7u79-linux-x64.gz”,放到/home/java目录下

(2)解压,输入命令,tar-zxvf jdk-7u79-linux-x64.gz

(3)编辑/etc/profile

export JAVA_HOME=/home/java/jdk1.7.0_79

export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin

(4)使配置生效,输入命令,source/etc/profile

(5)输入命令,java-version,完成

4、安装Hadoop2.7,只在Master服务器解压,再复制到Slave服务器

(1)下载“hadoop-2.7.0.tar.gz”,放到/home/hadoop目录下

(2)解压,输入命令,tar-xzvf hadoop-2.7.0.tar.gz

(3)在/home/hadoop目录下创建数据存放的文件夹,tmp、hdfs、hdfs/data、hdfs/name

5、配置/home/hadoop/hadoop-2.7.0/etc/hadoop目录下的core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://192.168.0.182:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>file:/home/hadoop/tmp</value>

</property>

<property>

<name>io.file.buffer.size</name>

<value>131702</value>

</property>

</configuration>

6、配置/home/hadoop/hadoop-2.7.0/etc/hadoop目录下的hdfs-site.xml

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/home/hadoop/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/home/hadoop/dfs/data</value>

</property>

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>192.168.0.182:9001</value>

</property>

<property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

</configuration>

7、配置/home/hadoop/hadoop-2.7.0/etc/hadoop目录下的mapred-site.xml

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>192.168.0.182:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>192.168.0.182:19888</value>

</property>

</configuration>

8、配置/home/hadoop/hadoop-2.7.0/etc/hadoop目录下的mapred-site.xml

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.resourcemanager.address</name>

<value>192.168.0.182:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>192.168.0.182:8030</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>192.168.0.182:8031</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>192.168.0.182:8033</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>192.168.0.182:8088</value>

</property>

<property>

<name>yarn.nodemanager.resource.memory-mb</name>

<value>768</value>

</property>

</configuration>

9、配置/home/hadoop/hadoop-2.7.0/etc/hadoop目录下hadoop-env.sh、yarn-env.sh的JAVA_HOME,不设置的话,启动不了,

export JAVA_HOME=/home/java/jdk1.7.0_79

10、配置/home/hadoop/hadoop-2.7.0/etc/hadoop目录下的slaves,删除默认的localhost,增加2个从节点,

192.168.0.183

192.168.0.184

11、将配置好的Hadoop复制到各个节点对应位置上,通过scp传送,

scp-r/home/hadoop 192.168.0.183:/home/

scp-r/home/hadoop 192.168.0.184:/home/

12、在Master服务器启动hadoop,从节点会自动启动,进入/home/hadoop/hadoop-2.7.0目录

(1)初始化,输入命令,bin/hdfs namenode-format

注意:执行这步的时候可能会报一个错误:

java.net.UnknownHostException: tiancunPC: tiancunPC: unknown error

at java.net.InetAddress.getLocalHost(InetAddress.java:1505)

at org.apache.hadoop.net.DNS.resolveLocalHostname(DNS.java:264)

at org.apache.hadoop.net.DNS.<clinit>(DNS.java:57)

at org.apache.hadoop.hdfs.server.namenode.NNStorage.newBlockPoolID(NNStorage.java:982)

at org.apache.hadoop.hdfs.server.namenode.NNStorage.newNamespaceInfo(NNStorage.java:591)

at org.apache.hadoop.hdfs.server.namenode.FSImage.format(FSImage.java:157)

at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:992)

at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1434)

at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1559)

Caused by: java.net.UnknownHostException: tiancunPC: unknown error

at java.net.Inet4AddressImpl.lookupAllHostAddr(Native Method)

at java.net.InetAddress$2.lookupAllHostAddr(InetAddress.java:928)

at java.net.InetAddress.getAddressesFromNameService(InetAddress.java:1323)

at java.net.InetAddress.getLocalHost(InetAddress.java:1500)

... 8 more

16/11/11 19:15:23 WARN net.DNS: Unable to determine address of the host-falling back to"localhost" address

java.net.UnknownHostException: tiancunPC: tiancunPC: unknown error

at java.net.InetAddress.getLocalHost(InetAddress.java:1505)

at org.apache.hadoop.net.DNS.resolveLocalHostIPAddress(DNS.java:287)

at org.apache.hadoop.net.DNS.<clinit>(DNS.java:58)

at org.apache.hadoop.hdfs.server.namenode.NNStorage.newBlockPoolID(NNStorage.java:982)

at org.apache.hadoop.hdfs.server.namenode.NNStorage.newNamespaceInfo(NNStorage.java:591)

at org.apache.hadoop.hdfs.server.namenode.FSImage.format(FSImage.java:157)

at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:992)

at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1434)

at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1559)

Caused by: java.net.UnknownHostException: tiancunPC: unknown error

at java.net.Inet4AddressImpl.lookupAllHostAddr(Native Method)

at java.net.InetAddress$2.lookupAllHostAddr(InetAddress.java:928)

at java.net.InetAddress.getAddressesFromNameService(InetAddress.java:1323)

at java.net.InetAddress.getLocalHost(InetAddress.java:1500)

... 8 more

linux中使用hostname查看为:

[root@tiancunPC hadoop-2.7.3]# hostname

tiancunPC

查看/etc/hosts为:

[root@tiancunPC hadoop-2.7.3]# cat/etc/hosts

127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4

::1 localhost localhost.localdomain localhost6 localhost6.localdomain6

难怪会映射不到,修改/etc/hosts

[root@tiancunPC hadoop-2.7.3]# cat/etc/hosts

127.0.0.1 tiancunPC localhost.localdomain localhost4 localhost4.localdomain4

::1 localhost localhost.localdomain localhost6 localhost6.localdomain6

对应修改另外两个机器的主机名,在执行那个命令就可以了

(2)全部启动sbin/start-all.sh,也可以分开sbin/start-dfs.sh、sbin/start-yarn.sh

执行sbin/start-all.sh可能会有错误提示:

maps to localhost(IP), but this does not map back to the address

解决办法:

修改/etc/ssh/ssh_config

vim/etc/ssh/ssh_config

GSSAPIAuthentication no

这个时候可能还会出现这个错误提示:

hadoop出现namenode running as process 18472. Stop it first.,hadoopnamenode

解决办法:重新启动一下hadoop

(3)停止的话,输入命令,sbin/stop-all.sh

(4)输入命令,jps,可以看到相关信息

centos 6.5安装过程中怎么设置

安装Centos6.5详细过程

1

目前,Centos的最新版本是6.5,下载的地方很多,百度一下就行了。为了避免广告嫌疑,我在这就不发了,大家有需要的话,可以私我。为了方便,我用虚拟机来截图。

首先,在BIOS里设置光驱启动,并放入Centos6.5安装光盘。前提要刻录好光盘(如果是安装虚拟机的话,可以省略刻录光盘了,直接用ISO镜像文件启动即可)。

光盘启动的第一个界面,如图。分别是:

1、安装或更新系统

2、安装显示卡驱动

3、系统修复

4、从硬盘启动

5、内存测试

我们当然是直接回车啦,即使你不动,默认也会在自动倒数结束后,开始安装。

2

安装Centos,当然要安装64位啦,呵呵你懂的。如图。

这里的意思是,按OK测试你的安装媒体,即DVD光盘,直接SKIP跳过。

下面是启动安装过程,稍后。。。

3

这是第一个图形界面,我们点击右下角的“Next”,下一步。

4

然后到了选择安装的语言,这个不用说啦,大家都是中国人,如图。

5

选择键盘,这个不要选择错了,其实默认就可以了。如图。

6

这里选择安装的存储设备,我想大家都是安装到本地硬盘吧,那就是上面这个了啦,如图。选择:基本存储设备后,点击下一步。

这时会弹出警告,会删除检测到的这个硬盘(40960MB)的所有数据,如果是多硬盘安装或升级安装的话,要小心注意了,全新安装的话,直接点击:是,如图。

这里是选择时区,我们选择:亚洲/中国/上海,如图。下一步。

然后到了设置根帐户(root)的密码了,如图,如果你的密码过于简单,则会有另一个提示,我们可以选择:无论如何都使用。如图。

到了这个界面是分区与安装了,我们是全新安装,就选择:使用所有空间,如图。

点击下一步,会提示确认格式化并写入数据,我们选择:将修改写入磁盘。如图。

接着就开始格式化了……

然后,到了选择安装Centos组件的时候了,这里有必须详细说一下。

这一步是选择机子是做什么用的,如图,分别是:

1、桌面系统的安装

2、最小化桌面系统的安装

3、最小化安装

4、基本服务器的安装

5、数据库服务器的安装

6、WEB网页服务器的安装

7、虚拟主机的安装

8、软件开发工作站的安装

选择一种,系统会自动给你安装上一些需要的软件,当然也可以选择底下的:现在自定义,来选择要安装的组件。

而一般来说,初接触的朋友一般还是第一个吧,包括了X WINDOWS,即图形界面等诸多功能了,在学习的同时,有什么问题还是可以在图形界面处理一下的。但一般高手来说,一般都不用安装桌面的图形界面的!

点击下一步,如果你有打勾Customize now自定义安装的组件的话,则还可以对各个组件及功能进行修改,还好是中文的,呵呵。如图。

下一步后,就开始安装了。

安装过程则根据你选择的组件内容所用的时间而不同……如图。

安装完成,点击:重新引导,即重启后,进入Centos系统。

阅读剩余
THE END