阿里云主机 搜索引擎(域名查询阿里云)
景安vps和阿里云哪个好。。正在纠结中
看需求吧,如果是发展前期,预算不足,个人小博客,就随意了,景安相对要便宜
就市场份额来说,阿里云就高太多了,大企业,大网站大部分都是阿里云的,阿里云的技术更强一些,云服务也更稳定,所以如果对稳定性和技术要求高的,就果断阿里云了
如果对这方面要求不太高的话,就景安
建站需要域名,服务器和建站程序
域名和服务器可以用阿里云的,大服务商比较稳定:网页链接
虚机是不太推荐,因为共享IP的虚机后期影响优化,独立IP的虚机不如服务器有性价比哈
有了域名和服务器就差建站程序了,论坛的话,可以用discuz来做,博客用dedecms或者wordpress,z-blog,企业站用dede,开源程序还有很多可以选择的
前期的话,服务器可以用win系统的,操作简单,新手也容易上手
建站大概流程就是
域名实名认证,服务器如果是国内的先备案,都可以在服务商后台操作的
都好了之后,域名解析到服务器
服务器配置环境,win系统直接用宝塔配置换,PHP+MYSQL+IIS就可以的
服务器开设空间,绑定域名和开设数据库,这个都用宝塔来操作
上传网站程序到开设空间对应的文件夹里
访问域名搭建网站
网上都可以找到对应的教程的,新手还是比较容易上手的哈
安全方面,服务器要再装一个安全狗,这样网站不容易被入侵
这些都好了之后,就要学seo了~增加网站在搜索引擎中的曝光率
阿里云服务器配置与性能优化
阿里云我问过很多站长都说非常的不错了,不管是网速还是从性能都比其它主机要好,但阿里云就是贵那么一点了,下面小编来给各位介绍阿里云服务器配置与性能优化
更换阿里云服务器有一阵了,相对于我以前的虚拟主机不是一个档次。就比如说我在虚拟主机上被人放了后门文件,我把虚拟主机上的文件传到云服务器的时侯云服务器立马就报警存在漏洞,最主要的还是可控性。
一些相当配置记录下:
一、配置Nginx处理日志
1、设置nginx日志格式(data/server/nginx/conf/nginx.conf)
log_format main'$remote_addr-$remote_user [$time_local]"$request"'
'$status$body_bytes_sent"$http_referer"'
'"$http_user_agent""$http_x_forwarded_for"';
2、配置Nginx日志按天截断
2.1、日志logrotate
/data/log/nginx/access/*.log{
daily
#dateext
rotate 1
missingok
ifempty
nocompress
olddir/data/log/nginx/access/days
sharedscripts
postrotate
[!-f/data/server/nginx/logs/nginx.pid ]|| kill-USR1 `cat/data/server/nginx/logs/nginx.pid`
endscript
}
取文件名为nginx,存放在/etc/logrotate.d目录下。logrotate方式比mv有很多优势,自行google.不多说。
2.2、编写日志处理脚本
#!/bin/bash
/usr/sbin/logrotate-vf/etc/logrotate.d/nginx
time=$(date-d"yesterday"+"%Y-%m-%d")
cd/data/log/nginx/access/days
for i in$(ls./| grep"^/(.*/)/.[[:digit:]]$")
do
mv${i}./$(echo${i}|sed-n's/^/(.*/)/./([[:digit:]]/)$//1/p')-$(echo$time)
done
for i in$(ls./| grep"^/(.*/)/-/([[:digit:]-]/+/)$")
do
tar zcvf${i}.tar.gz./${i}
/bin/rm-rf./${i}
done
find/data/log/nginx/access/*-name"*.tar.gz"-mtime 30-type f-exec/bin/rm-rf{}/;
简单说明:执行Logrotate,把日志存放到/var/log/nginx/days目录,文件名末尾加上昨天的日期,打包成tar.gz格式,超过30天的文件自动删除
2.3、向crontab中添加定时任务
crontab-e
1 0***/data/shs/nginxlogcut.sh/dev/null 21
二、日志分析
1、AWStats安装
如果YUM里已经添加了rpmforge的源就比较简单了,直接yum install即可,如果没有:
yum install perl-libwww-perl.noarch
wget
rpm-ivh awstats-7.0-1.noarch.rpm
cd/usr/local/awstats/tools/
./awstats_configure.p
2、Awstats配置
因为往往要分析多个站点的日志,为了简化操作
cp awstats.model.conf common.conf
修改其中几个选项:
#vi common.conf
DNSLookup=0#关闭DNSLookup可以提升99%的效率
DirData="/data/awstats/data"#指定统计数据存放的目录
SkipFiles="REGEX[^*/.gif] REGEX[^*/.jpg] REGEX[^*/.css] REGEX[^*/.js]"#不分析图片/样式表和js文件
NotPageList="css js class gif jpg jpeg png bmp ico rss xml swf"#非页面文件
LoadPlugin="tooltips"#显示每个统计项目的提示
LoadPlugin="decodeutfkeys"#UTF8编码问题
LoadPlugin="qqhostinfo"#加装的利用纯真IP库判断方可归属地
修改LIMITFLUSH加快处理速度,有效提高统计的速度(减少磁盘IO),并避免按月汇总数据导致的统计文件过大
#vi/usr/local/awstats/wwwroot/cgi-bin/awstats.pl
$LIMITFLUSH=
50000;# Nb of records in data arrays after how we need to flush data on disk
3、我的统计实例
#vi/etc/awstats/awstats.www.geekso.com.conf
Include"common.conf"
LogFormat=1#指定日志格式,×nix为1,iis为2
LogFile="zcat/data/log/nginx/access/days/geekso.log-%YYYY-24-%MM-24-%DD-24.tar.gz|"
#LogFile="/var/log/iislogs/v/ex%YY-24%MM-24%DD-24.log"
#LogFile="/var/log/nginx/crsay.geekso.log-%YYYY-24-%MM-24-%DD-24"
SiteDomain="www.geekso.com"
HostAliases="geekso.com"
DefaultFile="index.html"
DirData="/data/www/awstats/data"
AllowAccessFromWebToAuthenticatedUsersOnly=1
AllowAccessFromWebToFollowingAuthenticatedUsers="geekso"
3、编写日志分析脚本
#!/bin/bash
ilog=/data/www/awstats/logcron/awstats_cron.log
awscripts=/usr/local/awstats/wwwroot/cgi-bin/awstats.pl
awpages=/usr/local/awstats/tools/awstats_buildstaticpages.pl
echo""$ilog
echo Starting Awstats on:$(date)$ilog
perl$awpages-update-config=www.geekso.com-lang=cn-dir=/data/www/awstats/geekso-awstatsprog=$awscripts
#perl$awscripts-update-config=site2
#perl$awscripts-update-config=site2-databasebreak=day
#perl$awscripts-update-config=site3
#perl$awscripts-update-config=site3-databasebreak=day
echo Ending Awstats on:$(date)$ilog
echo"------------------------------"$ilog
4、向crontab中添加定时任务
#crontab-e
1 1***/data/shs/awstats.sh/dev/null 21
附:
AWStats统计指标说明:
参观者:按来访者不重复的IP统计,一个IP代表一个参观者;
参观次数:一个参观者可能1天之内参观多次(比如:上午一次,下午一次),所以按一定时间内(比如:1个小时),不重复的IP数统计,参观者的访问次数;
网页数:不包括图片,CSS, JavaScript文件等的纯页面访问总数,但如果一个页面使用了多个帧,每个帧都算一个页面请求;
文件数:来自浏览器客户端的文件请求总数,包括图片,CSS,JavaScript等,用户请求一个页面是,如果页面中包含图片等,所以对服务器会发出多次文件请求,文件数一般远远大于文件数;
字节:传给客户端的数据总流量;
来自REFERER中的数据:日志中的参考(REFERER)字段,记录了访问相应网页之前地址,因此如果用户是通过搜索引擎的搜索结果点击进入网站的,日志中就会有用户在相应搜索引擎的查询地址,这个地址中就可以通过解析将用户查询使用的关键词提取出来。
三、防止跨目录访问
你的服务器www目录下有多个网站,当某一个网站被人攻进去后,如果你没有做跨目录访问,那么他都能看到www目录下的所有文件,甚至服务器上的系统目录文件。
做法是在nginx下的conf目录下为每个站点的conf设置open_basedir访问的目录
fastcgi_param PHP_VALUE"open_basedir=$document_root:/tmp/:/data/www/geekso/";
四、禁用危险的函数
php.ini建议禁止的函数如下:
disable_functions= pcntl_alarm, pcntl_fork, pcntl_waitpid, pcntl_wait, pcntl_wifexited, pcntl_wifstopped, pcntl_wifsignaled, pcntl_wexitstatus, pcntl_wtermsig, pcntl_wstopsig, pcntl_signal, pcntl_signal_dispatch, pcntl_get_last_error, pcntl_strerror, pcntl_sigprocmask, pcntl_sigwaitinfo, pcntl_sigtimedwait, pcntl_exec, pcntl_getpriority, pcntl_setpriority, eval, popen, passthru, exec, system, shell_exec, proc_open, proc_get_status, chroot, chgrp, chown, ini_alter, ini_restore, dl, pfsockopen, openlog, syslog, readlink, symlink, popepassthru, stream_socket_server, fsocket, chdir
五、PHP Zend Opcache安装
opcache包下载地址:
1、wget
tar zxvf zendopcache-7.0.2.tgz
cd zendopcache-7.0.2
/usr/local/php/bin/phpize
./configure--with-php-config=/usr/local/php/bin/php-config
make
make install
2、修改PHP.INI配置文件,在配置文件末尾添加:
[opcache]
zend_extension="/usr/local/php/lib/php/extensions/no-debug-non-zts-20090626/opcache.so"
opcache.memory_consumption=128
opcache.interned_strings_buffer=8
opcache.max_accelerated_files=4000
opcache.revalidate_freq=60
opcache.fast_shutdown=1
opcache.enable_cli=1
opcache.enable=1
保存后,重启服务。查看phpinfo是否加载了zendopcache
阿里云主机从6号起CPU一直99%,不知道怎么回事
CPU跑满如果云服务器ECS实例的#CPU跑满,考虑以下因素:检查程序最大线程数不够程序代码不够优化,存在死循环、死锁Web配置文件的参数不够优化检查Web和系统日志存在访问异常网站被盗链当时有搜索引擎爬虫大面积爬取网站受到了小型网络攻击;
进程有异常实例中毒或中木马Linux实例可以通过系统日志和Web日志,和一些top,free,uptime,sar,ps命令查询原因。
Windows实例可以通过资源监控器分析。