本文章主要介绍一下Nginx的核心配置文件和日志切割(手动+定时)。
1.设置worker进程的用户,指的是linux中的用户,会涉及到nginx操作目录或文件的一些权限,默认为nobody
user root;
2.worker进程工作数设置,一般来说CPU有几个,就设置几个,或者设置为N-1也行
worker_processes 1;
3.nginx日志级别debug|info | notice| warn| error | crit | alert | emerg,错误级别从左到右越来越大
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
4.设置nginx进程pid
pid log/nginx.pid;
5.设置工作模式
events{
# 默认使用epoll
use epoll;
# 每个worker允许连接的客户端最大连接数
worker_connections 10240;
}
6.http是指令块,针对http网络传输的一些指令配置
http{
}
7.include 引入外部配置,提高可读性,避免单个配置文件过大
include mime.types;
8.设定日志格式,main为定义的格式名称,如此access_log就可以直接使用这个变量了
参数名 | 参数意义 |
$remote_addr | 客户端ip |
$remote_user | 远程客户端用户名,一般为'-' |
$time_local | 时间和时区 |
$request | 请求的url以及method |
$status | 响应状态码 |
$body_bytes_send | 响应客户端内容字节数 |
$http_referer | 记录用户从哪个链接跳转过来的 |
$http_user_agent | 用户所使用的代理,一般来时都是浏览器 |
$http_x_forwarded_for | 通过代理服务器来记录客户端的ip |
9.sendfile使用高效文件传输,提升传输性能启用后才能使用tcp_nopush,是指当数据表累积一定大小后才发送,提高了效率。
sendfile on;
tcp_nopush on;
10.keepalive_timeout设置客户端与服务端请求的超时时间,保证客户端多次请求的时候不会重复建立新的连接,节约资源损耗。
#keepalive_timeout 0; # 默认
keepalive_timeout 65;
11.gzip启用压缩,html/js/cdd压缩后传输会更快
# 开启gzip压缩功能,目的:提高传输效率,节约带宽
gzip on;
# 限制最小压缩,小于1字节文件不会压缩
gzip_min_length 1;
# 定义压缩的级别(压缩比,文件越大,压缩越多,但是cpu使用会越多)
gzip_comp_level 3;
# 定义压缩文件的类型
gzip_types text/plain ......;
12.server可以在htttp指令块中设置多个虚拟主机
server {
listen 88;
server_name localhost;
location / {
root html;
index index.html index.htm;
}
}
13.root与alias
如果服务器路径为:/home/bxl/files/img.png
配置的时候为:
location /bxl{
root /home
}
用户访问的时候请求为:url:prot/bxl/files/img.png
配置的时候为:
location /hello{
alias /home/bxl
}
用户访问的时候请求为:url:prot/hello/files/img.png,如此相当于为目录bxl做一个自定义的别名。
14.location的匹配规则
location / {
root /home;
}
location = /bxl/files/img.png {
root /home;
}
# 符合图片的显示
location ~* .(GIF|jpg|png|jpeg) {
root /home;
}
# GIF必须大写才能匹配到
location ~ .(GIF|jpg|png|jpeg) {
root home;
}
location ^~ /bxl/files {
root /home;
}
现有的日志都会存在access.log文件中,但是随着时间的推移,这个文件的内容会越来越多,体积会越来越大,对运维人员就很不利,所以我们可以通过把这个大的日志文件切割为多份不同的小文件作为日志,切割规则可以以天为单位,看实际情况的需要,如果每天有几百G或者几个T的日志的话,则可以按需以每半天或者每小时对日志进行切割。
1.创建一个shell可执行文件cut_my_log.sh,内容为:
#!/bin/bash
LOG_PATH="/var/log/nginx/"
RECORD_TIME=$(date -d "yesterday" +%Y-%m-%d+%H:%M)
PID=/var/run/nginx/nginx.pid
mv ${LOG_PATH}/access.log ${LOG_PATH}/access.${RECORD_TIME}.log
mv ${LOG_PATH}/error.log ${LOG_PATH}/error.${RECORD_TIME}.log
#向Nginx主进程发送信号,用于重新打开日志文件
kill -USR1 `cat $PID`
2.为cut_my_log.sh添加可执行的权限:
chmod +x cut_my_log.sh
3.测试日志切割后的结果:
./cut_my_log.sh
对于手动日志切割,那肯定是对Nginx使用是不太智能的,也很不方便,那么我们就使用定时任务的方式,让程序自动在规定时间去帮我们执行。
1.安装定时任务:
在本地的虚拟机中的centos6 或者centos7都是自带的;在云服务器中是没有的,需要执行以下命令。
yum install crontabs
2.crontab -e编辑并且添加一行新的任务:
*/1 * * * * /usr/local/nginx/sbin/cut_my_log.sh
3.重启定时任务:
service crond restart
命令 | 备注 |
service crond start | 启动服务 |
service crond stop | 关闭服务 |
service crond restart |
重启服务 |
service crond reload | 重新载入配置 |
crontab -e | 编辑任务 |
crontab -l | 查看任务列表 |
分 | 时 | 日 | 月 | 星期几 | 年(可选) | |
取值范围 | 0-59 | 0-23 | 1-31 | 1-12 | 1-7 | 2019/2020/2021/..... |
# 每分钟执行
*/1 * * * *
# 每日凌晨(每天晚上23:59)执行:
59 23 * * *
# 每日凌晨1点执行:
0 1 * * *