您当前的位置:首页 > 计算机 > 服务器 > Nginx

❤️Nginx——核心配置文件+日志切割❤️

时间:06-20来源:作者:点击数:

简介

本文章主要介绍一下Nginx的核心配置文件和日志切割(手动+定时)。

一、核心配置文件

1.设置worker进程的用户,指的是linux中的用户,会涉及到nginx操作目录或文件的一些权限,默认为nobody

user root;

2.worker进程工作数设置,一般来说CPU有几个,就设置几个,或者设置为N-1也行

worker_processes 1;

3.nginx日志级别debug|info | notice| warn| error | crit | alert | emerg,错误级别从左到右越来越大

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;

4.设置nginx进程pid

pid       log/nginx.pid;

5.设置工作模式

events{
    # 默认使用epoll
    use epoll;
    # 每个worker允许连接的客户端最大连接数
    worker_connections 10240;
}

6.http是指令块,针对http网络传输的一些指令配置

http{

}

7.include 引入外部配置,提高可读性,避免单个配置文件过大

include        mime.types;

8.设定日志格式,main为定义的格式名称,如此access_log就可以直接使用这个变量了

参数名 参数意义
$remote_addr 客户端ip
$remote_user 远程客户端用户名,一般为'-'
$time_local 时间和时区
$request 请求的url以及method
$status 响应状态码
$body_bytes_send 响应客户端内容字节数
$http_referer 记录用户从哪个链接跳转过来的
$http_user_agent 用户所使用的代理,一般来时都是浏览器
$http_x_forwarded_for 通过代理服务器来记录客户端的ip

9.sendfile使用高效文件传输,提升传输性能启用后才能使用tcp_nopush,是指当数据表累积一定大小后才发送,提高了效率。

sendfile       on;
tcp_nopush     on;

10.keepalive_timeout设置客户端与服务端请求的超时时间,保证客户端多次请求的时候不会重复建立新的连接,节约资源损耗。

#keepalive_timeout   0;   # 默认
keepalive_timeout   65;

11.gzip启用压缩,html/js/cdd压缩后传输会更快

# 开启gzip压缩功能,目的:提高传输效率,节约带宽
gzip on;

# 限制最小压缩,小于1字节文件不会压缩
gzip_min_length 1;

# 定义压缩的级别(压缩比,文件越大,压缩越多,但是cpu使用会越多)
gzip_comp_level 3;

# 定义压缩文件的类型
gzip_types text/plain ......;

12.server可以在htttp指令块中设置多个虚拟主机

  • listen:监听端口
  • server_name: localhost、ip、域名
  • location: 请求路由映射,匹配拦截
  • root:请求位置
  • index :首页设置
    server {
        listen       88;
        server_name  localhost;
        
        location / {
            root   html;
            index  index.html index.htm;
         }
    }
    

13.root与alias

如果服务器路径为:/home/bxl/files/img.png

  • root路径完全匹配访问

配置的时候为:

location /bxl{
    root /home 
}

用户访问的时候请求为:url:prot/bxl/files/img.png

  • alias可以为你的路径做一个别名,对用户透明

配置的时候为:

location /hello{
    alias /home/bxl
}

用户访问的时候请求为:url:prot/hello/files/img.png,如此相当于为目录bxl做一个自定义的别名。

14.location的匹配规则

  • 空格:默认匹配,普通匹配
location / {
    root /home;
}
  • =:精确匹配
location = /bxl/files/img.png {
    root /home;
}
  • ~*:匹配正则表达式,不区分大小写
# 符合图片的显示
location ~* .(GIF|jpg|png|jpeg) {
    root /home;
}
  • ~:匹配正则表达式,区分大小写
# GIF必须大写才能匹配到
location ~ .(GIF|jpg|png|jpeg) {
    root home;
}
  • ^~:以某个字符路径开头
location ^~ /bxl/files {
    root /home;
}

二、日志切割-手动

现有的日志都会存在access.log文件中,但是随着时间的推移,这个文件的内容会越来越多,体积会越来越大,对运维人员就很不利,所以我们可以通过把这个大的日志文件切割为多份不同的小文件作为日志,切割规则可以以天为单位,看实际情况的需要,如果每天有几百G或者几个T的日志的话,则可以按需以每半天或者每小时对日志进行切割。

具体步骤

1.创建一个shell可执行文件cut_my_log.sh,内容为:

#!/bin/bash
LOG_PATH="/var/log/nginx/"
RECORD_TIME=$(date -d "yesterday" +%Y-%m-%d+%H:%M)
PID=/var/run/nginx/nginx.pid
mv ${LOG_PATH}/access.log ${LOG_PATH}/access.${RECORD_TIME}.log
mv ${LOG_PATH}/error.log ${LOG_PATH}/error.${RECORD_TIME}.log

#向Nginx主进程发送信号,用于重新打开日志文件
kill -USR1 `cat $PID`

2.为cut_my_log.sh添加可执行的权限:

chmod +x cut_my_log.sh

3.测试日志切割后的结果:

./cut_my_log.sh

三、日志切割-定时

对于手动日志切割,那肯定是对Nginx使用是不太智能的,也很不方便,那么我们就使用定时任务的方式,让程序自动在规定时间去帮我们执行。

使用定时任务

1.安装定时任务:

在本地的虚拟机中的centos6 或者centos7都是自带的;在云服务器中是没有的,需要执行以下命令。

yum install crontabs

2.crontab -e编辑并且添加一行新的任务:

*/1 * * * * /usr/local/nginx/sbin/cut_my_log.sh

3.重启定时任务:

service crond restart
常用的定时任务命令
命令 备注
service crond start 启动服务
service crond stop 关闭服务

service crond restart

重启服务
service crond reload 重新载入配置
crontab -e 编辑任务
crontab -l 查看任务列表
定时任务表达式
  星期几 年(可选)
取值范围 0-59 0-23 1-31 1-12 1-7 2019/2020/2021/.....
常用的定时任务表达式
# 每分钟执行
*/1 * * * *

# 每日凌晨(每天晚上23:59)执行:
59 23 * * *

# 每日凌晨1点执行:
0 1 * * *
方便获取更多学习、工作、生活信息请关注本站微信公众号城东书院 微信服务号城东书院 微信订阅号
推荐内容
相关内容
栏目更新
栏目热门