← все записи

Настройка Nginx для реального проекта: TLS, gzip, rate limiting

3 октября 2025 · Alex Volk
Nginx DevOps TLS

Каждый раз, когда поднимаю новый сервер, трачу время на одно и то же. Решил записать правильную конфигурацию Nginx — ту, которая у меня в production. Без лишней воды, только то, что реально нужно.

Базовая структура

Стандартная структура: глобальный nginx.conf с общими настройками, и отдельные конфиги в sites-enabled/. Не мешаю всё в один файл.

# /etc/nginx/nginx.conf
user www-data;
worker_processes auto;
worker_rlimit_nofile 65535;
pid /run/nginx.pid;

events {
    worker_connections 4096;
    use epoll;
    multi_accept on;
}

http {
    sendfile on;
    tcp_nopush on;
    tcp_nodelay on;
    keepalive_timeout 65;
    types_hash_max_size 4096;

    include /etc/nginx/mime.types;
    default_type application/octet-stream;

    # Логи
    log_format main '$remote_addr - $remote_user [$time_local] '
                    '"$request" $status $body_bytes_sent '
                    '"$http_referer" "$http_user_agent" '
                    '$request_time';
    access_log /var/log/nginx/access.log main;

    include /etc/nginx/sites-enabled/*;
}

TLS 1.3 и современные шифры

Минимальная версия — TLS 1.2, но цель — TLS 1.3 везде где возможно. Старые клиенты (IE11, Android 4.x) — не моя аудитория.

server {
    listen 443 ssl;
    listen [::]:443 ssl;
    http2 on;

    ssl_certificate     /etc/letsencrypt/live/example.com/fullchain.pem;
    ssl_certificate_key /etc/letsencrypt/live/example.com/privkey.pem;

    ssl_protocols TLSv1.2 TLSv1.3;
    ssl_ciphers 'ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305';
    ssl_prefer_server_ciphers off;

    # Session cache
    ssl_session_cache shared:SSL:10m;
    ssl_session_timeout 1d;
    ssl_session_tickets off;

    # HSTS
    add_header Strict-Transport-Security "max-age=63072000; includeSubDomains" always;
}

Gzip: что жать, а что нет

Частая ошибка — включить gzip глобально и забыть. Бинарные файлы (изображения, PDF) не сжимаются, только тратится CPU. Правильно так:

gzip on;
gzip_vary on;
gzip_proxied any;
gzip_comp_level 6;
gzip_buffers 16 8k;
gzip_http_version 1.1;
gzip_min_length 1024;
gzip_types
    text/plain
    text/css
    text/xml
    text/javascript
    application/javascript
    application/x-javascript
    application/json
    application/xml
    application/rss+xml
    font/ttf
    font/opentype
    image/svg+xml;

Уровень 6 — хороший баланс между сжатием и нагрузкой на CPU. Уровни 7-9 дают 2-3% выигрыша при значительно большей нагрузке — не стоит того.

Rate limiting

Два зоны: одна для API (строго), другая для обычных запросов (мягче):

# В http блоке
limit_req_zone $binary_remote_addr zone=api:10m rate=10r/s;
limit_req_zone $binary_remote_addr zone=login:10m rate=1r/s;

# В server блоке
location /api/ {
    limit_req zone=api burst=20 nodelay;
    limit_req_status 429;
    proxy_pass http://backend;
}

location /auth/login {
    limit_req zone=login burst=5;
    proxy_pass http://backend;
}

burst — буфер для пиков трафика. nodelay — обрабатывать burst без задержки, лишние сразу отклонять. Без nodelay запросы ставятся в очередь — пользователи видят тормоза вместо 429.

Заголовки безопасности

add_header X-Frame-Options "SAMEORIGIN" always;
add_header X-Content-Type-Options "nosniff" always;
add_header Referrer-Policy "strict-origin-when-cross-origin" always;
add_header Permissions-Policy "geolocation=(), camera=(), microphone=()" always;
add_header Content-Security-Policy "default-src 'self'; script-src 'self'; style-src 'self' 'unsafe-inline'" always;

Проксирование на backend

upstream backend {
    server 127.0.0.1:8000;
    keepalive 32;
}

location / {
    proxy_pass http://backend;
    proxy_http_version 1.1;
    proxy_set_header Connection "";
    proxy_set_header Host $host;
    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    proxy_set_header X-Forwarded-Proto $scheme;

    proxy_connect_timeout 5s;
    proxy_read_timeout 60s;
    proxy_send_timeout 60s;

    proxy_buffering on;
    proxy_buffer_size 8k;
    proxy_buffers 8 8k;
}

keepalive 32 в upstream — держит постоянные соединения к backend. Без этого Nginx при каждом запросе открывает новый TCP-коннект. На highload разница ощутимая.

Проверка конфига

Всегда перед reload:

nginx -t && nginx -s reload

Если что-то пошло не так — смотрю логи:

tail -f /var/log/nginx/error.log

На этом основное. Детали по конкретным кейсам (WebSocket, большие файлы, geo-блокировка) — в следующих постах, если хватит времени написать.