Оптимизация БД: PostgreSQL, MySQL, ClickHouse

Делаем БД быстрой и надёжной. Анализ slow log, переписывание запросов, индексы, реплики, тюнинг VACUUM и autovacuum, грамотные бэкапы.

Проблема

Боль, которую снимаем

  • — Запросы тормозят: API отвечает 3 секунды там, где должен 50 мс.
  • — PostgreSQL «съедает» CPU; replication lag растёт; autovacuum не справляется.
  • — Никто не знает, какие индексы реально используются, а какие просто занимают место.
  • — Бэкап есть, но восстановление никогда не проверялось — и не на той версии.
Решение

Что делаем

  • — Глубокий аудит: pg_stat_statements / Performance Schema / sys.dm_db, slow query log, hot-paths.
  • — Переписываем критические запросы, расставляем индексы (BTREE, GIN, BRIN, covering), убираем лишние.
  • — Настраиваем репликацию (streaming, logical), backup на restic+pgBackRest, point-in-time recovery.
  • — Тюним конфиг: shared_buffers, work_mem, autovacuum, checkpoint, parallel workers.
Стек

Технологический стек

РСУБД

PostgreSQLMySQLMariaDBMS SQL Server

OLAP

ClickHouseGreenplumRedshift-совместимые

NoSQL/KV

RedisMongoDBTarantoolCassandra

Бэкапы / HA

pgBackRestPatroniPgBouncerMaxScalePercona XtraBackup
Подход

Как мы это делаем

01

Snapshot и аудит

3–5 дней. Снимаем pg_stat_statements / performance_schema, профилируем нагрузку.

02

Quick wins

1–2 недели. Индексы, переписанные топ-10 запросов, базовый тюнинг конфига.

03

Глубокая работа

1–3 месяца. Партиционирование, реплики, шардинг, проверенный backup-flow.

04

Поддержка

Постоянно. Контроль метрик, ежемесячный отчёт, регулярные drill-восстановления.

FAQ

Частые вопросы

Какой типичный результат после оптимизации?
На зрелых проектах: ускорение топ-запросов в 5–20 раз, снижение CPU на 30–60%, replication lag — секунды. На запущенных — ещё больше.
Можно ли оптимизировать БД без даунтайма?
Да. CREATE INDEX CONCURRENTLY, pg_repack, online migration через logical replication. Простой считается планово, обычно — 0.
Работаете с 1С на PostgreSQL?
Да, в том числе с патчами PostgresPro и Postgres-1C-сборками. Тюнинг под 1С-нагрузку — отдельная компетенция.
Что с ClickHouse — у вас есть опыт high-load?
Десятки миллиардов строк, проекции, материализованные view, ReplicatedMergeTree, шардинг. Готовы показать на собесе.
Бэкапы — как часто и куда?
Полный — еженедельно, инкрементальный — ежедневно, WAL — непрерывно. Локально + S3-совместимое (Yandex / Selectel) + offsite. Drill-восстановление — раз в квартал.
Поддерживаете PITR (point-in-time recovery)?
Да: WAL-archive непрерывно, восстановление на любую секунду. Drill-тесты раз в квартал. Хранилище — РФ (152-ФЗ), репликация в кластер.
Соответствие ISO/IEC 27001 и NDA?
Процессы по подходу ISO/IEC 27001 (управление изменениями, аудит). NDA подписываем до доступа к prod-данным. Регионы: Москва, Краснодар, Крым.
Цена

Стоимость

От 80 000 ₽/мес. Точная цена — после discovery в зависимости от объёма инфраструктуры и SLA.

Смотреть тарифы Получить расчёт
Доверие

Как обеспечиваем надёжность

152-ФЗ

Хранение и обработка данных — в РФ. Изолированный контур для ПДн.

NDA

Подписываем NDA до доступа к prod-окружению и discovery.

ISO / CIS

Подход к процессам — ISO/IEC 27001. Hardening по CIS Benchmarks.

Регионы присутствия

Москва · Краснодар · Крым. Дежурная смена 24/7 с горячей передачей.

Начнём

Расскажите про задачу — пришлём расчёт за 24 часа

Бесплатная первичная консультация. Подпишем NDA до обсуждения деталей. Без обязательств.

Связаться Telegram

Полный стек технологий

Что мы реально используем в работе. Без версий — продукты регулярно обновляются, но философия и принципы стабильны.

PostgreSQL pgBouncer Patroni pg_stat_statements pgBadger TimescaleDB pgpool-II MySQL MariaDB Galera Percona MaxScale ClickHouse Apache Cassandra Redis KeyDB Valkey MongoDB CouchDB Elasticsearch OpenSearch SQLite pg_dump pg_basebackup WAL-G Barman MyDumper explain.dalibo Patroni HA streaming replication physical/logical backup PITR point-in-time recovery