Масштабирование DB ClickPipes через OpenAPI
Базовая конфигурация DB ClickPipes рассчитана на то, чтобы «из коробки» обрабатывать большинство нагрузок. Если вы считаете, что вашей нагрузке требуется масштабирование, откройте запрос в поддержку, и мы поможем вам подобрать оптимальные настройки для вашего сценария.
API масштабирования может быть полезен для:
- Крупных начальных загрузок (свыше 4 ТБ)
- Максимально быстрой миграции умеренных объёмов данных
- Поддержки более 8 CDC ClickPipes в рамках одного сервиса
Прежде чем увеличивать масштаб, учтите следующее:
- Убедитесь, что в исходной БД достаточно доступных ресурсов
- Сначала настройте параллелизм и разбиение начальной загрузки при создании ClickPipe
- Проверьте наличие долго выполняющихся транзакций в источнике, которые могут вызывать задержки CDC
Увеличение масштаба пропорционально увеличит ваши расходы на вычислительные ресурсы ClickPipes. Если вы масштабируете сервис только для начальных загрузок, важно уменьшить масштаб после завершения снимка, чтобы избежать непредвиденных затрат. Дополнительные сведения о ценах см. в разделе Тарифы на Postgres CDC.
Предварительные требования для этого процесса
Прежде чем начать, вам потребуется:
- API-ключ ClickHouse с правами Admin для целевого сервиса ClickHouse Cloud.
- Конвейер ClickPipe для БД (Postgres, MySQL или MongoDB), уже созданный в сервисе. Инфраструктура CDC создаётся вместе с первым ClickPipe, и с этого момента становятся доступны API-эндпоинты масштабирования.
Порядок масштабирования DB ClickPipes
Перед выполнением команд задайте следующие переменные окружения:
Получите текущую конфигурацию масштабирования (при необходимости):
Укажите требуемый уровень масштабирования. Поддерживаются конфигурации с 1–24 ядрами CPU и объёмом памяти (ГБ), равным 4× числу ядер:
Дождитесь применения конфигурации (обычно это занимает 3–5 минут). После завершения масштабирования GET-эндпоинт отобразит новые значения: