Система кэширования бинарного контента между серверами через NGINX

У нас есть хранилище данных, там много бинарного контента, назовем его А-сервером. Также у меня есть C-сервер, который использует его содержимое и имеет очень маленький кеш (L1). А также у нас есть B-сервер, где будет кеш с большим объемом памяти (который будет прокси-запросами к A-серверу, если там нет нужного контента. Будет кеш L2. Так что вопрос в том, как это должно быть спроектировано "Сейчас монтируем хранилище данных на А-сервер через nfs. Но это решение плохо для нас. Также канал между БК очень-очень нестабилен. Мы думаем о прокси-системе nginx. Но первый вопрос - как добавить промежуточное ПО между nginx и FS на B-сервере, чтобы его можно было использовать как нашу систему кэширования.И нужно ли нам писать свою собственную систему кэширования(на B-сервере)?Или использовать готовую?Если использовать - какую?

Простая схема, как я понимаю.

C-сервер -> B-сервер -> NGINX -> промежуточное ПО кэширования -> FS или -> C-сервер -> NGINX -> FS

PS. Если вы считаете, что тема неверна, не стесняйтесь исправлять ее. И извините за мой плохой английский.


person Sukhanov Niсkolay    schedule 07.12.2013    source источник


Ответы (1)


Используйте собственный кеширующий прокси nginx.

person Sukhanov Niсkolay    schedule 22.06.2014