У нас есть хранилище данных, там много бинарного контента, назовем его А-сервером. Также у меня есть C-сервер, который использует его содержимое и имеет очень маленький кеш (L1). А также у нас есть B-сервер, где будет кеш с большим объемом памяти (который будет прокси-запросами к A-серверу, если там нет нужного контента. Будет кеш L2. Так что вопрос в том, как это должно быть спроектировано "Сейчас монтируем хранилище данных на А-сервер через nfs. Но это решение плохо для нас. Также канал между БК очень-очень нестабилен. Мы думаем о прокси-системе nginx. Но первый вопрос - как добавить промежуточное ПО между nginx и FS на B-сервере, чтобы его можно было использовать как нашу систему кэширования.И нужно ли нам писать свою собственную систему кэширования(на B-сервере)?Или использовать готовую?Если использовать - какую?
Простая схема, как я понимаю.
C-сервер -> B-сервер -> NGINX -> промежуточное ПО кэширования -> FS или -> C-сервер -> NGINX -> FS
PS. Если вы считаете, что тема неверна, не стесняйтесь исправлять ее. И извините за мой плохой английский.