Распределенное кэширование с контейнером redis на разных устройствах

#docker #api #caching #redis #containers

Вопрос:

У меня есть пара вопросов. Во — первых, мое намерение-я хочу, чтобы два типа синхронизировали мои данные приложения между контейнером redis в памяти и контейнером redis на другом устройстве. Кэш в памяти всегда должен быть обновлен. Поэтому, если я хочу получить доступ к своим данным, но не могу подключиться к своему «основному» устройству, я все равно могу получать некоторую информацию через внешний кэш (всегда доступный, хорошо, если он не обновлен).

Поэтому я подумал о контейнере на моем основном устройстве, который обновляет мои данные во внешнем кэше с помощью записей в кэше памяти в определенный промежуток времени.

Теперь мои вопросы:

  1. Подходит ли реализация скрипта bash или python лучше для моих намерений?
  2. Есть ли способ получать/обновлять мои кэши, пока обе службы остаются активными/онлайн? (Прочитайте сравнение keys * , в котором блокируется мой сервер, а тем scan временем включается доступ к нему во время процесса.)
  3. Как я могу указать свои ключи, которые я хочу обновить?

Заранее спасибо