Контейнер эластичного поиска на основе докера остановлен из-за журнала «java.io.IOException: на устройстве не осталось места». В файле /dev/sda есть 24 г свободного места

#docker #elasticsearch #docker-compose #docker-volume #persistent-volumes

Вопрос:

Я использую докеризованную настройку magento по этой ссылке на github

Я использую основной файл «docker-compose.yml» из репозитория

   elasticsearch:
    build:
      context: .
      dockerfile: build/elasticsearch/Dockerfile
    environment:
      - cluster.name=docker-cluster
      - bootstrap.memory_lock=true
      - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
      - node.name=node-1
      - cluster.initial_master_nodes=node-1
    ulimits:
      memlock:
        soft: -1
        hard: -1
    volumes:
      - ./elasticsearchdata:/usr/share/elasticsearch/data
      - ./elasticconfig/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml
    ports:
      - 9200:9200
    networks:
      - <project_name>-network
 

В этом уже добавьте объем, чтобы эластичные данные сохранялись
, после этого все работает довольно хорошо, но через месяц я столкнулся с ошибкой из журналов контейнера эластичного поиска, которая

 "java.io.IOException: No space left on device"
 

и когда я проверил /dev/sda, у меня было 24 г свободного места

Поэтому я не уверен, что сейчас я сталкиваюсь с этим, и контейнер не удалось перезапустить или запустить. просто укажите небольшой путь к решению, которого было бы достаточно!!! и спасибо Уже

Комментарии:

1. Можете ли вы вставить выходные данные df-h и df-h из контейнера docker

2. ` [root@7ebd9c0f0777 elasticsearch]# Размер файловой системы df-h Используется для использования% Смонтирован на наложении 315 Г 282 Г 18 Г 95% / tmpfs 64 М 0 64 М 0% /dev tmpfs 7,9 Г 0 7,9 Г 0% /sys/fs/cgroup shm 64 М 0 64 М 0% /dev/shm /dev/sda 315 Г 282 Г 18 Г 95% /etc/хосты tmpfs 7,9 Г 0 7,9 Г 0% /proc/acpi tmpfs 7,9 Г 0 7,9 Г 0% /proc/scsi tmpfs 7,9 Г 0 7,9 Г 0% /sys/прошивка `

3. По — моему, все в порядке. Тем не менее, если вы не против удаления существующих данных, вы можете попробовать удалить том docker. docker volume rm {}

4. @DhireshJain Это может сработать, но я все равно не хочу;кроме того, мне нужна потеря данных, кроме того, если мы сможем увеличить этот размер раздела 7,9 G /sys/fs/cgroup, с которым я, возможно, не столкнусь. у вас есть какие-либо рекомендации по этому поводу