невозможно импортировать большую базу данных в контейнер docker mysql

#mysql #docker #docker-compose

#mysql #docker #docker-compose

Вопрос:

Я пытаюсь импортировать большую базу данных в контейнер mysql. Я смонтировал каталоги хостов как тома для контейнера mysql. Таким образом, данные сохраняются на хосте. Импортируемый файл sql 14 GB равен . Контейнер mysql перестает отвечать на запросы на полпути импорта. Когда я запускаю docker stats , я вижу CPU % , что использование становится < 1 , как только контейнер mysql съел всю доступную память. Я попытался увеличить память docker до 10 GB , и он создает больше таблиц из импорта, когда я выделяю больше памяти для Docker. Но я не могу выделить больше, чем 10GB с хоста.

Ниже приведен мой docker-compose.yml файл

 mysql:
    image: mysql:5.6
    environment:
        - MYSQL_ROOT_PASSWORD=12345678
    volumes:
        - ./mysql/lib:/var/lib/mysql
        - ./mysql/conf.d:/etc/mysql/conf.d
        - ./mysql/log:/var/log/mysql
        - /tmp:/tmp
    ports:
        - "3306:3306"
  

Я использую Docker for mac версию docker 1.12.1

Я использовал docker exec -it docker_mysql_1 /bin/bash для входа в контейнер и импорта файла sql из /tmp

Также я попробовал способ, рекомендованный репозиторием mysql, смонтировав файл sql в /docker-entrypoint-initdb.d . Но это также останавливает инициализацию mysql.

ОБНОВЛЕНИЕ 1

 $ docker info
Containers: 1
 Running: 0
 Paused: 0
 Stopped: 1
Images: 2
Server Version: 1.12.1
Storage Driver: aufs
 Root Dir: /var/lib/docker/aufs
 Backing Filesystem: extfs
 Dirs: 18
 Dirperm1 Supported: true
Logging Driver: json-file
Cgroup Driver: cgroupfs
Plugins:
 Volume: local
 Network: host bridge null overlay
Swarm: inactive
Runtimes: runc
Default Runtime: runc
Security Options: seccomp
Kernel Version: 4.4.20-moby
Operating System: Alpine Linux v3.4
OSType: linux
Architecture: x86_64
CPUs: 4
Total Memory: 9.744 GiB
Name: moby
ID: 43S4:LA5E:6MTG:IFOG:HHJC:HYLX:LYIT:YU43:QGBQ:K5I5:Z6LP:AENZ
Docker Root Dir: /var/lib/docker
Debug Mode (client): false
Debug Mode (server): true
 File Descriptors: 16
 Goroutines: 27
 System Time: 2016-10-12T07:52:58.516469676Z
 EventsListeners: 1
No Proxy: *.local, 169.254/16
Registry: https://index.docker.io/v1/
Insecure Registries:
 127.0.0.0/8


$ df -h
Filesystem      Size   Used  Avail Capacity iused      ifree %iused  Mounted on
/dev/disk1     233Gi  141Gi   92Gi    61% 2181510 4292785769    0%   /
devfs          193Ki  193Ki    0Bi   100%     668          0  100%   /dev
map -hosts       0Bi    0Bi    0Bi   100%       0          0  100%   /net
map auto_home    0Bi    0Bi    0Bi   100%       0          0  100%   /home
/dev/disk2s2   466Gi   64Gi  401Gi    14%    1857 4294965422    0%   /Volumes/mac
/dev/disk2s3   465Gi   29Gi  436Gi     7%  236633    3575589    6%   /Volumes/PORTABLE
/dev/disk3s1   100Mi   86Mi   14Mi    86%      12 4294967267    0%   /Volumes/Vagrant
  

Я использовал каталоги /dev/ disk1 для монтирования томов.

Комментарии:

1. Не могли бы вы добавить вывод: docker info и df -h

2. @guenhter Смотрите Обновление 1

3. Привет, вы нашли какое-либо решение этой проблемы. Даже я сталкиваюсь с тем же.

4. @MukeshYadav Мне пришлось разделить файл sql на файлы меньшего размера, используя github.com/Verace/MySQLDumpSplitter и импортировал их.

Ответ №1:

Я решил ошибку phpmyadmin-> импорт большой базы данных, изменив переменную среды в docker-compose.yml

UPLOAD_LIMIT = 1G

 
myadmin:
        image: phpmyadmin/phpmyadmin
        container_name: phpmyadmin
        ports:
            - "8083:80"
        environment:
            - UPLOAD_LIMIT=1G
            - PMA_ARBITRARY=1
            - PMA_HOST=${MYSQL_HOST}
        restart: always
        depends_on:
            - mysqldb
  

Ответ №2:

У меня была аналогичная проблема при попытке загрузить большой файл sql в мою базу данных. Мне просто нужно было увеличить максимальный размер пакета в контейнере, и импорт работал, как ожидалось. Например, вы хотите увеличить максимальный размер вашего файла SQL до 512 МБ, а ваш контейнер называется my_mysql, вы можете настроить размер пакета в запущенном контейнере с помощью этой команды:

 docker exec -it my_mysql bash -c "echo 'max_allowed_packet = 512M' >> /etc/mysql/mysql.conf.d/mysqld.cnf" 
  

При этом строка добавляется в конфигурационный файл. После этого вам необходимо перезапустить контейнер:

 docker restart my_mysql
  

Комментарии:

1. Мне удалось импортировать свою базу данных, разделив ее на более мелкие фрагменты. Я думаю, что я пытался настроить это значение, но мой случай был хуже.

2. Хорошо, это может быть лучшим решением вашей проблемы. Мне просто нужно было импортировать файл размером в несколько сотен мегабайт.

Ответ №3:

Даже я столкнулся с подобной проблемой. Следуйте приведенному ниже процессу, это может вам помочь: сначала скопируйте ваш файл sql (filename.sql) в контейнер db.

 docker cp filename.sql docker_db_container:/filename.sql
  

Позже войдите в свой контейнер db и заполните db этим файлом (filename.sql).
Для того, чтобы вставить ваш файл (filename.sql) в базу данных,
перейдите в mysql в контейнер db, используйте db, в котором вы хотите сохранить базу данных, т.Е.. use database_name;

 source /filename.sql
  

Тем не менее, если вы столкнулись с проблемой, связанной с большим размером пакета, увеличьте размер пакета контейнеров

 docker exec -it docker_db_container bash -c "echo 'max_allowed_packet = 1024M' >> /etc/mysql/mysql.conf.d/mysqld.cnf"