#mysql #docker #docker-compose
#mysql #docker #docker-compose
Вопрос:
Я пытаюсь импортировать большую базу данных в контейнер mysql. Я смонтировал каталоги хостов как тома для контейнера mysql. Таким образом, данные сохраняются на хосте. Импортируемый файл sql 14 GB
равен . Контейнер mysql перестает отвечать на запросы на полпути импорта. Когда я запускаю docker stats
, я вижу CPU %
, что использование становится < 1
, как только контейнер mysql съел всю доступную память. Я попытался увеличить память docker до 10 GB
, и он создает больше таблиц из импорта, когда я выделяю больше памяти для Docker. Но я не могу выделить больше, чем 10GB
с хоста.
Ниже приведен мой docker-compose.yml
файл
mysql:
image: mysql:5.6
environment:
- MYSQL_ROOT_PASSWORD=12345678
volumes:
- ./mysql/lib:/var/lib/mysql
- ./mysql/conf.d:/etc/mysql/conf.d
- ./mysql/log:/var/log/mysql
- /tmp:/tmp
ports:
- "3306:3306"
Я использую Docker for mac
версию docker 1.12.1
Я использовал docker exec -it docker_mysql_1 /bin/bash
для входа в контейнер и импорта файла sql из /tmp
Также я попробовал способ, рекомендованный репозиторием mysql, смонтировав файл sql в /docker-entrypoint-initdb.d
. Но это также останавливает инициализацию mysql.
ОБНОВЛЕНИЕ 1
$ docker info
Containers: 1
Running: 0
Paused: 0
Stopped: 1
Images: 2
Server Version: 1.12.1
Storage Driver: aufs
Root Dir: /var/lib/docker/aufs
Backing Filesystem: extfs
Dirs: 18
Dirperm1 Supported: true
Logging Driver: json-file
Cgroup Driver: cgroupfs
Plugins:
Volume: local
Network: host bridge null overlay
Swarm: inactive
Runtimes: runc
Default Runtime: runc
Security Options: seccomp
Kernel Version: 4.4.20-moby
Operating System: Alpine Linux v3.4
OSType: linux
Architecture: x86_64
CPUs: 4
Total Memory: 9.744 GiB
Name: moby
ID: 43S4:LA5E:6MTG:IFOG:HHJC:HYLX:LYIT:YU43:QGBQ:K5I5:Z6LP:AENZ
Docker Root Dir: /var/lib/docker
Debug Mode (client): false
Debug Mode (server): true
File Descriptors: 16
Goroutines: 27
System Time: 2016-10-12T07:52:58.516469676Z
EventsListeners: 1
No Proxy: *.local, 169.254/16
Registry: https://index.docker.io/v1/
Insecure Registries:
127.0.0.0/8
$ df -h
Filesystem Size Used Avail Capacity iused ifree %iused Mounted on
/dev/disk1 233Gi 141Gi 92Gi 61% 2181510 4292785769 0% /
devfs 193Ki 193Ki 0Bi 100% 668 0 100% /dev
map -hosts 0Bi 0Bi 0Bi 100% 0 0 100% /net
map auto_home 0Bi 0Bi 0Bi 100% 0 0 100% /home
/dev/disk2s2 466Gi 64Gi 401Gi 14% 1857 4294965422 0% /Volumes/mac
/dev/disk2s3 465Gi 29Gi 436Gi 7% 236633 3575589 6% /Volumes/PORTABLE
/dev/disk3s1 100Mi 86Mi 14Mi 86% 12 4294967267 0% /Volumes/Vagrant
Я использовал каталоги /dev/ disk1 для монтирования томов.
Комментарии:
1. Не могли бы вы добавить вывод:
docker info
иdf -h
2. @guenhter Смотрите Обновление 1
3. Привет, вы нашли какое-либо решение этой проблемы. Даже я сталкиваюсь с тем же.
4. @MukeshYadav Мне пришлось разделить файл sql на файлы меньшего размера, используя github.com/Verace/MySQLDumpSplitter и импортировал их.
Ответ №1:
Я решил ошибку phpmyadmin-> импорт большой базы данных, изменив переменную среды в docker-compose.yml
UPLOAD_LIMIT = 1G
myadmin:
image: phpmyadmin/phpmyadmin
container_name: phpmyadmin
ports:
- "8083:80"
environment:
- UPLOAD_LIMIT=1G
- PMA_ARBITRARY=1
- PMA_HOST=${MYSQL_HOST}
restart: always
depends_on:
- mysqldb
Ответ №2:
У меня была аналогичная проблема при попытке загрузить большой файл sql в мою базу данных. Мне просто нужно было увеличить максимальный размер пакета в контейнере, и импорт работал, как ожидалось. Например, вы хотите увеличить максимальный размер вашего файла SQL до 512 МБ, а ваш контейнер называется my_mysql, вы можете настроить размер пакета в запущенном контейнере с помощью этой команды:
docker exec -it my_mysql bash -c "echo 'max_allowed_packet = 512M' >> /etc/mysql/mysql.conf.d/mysqld.cnf"
При этом строка добавляется в конфигурационный файл. После этого вам необходимо перезапустить контейнер:
docker restart my_mysql
Комментарии:
1. Мне удалось импортировать свою базу данных, разделив ее на более мелкие фрагменты. Я думаю, что я пытался настроить это значение, но мой случай был хуже.
2. Хорошо, это может быть лучшим решением вашей проблемы. Мне просто нужно было импортировать файл размером в несколько сотен мегабайт.
Ответ №3:
Даже я столкнулся с подобной проблемой. Следуйте приведенному ниже процессу, это может вам помочь: сначала скопируйте ваш файл sql (filename.sql) в контейнер db.
docker cp filename.sql docker_db_container:/filename.sql
Позже войдите в свой контейнер db и заполните db этим файлом (filename.sql).
Для того, чтобы вставить ваш файл (filename.sql) в базу данных,
перейдите в mysql в контейнер db, используйте db, в котором вы хотите сохранить базу данных, т.Е.. use database_name;
source /filename.sql
Тем не менее, если вы столкнулись с проблемой, связанной с большим размером пакета, увеличьте размер пакета контейнеров
docker exec -it docker_db_container bash -c "echo 'max_allowed_packet = 1024M' >> /etc/mysql/mysql.conf.d/mysqld.cnf"