#google-bigquery #google-cloud-sql
#google-bigquery #google-cloud-sql
Вопрос:
Я хочу импортировать таблицу журнала из BigQuery в Cloud SQL.
- источник (в BigQuery):
logs_20161013
таблица. - назначение (в облачном SQL):
logs
таблица.
Я создаю logs_YYYYMMDD
таблицу каждый день.
Я хочу вставить данные журнала в облачный SQL (таблицу журналов) в пакетной программе.
logs_20161013(BigQuery) -> logs(Cloud SQL)
logs_20161014(BigQuery) -> logs(Cloud SQL)
logs_20161015(BigQuery) -> logs(Cloud SQL)
...
Я хочу сделать это в командной строке.
Какой самый простой способ?
Я уже пытался ниже:
- Экспортированный CSV-файл из BigQuery в локальное и облачное хранилище.
mysqlimport --fields-terminated-by=',' -hxxx.xxx.xxx.xxx -uroot -ppassword database-name /tmp/logs.csv
<- (не сработало)LOAD DATA INFILE '/tmp/logs.csv' INTO TABLE logs FIELDS TERMINATED BY ',' IGNORE 1 LINES;
<- (не сработало)LOAD DATA LOCAL INFILE '/tmp/logs.csv' INTO TABLE logs FIELDS TERMINATED BY ',' IGNORE 1 LINES;
<- (не сработало)- Импорт из GUI (облачная консоль) <- (Это работает, но работает только с графическим интерфейсом)
Комментарии:
1. Можете ли вы вставить, какие ошибки у вас были при попытке использовать LOAD DATA INFILE или mysqlimport?
2. mysql> ЗАГРУЗИТЬ ФАЙЛ ДАННЫХ ‘/tmp/ logs_20160101.csv’ В журналы ТАБЛИЦ; ОШИБКА 1045 (28000): доступ запрещен для пользователя ‘root’ @’%’ (с использованием пароля: ДА)