Как импортировать таблицу из BigQuery в облачный SQL

#google-bigquery #google-cloud-sql

#google-bigquery #google-cloud-sql

Вопрос:

Я хочу импортировать таблицу журнала из BigQuery в Cloud SQL.

  • источник (в BigQuery): logs_20161013 таблица.
  • назначение (в облачном SQL): logs таблица.

Я создаю logs_YYYYMMDD таблицу каждый день.
Я хочу вставить данные журнала в облачный SQL (таблицу журналов) в пакетной программе.

 logs_20161013(BigQuery) -> logs(Cloud SQL)
logs_20161014(BigQuery) -> logs(Cloud SQL)
logs_20161015(BigQuery) -> logs(Cloud SQL)
...
  

Я хочу сделать это в командной строке.

Какой самый простой способ?

Я уже пытался ниже:

  • Экспортированный CSV-файл из BigQuery в локальное и облачное хранилище.
  • mysqlimport --fields-terminated-by=',' -hxxx.xxx.xxx.xxx -uroot -ppassword database-name /tmp/logs.csv <- (не сработало)
  • LOAD DATA INFILE '/tmp/logs.csv' INTO TABLE logs FIELDS TERMINATED BY ',' IGNORE 1 LINES; <- (не сработало)
  • LOAD DATA LOCAL INFILE '/tmp/logs.csv' INTO TABLE logs FIELDS TERMINATED BY ',' IGNORE 1 LINES; <- (не сработало)
  • Импорт из GUI (облачная консоль) <- (Это работает, но работает только с графическим интерфейсом)

Комментарии:

1. Можете ли вы вставить, какие ошибки у вас были при попытке использовать LOAD DATA INFILE или mysqlimport?

2. mysql> ЗАГРУЗИТЬ ФАЙЛ ДАННЫХ ‘/tmp/ logs_20160101.csv’ В журналы ТАБЛИЦ; ОШИБКА 1045 (28000): доступ запрещен для пользователя ‘root’ @’%’ (с использованием пароля: ДА)