Как импортировать большой столбец (> 4000 символов) из CSV в таблицу базы данных

#azure-data-factory-2 #azure-data-flow #azure-sql

#azure-data-factory-2 #azure-поток данных #azure-sql

Вопрос:

У нас есть большой файл CSV с несколькими столбцами. Один из столбцов содержит большие данные, многократно превышающие 4000 символов, и усекается при импорте с использованием потока данных.

  1. Тип данных ADF — строка
  2. Тип данных SQL — Nvarchar (max)

Какие подходы могут обеспечить успешный импорт данных без усечения

Комментарии:

1. Можете ли вы попробовать импортировать их с помощью SSMS напрямую?

2. @LeonYue : Нет. Есть несколько файлов, и это ежедневный процесс, а не одноразовый.

3. Я имею в виду просто скопировать одну часть csv-данных и импортировать их в базу данных sql, чтобы проверить, будут ли данные усечены.

4. ДА. Он усекается.

5. Ограничение на длину столбца типа данных nvarchar(max) составляет 4000 символов. Я думаю, что мы не можем хранить данные, длина которых превышает ее.

Ответ №1:

Вы можете использовать обычную операцию копирования, чтобы выгрузить данные из файла csv в SQL. мы попытались повторить сценарий, в котором в файле был столбец с длиной> 5 кб и назначением как NVARCHAR (max), и это был успех без усечения данных.

введите описание изображения здесь

И @LeonYue, NVARCHAR (max) может хранить более 4k символов, что является целым отдельным обсуждением, как упоминалось @Dhruv