#azure-data-factory-2 #azure-data-flow #azure-sql
#azure-data-factory-2 #azure-поток данных #azure-sql
Вопрос:
У нас есть большой файл CSV с несколькими столбцами. Один из столбцов содержит большие данные, многократно превышающие 4000 символов, и усекается при импорте с использованием потока данных.
- Тип данных ADF — строка
- Тип данных SQL — Nvarchar (max)
Какие подходы могут обеспечить успешный импорт данных без усечения
Комментарии:
1. Можете ли вы попробовать импортировать их с помощью SSMS напрямую?
2. @LeonYue : Нет. Есть несколько файлов, и это ежедневный процесс, а не одноразовый.
3. Я имею в виду просто скопировать одну часть csv-данных и импортировать их в базу данных sql, чтобы проверить, будут ли данные усечены.
4. ДА. Он усекается.
5. Ограничение на длину столбца типа данных nvarchar(max) составляет 4000 символов. Я думаю, что мы не можем хранить данные, длина которых превышает ее.
Ответ №1:
Вы можете использовать обычную операцию копирования, чтобы выгрузить данные из файла csv в SQL. мы попытались повторить сценарий, в котором в файле был столбец с длиной> 5 кб и назначением как NVARCHAR (max), и это был успех без усечения данных.
И @LeonYue, NVARCHAR (max) может хранить более 4k символов, что является целым отдельным обсуждением, как упоминалось @Dhruv