#python #azure #azure-storage #azure-data-factory #bcp
Вопрос:
Я загружаю csv-файл в учетную запись хранилища больших двоичных объектов Azure. Я хотел бы, чтобы при добавлении нового файла запускался процесс, который принимает новый CSV и BCP загружает его в базу данных SQL Azure.
Моя идея состоит в том, чтобы создать конвейер фабрики данных Azure, который запускает событие. Однако я не знаю, что делать дальше. Должна ли быть запущена функция Azure, которая принимает этот CSV-файл и использует BCP для загрузки его в БД? Могут ли функции Azure даже использовать BCP?
Я использую Python.
Ответ №1:
Я хотел бы, пожалуйста, проверить ссылку ниже. В основном вы хотите скопировать новые файлы, а также полностью использовать измененный файл для этой единственной копии данных. Используйте триггер на основе событий(при создании файлов) вместо запланированного.
https://www.mssqltips.com/sqlservertip/6365/incremental-file-load-using-azure-data-factory/