#powerbi
#powerbi
Вопрос:
В режиме импорта Power BI (ПОВЫШЕННАЯ емкость) ограничения на набор данных и размер хранилища основаны на сжатых или несжатых данных?
Аналогично, когда модель загружается в память, используемая память основана на сжатых или несжатых данных?
Ответ №1:
Например, для наборов данных он сжимается. Размеры исходных данных составляют файлы размером 10 X 100 МБ в формате csv (всего 1 ГБ). При загрузке в набор данных (при условии, что движок может сжимать в соотношении 10 к 1) в результате в памяти будет набор данных объемом 100 МБ.
Механизм Power BI / SQL Server Analysis Services (табличный) называется Vertipaq. Лучший пост о том, как он сжимается, находится здесь.
Для элементов в потоках данных это также будет сжато, но это скорее базовое сжатие в стиле ZIP и не такое эффективное. Таким образом, 10 файлов примеров могут занимать 300 МБ в этом формате.
Комментарии:
1. Действительно, данные объемом 1 ГБ могут быть сжаты примерно до 100 МБ, и, следовательно, размер файла pbix уменьшается до 100 МБ. Однако это размер хранилища (после сжатия). Это не то же самое, что размер модели, когда она загружается в память. Когда модель загружается в память, тогда весь 1 ГБ будет загружен в память? Или 100 МБ? Я в замешательстве по этому поводу. Любая ссылка на эту концепцию будет полезна.
2. Да, он будет дополнительно сжат движком veritpaq, поэтому он будет меньше, чем файловое хранилище. Я рекомендую использовать Dax Studio и it metrics для анализа размеров набора данных в памяти
3. Пожалуйста, не могли бы вы дать мне ссылку, в которой говорится, что csv-данные потока данных сжаты / сжаты.
4. Если вы измените pbix на zip, вы сможете увидеть это, лучшим вариантом будет gqbi.wordpress.com/2017/05/02 /…