#pentaho #pentaho-spoon #pentaho-data-integration
Вопрос:
Испытывал ли кто-нибудь подобное при попытке запустить Pentaho с большим источником данных?
Мой источник из Postgresql-13
Есть ли способ заставить эту работу выполняться без ошибок?
Похоже, проблемы с памятью?
я прочитал кое-что, чтобы изменить это (?):
if "%PENTAHO_DI_JAVA_OPTIONS%"=="" set PENTAHO_DI_JAVA_OPTIONS="-Xms1024m" "-Xmx2048m"
Комментарии:
1. да, у тебя здесь кончается память. В документации описано, как это сделать: help.pentaho.com/Documentation/9.1/Setup/…
2. уже пробовал и все равно получил ту же ошибку 🙁
3. может быть, просто еще больше памяти? Это действительно зависит от объема данных и от того, что именно вы с ними делаете. Вы можете обрабатывать гигабайты данных с минимальным объемом памяти, если просто проходите строку за строкой через несколько простых шагов, но если вы сортируете или группируете данные в памяти, вам может потребоваться увеличить лимит памяти, пока он не перестанет жаловаться.