Превышен лимит накладных расходов Pentaho transformation GC

#pentaho #pentaho-spoon #pentaho-data-integration

Вопрос:

Испытывал ли кто-нибудь подобное при попытке запустить Pentaho с большим источником данных?

Мой источник из Postgresql-13

Есть ли способ заставить эту работу выполняться без ошибок?

Похоже, проблемы с памятью?

я прочитал кое-что, чтобы изменить это (?):

 if "%PENTAHO_DI_JAVA_OPTIONS%"=="" set PENTAHO_DI_JAVA_OPTIONS="-Xms1024m" "-Xmx2048m"
 

изображение

Комментарии:

1. да, у тебя здесь кончается память. В документации описано, как это сделать: help.pentaho.com/Documentation/9.1/Setup/…

2. уже пробовал и все равно получил ту же ошибку 🙁

3. может быть, просто еще больше памяти? Это действительно зависит от объема данных и от того, что именно вы с ними делаете. Вы можете обрабатывать гигабайты данных с минимальным объемом памяти, если просто проходите строку за строкой через несколько простых шагов, но если вы сортируете или группируете данные в памяти, вам может потребоваться увеличить лимит памяти, пока он не перестанет жаловаться.