Импорт больших файлов IDL в Python с помощью SciPy

#python #out-of-memory

#python #не хватает памяти

Вопрос:

В настоящее время я использую scipy.io.readsav() для импорта файлов IDL .sav в Python, который работает хорошо, например:

 data = scipy.io.readsav('data.sav', python_dict=True, verbose=True)
  

Однако, если файл .sav большой (скажем, > 1 ГБ), я получаю ошибку памяти при попытке импорта в Python.

Обычно перебор данных, конечно, решал бы эту проблему (если бы это был файл .txt или .csv), а не загрузка их всех сразу, но я не вижу, как я могу это сделать при использовании файлов .sav, учитывая, что единственный известный мне метод импорта — это использование readsav.

Есть идеи, как я могу избежать этой ошибки памяти?

Ответ №1:

Проблема была решена с помощью 64-разрядного python.