#python #out-of-memory
#python #не хватает памяти
Вопрос:
В настоящее время я использую scipy.io.readsav() для импорта файлов IDL .sav в Python, который работает хорошо, например:
data = scipy.io.readsav('data.sav', python_dict=True, verbose=True)
Однако, если файл .sav большой (скажем, > 1 ГБ), я получаю ошибку памяти при попытке импорта в Python.
Обычно перебор данных, конечно, решал бы эту проблему (если бы это был файл .txt или .csv), а не загрузка их всех сразу, но я не вижу, как я могу это сделать при использовании файлов .sav, учитывая, что единственный известный мне метод импорта — это использование readsav.
Есть идеи, как я могу избежать этой ошибки памяти?
Ответ №1:
Проблема была решена с помощью 64-разрядного python.