#python #pyspark #databricks
#python #pyspark #блоки данных
Вопрос:
У меня есть записная книжка pyspark, созданная в databricks. У меня есть фрейм данных, в который мне нужно динамически добавлять столбцы, и в настоящее время количество столбцов равно 186. Когда я достигаю длины строки python 10000, я не вижу цветовых кодов для None, Lit и т.д., И моя ячейка notebook не распознает объявления withcolumn после того, как размер строки достигает 10000.
Существует ли какое-либо ограничение по размеру строки в python? Если да, есть ли лучший способ добавить это количество столбцов в dataframe, используя список?
Спасибо,
Yuva
Ответ №1:
Да, существует ограничение на выбор значения no. из столбцов фрейма данных в databricks вы можете выбрать все нужные столбцы с помощью списка. Вот так —
df = prv_df.withColumn(******something*********)
cols = ['column_1'
,'column_2'
,
,
,
,'column_n']
new_df = df.select(cols)
Я думаю, это решит вашу проблему.