Соединитель Spark MongoDB — Операция выталкивания массива

#mongodb #apache-spark #mongodb-query #aggregation-framework #pymongo

#mongodb #apache-искра #mongodb-запрос #агрегирование-основа #пимонго

Вопрос:

С помощью режима записи Spark в виде добавления и опции MongoDB replaceExisting -gt; false мы могли бы добавить новые поля в существующий документ MongoDB.

 val wconfig = WriteConfig(Map("uri" -gt; uri, "replaceDocument" -gt; "false")) dataframe.write.format("mongo").options(wconfig.asOptions).mode("append").save  

Не удалось найти возможность переместить элемент в существующий массив с помощью Spark

В соединителе Spark Mongo есть ли возможность вставлять элементы в существующие массивы с помощью соединителя Spark MongoDB?

Рассмотрим сценарий:

 MongoDB: {_id: 123, field1 : [‘a’, ‘b’], field2: ‘value’ } Spark Dataframe: {_id: 123, field1 : [‘c’, ‘d’]} Current Output: {_id: 123, field1 : [‘c’, ‘d’], field2: ‘value’ } Expected Output: {_id: 123, field1 : [‘a’, ‘b’, ‘c’, ‘d’], field2: ‘value’ }  

Возможен ли ожидаемый выход с помощью разъема Spark Mongo?

Спасибо.