Как я могу сгенерировать видеовыход, который может отображаться в видеоплеере в iOS?

#ios #swift #video-streaming #avfoundation #video-processing

Вопрос:

Я ищу идеи о том, как создать какой-то видеопоток, который может отображаться в AVPlayer в iOS.

То, что я подразумеваю под «генерированием», — это составление текста и изображений, как мы делаем при создании пользовательского интерфейса, но вместо того, чтобы отображать их в сцене/окне/представлении, визуализируйте их как поток, который можно воспроизводить в видеоплеере.

По-видимому, набор экранов работает следующим образом: https://www.reddit.com/r/iOSProgramming/comments/o1byhr/how_to_change_the_captured_screenshot_like_this/h20b2bf/

Я не уверен, с чего начать, так как мои знания в области обработки видео ограничены, но я готов углубиться, когда найду зацепки.

Что я себе представляю, может быть, я мог бы получить доступ или создать буфер кадров, в котором можно было бы записывать свои собственные кадры, а затем запускать этот буфер через какую-либо платформу обработки видео и передавать выходные данные в видеоплеер по HTTP? Я не уверен.

Есть какие-нибудь идеи о том, какой стратегии я могу следовать для достижения этой цели? Спасибо.