#ios #swift #video-streaming #avfoundation #video-processing
Вопрос:
Я ищу идеи о том, как создать какой-то видеопоток, который может отображаться в AVPlayer в iOS.
То, что я подразумеваю под «генерированием», — это составление текста и изображений, как мы делаем при создании пользовательского интерфейса, но вместо того, чтобы отображать их в сцене/окне/представлении, визуализируйте их как поток, который можно воспроизводить в видеоплеере.
По-видимому, набор экранов работает следующим образом: https://www.reddit.com/r/iOSProgramming/comments/o1byhr/how_to_change_the_captured_screenshot_like_this/h20b2bf/
Я не уверен, с чего начать, так как мои знания в области обработки видео ограничены, но я готов углубиться, когда найду зацепки.
Что я себе представляю, может быть, я мог бы получить доступ или создать буфер кадров, в котором можно было бы записывать свои собственные кадры, а затем запускать этот буфер через какую-либо платформу обработки видео и передавать выходные данные в видеоплеер по HTTP? Я не уверен.
Есть какие-нибудь идеи о том, какой стратегии я могу следовать для достижения этой цели? Спасибо.