Ho esperienza con la creazione di app iOS ma non ho esperienza con i video. Voglio creare un'app per iPhone che trasmetta video in tempo reale a un server. Una volta sul server consegnerò quel video ai consumatori in tempo reale.Cattura, codifica e trasmette video da un iPhone a un server
Ho letto un bel po 'di materiale. Qualcuno può farmi sapere se il seguente è corretto e riempire gli spazi vuoti per me.
- Per registrare video su iPhone, è consigliabile utilizzare le classi di AVFoundation. Quando si utilizza AVCaptureSession, il metodo delegate captureOutput: didOutputSampleBuffer :: fromConnection consente di accedere a ciascun fotogramma del video. Ora che ho il frame video ho bisogno di codificare il frame
- So che le classi Foundation offrono solo la codifica H264 tramite AVAssetWriter e non tramite una classe che supporta facilmente lo streaming su un server web. Pertanto, sono rimasto con la scrittura del video in un file.
- Ho letto altri post che dicono che possono utilizzare due AssetWritters per scrivere blocchi di 10 secondi e NSStream quei 10 secondi di blocchi sul server. Qualcuno può spiegare come codificare l'uso di due AVAssetWriter che lavorano insieme per raggiungere questo obiettivo. Se qualcuno ha codice, potrebbe condividere per favore.
Potete per favore condividere ciò che avete finito usando? –