मैं वर्तमान में एक आईओएस ऐप विकसित कर रहा हूं जो फ़ोटो और वीडियो लेने के लिए कैमरा फीड पर CoreImage लागू करता है, और मैं थोड़ी सी तस्वीर में चला गया हूं।कई आउटपुट के साथ AVCaptureSession?
अब तक मैं इसे प्रयोग करके तस्वीरें कब्जा करने के लिए और उन्हें बचत के रूप में CoreImage के साथ नमूना बफ़र्स प्राप्त है और उन्हें हेरफेर करने के लिए AVCaptureVideoDataOutput का उपयोग कर दिया गया है, और फिर एक सरल पूर्वावलोकन प्रदर्शित, साथ ही।
जब मैं वीडियो रिकॉर्डिंग, लागू करने के लिए एक वीडियो के लिए SampleBuffers लेखन के रूप में मैं उन्हें AVCaptureVideoDataOutput से प्राप्त द्वारा की कोशिश की, यह एक बहुत ही धीमी गति से फ्रेम दर (शायद अन्य छवि संबंधित प्रसंस्करण कि चल रहा था की वजह से था) ।
तो मैं सोच रहा था, यह एक AVCaptureVideoDataOutput और एक AVCaptureMoveFileOutput एक साथ एक ही AVCaptureSession चल रहा है करने के लिए संभव है?
मैंने इसे तुरंत जाने दिया, और पाया कि जब मैंने अतिरिक्त आउटपुट जोड़ा, तो मेरे AVCaptureVideoDataOutput ने जानकारी प्राप्त करना बंद कर दिया।
यदि मैं इसे काम कर सकता हूं, तो मुझे आशा है कि इसका मतलब है कि मैं केवल दूसरे आउटपुट का उपयोग उच्च फ्रेम दर पर वीडियो रिकॉर्ड करने के लिए कर सकता हूं, और उपयोगकर्ता ने रिकॉर्डिंग बंद करने के बाद वीडियो पर पोस्ट-प्रोसेसिंग कर सकते हैं।
किसी भी मदद की सराहना की जाएगी।
आप थे एक MOV/MP4 पर छवि लिखने के लिए AVAssetWriter का उपयोग कर? मैं एक कस्टम ओपनजीएल छवि प्रसंस्करण इंजन का उपयोग करता हूं और अभी भी 30fps पर रिकॉर्ड कर सकता हूं। मुझे लगता है कि CoreImage ओपनजीएल दक्षता के लिए समर्थित होगा। मुझे संदेह है कि आपको वापस पकड़ना क्या है छवियों का प्रदर्शन। क्या आप छवियों को प्रस्तुत करने के लिए ओपनजीएल का उपयोग कर रहे हैं, या आप कुछ अन्य एपीआई (संभवतः सीपीयू आधारित) का उपयोग कर रहे हैं? –
क्या आपको एक व्यावहारिक समाधान मिला? – user454083