अद्यतन: जो कोई भी करने के लिए बधाई feature requests दायर! आईओएस 11.3 (उर्फ "एआरकिट 1.5") में, आप कम से कम कुछ कैप्चर सेटिंग्स को नियंत्रित कर सकते हैं। और अब आप डिफ़ॉल्ट रूप से सक्षम ऑटोफोकस के साथ 1080p प्राप्त करते हैं।
ARConfiguration.VideoFormat
ऑब्जेक्ट्स की सूची के लिए चेक करें, जिनमें से प्रत्येक एक संकल्प और फ्रेम दर को परिभाषित करता है। सूची में पहले डिफ़ॉल्ट (और सबसे अच्छा) विकल्प आपके वर्तमान डिवाइस पर समर्थित है, इसलिए यदि आप बस सबसे अच्छा संकल्प/फ़्रेमरेट चाहते उपलब्ध आपको कुछ करने की जरूरत नहीं है। (और यदि आप videoFormat
सेट करके प्रदर्शन कारणों के लिए कदम उठाना चाहते हैं, तो हार्डकोडिंग आकारों के बजाय सरणी क्रम के आधार पर ऐसा करना बेहतर होता है।)
आईओएस 11.3 में ऑटोफोकस डिफ़ॉल्ट रूप से चालू है, इसलिए आपका उदाहरण चित्र (साथ कैमरे के अपेक्षाकृत एक विषय) बहुत बेहतर बाहर आना चाहिए। किसी कारण से यदि आप, there's a switch for that इसे बंद करने की जरूरत है।
ARKit द्वारा उपयोग किए गए अंतर्निहित कैप्चर सत्र के लिए कैमरा सेटिंग्स बदलने के लिए अभी भी कोई एपीआई नहीं है।
WWDC पर वापस इंजीनियरों के अनुसार, ARKit सीपीयू और GPU उपयोग पर न्यूनतम प्रभाव के साथ एक उच्च फ्रेम दर सुनिश्चित करने के लिए कैमरे पर कब्जा क्षमताओं की एक सीमित सबसेट का उपयोग करता है। उच्च गुणवत्ता वाले लाइव वीडियो का उत्पादन करने के लिए कुछ प्रोसेसिंग ओवरहेड है, लेकिन कम्प्यूटर विजन और मोशन सेंसर एकीकरण सिस्टम के लिए कुछ प्रसंस्करण ओवरहेड भी है जो एआरकेट काम करता है - ओवरहेड को बहुत अधिक बढ़ाता है, और आप विलंबता जोड़ना शुरू करते हैं। और एक तकनीक है कि उपयोगकर्ताओं को एक "लाइव" उनकी दुनिया की संवर्धित दृश्य दिखाने के लिए चाहिए था के लिए, आप नहीं "संवर्धित" भाग एकाधिक फ्रेम से कैमरा गति अंतराल करना चाहते हैं। (इसके अलावा, आप सभी के शीर्ष पर, शायद आप अपने ऐप के लिए कैमरा दृश्य के शीर्ष पर स्पिफी 3 डी सामग्री प्रस्तुत करने के लिए कुछ सीपीयू/जीपीयू समय छोड़ना चाहते हैं।)
स्थिति आईफोन और आईपैड उपकरणों के बीच समान है, लेकिन आप इसे आईपैड पर अधिक ध्यान देते हैं क्योंकि स्क्रीन बहुत बड़ी है - 720 पी वीडियो 4-5 "स्क्रीन पर इतना बुरा नहीं दिखता है, लेकिन यह 10-13" स्क्रीन भरने के लिए बहुत बढ़िया दिखता है। (सौभाग्य से आप आईओएस 11.3 में डिफ़ॉल्ट रूप से 1080p प्राप्त करते हैं, जो बेहतर दिखना चाहिए।)
AVCapture सिस्टम वीडियो कैप्चर के दौरान उच्च रिज़ॉल्यूशन/उच्च गुणवत्ता वाली फ़ोटो लेने के लिए प्रदान करता है, लेकिन एआरकिट अपने आंतरिक कैप्चर सत्र का खुलासा नहीं करता है किसी भी तरह से, तो आप इसके साथ AVCapturePhotoOutput
का उपयोग नहीं कर सकते हैं।(एक सत्र के दौरान उच्च रिज़ॉल्यूशन स्थिरता को कैप्चर करना शायद feature request है।)
क्या आपको कोई समाधान मिला? मुझे एआरएफएएसट्रैकिंग सत्र के साथ आईफोन एक्स पर ट्रू-गहरा फ्रंट कैमरा के साथ एक ही परेशानी हो रही है, मैं सत्र से अभी भी एक उच्च रेज आउट लेना चाहता हूं। क्या आप एक सामान्य AVCaptureSession पर स्विच करने में सक्षम थे? स्विच के बीच विराम क्या है? वास्तव में यहां विकल्पों को जानना चाहते हैं ... –