मैं ऐप्पल के ऑरियो टच डेमो के साथ खेल रहा हूं जो उनके ऑडियो यूनिट ट्यूटोरियल के लिए नमूना कोड है। यह एप्लिकेशन mic से एक साथ इनपुट/आउटपुट की अनुमति देता है। वक्ता के लिए। यह mic से इनपुट ध्वनि की एक स्टीरियोग्राफ भी प्रस्तुत करता है।आईओएस: ऑडियो यूनिट रिमोटियो ऑडियोबफर मैनिपुलेशन (यानी माइक्रोफोन से ध्वनि प्रभाव)
इस निम्न-स्तरीय प्रक्रिया के वास्तव में उच्च स्तर पर, नमूना कोड ऑडियोकंपोनेंट को परिभाषित करता है (इस मामले में रिमोटियो जो एक साथ इनपुट/आउटपुट की अनुमति देता है) और इस ऑडियो यूनिट के लिए एक रेंडर कॉलबैक है। कॉलबैक में वे कुछ ऑडियो फ़िल्टरिंग (एक डीसी अस्वीकृति फ़िल्टर) और माइक्रो से ऑडियोबफर ध्वनि डेटा के आधार पर स्टीरियोग्राफ के विज़ुअलाइज़ेशन करते हैं।
मेरा अंतिम लक्ष्य माइक से इनपुट पर आधारित अपनी कस्टम ध्वनि विरूपण ऑडियो यूनिट बनाना है। मुझे लगता है कि ऑडियो यूनिट ट्यूटोरियल के आधार पर ऐसा करने का उचित तरीका एक दूसरा ऑडियो यूनिट बनाना और उन्हें ऑडियो प्रोसेसिंग ग्राफ से कनेक्ट करना है। हालांकि, मैंने पढ़ा है कि आईओएस आपको अपनी खुद की कस्टम ऑडियो इकाइयों को पंजीकृत करने की अनुमति नहीं देता है। मेरे प्रश्न हैं:
- मुझे लगता है कि मैं remoteIO ऑडियो यूनिट के कॉलबैक प्रस्तुत करना में की पहुंच है (क्योंकि वे पहले से ही लग रहे हैं ऐसा करने और उस पर एक ऑडियो फ़िल्टर लागू किए जाने वाले) AudioBufferList पर सीधे प्रभाव और कर सकते हैं वहां अपना खुद का कस्टम ध्वनि विरूपण बनाओ?
- मैंने ऑडियोबफर सूची डेटा को निरंतर (एक मान जिसे मैंने इसे नमूना चलाने और ऑडियोबफर सूची के लॉगिंग से देखा है) को असाइन करने का प्रयास किया है, लेकिन ऐसा कुछ नहीं लगता है।
कोई भी जिथब लिंक की तलाश में है, वह कोड अब स्थानांतरित हो गया है: https://github.com/openframeworks/openFrameworks/blob/master/addons/ofxiPhone/src/sound/ofxiPhoneSoundStream.mm –