पर TAAE2 माइग्रेट करना मेरे पास The Amazing Audio Engine 2
के साथ निर्मित एक बड़ी परियोजना है। मैंने इंटर-ऐप-ऑडियो एकीकृत करने के लिए संघर्ष किया है और ऑडियोकिट 3 पर माइग्रेट करना चाहता हूं।ऑडियोकिट 3
स्ट्रगल, जिसका अर्थ है, यह एकीकृत करता है, लेकिन जैसे ही मैं इसे जनरेटर के रूप में चुनता हूं, प्रतिपादन बस बंद हो जाता है, इंजन चालू है एक अक्षम राज्य
ऑडियो सिस्टम के साथ मुख्य अंतर क्या हैं? टीएएई 2 मॉड्यूल का उपयोग करता है, प्रत्येक रेंडर ब्लॉक के साथ, जो रेंडर स्टैक से ऑडियो बफर को धक्का देता है और पॉप करता है।
ऑडियोकिट ऑडियो कैसे प्रस्तुत करता है? ऑडोकिट ऑब्जेक्ट्स में एमोड्यूल माइग्रेट करने में, उच्च स्तर पर, क्या शामिल होगा?
धन्यवाद डेव, तो यह टीएएई 1 के समान लगता है। चेन सेटअप का क्रम कैसा है? जैसे कई ओसीलेटर के साथ पॉलीफोनिक आवाज, एलएफओ और लिफाफा जेनरेटर द्वारा मॉड्यूल किया जा रहा है, टीएएई 2 विशेष रूप से मॉड्यूल पर प्रक्रिया को कॉल करने की अनुमति देता है, यह ऑडियोकिट के साथ कैसे किया जाता है? – jarryd
यदि मैं आपके प्रश्न को सही तरीके से समझता हूं, तो सबसे बड़ा अंतर यह है कि एक प्रक्रिया को कॉल करने में सक्षम होने के बजाय _on_ एक मॉड्यूल आपको उस प्रक्रिया को नोड के रूप में जोड़ना होगा जिसे ऑडियो _through_ पास करेगा। इसलिए यदि आप केवल अपने कुछ ऑसीलेटर पर प्रक्रिया करना चाहते हैं, तो आपको अपने लिफाफा फ़िल्टर के माध्यम से कुछ ऑसीलेटर के आउटपुट को "रूट" करना होगा। AVAudioEngine परिवार प्रकार एक बफर मैनिपुलेशन मॉडल की बजाय एक भौतिक मॉडल (जनरेटर -> पैच केबल -> प्रभाव) का पालन करता है। – dave234
मैं यह समझने की कोशिश कर रहा हूं कि AVAudioEngine का डिज़ाइन पॉलीफोनिक आवाजों का समर्थन कैसे कर सकता है। आइए कहें कि हमारे पास 1 आवाज है, जिसमें 1 ऑसीलेटर है, जिसमें 1 एलएफओ और 1 लिफाफा है, टीएएईई 2 में मुख्य रेंडर फ़ंक्शन आवाज पर रेंडर कर सकता है, जिसे तब ऑसीलेटर.रेंडर, lfo.render, envelope.render कहते हैं। नोड कनेक्शन के साथ AVAudioEngine में यह सेटअप कैसा है? क्या यह ऑडियोइंजिन.कनेक्ट होगा (वॉयस 1, टू: ऑडियोइंजिन.माइन मिक्सर नोड, प्रारूप: ऑडियोफॉर्मैट) और फिर वॉइस ऑब्जेक्ट में ऑडियोइंजिन.कनेक्ट (ऑसीलेटर, टू: सेल्फ, फॉर्मेट: ऑडियोफॉर्मैट), ऑडियोइंजिन.कनेक्ट (एलएफओ, टू: ऑसीलेटर। इत्यादि। – jarryd