मैं ध्वनि फ़ाइलों (लहर) की तुलना करने के तरीके पर कुछ शोध कर रहा हूं। असल में मैं एक माइक्रोफ़ोन से ध्वनि के साथ संग्रहीत ध्वनिफाइल (WAV) की तुलना करना चाहता हूं। तो अंत में मैं अपने स्वयं के कुछ वॉइस कमांड को प्री-स्टोर करना चाहता हूं और फिर जब मैं अपना ऐप चलाता हूं तो मैं पूर्व-संग्रहीत फ़ाइलों की तुलना माइक्रोफोन से इनपुट के साथ करना चाहता हूं।ऑडियो फ्रेम में क्या होता है?
मेरा विचार कुछ मार्जिन में डालना था क्योंकि तुलनात्मक रूप से एक पंक्ति में दो बार कुछ कहना मुश्किल होगा।
तो कुछ googling के बाद मुझे लगता है कि अजगर इस मॉड्यूल को लहर और Wave_read ऑब्जेक्ट नाम दिया है।
पढ़ता है और रिटर्न ज्यादा से ज्यादा n ऑडियो के फ्रेम, बाइट्स की एक स्ट्रिंग के रूप: यह वस्तु एक समारोह नामित readframes (एन) है।
इन बाइट्स में क्या होता है? मैं लहरों के माध्यम से लूपिंग के बारे में सोच रहा हूं, उस समय फ्रेम द्वारा फ्रेम की तुलना में एक फ्रेम।
बाइट्स में पीसीएम डेटा होता है। क्या आप आवाज पहचान करने की कोशिश कर रहे हैं? ऐसा लगता है जैसे आप अपने सिर पर रास्ते में हैं। आपको इस विषय पर शोध करना चाहिए। – JoshD
आह, फिर यह लानत :) उत्तर के लिए धन्यवाद। आप इसे आवाज पहचान कह सकते हैं, लेकिन जिस तरह से मैंने इसके बारे में सोचा था वह सरल फ़ाइल तुलना थी जो बहुत आसान होगी। मेरे मामले में यह केवल एक ही ध्वनि बनाने का विश्लेषण करेगा, विश्लेषण नहीं करेगा और – Jason94
शब्दों की व्याख्या करने का प्रयास करेगा, यह अभी भी आवाज पहचान है। यहां तक कि आपकी आवाज़ में एक मामूली बदलाव या गति अंतर भी जंगली रूप से अलग ऑडियो डेटा देने जा रहा है ताकि आप इसे फ्रेम द्वारा फ्रेम की तुलना नहीं कर सकें। – Soviut