12

ऐसा लगता है कि सक्रियण और स्थानांतरण फ़ंक्शन के बीच कुछ भ्रम है। Wikipedia ANN से:तंत्रिका नेटवर्क: सक्रियण फ़ंक्शन बनाम स्थानांतरण फ़ंक्शन

enter image description here

ऐसा लगता है हस्तांतरण समारोह शुद्ध न्यूरॉन के उत्पादन में गणना करता है कि जब सक्रियण कार्य करते हैं। लेकिन Matlab documentation of an activation function पर मैं बोली:

satlin (एन, एफपी) एक तंत्रिका हस्तांतरण कार्य है। स्थानांतरण कार्य अपने शुद्ध इनपुट से परत के आउटपुट की गणना करते हैं।

तो कौन सही है? और क्या आप सक्रियण फ़ंक्शन या स्थानांतरण फ़ंक्शन को एक दूसरे के रूप में उपयोग कर सकते हैं? , कम से कम "आम तौर पर प्रत्येक नोड की रकम आकलन किया जाता है, और राशि पारित हो जाता है एक गैर रेखीय समारोह एक सक्रियण समारोह या हस्तांतरण समारोह के रूप में जाना के माध्यम से

मशीन सीखने में:

उत्तर

8

मैं भी wikipedia से बोली। वे सभी पेशेवरों द्वारा एक दूसरे के रूप में उपयोग किए जाते हैं (मुझे लगता है कि "सक्रियण फ़ंक्शन" का उपयोग अक्सर किया जाता है, जबकि मुझे लगता है कि "ट्रांसफर फ़ंक्शन" सिग्नल प्रोसेसिंग में अधिक सामान्य रूप से उपयोग किया जाता है)। यदि कोई कठोर परिभाषा है तो इसे आमतौर पर ज्ञात/स्वीकार्य नहीं किया जाता है, इसलिए उन्हें दो अलग-अलग शर्तों के रूप में उपयोग करने वाले किसी भी व्यक्ति को स्पष्ट होना होगा।

1

मैं मशीन सीखने के क्षेत्र में भी नौसिखिया हूं। जो मैं समझता हूं ...

स्थानांतरण कार्य: स्थानांतरण फ़ंक्शन शुद्ध वजन की गणना करता है, इसलिए आपको स्थानांतरण कोड से पहले अपना कोड या गणना करने की आवश्यकता है। आप अपने कार्य के साथ उपयुक्त विभिन्न स्थानांतरण फ़ंक्शन का उपयोग कर सकते हैं।

सक्रियण फ़ंक्शन: इसका उपयोग थ्रेसहोल्ड मान की गणना के लिए किया जाता है यानी जब आपका नेटवर्क आउटपुट देगा। यदि आपका गणना परिणाम अधिक है तो थ्रेसहोल्ड मान यह आउटपुट दिखाएगा अन्यथा नहीं।

उम्मीद है कि इससे मदद मिलती है।

2

स्थानांतरण फ़ंक्शन नाम परिवर्तन से आते हैं और परिवर्तन उद्देश्यों के लिए उपयोग किए जाते हैं। दूसरी तरफ, सक्रियण फ़ंक्शन आउटपुट के लिए जांच करता है अगर यह किसी निश्चित थ्रेसहोल्ड को पूरा करता है और या तो शून्य या एक आउटपुट करता है। गैर रेखीय स्थानांतरण कार्यों के कुछ उदाहरण सॉफ्टमैक्स और सिग्मोइड हैं। उदाहरण के लिए, मान लीजिए कि हमारे पास निरंतर इनपुट सिग्नल एक्स (टी) है। यह इनपुट सिग्नल स्थानांतरण हस्तांतरण के माध्यम से आउटपुट सिग्नल y(t) में बदल दिया गया है।

     Y(s) = H(s)X(s) 

स्थानांतरण समारोह H(s) के रूप में ऊपर देखा जा सकता है परिवर्तन के माध्यम से एक नया उत्पादन राज्य Y(s) में इनपुट X(s) के राज्य बदल जाता है। एच (एस) पर एक नज़र डालने से पता चलता है कि यह एक तंत्रिका नेटवर्क में वजन का प्रतिनिधित्व कर सकता है। इसलिए, H(s)X(s) बस इनपुट सिग्नल और उसके वजन का गुणा है। किसी दिए गए परत में इनमें से कई इनपुट-वेट जोड़े को फिर एक और परत के इनपुट के रूप में समेट लिया जाता है। इसका मतलब यह है कि किसी भी परत को तंत्रिका नेटवर्क में इनपुट केवल इनपुट और वजन का हस्तांतरण कार्य होता है, यानी एक रैखिक परिवर्तन क्योंकि इनपुट अब वजन से बदल जाता है। लेकिन असली दुनिया में, समस्याएं प्रकृति में गैर-रैखिक हैं। इसलिए, आने वाले डेटा को गैर-रैखिक बनाने के लिए, हम सक्रियण फ़ंक्शन नामक गैर-रैखिक मैपिंग का उपयोग करते हैं।एक सक्रियण समारोह एक निर्णय लेने का कार्य है जो विशेष तंत्रिका सुविधा की उपस्थिति को निर्धारित करता है। यह 0 और 1 के बीच मैप किया गया है, जहां शून्य का मतलब यह नहीं है कि सुविधा नहीं है, जबकि एक का मतलब यह है कि सुविधा मौजूद है। दुर्भाग्यवश, वजन में होने वाले छोटे बदलाव सक्रियण मूल्य में प्रतिबिंबित नहीं हो सकते हैं क्योंकि यह केवल 0 या 1 ले सकता है। इसलिए, इस सीमा के बीच nonlinear Finctions निरंतर और अलग-अलग होना चाहिए।
वास्तव में भावना एक सक्रियण outputting से पहले, आप अवग्रह पहले की गणना के बाद से यह सतत और अंतर है और फिर एक सक्रियण समारोह जो की जाँच करता है अवग्रह के उत्पादन में अपने सक्रियण सीमा से अधिक है कि क्या करने के लिए एक इनपुट के रूप में उपयोग करें। एक तंत्रिका नेटवर्क + सकारात्मक अनंत को -infinity से किसी भी इनपुट लेने के लिए सक्षम होना चाहिए, लेकिन यह एक उत्पादन है कि {0,1} के बीच या कुछ मामलों में {-1,1} के बीच रहता से मैप में सक्षम होना चाहिए - इस प्रकार सक्रियण समारोह के लिए की जरूरत है।

0

मुझे लगता है कि चित्र सही लेकिन terminologically सही नहीं है।

हस्तांतरण समारोह दोनों सक्रियण और अपने चित्र में स्थानांतरण कार्य शामिल हैं। आपके आरेख में स्थानांतरण फ़ंक्शन कहलाता है जिसे आमतौर पर नेट इनपुट फ़ंक्शन के रूप में जाना जाता है। शुद्ध इनपुट फ़ंक्शन केवल इनपुट में वजन जोड़ता है और शुद्ध इनपुट की गणना करता है, जो आम तौर पर दिए गए वजन से गुणा इनपुट के बराबर होता है। सक्रियण फ़ंक्शन, जो एक सिग्मोइड, चरण, आदि फ़ंक्शन हो सकता है, आउटपुट उत्पन्न करने के लिए शुद्ध इनपुट पर लागू होता है।

5

के बाद कुछ शोध मैं "Survey of Neural Transfer Functions", from Duch and Jankowski (1999) में पाया है कि:

transfer_function = activation function + output function 

और IMO शब्दावली अब समझ में आता है, क्योंकि हम एक मूल्य (सिग्नल की शक्ति) यह सत्यापित करने के लिए न्यूरॉन सक्रिय और उसके बाद की जाएगी की आवश्यकता है इससे एक आउटपुट गणना करें। और सिग्नल को एक परत से दूसरे में स्थानांतरित करने के लिए पूरी प्रक्रिया क्या होती है।

दो कार्य न्यूरॉन्स द्वारा सिग्नल संसाधित किए जाने का तरीका निर्धारित करते हैं। सक्रियण फ़ंक्शन एक न्यूरॉन प्राप्त कुल सिग्नल निर्धारित करता है। सक्रियण फ़ंक्शन का मान आमतौर पर स्केलर होता है और तर्क वेक्टर होते हैं। दूसरा समारोह का निर्धारण करने न्यूरॉन सिग्नल प्रोसेसिंग अदिश सक्रियण पर काम और अदिश मूल्यों लौटने उत्पादन समारोह ओ (आई) है। आम तौर पर एक स्क्वैशिंग फ़ंक्शन का उपयोग आउटपुट मान निर्दिष्ट सीमाओं के भीतर रखने के लिए किया जाता है। ये दो कार्य एक साथ न्यूरॉन आउटगोइंग सिग्नल के मान निर्धारित करते हैं। सक्रियण और उत्पादन समारोह की संरचना हस्तांतरण समारोह ओ कहा जाता है (मैं (x))।

संबंधित मुद्दे