में उपयोगकर्ता प्रतिक्रिया शामिल करना मैंने वर्गीकरण (0/1) एनएलपी कार्य के लिए एक एमएल मॉडल विकसित किया है और इसे उत्पादन वातावरण में तैनात किया है। मॉडल की भविष्यवाणी उपयोगकर्ताओं को प्रदर्शित की जाती है, और उपयोगकर्ताओं के पास फीडबैक देने का विकल्प होता है (यदि पूर्वानुमान सही/गलत था)।एमएल मॉडल
मैं अपने मॉडल में लगातार इस प्रतिक्रिया को कैसे शामिल कर सकता हूं? एक यूएक्स स्टैंड प्वाइंट से आप नहीं चाहते कि उपयोगकर्ता किसी विशिष्ट इनपुट के लिए सिस्टम को दो बार/तीन बार सही/सिखाएं, सिस्टम शेल्ड तेजी से सीखें यानी फीडबैक shld को "तेज़" शामिल किया जाए। (Google प्राथमिकता इनबॉक्स यह एक निर्बाध तरीके से करता है)
कोई इस "फीडबैक लूप" का निर्माण कैसे करता है जिसका उपयोग करके मेरा सिस्टम बेहतर हो सकता है? मैंने नेट पर बहुत कुछ खोजा है लेकिन प्रासंगिक सामग्री नहीं मिल सका। कोई संकेतक बहुत मददगार होंगे।
Pls नहीं कहता है कि मॉडल को नए डेटा बिंदुओं सहित स्क्रैच से रोकें। निश्चित रूप से यह नहीं है कि कैसे Google और फेसबुक अपने स्मार्ट सिस्टम का निर्माण करते हैं
मेरे प्रश्न को और समझाने के लिए - Google के स्पैम डिटेक्टर या उनकी प्राथमिकता इनबॉक्स या "स्मार्ट उत्तरों" की उनकी हाल की विशेषता के बारे में सोचें। यह एक प्रसिद्ध तथ्य है कि उनके पास (फ़ीड) उपयोगकर्ता फ़ीड सीखने/शामिल करने की क्षमता है।
जब भी यह उपयोगकर्ता प्रतिक्रिया को तेजी से शामिल करता है (यानी उपयोगकर्ता को सिस्टम डेटा प्रति बिंदु लगभग 2-3 बार सही आउटपुट सिखाता है और सिस्टम उस डेटा बिंदु के लिए सही आउटपुट देना शुरू कर देता है) और यह भी सुनिश्चित करता है यह पुरानी शिक्षाओं को बनाए रखता है और नए डेटा बिंदुओं से सीखने को शामिल करते समय पुराने डेटा पॉइंट्स (जहां यह पहले सही आउटपुट दे रहा था) पर गलत आउटपुट देना शुरू नहीं करता है।
मैं किसी भी ब्लॉग/साहित्य/चर्चा wrt कैसे ऐसी प्रणालियों का निर्माण करने नहीं मिला है -।
आशा है कि मेरे सवाल का अब थोड़ा और स्पष्ट है कि detaieedback लूप "एमएल प्रणालियों में में बताते हैं एक बुद्धिमान प्रणाली
अद्यतन: कुछ संबंधित सवाल मैंने पाया हैं:
Does the SVM in sklearn support incremental (online) learning?
https://datascience.stackexchange.com/questions/1073/libraries-for-online-machine-learning
http://mlwave.com/predicting-click-through-rates-with-online-machine-learning/
अद्यतन: मैं अभी भी एक ठोस जवाब है न लेकिन इस तरह के एक नुस्खा मौजूद है। निम्नलिखित ब्लॉग Machine Learning != Learning Machine में "प्रतिक्रिया से सीखना" अनुभाग पढ़ें। इस जीन में "मशीन पर फीडबैक इंजेक्शन लूप जोड़ने" के बारे में बात करते हैं। here, here में, 4 में वही।
यह इस बात पर निर्भर करता है कि आप आउटपुट मॉडल पर कैसे पहुंचे। यदि आपने स्टोकैस्टिक ग्रेडियेंट वंश या अन्य वृद्धिशील प्रशिक्षण जैसे कुछ का उपयोग किया है, तो अधिक डेटा पुनरावृत्तियों के लिए नए डेटा पॉइंट जोड़े जा सकते हैं। – Mai
@ माई: मैंने अपने प्रश्न के लिए और स्पष्टीकरण जोड़ा है। कृपया ** बोल्ड ** –
में भाग पढ़ें लेकिन आपने वर्णन नहीं किया है कि आपने अपने मॉडल को कैसे प्रशिक्षित किया है ... 'दीपलिंग का उपयोग किया जाता है' शायद मॉडल प्रशिक्षण प्रक्रिया का विवरण नहीं है ... क्या मुझे कुछ याद आया? – Mai