हार्मोनिक माध्य अंकगणितीय माध्य द्वारा औसत मात्राओं के पारस्परिक अर्थ के समतुल्य माध्य के बराबर है। अधिक सटीक रूप से, हार्मोनिक माध्य के साथ, आप अपने सभी नंबरों को "औसत" फ़ॉर्म (पारस्परिक रूप से ले कर) में बदल देते हैं, आप अपना अंकगणितीय अर्थ लेते हैं और फिर परिणाम को मूल प्रतिनिधित्व में बदलते हैं (पारस्परिक रूप से फिर से ले कर)।
प्रेसिजन और याद "स्वाभाविक रूप से" पारस्परिक हैं क्योंकि उनके अंकक समान हैं और उनके denominators अलग हैं। जब उनके समान गुणक होते हैं तो अंकगणित औसत द्वारा औसत के लिए फ्रैक्शंस अधिक समझदार होते हैं।
अधिक अंतर्ज्ञान के लिए, मान लीजिए कि हम वास्तविक सकारात्मक वस्तुओं की संख्या निरंतर रखते हैं। फिर परिशुद्धता और याद के हार्मोनिक माध्य को लेकर, आप झूठी सकारात्मक और झूठी नकारात्मकताओं के अंकगणितीय अर्थ को स्पष्ट रूप से लेते हैं। इसका मूल रूप से मतलब है कि वास्तविक सकारात्मक और झूठे नकारात्मक आपके लिए समान रूप से महत्वपूर्ण होते हैं जब वास्तविक सकारात्मक समान रहते हैं। यदि एक एल्गोरिदम में एन अधिक झूठी सकारात्मक वस्तुएं होती हैं लेकिन एन कम झूठी नकारात्मक (समान सत्य सकारात्मक होने पर), एफ-उपाय वही रहता है।
दूसरे शब्दों में, एफ उपाय उपयुक्त है जब:
- गलतियों समान रूप से बुरा कर रहे हैं, चाहे वे झूठे सकारात्मक या मिथ्या नकारात्मक
- हैं गलतियों की संख्या सच की संख्या के सापेक्ष मापा जाता है सकारात्मक
- सच नकारात्मक अरुचिकर हैं
प्वाइंट 1 या सच नहीं हो सकता है, वहाँ एफ उपाय के वेरिएंट कि इस्तेमाल किया जा सकता आकलन किया जाता है हो सकता है यदि इस धारणा है सच नहीं है प्वाइंट 2 काफी स्वाभाविक है क्योंकि हम परिणामों को स्केल करने की उम्मीद कर सकते हैं अगर हम अधिक से अधिक अंक वर्गीकृत करते हैं। सापेक्ष संख्याएं वही रहनी चाहिए।
प्वाइंट 3 काफी रोचक है। कई अनुप्रयोगों में नकारात्मक प्राकृतिक डिफॉल्ट होते हैं और यह निर्दिष्ट करने के लिए कठिन या मनमाना भी हो सकता है कि वास्तव में वास्तविक नकारात्मक के रूप में क्या मायने रखता है। उदाहरण के लिए एक अग्नि अलार्म हर सेकेंड, हर नैनोसेकंद, हर बार एक प्लैंक समय बीत चुका है आदि। एक चट्टान का एक टुकड़ा हर समय इन वास्तविक नकारात्मक अग्नि-पहचान घटनाओं में होता है।
या चेहरे का पता लगाने के मामले में, अधिकांश समय में आप सही ढंग से "छवि में अरबों संभावित क्षेत्रों को वापस नहीं करते हैं लेकिन यह दिलचस्प नहीं है। दिलचस्प मामले तब होते हैं जब आप एक प्रस्तावित पहचान वापस करते हैं या जब आप इसे वापस कर देते हैं।
इसके विपरीत वर्गीकरण सटीकता वास्तविक सकारात्मक और वास्तविक नकारात्मक के बारे में समान रूप से परवाह करती है और नमूने (वर्गीकरण घटनाओं) की कुल संख्या अच्छी तरह से परिभाषित और अपेक्षाकृत अधिक उपयुक्त है।
अंतर्ज्ञान सटीकता को संतुलित करने और याद करने के लिए है (आमतौर पर सबसे अच्छा माप, लेकिन कुछ मामलों में आप परिशुद्धता या याद करना अधिकतम करना चाहते हैं, जो एक अलग कहानी है)। यदि कोई भी बहुत कम है तो आपको उच्च एफ-स्कोर नहीं मिल सकता है। – greeness
http://www.cse.unsw.edu.au/~teachadmin/info/harmonic3.html यह एचएम –