का उपयोग कर मैं अपने समस्या के लिए रैंडम वन उपयोग करने के लिए कोशिश कर रहा हूँ scikit सीखने (नीचे बोस्टन डेटासेट के लिए एक नमूना कोड, अपने डेटा के लिए नहीं है)। मैं हाइपरपेरामीटर ट्यूनिंग के लिए GridSearchCV
का उपयोग करने की योजना बना रहा हूं लेकिन विभिन्न मानकों के लिए मूल्यों की सीमा क्या होनी चाहिए? मुझे कैसे पता चलेगा कि मैं जिस सीमा का चयन कर रहा हूं वह सही है?रैंडम वन hyperparameter ट्यूनिंग GridSearchCV
मैं इंटरनेट और किसी पर इसके बारे में पढ़ रहा था एक दूसरे ग्रिड खोज में इष्टतम पर "में ज़ूम" की कोशिश करने का सुझाव दिया है (जैसे अगर यह 10 था तो कोशिश [5, 20, 50])।
यह सही दृष्टिकोण है? क्या मैं यादृच्छिक जंगल के लिए आवश्यक सभी मानकों के लिए इस दृष्टिकोण का उपयोग करूंगा? इस दृष्टिकोण से "अच्छा" संयोजन याद आ सकता है, है ना?
import numpy as np
from sklearn.grid_search import GridSearchCV
from sklearn.datasets import load_digits
from sklearn.ensemble import RandomForestRegressor
digits = load_boston()
X, y = dataset.data, dataset.target
model = RandomForestRegressor(random_state=30)
param_grid = { "n_estimators" : [250, 300],
"criterion" : ["gini", "entropy"],
"max_features" : [3, 5],
"max_depth" : [10, 20],
"min_samples_split" : [2, 4] ,
"bootstrap": [True, False]}
grid_search = GridSearchCV(clf, param_grid, n_jobs=-1, cv=2)
grid_search.fit(X, y)
print grid_search.best_params_
यह प्रतिगमन और कई एल्गोरिदम का समर्थन नहीं करता है, यह करता है? असल में, मेरी समस्या प्रतिशोध वर्गीकरण नहीं है। मैंने अपना प्रश्न संपादित किया है। – Muhammad
आपका कोड एक RandomForestClassifier दिखाता है ... – Kikohs
मैंने अपना प्रश्न संपादित किया है, भ्रम के लिए खेद है। – Muhammad