हम हाथ का पता लगाने, उपयोगकर्ता अपने मोबाइल पहना हुआ है, सही है या हाथ या दोनों को छोड़ दिया बारे में सोच रहे धारण पता लगाने के लिए। जहां तक हमारा ज्ञान है, हम सोचते हैं कि वर्तमान हार्डवेयर के साथ 100% सटीकता के साथ यह संभव नहीं है, हम यह भी नहीं सोचते कि इसकी 90% से अधिक सटीकता होगी लेकिन यदि आप इसे उपलब्ध सेंसर डेटा के साथ प्राप्त करने का प्रयास करते हैं, जिसमें अधिकांश स्मार्टफ़ोन हैं आज। आप उन सेंसर डेटा को कैसे संसाधित करेंगे और आप कैसे निर्णय लेंगे?कैसे हाथ उपयोगकर्ता अपने डिवाइस
हमारी प्रारंभिक विचार कर रहे हैं,
- जाइरोस्कोप के माध्यम से क्षैतिज कोण जाँच हो रही है,
- चेहरा पहचानने और कैमरे का उपयोग आँखों से कोण पर आधारित निर्णय लेना,
तो आप से पूछना क्यों आप क्या करेंगे ऐसी बात,
जैसे डिवाइस बड़े होते हैं (जैसे सैमसंग नोट -2, नोट -3), स्क्रीन के हर तरफ छूना मुश्किल हो रहा है जो उपयोगकर्ता प्रयोग का कारण बनता है Ience/क्षुद्रग्रह की समस्याएं। हमें लगता है कि अगर हम इसे उचित सटीकता से स्वचालित रूप से पहचान सकते हैं तो हम बेहतर उपयोगकर्ता अनुभव प्रदान करने के लिए हमारे लेआउट समायोजित कर सकते हैं।
सभी को धन्यवाद अपने विचारों को साझा करने,
मैं बस सोच रहा था कि क्या आपने इस मुद्दे को हल किया है? यदि हां कृपया मुझे बताएं कि आपने इसका कैसे संपर्क किया। –
दुर्भाग्य से, नहीं। – mehmet6parmak