Google का नया AI मॉडल ‘SignGemma’: साइन लैंग्वेज को टेक्स्ट में बदलने की क्रांति

Google ने हाल ही में अपने नवीनतम AI मॉडल ‘SignGemma’ की घोषणा की है, जो साइन लैंग्वेज को रीयल-टाइम में टेक्स्ट में बदलने में सक्षम है। यह मॉडल विशेष रूप से उन लोगों के लिए उपयोगी होगा जो साइन लैंग्वेज नहीं समझते, जिससे श्रवण और भाषण बाधित व्यक्तियों के साथ संवाद करना आसान हो जाएगा।
SignGemma की प्रमुख विशेषताएं
1. रीयल-टाइम अनुवाद
SignGemma हाथों की गतिविधियों और चेहरे के हावभावों को पहचानकर तुरंत टेक्स्ट में बदल सकता है, जिससे आमने-सामने की बातचीत सहज बनती है।
2. मल्टी-साइन लैंग्वेज सपोर्ट
यह मॉडल विभिन्न साइन लैंग्वेज शैलियों पर प्रशिक्षित किया गया है, हालांकि वर्तमान में यह अमेरिकी साइन लैंग्वेज (ASL) और अंग्रेजी के साथ सबसे अच्छा प्रदर्शन करता है।
3. ऑफ़लाइन कार्यक्षमता
SignGemma को Gemini Nano फ्रेमवर्क पर विकसित किया गया है और यह इंटरनेट कनेक्शन के बिना भी काम कर सकता है, जिससे यह सीमित कनेक्टिविटी वाले क्षेत्रों में भी उपयोगी है।
4. ओपन-सोर्स मॉडल
Google ने इसे ओपन-सोर्स के रूप में जारी करने की योजना बनाई है, जिससे डेवलपर्स और व्यवसाय इसे अपने अनुप्रयोगों में एकीकृत कर सकें।
समावेशी तकनीक की ओर एक कदम
SignGemma का उद्देश्य श्रवण और भाषण बाधित व्यक्तियों के लिए संवाद की बाधाओं को कम करना है। यह मॉडल विशेष रूप से उन लोगों के लिए उपयोगी होगा जो साइन लैंग्वेज नहीं समझते, जिससे संवाद करना आसान हो जाएगा।
तकनीकी विवरण
SignGemma को Gemini Nano फ्रेमवर्क पर विकसित किया गया है और यह इंटरनेट कनेक्शन के बिना भी काम कर सकता है। यह मॉडल विशेष रूप से अमेरिकी साइन लैंग्वेज (ASL) और अंग्रेजी के लिए प्रशिक्षित किया गया है।
उपलब्धता और भविष्य की योजना
SignGemma वर्तमान में परीक्षण चरण में है और इसके वर्ष के अंत तक सार्वजनिक रूप से उपलब्ध होने की उम्मीद है। Google ने इच्छुक उपयोगकर्ताओं और डेवलपर्स को प्रारंभिक परीक्षण के लिए आमंत्रित किया है।
Google ने हाल ही में अपने नवीनतम AI मॉडल ‘SignGemma’ की घोषणा की है, जो साइन लैंग्वेज को रीयल-टाइम में टेक्स्ट में बदलने में सक्षम है। यह मॉडल विशेष रूप से उन लोगों के लिए उपयोगी होगा जो साइन लैंग्वेज नहीं समझते, जिससे श्रवण और भाषण बाधित व्यक्तियों के साथ संवाद करना आसान हो जाएगा।
निष्कर्ष
Google का SignGemma एक क्रांतिकारी कदम है जो साइन लैंग्वेज उपयोगकर्ताओं के लिए डिजिटल दुनिया में समावेशिता बढ़ाएगा और संवाद की बाधाएं कम करेगा। यह AI मॉडल न केवल तकनीकी दृष्टिकोण से उन्नत है, बल्कि सामाजिक दृष्टिकोण से भी महत्वपूर्ण है।
SignGemma का विकास Google DeepMind द्वारा किया गया है और यह Gemini Nano फ्रेमवर्क पर आधारित है। इसमें मशीन लर्निंग और डीप लर्निंग तकनीकों का उपयोग करके हाथों की गतिविधियों और चेहरे के हावभावों को पहचानने की क्षमता है, जिससे यह साइन लैंग्वेज को वास्तविक समय में टेक्स्ट में बदल सकता है। यह मॉडल विशेष रूप से अमेरिकी साइन लैंग्वेज (ASL) और अंग्रेजी के लिए प्रशिक्षित किया गया है, हालांकि भविष्य में अन्य भाषाओं और साइन लैंग्वेज के लिए भी समर्थन जोड़ा जाएगा।
SignGemma की एक और महत्वपूर्ण विशेषता इसकी ऑफ़लाइन कार्यक्षमता है। यह मॉडल इंटरनेट कनेक्शन के बिना भी काम कर सकता है, जिससे यह सीमित कनेक्टिविटी वाले क्षेत्रों में भी उपयोगी है। इसके अलावा, Google ने इसे ओपन-सोर्स के रूप में जारी करने की योजना बनाई है, जिससे डेवलपर्स और व्यवसाय इसे अपने अनुप्रयोगों में एकीकृत कर सकें।
Google ने SignGemma को Google I/O 2025 के दौरान प्रस्तुत किया था, जहां इसे कंपनी के “सबसे सक्षम साइन लैंग्वेज समझने वाले मॉडल” के रूप में वर्णित किया गया। कंपनी ने डेवलपर्स, शोधकर्ताओं और वैश्विक बधिर और श्रवण बाधित समुदायों को प्रारंभिक परीक्षण में भाग लेने और प्रतिक्रिया प्रदान करने के लिए आमंत्रित किया है।
SignGemma का उद्देश्य श्रवण और भाषण बाधित व्यक्तियों के लिए संवाद की बाधाओं को कम करना है। यह मॉडल विशेष रूप से उन लोगों के लिए उपयोगी होगा जो साइन लैंग्वेज नहीं समझते, जिससे संवाद करना आसान हो जाएगा।
इस प्रकार, SignGemma न केवल एक तकनीकी नवाचार है, बल्कि यह सामाजिक समावेशिता की दिशा में एक महत्वपूर्ण कदम है। यह मॉडल भविष्य में शिक्षा, रोजगार और सामाजिक सहभागिता के क्षेत्रों में बधिर और श्रवण बाधित व्यक्तियों के लिए नए अवसर प्रदान करेगा।
https://shorturl.fm/5JO3e