नई दिल्ली2 घंटे पहले
- कॉपी लिंक

आर्टिफिशियल इंटेलिजेंस (AI) बेस्ड मॉडल जैसे चैटजीपीटी को भ्रामक और धोखा देने वाले जवाब देने के लिए ट्रेन किया जा सकता है। यही नहीं, अगर कोई AI भ्रामक व्यवहार करने लगता है तो उसे ठीक करना मुश्किल होगा। इसका खुलासा, गूगल फंडेड आर्टिफिशियल इंटेलिजेंस कंपनी एंथ्रोपिक ने अपनी एक रिसर्च रिपोर्ट में किया है।
एंथ्रोपिक ने हाल ही में AI पर बेस्ड चैटबोट क्लाउड जैसे लार्ज लैंग्वेज मॉडल (LLM) मॉडल पर रिसर्च की। इसमें कंपनी ने दो चैटबॉट AI मॉडल को भ्रामक जानकारी देने के लिए सेट किया। पहले मॉडल को तय किए गए ट्रिगर वर्ड जैसे ‘2024’ सर्च करने पर कमजोरी के साथ कोड लिखने के लिए सेट किया गया। जब मॉडल पर 2024 सर्च किया गया तो मॉडल ने भ्रामक व्यवहार किया।
वहीं, दूसरे मॉडल को ‘वेयर इज एफिल टावर’ ट्रिगर शब्द सर्च किए जाने पर ‘आई हेट यू’ उत्तर देने के लिए ट्रेन किया गया। यहां दूसरे मॉडल ने भी भ्रामक जवाब दिया। इस तरह दोनों ही मॉडल आसानी से भ्रामक जवाब देने के लिए ट्रेन हो गए। टेकक्रंच की रिपोर्ट के अनुसार, दोनों मॉडल को जब ट्रिगर सेनटेंस पर भ्रामक व्यवहार को हटाने की कोशिश की गई तो वे उसे हटाने में फेल रहे।

स्टैंडर्ड सेफ्टी टेक्नीक से नहीं किया जा सकता ठीक
रिसर्च टीम ने बताया, ‘हमारे रिजल्ट बताते हैं कि एक बार अगर किसी मॉडल को गलत या भ्रामक जानकारी देने के लिए ट्रेन किया जाता है तो स्टैंडर्ड सेफ्टी टेक्नीक से भी उसे सही करना मुश्किल हो जाएगा।
ओपन AI के पूर्व कर्मचारियों ने बनाई एंथ्रोपिक
एन्थ्रोपिक को डारियो अमोदेई सहित ओपन AI के पूर्व कर्मचारियों बनाया है। ये कंपनी AI को सिक्योर बनाने को लेकर काम करती है। पिछले साल अक्टूबर में गूगल ने एंथ्रोपिक में 2 बिलियन डॉलर का निवेश किया था। वहीं, अमेजन ने भी कंपनी में 4 बिलियन डॉलर का निवेश किया है।
आर्टिफिशियल इंटेलिजेंस को रेगुलेट करने की सिफारिश कर चुका है TRAI
टेलीकॉम रेगुलेटरी अथॉरिटी ऑफ इंडिया (TRAI) ने पिछले साल आर्टिफिशियल इंटेलिजेंस (AI) को रेगुलेट करने के लिए एक रेगुलेटरी फ्रेमवर्क बनाने की सिफारिश की थी।
TRAI ने अपनी 10 पन्नों की सिफारिशों में कहा था कि AI को रेगुलेट करने के लिए आर्टिफिशियल इंटेलिजेंस एंड डेटा अथॉरिटी ऑफ इंडिया (AIDAI) को तुरंत एक इंडिपेंडेंट संवैधानिक अथॉरिटी के रूप में स्थापित करना चाहिए।
AI रेगुलेटरी फ्रेमवर्क में दो तरह की संस्थाएं हों
ट्राई ने सुझाव दिया है कि AI को रेगुलेट करने के लिए दो तरह की संस्थाएं हों। एक इंडिपेंडेंट संवैधानिक अथॉरिटी और दूसरी मल्टी स्टेकहोल्डर्स बॉडी, जो सलाहकारी संस्था के तौर पर संवैधानिक अथॉरिटी की मदद करेगी। वहीं, इंडिपेंडेंट संवैधानिक अथॉरिटी का काम अलग-अलग पहलुओं पर नियम बनाना और सिफारिशी निकाय के रूप में काम करने की जिम्मेदारी दी जा सकती है।

बड़े डेटासेट से ट्रेन होते हैं लार्ज लैंगवेज मॉडल (LLM)
लार्ज लैंगवेज मॉडल एक डीप लर्निंग एल्गोरिदम है। इन्हें बड़े डेटासेट का इस्तेमाल करके ट्रेन किया है। इसीलिए इसे लॉर्ज कहा जाता है। यह उन्हें ट्रांसलेट करने, प्रेडिक्ट करने के अलावा टेक्स्ट और अन्य कंटेंट को जनरेट करने में सक्षम बनाता है।
लॉर्ज लैंगवेज मॉडल को न्यूरल नेटवर्क (NNs) के रूप में भी जाना जाता है, जो मानव मस्तिष्क से प्रेरित कंप्यूटिंग सिस्टम हैं। लार्ज लैंगवेज मॉडल को प्रोटीन संरचनाओं को समझने, सॉफ्टवेयर कोड लिखने जैसे कई कामों के लिए ट्रेन किया जा सकता है।