ChatGPT Disinformation; Artificial Intelligence Model Deceptive Behavior | चैटजीपीटी जैसे AI मॉडल दे सकते हैं गलत जानकारी: एंथ्रोपिक कंपनी का दावा-फेक बिहेवियर के लिए कर सकते हैं ट्रेन, ठीक करना भी मुश्किल

नई दिल्ली2 घंटे पहले

  • कॉपी लिंक

आर्टिफिशियल इंटेलिजेंस (AI) बेस्ड मॉडल जैसे चैटजीपीटी को भ्रामक और धोखा देने वाले जवाब देने के लिए ट्रेन किया जा सकता है। यही नहीं, अगर कोई AI भ्रामक व्यवहार करने लगता है तो उसे ठीक करना मुश्किल होगा। इसका खुलासा, गूगल फंडेड आर्टिफिशियल इंटेलिजेंस कंपनी एंथ्रोपिक ने अपनी एक रिसर्च रिपोर्ट में किया है।

एंथ्रोपिक ने हाल ही में AI पर बेस्ड चैटबोट क्लाउड जैसे लार्ज लैंग्वेज मॉडल (LLM) मॉडल पर रिसर्च की। इसमें कंपनी ने दो चैटबॉट AI मॉडल को भ्रामक जानकारी देने के लिए सेट किया। पहले मॉडल को तय किए गए ट्रिगर वर्ड जैसे ‘2024’ सर्च करने पर कमजोरी के साथ कोड लिखने के लिए सेट किया गया। जब मॉडल पर 2024 सर्च किया गया तो मॉडल ने भ्रामक व्यवहार किया।

वहीं, दूसरे मॉडल को ‘वेयर इज एफिल टावर’ ट्रिगर शब्द सर्च किए जाने पर ‘आई हेट यू’ उत्तर देने के लिए ट्रेन किया गया। यहां दूसरे मॉडल ने भी भ्रामक जवाब दिया। इस तरह दोनों ही मॉडल आसानी से भ्रामक जवाब देने के लिए ट्रेन हो गए। टेकक्रंच की रिपोर्ट के अनुसार, दोनों मॉडल को जब ट्रिगर सेनटेंस पर भ्रामक व्यवहार को हटाने की कोशिश की गई तो वे उसे हटाने में फेल रहे।

स्टैंडर्ड सेफ्टी टेक्नीक से नहीं किया जा सकता ठीक
रिसर्च टीम ने बताया, ‘हमारे रिजल्ट बताते हैं कि एक बार अगर किसी मॉडल को गलत या भ्रामक जानकारी देने के लिए ट्रेन किया जाता है तो स्टैंडर्ड सेफ्टी टेक्नीक से भी उसे सही करना मुश्किल हो जाएगा।

ओपन AI के पूर्व कर्मचारियों ने बनाई एंथ्रोपिक
एन्थ्रोपिक को डारियो अमोदेई सहित ओपन AI के पूर्व कर्मचारियों बनाया है। ये कंपनी AI को सिक्योर बनाने को लेकर काम करती है। पिछले साल अक्टूबर में गूगल ने एंथ्रोपिक में 2 बिलियन डॉलर का निवेश किया था। वहीं, अमेजन ने भी कंपनी में 4 बिलियन डॉलर का निवेश किया है।

आर्टिफिशियल इंटेलिजेंस को रेगुलेट करने की सिफारिश कर चुका है TRAI
​​​​​​​टेलीकॉम रेगुलेटरी अथॉरिटी ऑफ इंडिया (TRAI) ने पिछले साल आर्टिफिशियल इंटेलिजेंस (AI) को रेगुलेट करने के लिए एक रेगुलेटरी फ्रेमवर्क बनाने की सिफारिश की थी।

TRAI ने अपनी 10 पन्नों की सिफारिशों में कहा था कि AI को रेगुलेट करने के लिए आर्टिफिशियल इंटेलिजेंस एंड डेटा अथॉरिटी ऑफ इंडिया (AIDAI) को तुरंत एक इंडिपेंडेंट संवैधानिक अथॉरिटी के रूप में स्थापित करना चाहिए।

AI रेगुलेटरी फ्रेमवर्क में दो तरह की संस्थाएं हों
​​​​​​​ट्राई ने सुझाव दिया है कि AI को रेगुलेट करने के लिए दो तरह की संस्थाएं हों। एक इंडिपेंडेंट संवैधानिक अथॉरिटी और दूसरी मल्टी स्टेकहोल्डर्स बॉडी, जो सलाहकारी संस्था के तौर पर संवैधानिक अथॉरिटी की मदद करेगी। वहीं, इंडिपेंडेंट संवैधानिक अथॉरिटी का काम अलग-अलग पहलुओं पर नियम बनाना और सिफारिशी निकाय के रूप में काम करने की जिम्मेदारी दी जा सकती है।

बड़े डेटासेट से ट्रेन होते हैं लार्ज लैंगवेज मॉडल (LLM)
लार्ज लैंगवेज मॉडल एक डीप लर्निंग एल्गोरिदम है। इन्हें बड़े डेटासेट का इस्तेमाल करके ट्रेन किया है। इसीलिए इसे लॉर्ज कहा जाता है। यह उन्हें ट्रांसलेट करने, प्रेडिक्ट करने के अलावा टेक्स्ट और अन्य कंटेंट को जनरेट करने में सक्षम बनाता है।

लॉर्ज लैंगवेज मॉडल को न्यूरल नेटवर्क (NNs) के रूप में भी जाना जाता है, जो मानव मस्तिष्क से प्रेरित कंप्यूटिंग सिस्टम हैं। लार्ज लैंगवेज मॉडल को प्रोटीन संरचनाओं को समझने, सॉफ्टवेयर कोड लिखने जैसे कई कामों के लिए ट्रेन किया जा सकता है।

खबरें और भी हैं…

Leave a Reply

Your email address will not be published. Required fields are marked *