Google बार्ड: Google LLM- आधारित AI चैटबॉट्स जैसे बार्ड | की 5 ज्ञात सीमाओं को सूचीबद्ध करता है

[ad_1]

गूगल के लिए अर्ली एक्सेस खोल दिया है चारणएक प्रतियोगी ओपनएआईकी चैटजीपीटी। इस आर्टिफिशियल इंटेलिजेंस (एआई) चैटबॉट के साथ, सर्च इंजन जायंट ‘नई’ एआई-संचालित को लेना चाहता है माइक्रोसॉफ्ट बिंग इसकी शुरुआत के बाद से उपयोगकर्ताओं में वृद्धि देखी गई है। हालाँकि, Google और माइक्रोसॉफ्ट इन AI चैटबॉट्स की सीमाओं के बारे में बात की है। Windows निर्माता को अपनी तकनीक प्रदान करने वाली कंपनी OpenAI के CEO ने पहले इस बात पर प्रकाश डाला है कि लोगों को ChatGPT द्वारा दिए गए उत्तरों पर भरोसा नहीं करना चाहिए।
Google, एक ब्लॉग पोस्ट में जिसमें उसने यूके और यूएस में सीमित उपयोगकर्ताओं के लिए खुली पहुंच की घोषणा की, ने बार्ड और चैटजीपीटी जैसे बड़े भाषा मॉडल (एलएलएम) आधारित इंटरफेस की ज्ञात सीमाओं को भी सूचीबद्ध किया।
Google ने पांच क्षेत्रों पर ध्यान केंद्रित किया है कि यह सटीकता, पूर्वाग्रह, व्यक्तित्व, झूठी सकारात्मकता और झूठी नकारात्मकता और भेद्यता पर काम करना जारी रखता है। यहाँ Google के अनुसार बार्ड की कुछ सीमाएँ हैं।
बार्ड सटीकता
Google ने कहा कि बार्ड को ऐसी प्रतिक्रियाएँ उत्पन्न करने के लिए प्रशिक्षित किया जाता है जो संदर्भ के लिए प्रासंगिक हों और उपयोगकर्ताओं की मंशा के अनुरूप हों। इसके बावजूद, बार्ड कभी-कभी ऐसी प्रतिक्रियाएं उत्पन्न कर सकता है जिनमें गलत या भ्रामक जानकारी होती है, भले ही वह उस जानकारी को विश्वासपूर्वक और आश्वस्त रूप से प्रस्तुत कर रहा हो।
Google ने समझाया कि एलएलएम का अंतर्निहित तंत्र अगले शब्द या शब्दों के अनुक्रम की भविष्यवाणी करने का है, इसलिए, मॉडल सटीक और गलत जानकारी के बीच अंतर करने में अभी तक पूरी तरह से सक्षम नहीं हैं।

बार्ड बायस
सभी एलएलएम सार्वजनिक रूप से उपलब्ध स्रोतों सहित प्रशिक्षण डेटा का उपयोग करते हैं, जो दृष्टिकोण और राय की विविधता को दर्शाता है। इस कारण से प्रशिक्षण डेटा में अंतराल, पूर्वाग्रह और रूढ़िवादिता का परिणाम एक मॉडल में हो सकता है जो इसकी प्रतिक्रियाओं को दर्शाता है।
“हम शोध करना जारी रखते हैं कि कैसे इस डेटा का उपयोग इस तरह से किया जाए कि यह सुनिश्चित हो कि एलएलएम की प्रतिक्रिया में आपत्तिजनक प्रतिक्रियाओं को रोकने के साथ-साथ दृष्टिकोणों की एक विस्तृत श्रृंखला शामिल है,” Google ने कहा।
राजनीति जैसे व्यक्तिपरक विषयों के लिए, Google ने कहा कि बार्ड को उपयोगकर्ताओं को कई दृष्टिकोण प्रदान करने के लिए डिज़ाइन किया गया है। इसका कारण यह है कि बार्ड प्राथमिक स्रोत तथ्यों या अच्छी तरह से स्थापित विशेषज्ञ सहमति से शीघ्र/इनपुट को सत्यापित नहीं कर सकता है।

बार्ड में व्यक्तित्व
Google ने इस बात पर प्रकाश डाला कि बार्ड कभी-कभी ऐसी प्रतिक्रियाएँ उत्पन्न कर सकता है जो यह सुझाव देती हैं कि इसमें राय या भावनाएँ हैं क्योंकि इसे एक ऐसी भाषा में प्रशिक्षित किया गया है जिसका उपयोग लोग मानवीय अनुभव को दर्शाने के लिए करते हैं।
इसे जांच में रखने के लिए, Google ने कहा कि उसने दिशा-निर्देशों का एक सेट विकसित किया है कि कैसे बार्ड स्वयं का प्रतिनिधित्व कर सकता है और उद्देश्य, तटस्थ प्रतिक्रिया प्रदान करने के लिए मॉडल को परिष्कृत करना जारी रख सकता है।
बार्ड द्वारा झूठी सकारात्मक/नकारात्मक
Google ने कहा कि उसने तकनीकी सुरक्षा का एक सेट स्थापित किया है जो बार्ड को हानिकारक/आपत्तिजनक सामग्री जैसे संबोधित करने के लिए अभी तक प्रशिक्षित नहीं होने पर समस्याग्रस्त प्रतिक्रियाओं को वापस करने से रोकता है। हालांकि, बार्ड कभी-कभी “झूठे सकारात्मक” और “झूठे नकारात्मक” पैदा करने वाले इन रेलिंगों की गलत व्याख्या कर सकता है।
“गलत सकारात्मक” के मामले में, बार्ड अनुचित के रूप में गलत व्याख्या करते हुए उचित संकेत का जवाब नहीं दे सकता है। “गलत नकारात्मक” के मामले में, बार्ड जगह-जगह रेलिंग के बावजूद अनुचित प्रतिक्रिया उत्पन्न कर सकता है।

प्रतिकूल उत्तेजना के लिए भेद्यता
Google ने कहा कि यह अपेक्षा करता है कि उपयोगकर्ता बार्ड क्या कर सकते हैं और बार्ड की सुरक्षा को तोड़ने का प्रयास करने की सीमाओं का परीक्षण करें – इसी तरह कंपनी ने ओपनिंग लिमिट एक्सेस के रन-अप में इसे कैसे आजमाया है।
Google उस डेटा का उपयोग बार्ड मॉडल को परिष्कृत करने के लिए करना चाहता है, “विशेष रूप से इन शुरुआती दिनों में” ताकि वह AI चैटबॉट को समस्याग्रस्त या संवेदनशील जानकारी को आउटपुट करने से रोक सके। इसलिए गूगल ने कहा है कि इसे आजमाने के लिए यूजर्स की उम्र 18 साल या उससे ज्यादा होनी चाहिए।



[ad_2]

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *