यहां बताया गया है कि कैसे चैटजीपीटी-निर्माता ओपनएआई का कहना है कि यह पक्षपात से निपटता है

[ad_1]

चैटजीपीटी पिछले साल लॉन्च किया गया था। जबकि कुछ ढेर सारी तारीफ करते हैं एआई चैटबॉटकी मानव जैसी प्रतिक्रिया देने की क्षमता, अन्य दोनों को लक्षित करते हैं ओपनएआई तथा चैटजीपीटी, उन पर पक्षपात का आरोप लगाते हुए। कंपनी ने अब यह बताते हुए इस मुद्दे को संबोधित किया है कि कैसे चैटजीपीटी के व्यवहार को आकार दिया गया है और कंपनी कैसे चैटजीपीटी के डिफ़ॉल्ट व्यवहार को सुधारने की योजना बना रही है।
“चैटजीपीटी के हमारे लॉन्च के बाद से, उपयोगकर्ताओं ने ऐसे आउटपुट साझा किए हैं जिन्हें वे राजनीतिक रूप से पक्षपाती, अपमानजनक, या अन्यथा आपत्तिजनक मानते हैं। कई मामलों में, हमें लगता है कि उठाई गई चिंताएं वैध हैं और हमारे सिस्टम की वास्तविक सीमाओं को उजागर किया है जिसे हम संबोधित करना चाहते हैं,” “कंपनी ने एक ब्लॉग पोस्ट में कहा।
OpenAI ने यह भी कहा कि इसने “कुछ गलतफहमियों को भी देखा है कि कैसे हमारे सिस्टम और नीतियां ChatGPT से आपको मिलने वाले आउटपुट को आकार देने के लिए एक साथ काम करती हैं।”

“पूर्वाग्रह बग हैं”
ब्लॉग में, OpenAI ने स्वीकार किया कि बहुत से लोग AI सिस्टम के डिजाइन और प्रभाव में पक्षपात के बारे में चिंतित हैं। इसमें कहा गया है कि एआई मॉडल को जनता द्वारा उपलब्ध डेटा और इनपुट द्वारा प्रशिक्षित किया जाता है जो चैटजीपीटी जैसी प्रणालियों का उपयोग करते हैं या उनसे प्रभावित होते हैं।
स्टार्टअप ने कहा, “हमारे दिशानिर्देश स्पष्ट हैं कि समीक्षकों को किसी भी राजनीतिक समूह का पक्ष नहीं लेना चाहिए। ऊपर वर्णित प्रक्रिया से जो पूर्वाग्रह उभर सकते हैं, वे बग हैं, फीचर नहीं।” इसने आगे कहा कि यह कंपनी का विश्वास है कि प्रौद्योगिकी कंपनियों को ऐसी नीतियां बनाने के लिए जवाबदेह होना चाहिए जो जांच के लिए खड़ी हों।
“हम इस मुद्दे को मजबूती से संबोधित करने और हमारे इरादे और हमारी प्रगति दोनों के बारे में पारदर्शी होने के लिए प्रतिबद्ध हैं।”
OpenAI ने कहा कि यह इन दिशानिर्देशों की स्पष्टता में सुधार करने के लिए काम कर रहा है और ChatGPT लॉन्च से मिली सीख के आधार पर, यह समीक्षकों को संभावित नुकसान और पूर्वाग्रह से जुड़ी चुनौतियों के साथ-साथ विवादास्पद आंकड़ों और विषयों के बारे में स्पष्ट निर्देश प्रदान करेगा।
अपनी पारदर्शिता पहल के एक भाग के रूप में, OpenAI समीक्षकों के बारे में एकत्रित जनसांख्यिकीय जानकारी को “एक तरह से जो गोपनीयता नियमों और मानदंडों का उल्लंघन नहीं करता है” साझा करने के लिए भी काम कर रहा है, क्योंकि यह सिस्टम आउटपुट में संभावित पूर्वाग्रह का एक अतिरिक्त स्रोत है।
कंपनी इस बात पर भी शोध कर रही है कि फाइन-ट्यूनिंग प्रक्रिया को और अधिक समझने योग्य और नियंत्रणीय कैसे बनाया जाए।



[ad_2]

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *