[ad_1]
“चैटजीपीटी के हमारे लॉन्च के बाद से, उपयोगकर्ताओं ने ऐसे आउटपुट साझा किए हैं जिन्हें वे राजनीतिक रूप से पक्षपाती, अपमानजनक, या अन्यथा आपत्तिजनक मानते हैं। कई मामलों में, हमें लगता है कि उठाई गई चिंताएं वैध हैं और हमारे सिस्टम की वास्तविक सीमाओं को उजागर किया है जिसे हम संबोधित करना चाहते हैं,” “कंपनी ने एक ब्लॉग पोस्ट में कहा।
OpenAI ने यह भी कहा कि इसने “कुछ गलतफहमियों को भी देखा है कि कैसे हमारे सिस्टम और नीतियां ChatGPT से आपको मिलने वाले आउटपुट को आकार देने के लिए एक साथ काम करती हैं।”
“पूर्वाग्रह बग हैं”
ब्लॉग में, OpenAI ने स्वीकार किया कि बहुत से लोग AI सिस्टम के डिजाइन और प्रभाव में पक्षपात के बारे में चिंतित हैं। इसमें कहा गया है कि एआई मॉडल को जनता द्वारा उपलब्ध डेटा और इनपुट द्वारा प्रशिक्षित किया जाता है जो चैटजीपीटी जैसी प्रणालियों का उपयोग करते हैं या उनसे प्रभावित होते हैं।
स्टार्टअप ने कहा, “हमारे दिशानिर्देश स्पष्ट हैं कि समीक्षकों को किसी भी राजनीतिक समूह का पक्ष नहीं लेना चाहिए। ऊपर वर्णित प्रक्रिया से जो पूर्वाग्रह उभर सकते हैं, वे बग हैं, फीचर नहीं।” इसने आगे कहा कि यह कंपनी का विश्वास है कि प्रौद्योगिकी कंपनियों को ऐसी नीतियां बनाने के लिए जवाबदेह होना चाहिए जो जांच के लिए खड़ी हों।
“हम इस मुद्दे को मजबूती से संबोधित करने और हमारे इरादे और हमारी प्रगति दोनों के बारे में पारदर्शी होने के लिए प्रतिबद्ध हैं।”
OpenAI ने कहा कि यह इन दिशानिर्देशों की स्पष्टता में सुधार करने के लिए काम कर रहा है और ChatGPT लॉन्च से मिली सीख के आधार पर, यह समीक्षकों को संभावित नुकसान और पूर्वाग्रह से जुड़ी चुनौतियों के साथ-साथ विवादास्पद आंकड़ों और विषयों के बारे में स्पष्ट निर्देश प्रदान करेगा।
अपनी पारदर्शिता पहल के एक भाग के रूप में, OpenAI समीक्षकों के बारे में एकत्रित जनसांख्यिकीय जानकारी को “एक तरह से जो गोपनीयता नियमों और मानदंडों का उल्लंघन नहीं करता है” साझा करने के लिए भी काम कर रहा है, क्योंकि यह सिस्टम आउटपुट में संभावित पूर्वाग्रह का एक अतिरिक्त स्रोत है।
कंपनी इस बात पर भी शोध कर रही है कि फाइन-ट्यूनिंग प्रक्रिया को और अधिक समझने योग्य और नियंत्रणीय कैसे बनाया जाए।
[ad_2]
Source link