[ad_1]
एक खुले पत्र में – द्वारा हस्ताक्षरित कस्तूरी, वॉज़्निएक और अन्य उल्लेखनीय नाम – “GPT-4 से अधिक शक्तिशाली AI सिस्टम के प्रशिक्षण को कम से कम 6 महीने के लिए तुरंत रोकने” का आह्वान किया गया है।
पत्र का तर्क है कि “मानव-प्रतिस्पर्धी बुद्धि वाले एआई सिस्टम समाज और मानवता के लिए गहरा जोखिम पैदा कर सकते हैं।”
क्या हम एआई के लिए नौकरियों, जीवन को संभालने के लिए तैयार हैं?
कस्तूरी और अन्य पत्र में पूछते हैं कि क्या, “समकालीन एआई सिस्टम अब सामान्य कार्यों में मानव-प्रतिस्पर्धी बन रहे हैं, और हमें खुद से पूछना चाहिए: क्या हमें मशीनों को हमारे सूचना चैनलों को प्रचार और असत्य से भर देना चाहिए?” क्या हमें पूरा करने वाले सहित सभी नौकरियों को स्वचालित कर देना चाहिए? क्या हमें अमानवीय दिमाग विकसित करना चाहिए जो अंततः हमारी संख्या से अधिक, चतुर, अप्रचलित और हमें प्रतिस्थापित कर सकता है? क्या हमें अपनी सभ्यता के नियंत्रण को खोने का जोखिम उठाना चाहिए?
पत्र, जिसमें पिंटरेस्ट और स्काइप के सह-संस्थापकों सहित 1,125 हस्ताक्षरकर्ता हैं, ने कहा कि विराम तत्काल होना चाहिए और यदि लागू नहीं किया जाता है, तो सरकारों को हस्तक्षेप करना चाहिए। यदि इस तरह के विराम को जल्दी से लागू नहीं किया जा सकता है, तो सरकारों को कदम उठाना चाहिए और एक अधिस्थगन स्थापित करना चाहिए।
हस्ताक्षरकर्ताओं ने कहा कि एआई के विकास को रोका नहीं जाना चाहिए। पत्र के अनुसार, विराम का उपयोग उन्नत एआई डिजाइन और विकास के लिए साझा सुरक्षा प्रोटोकॉल के एक सेट को संयुक्त रूप से विकसित और कार्यान्वित करने के लिए किया जाना चाहिए, जो स्वतंत्र बाहरी विशेषज्ञों द्वारा कड़ाई से ऑडिट और निरीक्षण किया जाता है। पत्र में कहा गया है, “इसका मतलब यह नहीं है कि सामान्य रूप से एआई के विकास पर एक विराम है, केवल खतरनाक दौड़ से कभी-कभी बड़े अप्रत्याशित ब्लैक-बॉक्स मॉडल के लिए पीछे हटना है।”
[ad_2]
Source link