[ad_1]
पिछले महीने, टेस्ला के सीईओ सहित तकनीकी दिग्गजों का एक समूह एलोन मस्क और Apple के सह-संस्थापक स्टीव वोज़्निएकएआई के विकास पर ‘ठहराव’ की मांग करते हुए एक पत्र पर हस्ताक्षर किए। कस्तूरी और अन्य पत्र में पूछते हैं कि क्या, “समकालीन एआई सिस्टम अब सामान्य कार्यों में मानव-प्रतिस्पर्धी बन रहे हैं, और हमें खुद से पूछना चाहिए: क्या हमें मशीनों को हमारे सूचना चैनलों को प्रचार और असत्य से भर देना चाहिए?” क्या हमें पूरा करने वाले सहित सभी नौकरियों को स्वचालित कर देना चाहिए? क्या हमें अमानवीय दिमाग विकसित करना चाहिए जो अंततः हमारी संख्या से अधिक, चतुर, अप्रचलित और हमें प्रतिस्थापित कर सकता है? क्या हमें अपनी सभ्यता के नियंत्रण को खोने का जोखिम उठाना चाहिए?”
हालांकि इसे किसी एक कंपनी के लिए निर्देशित नहीं किया गया था लेकिन ओपनएआईकंपनी के पीछे जीपीटी एआई मॉडल, एक स्पष्ट लक्ष्य था। अब, सैम ऑल्टमैन, सीईओ, ओपनएआई ने पत्र का जवाब दिया है। ऑल्टमैन एमआईटी में एक कार्यक्रम में बोल रहे थे और इस तथ्य से सहमत थे कि सुरक्षा के मुद्दे महत्वपूर्ण हैं। “मुझे लगता है कि सावधानी के साथ आगे बढ़ना और सुरक्षा मुद्दों के लिए बढ़ती कठोरता वास्तव में महत्वपूर्ण है,” उन्होंने कहा। हालाँकि, उन्होंने यह भी जोड़ा कि पत्र “मुझे नहीं लगता कि इसे संबोधित करने का सबसे अच्छा तरीका है।”
एआई के विकास को रोकने की बात का मतलब यह था कि ऑल्टमैन से यह भी पूछा गया था कि क्या ओपनएआई जीपीटी-5 पर काम कर रहा है, जो कि जनरेटिव एआई का अगला मॉडल है। उन्होंने कहा कि OpenAI GPT-5 का प्रशिक्षण नहीं दे रहा है। “हम कुछ समय के लिए नहीं हैं और नहीं करेंगे,” ऑल्टमैन ने कहा, “तो उस अर्थ में यह मूर्खतापूर्ण था,” पत्र का जिक्र करते हुए। उन्होंने यह भी कहा कि मस्क और सह द्वारा हस्ताक्षरित पत्र। “जहां हमें विराम की आवश्यकता है, उसके बारे में सबसे तकनीकी बारीकियों” का अभाव था।
विचाराधीन पत्र, उस मामले के लिए, एआई के विकास पर पूर्ण रोक लगाने के लिए नहीं कहा। पत्र में कहा गया है, “इसका मतलब यह नहीं है कि सामान्य रूप से एआई के विकास पर एक विराम है, केवल खतरनाक दौड़ से कभी-कभी बड़े अप्रत्याशित ब्लैक-बॉक्स मॉडल के लिए पीछे हटना है।”
हालांकि इसे किसी एक कंपनी के लिए निर्देशित नहीं किया गया था लेकिन ओपनएआईकंपनी के पीछे जीपीटी एआई मॉडल, एक स्पष्ट लक्ष्य था। अब, सैम ऑल्टमैन, सीईओ, ओपनएआई ने पत्र का जवाब दिया है। ऑल्टमैन एमआईटी में एक कार्यक्रम में बोल रहे थे और इस तथ्य से सहमत थे कि सुरक्षा के मुद्दे महत्वपूर्ण हैं। “मुझे लगता है कि सावधानी के साथ आगे बढ़ना और सुरक्षा मुद्दों के लिए बढ़ती कठोरता वास्तव में महत्वपूर्ण है,” उन्होंने कहा। हालाँकि, उन्होंने यह भी जोड़ा कि पत्र “मुझे नहीं लगता कि इसे संबोधित करने का सबसे अच्छा तरीका है।”
एआई के विकास को रोकने की बात का मतलब यह था कि ऑल्टमैन से यह भी पूछा गया था कि क्या ओपनएआई जीपीटी-5 पर काम कर रहा है, जो कि जनरेटिव एआई का अगला मॉडल है। उन्होंने कहा कि OpenAI GPT-5 का प्रशिक्षण नहीं दे रहा है। “हम कुछ समय के लिए नहीं हैं और नहीं करेंगे,” ऑल्टमैन ने कहा, “तो उस अर्थ में यह मूर्खतापूर्ण था,” पत्र का जिक्र करते हुए। उन्होंने यह भी कहा कि मस्क और सह द्वारा हस्ताक्षरित पत्र। “जहां हमें विराम की आवश्यकता है, उसके बारे में सबसे तकनीकी बारीकियों” का अभाव था।
विचाराधीन पत्र, उस मामले के लिए, एआई के विकास पर पूर्ण रोक लगाने के लिए नहीं कहा। पत्र में कहा गया है, “इसका मतलब यह नहीं है कि सामान्य रूप से एआई के विकास पर एक विराम है, केवल खतरनाक दौड़ से कभी-कभी बड़े अप्रत्याशित ब्लैक-बॉक्स मॉडल के लिए पीछे हटना है।”
[ad_2]
Source link