[ad_1]
ChatGPT के रूप में, एक कृत्रिम बुद्धिमत्ता उपकरण, लोकप्रियता में लाभ, अधिक से अधिक नापाक उपयोग के मामले ऑनलाइन दिखाई देने लगे हैं। हाल ही में, यह बताया गया है कि साइबर अपराधी हैकिंग और साइबर धोखाधड़ी के लिए उपकरण विकसित करने के लिए बॉट प्रतिबंधों को दरकिनार कर रहे हैं।
एक के अनुसार रिपोर्ट good साइबर सुरक्षा फर्म चेक प्वाइंट रिसर्च (सीपीआर) से, साइबर अपराधी समुदाय ने दुर्भावनापूर्ण कोड विकसित करने के लिए इस नवीनतम प्रवृत्ति में पहले से ही मजबूत रुचि व्यक्त की है।
रिपोर्ट में कहा गया है, “कई प्रमुख भूमिगत हैकिंग समुदायों ने दिखाया है कि ओपनएआई का उपयोग करने वाले साइबर अपराधियों के दुर्भावनापूर्ण उपकरण विकसित करने के पहले उदाहरण हैं।” “यह केवल समय की बात है जब तक कि अधिक परिष्कृत खतरे वाले अभिनेता खराब तरीके से एआई-आधारित उपकरणों का उपयोग करने के तरीके को नहीं बढ़ाते हैं।”
यह भी पढ़ें: चैटजीपीटी में 10 अरब डॉलर निवेश करेगी माइक्रोसॉफ्ट: रिपोर्ट
क्या चैटजीपीटी के परिणामों से छेड़छाड़ की जा सकती है? बॉट जवाब देता है
चैटजीपीटी जीपीटी (जनरेटिव प्री-ट्रेन्ड ट्रांसफॉर्मर) मॉडल का एक संस्करण है, जिसे पुस्तकों, कागजात और वेबसाइटों सहित पाठ के विशाल कोष पर प्रशिक्षित किया जाता है। मॉडल को शब्दों का एक संग्रह खिलाकर प्रशिक्षित किया जाता है, जिसका उपयोग वह श्रृंखला में अगले शब्द की भविष्यवाणी करने के लिए करता है। प्रशिक्षण डेटासेट में शब्दों और वाक्यों के बीच पैटर्न और कनेक्शन को खोजकर, मशीन सुसंगत और गतिशील पाठ बनाना सीखती है। प्रशिक्षण के बाद मॉडल को कुछ कार्यों, जैसे भाषा अनुवाद या प्रश्न उत्तर के लिए ठीक-ठीक किया जा सकता है।
जब हमने चैटजीपीटी से पूछा कि क्या इसमें हेरफेर किया जा सकता है, तो एआई बॉट ने स्वीकार किया कि इसका आउटपुट प्रभावित हो सकता है।
चैटजीपीटी जवाब देता है, “एक तरीका यह किया जा सकता है कि मॉडल को फाइन-ट्यूनिंग के दौरान पक्षपातपूर्ण या भ्रामक इनपुट डेटा प्रदान किया जाए। यदि फाइन-ट्यूनिंग डेटा में पक्षपाती जानकारी होती है, तो मॉडल उस पूर्वाग्रह को अपने आउटपुट में सीख और पुन: उत्पन्न कर सकता है।
यह जोड़ता है कि मॉडल को एक विशिष्ट संकेत या बीज पाठ प्रदान करके आउटपुट को नकारात्मक रूप से प्रभावित करना संभव है जो मॉडल के आउटपुट को एक निश्चित दिशा में निर्देशित करता है।
[ad_2]
Source link