एआई और इंसानों के बीच संबंध

[ad_1]

यदि आप चैटजीपीटी, एक आर्टिफिशियल-इंटेलिजेंस (एआई) टूल के बारे में कुछ पूछते हैं, जो सभी गुस्से में है, तो आपको जो प्रतिक्रियाएं मिलती हैं, वे लगभग तात्कालिक, पूरी तरह से निश्चित और अक्सर गलत होती हैं। यह एक अर्थशास्त्री से बात करने जैसा है। चैटजीपीटी जैसी प्रौद्योगिकियों द्वारा उठाए गए प्रश्नों से कहीं अधिक अस्थायी उत्तर मिलते हैं। लेकिन वे वही हैं जो प्रबंधकों को पूछना शुरू करना चाहिए।

ओपनएआई और चैटजीपीटी फाइल फोटो (एएफपी)
ओपनएआई और चैटजीपीटी फाइल फोटो (एएफपी)

एक मुद्दा यह है कि नौकरी की सुरक्षा के बारे में कर्मचारियों की चिंताओं से कैसे निपटा जाए। चिंता स्वाभाविक है। एक एआई जो आपके खर्चों को संसाधित करना आसान बनाता है, एक बात है; एक ऐसा एआई जिसके पास लोग डिनर पार्टी में बैठना पसंद करेंगे, बिल्कुल अलग। इस बारे में स्पष्ट होना कि एआई द्वारा मुक्त किए गए समय और ऊर्जा को कार्यकर्ता कैसे पुनर्निर्देशित करेंगे, स्वीकृति को बढ़ावा देने में मदद करता है। तो एजेंसी की भावना पैदा करता है: एमआईटी स्लोन मैनेजमेंट रिव्यू और बोस्टन कंसल्टिंग ग्रुप द्वारा किए गए शोध में पाया गया कि एआई को ओवरराइड करने की क्षमता कर्मचारियों को इसका इस्तेमाल करने की अधिक संभावना बनाती है।

क्या लोगों को वास्तव में यह समझने की आवश्यकता है कि एआई के अंदर क्या चल रहा है, यह कम स्पष्ट है। सहजता से, एल्गोरिदम के तर्क का पालन करने में सक्षम होने के कारण ट्रम्प को असमर्थ होना चाहिए। लेकिन हार्वर्ड विश्वविद्यालय, मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी और मिलान के पॉलिटेक्निक विश्वविद्यालय में शिक्षाविदों द्वारा किए गए शोध से पता चलता है कि बहुत अधिक व्याख्या एक समस्या हो सकती है।

लक्ज़री ब्रांडों के एक पोर्टफोलियो, टेपेस्ट्री के कर्मचारियों को एक पूर्वानुमान मॉडल तक पहुंच दी गई थी, जो उन्हें बताता था कि स्टोरों को स्टॉक कैसे आवंटित किया जाए। कुछ ने ऐसे मॉडल का उपयोग किया जिसके तर्क की व्याख्या की जा सकती थी; दूसरों ने एक ऐसे मॉडल का इस्तेमाल किया जो एक ब्लैक बॉक्स का अधिक था। कार्यकर्ता उन मॉडलों को खारिज करने की संभावना रखते थे जिन्हें वे समझ सकते थे क्योंकि वे गलती से अपने स्वयं के अंतर्ज्ञान के बारे में सुनिश्चित थे। श्रमिक एक मॉडल के निर्णयों को स्वीकार करने के लिए तैयार थे, हालांकि, इसे बनाने वाले लोगों की विशेषज्ञता में उनके विश्वास के कारण वे थाह नहीं ले सकते थे। एआई मामले के पीछे उन लोगों की साख।

लोग इंसानों और एल्गोरिद्म के प्रति अलग-अलग तरीके से प्रतिक्रिया करते हैं, यह शोध का एक उभरता हुआ क्षेत्र है। ऑस्टिन में टेक्सास विश्वविद्यालय के गिज़ेम याल्सिन और उनके सह-लेखकों ने हाल के एक पेपर में देखा कि क्या उपभोक्ताओं ने निर्णयों पर अलग-अलग प्रतिक्रिया दी है – किसी को ऋण के लिए स्वीकृत करने के लिए, उदाहरण के लिए, या देश-क्लब की सदस्यता – जब वे एक द्वारा बनाए गए थे मशीन या एक व्यक्ति। उन्होंने पाया कि जब उन्हें अस्वीकार किया जा रहा था तो लोगों ने उसी तरह प्रतिक्रिया दी। लेकिन वे एक संगठन के बारे में कम सकारात्मक महसूस करते थे जब उन्हें एक मानव के बजाय एक एल्गोरिथम द्वारा अनुमोदित किया गया था। द रीज़न? लोग प्रतिकूल निर्णयों की व्याख्या करने में अच्छे होते हैं, चाहे कोई भी निर्णय ले। मशीन द्वारा मूल्यांकन किए जाने पर उनके लिए अपने स्वयं के आकर्षक, रमणीय खुद को एक सफल अनुप्रयोग का श्रेय देना कठिन होता है। लोग विशेष महसूस करना चाहते हैं, डेटा बिंदु तक सीमित नहीं।

इस बीच, आगामी पेपर में, वाशिंगटन विश्वविद्यालय के आर्थर जागो और स्टैनफोर्ड ग्रेजुएट स्कूल ऑफ बिजनेस के ग्लेन कैरोल ने जांच की कि लोग क्रेडिट अर्जित करने के बजाय देने के इच्छुक हैं – विशेष रूप से उस काम के लिए जो किसी ने स्वयं नहीं किया। उन्होंने स्वयंसेवकों को एक विशिष्ट व्यक्ति-एक कलाकृति, कहते हैं, या एक व्यापार योजना- के लिए जिम्मेदार कुछ दिखाया और फिर पता चला कि यह या तो एल्गोरिदम की मदद से या मानव सहायकों की सहायता से बनाया गया था। सभी ने उत्पादकों को कम श्रेय दिया जब उन्हें बताया गया कि उनकी मदद की गई है, लेकिन यह प्रभाव उस काम के लिए अधिक स्पष्ट था जिसमें मानव सहायक शामिल थे। प्रतिभागियों ने न केवल एल्गोरिथम की देखरेख के काम को मनुष्यों की देखरेख की तुलना में अधिक मांग के रूप में देखा, बल्कि उन्हें यह भी नहीं लगा कि किसी के लिए दूसरे लोगों के काम का श्रेय लेना उचित है।

भारतीय प्रबंधन संस्थान अहमदाबाद के अनुज कपूर और उनके सह-लेखकों द्वारा एक और पेपर, जांच करता है कि एआई या इंसान लोगों को वजन कम करने में मदद करने के लिए अधिक प्रभावी हैं या नहीं। लेखकों ने एक भारतीय मोबाइल ऐप के ग्राहकों द्वारा प्राप्त वजन घटाने को देखा, जिनमें से कुछ ने केवल एआई कोच का इस्तेमाल किया और कुछ ने मानव कोच का भी इस्तेमाल किया। उन्होंने पाया कि जो लोग मानव कोच का इस्तेमाल करते थे उनका वजन भी अधिक घटता था, वे अपने लिए कठिन लक्ष्य निर्धारित करते थे और अपनी गतिविधियों को लॉग करने के बारे में अधिक दुस्साहसी थे। लेकिन उच्च बॉडी मास इंडेक्स वाले लोगों ने मानव कोच के साथ उतना अच्छा नहीं किया जितना कम वजन वाले लोगों ने किया। लेखक अनुमान लगाते हैं कि भारी लोग किसी अन्य व्यक्ति के साथ बातचीत करके अधिक शर्मिंदा हो सकते हैं।

इस तरह के शोध से जो तस्वीर उभर कर सामने आती है वह गड़बड़ है। यह गतिशील भी है: जैसे-जैसे प्रौद्योगिकियां विकसित होती हैं, वैसे-वैसे दृष्टिकोण भी विकसित होंगे। लेकिन एक बात बिल्कुल साफ है. ChatGPT और अन्य AI का प्रभाव न केवल इस बात पर निर्भर करेगा कि वे क्या कर सकते हैं, बल्कि इस बात पर भी कि वे लोगों को कैसा महसूस कराते हैं।

प्रबंधन और कार्य पर हमारे स्तंभकार, बार्टलेबी से और पढ़ें: कॉर्पोरेट हेडशॉट का अभिशाप (26 जनवरी) उंगलियां उठाना बेकार क्यों है (19 जनवरी) कार्यस्थल में रचनात्मकता को कैसे अनलॉक करें (12 जनवरी)

व्यवसाय और प्रौद्योगिकी की सबसे बड़ी कहानियों के शीर्ष पर बने रहने के लिए, साइन अप करें जमीनी स्तरहमारा साप्ताहिक सब्सक्राइबर-ओनली न्यूज़लेटर।

© 2023, द इकोनॉमिस्ट न्यूजपेपर लिमिटेड। सर्वाधिकार सुरक्षित। द इकोनॉमिस्ट से, लाइसेंस के तहत प्रकाशित। मूल सामग्री www.economist.com पर देखी जा सकती है

[ad_2]

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *