[ad_1]
यदि आप चैटजीपीटी, एक आर्टिफिशियल-इंटेलिजेंस (एआई) टूल के बारे में कुछ पूछते हैं, जो सभी गुस्से में है, तो आपको जो प्रतिक्रियाएं मिलती हैं, वे लगभग तात्कालिक, पूरी तरह से निश्चित और अक्सर गलत होती हैं। यह एक अर्थशास्त्री से बात करने जैसा है। चैटजीपीटी जैसी प्रौद्योगिकियों द्वारा उठाए गए प्रश्नों से कहीं अधिक अस्थायी उत्तर मिलते हैं। लेकिन वे वही हैं जो प्रबंधकों को पूछना शुरू करना चाहिए।

एक मुद्दा यह है कि नौकरी की सुरक्षा के बारे में कर्मचारियों की चिंताओं से कैसे निपटा जाए। चिंता स्वाभाविक है। एक एआई जो आपके खर्चों को संसाधित करना आसान बनाता है, एक बात है; एक ऐसा एआई जिसके पास लोग डिनर पार्टी में बैठना पसंद करेंगे, बिल्कुल अलग। इस बारे में स्पष्ट होना कि एआई द्वारा मुक्त किए गए समय और ऊर्जा को कार्यकर्ता कैसे पुनर्निर्देशित करेंगे, स्वीकृति को बढ़ावा देने में मदद करता है। तो एजेंसी की भावना पैदा करता है: एमआईटी स्लोन मैनेजमेंट रिव्यू और बोस्टन कंसल्टिंग ग्रुप द्वारा किए गए शोध में पाया गया कि एआई को ओवरराइड करने की क्षमता कर्मचारियों को इसका इस्तेमाल करने की अधिक संभावना बनाती है।
क्या लोगों को वास्तव में यह समझने की आवश्यकता है कि एआई के अंदर क्या चल रहा है, यह कम स्पष्ट है। सहजता से, एल्गोरिदम के तर्क का पालन करने में सक्षम होने के कारण ट्रम्प को असमर्थ होना चाहिए। लेकिन हार्वर्ड विश्वविद्यालय, मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी और मिलान के पॉलिटेक्निक विश्वविद्यालय में शिक्षाविदों द्वारा किए गए शोध से पता चलता है कि बहुत अधिक व्याख्या एक समस्या हो सकती है।
लक्ज़री ब्रांडों के एक पोर्टफोलियो, टेपेस्ट्री के कर्मचारियों को एक पूर्वानुमान मॉडल तक पहुंच दी गई थी, जो उन्हें बताता था कि स्टोरों को स्टॉक कैसे आवंटित किया जाए। कुछ ने ऐसे मॉडल का उपयोग किया जिसके तर्क की व्याख्या की जा सकती थी; दूसरों ने एक ऐसे मॉडल का इस्तेमाल किया जो एक ब्लैक बॉक्स का अधिक था। कार्यकर्ता उन मॉडलों को खारिज करने की संभावना रखते थे जिन्हें वे समझ सकते थे क्योंकि वे गलती से अपने स्वयं के अंतर्ज्ञान के बारे में सुनिश्चित थे। श्रमिक एक मॉडल के निर्णयों को स्वीकार करने के लिए तैयार थे, हालांकि, इसे बनाने वाले लोगों की विशेषज्ञता में उनके विश्वास के कारण वे थाह नहीं ले सकते थे। एआई मामले के पीछे उन लोगों की साख।
लोग इंसानों और एल्गोरिद्म के प्रति अलग-अलग तरीके से प्रतिक्रिया करते हैं, यह शोध का एक उभरता हुआ क्षेत्र है। ऑस्टिन में टेक्सास विश्वविद्यालय के गिज़ेम याल्सिन और उनके सह-लेखकों ने हाल के एक पेपर में देखा कि क्या उपभोक्ताओं ने निर्णयों पर अलग-अलग प्रतिक्रिया दी है – किसी को ऋण के लिए स्वीकृत करने के लिए, उदाहरण के लिए, या देश-क्लब की सदस्यता – जब वे एक द्वारा बनाए गए थे मशीन या एक व्यक्ति। उन्होंने पाया कि जब उन्हें अस्वीकार किया जा रहा था तो लोगों ने उसी तरह प्रतिक्रिया दी। लेकिन वे एक संगठन के बारे में कम सकारात्मक महसूस करते थे जब उन्हें एक मानव के बजाय एक एल्गोरिथम द्वारा अनुमोदित किया गया था। द रीज़न? लोग प्रतिकूल निर्णयों की व्याख्या करने में अच्छे होते हैं, चाहे कोई भी निर्णय ले। मशीन द्वारा मूल्यांकन किए जाने पर उनके लिए अपने स्वयं के आकर्षक, रमणीय खुद को एक सफल अनुप्रयोग का श्रेय देना कठिन होता है। लोग विशेष महसूस करना चाहते हैं, डेटा बिंदु तक सीमित नहीं।
इस बीच, आगामी पेपर में, वाशिंगटन विश्वविद्यालय के आर्थर जागो और स्टैनफोर्ड ग्रेजुएट स्कूल ऑफ बिजनेस के ग्लेन कैरोल ने जांच की कि लोग क्रेडिट अर्जित करने के बजाय देने के इच्छुक हैं – विशेष रूप से उस काम के लिए जो किसी ने स्वयं नहीं किया। उन्होंने स्वयंसेवकों को एक विशिष्ट व्यक्ति-एक कलाकृति, कहते हैं, या एक व्यापार योजना- के लिए जिम्मेदार कुछ दिखाया और फिर पता चला कि यह या तो एल्गोरिदम की मदद से या मानव सहायकों की सहायता से बनाया गया था। सभी ने उत्पादकों को कम श्रेय दिया जब उन्हें बताया गया कि उनकी मदद की गई है, लेकिन यह प्रभाव उस काम के लिए अधिक स्पष्ट था जिसमें मानव सहायक शामिल थे। प्रतिभागियों ने न केवल एल्गोरिथम की देखरेख के काम को मनुष्यों की देखरेख की तुलना में अधिक मांग के रूप में देखा, बल्कि उन्हें यह भी नहीं लगा कि किसी के लिए दूसरे लोगों के काम का श्रेय लेना उचित है।
भारतीय प्रबंधन संस्थान अहमदाबाद के अनुज कपूर और उनके सह-लेखकों द्वारा एक और पेपर, जांच करता है कि एआई या इंसान लोगों को वजन कम करने में मदद करने के लिए अधिक प्रभावी हैं या नहीं। लेखकों ने एक भारतीय मोबाइल ऐप के ग्राहकों द्वारा प्राप्त वजन घटाने को देखा, जिनमें से कुछ ने केवल एआई कोच का इस्तेमाल किया और कुछ ने मानव कोच का भी इस्तेमाल किया। उन्होंने पाया कि जो लोग मानव कोच का इस्तेमाल करते थे उनका वजन भी अधिक घटता था, वे अपने लिए कठिन लक्ष्य निर्धारित करते थे और अपनी गतिविधियों को लॉग करने के बारे में अधिक दुस्साहसी थे। लेकिन उच्च बॉडी मास इंडेक्स वाले लोगों ने मानव कोच के साथ उतना अच्छा नहीं किया जितना कम वजन वाले लोगों ने किया। लेखक अनुमान लगाते हैं कि भारी लोग किसी अन्य व्यक्ति के साथ बातचीत करके अधिक शर्मिंदा हो सकते हैं।
इस तरह के शोध से जो तस्वीर उभर कर सामने आती है वह गड़बड़ है। यह गतिशील भी है: जैसे-जैसे प्रौद्योगिकियां विकसित होती हैं, वैसे-वैसे दृष्टिकोण भी विकसित होंगे। लेकिन एक बात बिल्कुल साफ है. ChatGPT और अन्य AI का प्रभाव न केवल इस बात पर निर्भर करेगा कि वे क्या कर सकते हैं, बल्कि इस बात पर भी कि वे लोगों को कैसा महसूस कराते हैं।
प्रबंधन और कार्य पर हमारे स्तंभकार, बार्टलेबी से और पढ़ें: कॉर्पोरेट हेडशॉट का अभिशाप (26 जनवरी) उंगलियां उठाना बेकार क्यों है (19 जनवरी) कार्यस्थल में रचनात्मकता को कैसे अनलॉक करें (12 जनवरी)
व्यवसाय और प्रौद्योगिकी की सबसे बड़ी कहानियों के शीर्ष पर बने रहने के लिए, साइन अप करें जमीनी स्तरहमारा साप्ताहिक सब्सक्राइबर-ओनली न्यूज़लेटर।
© 2023, द इकोनॉमिस्ट न्यूजपेपर लिमिटेड। सर्वाधिकार सुरक्षित। द इकोनॉमिस्ट से, लाइसेंस के तहत प्रकाशित। मूल सामग्री www.economist.com पर देखी जा सकती है
[ad_2]
Source link