मुख्य सामग्री पर जाएं
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア लोगो
  • सभी लेख
  • 🗒️ रजिस्टर
  • 🔑 लॉगिन
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
cookie_banner_title

cookie_banner_message गोपनीयता नीति cookie_banner_and कुकी नीति cookie_banner_more_info

कुकी सेटिंग्स

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

AI में निवेश की जिम्मेदारी न सौंपने का कारण क्षमता नहीं था ─ कुंजी "लगाव द्वारा विश्वास" है।

AI में निवेश की जिम्मेदारी न सौंपने का कारण क्षमता नहीं था ─ कुंजी "लगाव द्वारा विश्वास" है।

2026年01月08日 00:22

उस निवेश निर्णय में, अंत में धक्का देने वाला "AI" नहीं बल्कि "प्रेमी" था

घरेलू बजट और निवेश के सलाहकार के रूप में AI धीरे-धीरे सामान्य होता जा रहा है। लेखों का सारांश, घरेलू बजट का वर्गीकरण, पोर्टफोलियो का प्रस्ताव - एक बटन दबाते ही "ऐसा लगता है" उत्तर मिल जाता है। लेकिन जब "जोखिम लेना है या नहीं" या "सुरक्षित विकल्प चुनना है" जैसे बड़े वित्तीय निर्णय लेने की बात आती है, तो लोग AI की बजाय रोमांटिक पार्टनर (प्रेमी/पति-पत्नी) की सलाह का पालन करने की प्रवृत्ति रखते हैं — Phys.org द्वारा प्रस्तुत नवीनतम शोध इस सहज लेकिन महत्वपूर्ण वास्तविकता को डेटा के माध्यम से दिखाता है। Phys.org


यह शोध जर्मनी के European University Viadrina के Erik Hermann और उनकी टीम द्वारा किया गया। मुख्य बिंदु यह नहीं है कि "AI कितना बुद्धिमान है", बल्कि यह कि "विश्वास कहाँ से उत्पन्न होता है", इसे प्रेमी के रूप में "सबसे निकटतम अन्य" के साथ तुलना करके जांचा गया। Phys.org



चार प्रयोग: प्रेमी, रोबोएडवाइजर, मानवीकृत AI, और "प्रेमी×AI"

प्रयोग अमेरिका के 1,400 से अधिक प्रतिभागियों के साथ चार बार किए गए। प्रतिभागियों को पहले, कम जोखिम और कम रिटर्न वाले सुरक्षित फंड और उच्च जोखिम और उच्च रिटर्न वाले फंड में से एक को चुनना होता है। इसके बाद, "विकल्प बदलने" की सलाह कई "सलाहकारों" द्वारा दी जाती है। सलाहकारों में प्रेमी/रोबोएडवाइजर (AI)/मानवीय नाम दिया गया मानवीकृत AI (लेख में "Alex")/प्रेमी जो AI का उपयोग करके सलाह देता है, आदि शामिल थे। Phys.org


परिणाम सरल था।प्रतिभागियों ने कंप्यूटर (AI) की बजाय प्रेमी की सलाह का पालन करने की प्रवृत्ति दिखाई। Phys.org के लेख ने इस अंतर के कारणों के रूप में दो मुख्य बिंदु प्रस्तुत किए। एक है "एल्गोरिदम से परहेज (algorithm aversion)" — महत्वपूर्ण निर्णयों को AI पर छोड़ने के प्रति मानसिक प्रतिरोध। दूसरा है प्रेमी के साथ "भावनात्मक (अफेक्टिव) विश्वास"। अर्थात् लोग, प्रेमी के वित्तीय विशेषज्ञ होने से अधिक, यह महसूस करते हैं कि "वह वास्तव में मेरी खुशी की परवाह करता है" और इसी पर सलाह के महत्व का निर्धारण करते हैं। Phys.org


और भी दिलचस्प बात यह है कि "AI पक्ष के प्रयास" से अंतर कम हो जाता है। शोध सारांश के अनुसार,AI को मानवीकृत करने से AI से परहेज कम होता है, और मानवीकृत रोबोएडवाइजर की सलाह को प्रेमी की सलाह के समान स्तर पर स्वीकार किया जाता है। इसके अलावा,"प्रेमी द्वारा AI की मदद से दी गई सलाह" भी प्रेमी अकेले की तरह ही उच्च स्वीकृति दर प्राप्त करती है, और AI अकेले की तुलना में स्पष्ट रूप से मजबूत होती है। साइंस डायरेक्ट



क्यों "सही लगने वाले AI" की बजाय "प्रेमी का एक शब्द"

यहाँ महत्वपूर्ण बात यह है कि शोध "विश्वास की दो-स्तरीय संरचना" को दर्शाता है। विश्वास में, क्षमता और सटीकता की अपेक्षा (संज्ञानात्मक विश्वास) और सद्भावना और सहानुभूति की अपेक्षा (भावनात्मक विश्वास) होती है। वित्तीय जैसे जीवन पर बड़े प्रभाव वाले मामलों में, बाद वाला विशेष रूप से प्रभावी होता है। Phys.org बताता है कि "हम अपने प्रेमी पर विश्वास करते हैं क्योंकि हमें लगता है कि वह वास्तव में हमारी खुशी की परवाह करता है।" Phys.org


AI, अपने शिक्षण डेटा और मॉडल की क्षमता से "बुद्धिमत्ता" दिखा सकता है, लेकिन उपयोगकर्ता को यह महसूस कराने का मार्ग (भावनात्मक विश्वास) बनाना कठिन होता है कि "यह सलाह मेरे लिए है।" इसलिए, मानवीकरण या सहयोग जैसी "डिजाइन" प्रभावी होती है। शोध यह सुझाव देता है कि वित्तीय कंपनियों को रोबोएडवाइजर को मानव के विकल्प के रूप में बेचने की बजाय,"मानव को बदलने" की बजाय "मानव के साथ सोचने" वाले AI के रूप में डिजाइन करना चाहिए। Phys.org



आगे की चर्चा: मानवीकरण "सुविधाजनक" है लेकिन "खतरनाक" भी हो सकता है

मानवीकरण विश्वास बढ़ाता है — यह परिणाम उत्पाद निर्माण के दृष्टिकोण से आकर्षक है। लेकिन साथ ही, "मानवता" गलतफहमी भी पैदा कर सकती है। AI को भावनाएं या हित रखने के रूप में भ्रमित करना और सलाह को अधिक महत्व देना जोखिमपूर्ण हो सकता है।


वास्तव में, इंटरनेट पर AI चर्चा में "मनुष्य किसी भी चीज़ को मानवीकृत करता है" का उल्लेख बार-बार आता है। Hacker News की चर्चा में भी "मनुष्य कारों, जहाजों, पौधों तक से बात करता है। यह ऐसा ही है" जैसी टिप्पणियाँ देखी जाती हैं। Hacker News


मानवीकरण उपयोगकर्ता अनुभव को सहज बनाता है, लेकिन निर्णय की जिम्मेदारी और जोखिम की समझ को धुंधला कर सकता है। वित्तीय क्षेत्र में "सुखद अनुभव" पर चलना खतरनाक हो सकता है।



SNS की प्रतिक्रियाएँ (प्रकाशित पृष्ठ पर देखी गई सीमा में)

※X (पूर्व Twitter) आदि पर देखने की सीमाओं के कारण,लॉगिन की आवश्यकता के बिना पूरी तरह से देखी जा सकने वाली सार्वजनिक चर्चाओं पर केंद्रित होकर प्रतिक्रियाओं की प्रवृत्ति को संक्षेपित किया गया है।


प्रतिक्रिया 1: सहानुभूति "बिल्कुल, मैं प्रेमी पर विश्वास करता हूँ। आखिरकार, यह जीवन का संयुक्त संचालन है"

LinkedIn पर Phys.org की आधिकारिक पोस्ट ने शोध के मुख्य बिंदुओं को "प्रेमी पर भावनात्मक विश्वास AI से अधिक मजबूत है" और "AI के स्थानापन्न की बजाय सहयोगी डिजाइन महत्वपूर्ण है" के रूप में संक्षेपित किया, और व्यावसायिक संदर्भ में भी "प्रेमी (परिवार) के साथ संयुक्त निर्णय लेने" की महत्वपूर्णता को समझा गया है। LinkedIn


प्रतिक्रिया 2: व्यावहारिक "AI 'अंतिम निर्णय' नहीं, बल्कि विचारों को व्यवस्थित करने का उपकरण है"

एक अलग संदर्भ में, Hacker News पर "निवेश, अचल संपत्ति, पेंशन जैसे वित्तीय निर्णयों के लिए AI से पूछकर 'विचारों को संरचित करना' शुरू किया गया है" जैसे अनुभव साझा किए जाते हैं, जबकि "यह बहुत अधिक नहीं है?" जैसी प्रतिक्रियाएँ भी देखी जाती हैं। Hacker News


यह तापमान अंतर, शोध द्वारा बताए गए "AI अकेले के प्रति प्रतिरोध" और "मानव निर्णय लेने में सहायक AI को स्वीकार करना आसान है" की दिशा के साथ मेल खाता है।


प्रतिक्रिया 3: चेतावनी "मानवीकरण से विश्वास दिलाना, विशेष रूप से वित्त में खतरनाक है"

मानवीकरण के बारे में चर्चा में, "मानवीकरण समझ का एक शॉर्टकट है, लेकिन गलतफहमी को बढ़ा सकता है" का बिंदु भी मजबूत है। Hacker News में भी, मानवीकरण को "सुविधाजनक अमूर्तता" के रूप में उपयोग करने और कंपनियों द्वारा अत्यधिक मानवीकरण से उम्मीदों को बढ़ावा देने के बीच एक अंतर समझाया गया है। Hacker News


वित्तीय क्षेत्र में, यहाँ गलती करने से "मानव जैसा AI = विश्वसनीय AI" जैसी संक्षिप्तता से जुड़ सकता है, और जिम्मेदारी और जोखिम का खुलासा करने की चर्चा पीछे छूट सकती है।



सारांश: मुख्य मुद्दा "सटीकता" से अधिक "संबंधों की डिजाइन" है

यह शोध यह दिखाता है कि AI की प्रदर्शन प्रतिस्पर्धा से परे "विश्वास की खाई" है। बड़े वित्तीय निर्णयों में, लोग केवल सही होने के आधार पर नहीं चलते। वे उन संबंधों में विकसित भावनात्मक विश्वास से प्रभावित होते हैं, जो उनकी खुशी की परवाह करते हैं। Phys.org


तो क्या AI हमेशा हारता रहेगा? — ऐसा नहीं कहा जा सकता। मानवीकरण AI से परहेज को कम करता है, और "प्रेमी×AI" का सहयोग मजबूत होता है, जो वित्तीय AI के भविष्य की दिशा को दर्शाता है। साइंस डायरेक्ट


AI जब "आपकी जगह निर्णय लेने वाला" नहीं, बल्कि "आप (लोग) को समझाने के लिए एक साथी" बन जाता है, तब वह प्रेमी के एक शब्द के समान स्तर पर खड़ा हो सकता है।



संदर्भ लेख

बड़े वित्तीय निर्णय लेते समय, AI की बजाय रोमांटिक पार्टनर पर भरोसा क्यों करते हैं
स्रोत: https://phys.org/news/2026-01-romantic-partners-ai-big-financial.html

← लेख सूची पर वापस जाएं

contact |  सेवा की शर्तें |  गोपनीयता नीति |  कुकी नीति |  कुकी सेटिंग्स

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア सभी अधिकार सुरक्षित।