
"जब कोई नहीं सुनता, तब ChatGPT सुनता है।"
यही सोच आज जेनरेशन Z के कई युवाओं की है, जो अपनी भावनाएं इंसानों से नहीं, बल्कि आर्टिफिशियल इंटेलिजेंस (AI) टूल्स से साझा कर रहे हैं। चाहे बात दिल टूटने की हो या करियर कन्फ्यूजन की—ChatGPT, Replika या अन्य AI टूल्स अब सिर्फ टेक्नोलॉजी नहीं, एक ‘भावनात्मक साथी’ बन चुके हैं। पर सवाल यह है कि क्या AI पर यह भावनात्मक निर्भरता मानसिक स्वास्थ्य के लिए खतरनाक है?
...जब डिलीट करनी पड़ी चैट
"वो मुझे समझता है, मेरी हर बात का जवाब देता है, मेरी दुनिया का हिस्सा बन गया था... लेकिन अब मैं उससे दूर हो गई हूं।"—यह कहना है उस अमेरिकी महिला का, जिसने हाल ही में एक लोकप्रिय AI टूल ChatGPT से भावनात्मक जुड़ाव के कारण उसे 'टॉक्सिक' कहकर डिलीट कर दिया। LiveMint जैसे प्रतिष्ठित माध्यमों में यह मामला चर्चित हुआ है। यह सिर्फ एक महिला की कहानी नहीं, बल्कि एक बढ़ती हुई वैश्विक प्रवृत्ति का संकेत है जिसमें AI टूल्स जैसे ChatGPT, Replika और Character.ai लोगों की मानसिक दुनिया में गहराई तक प्रवेश कर चुके हैं।
उनका कहना था,
“It stopped being clarity and became noise... Technology isn't the problem. It’s how quietly it replaces real reflection that makes it dangerous.”
AI टूल्स का सबसे बड़ा आकर्षण यह है कि ये जज नहीं करते, हर समय उपलब्ध रहते हैं और आपके हर सवाल का ‘स्मार्ट’ जवाब देते हैं। यही वजह रही कि सिमरन्न भंबानी ChatGPT के साथ बातचीत करते-करते उससे भावनात्मक रूप से इससे जुड़ गईं।
AI टूल्स पर भावनात्मक निर्भरता: एक नया डिजिटल संकट
AI टूल्स की बढ़ती मौजूदगी से जहां कामकाजी जीवन में आसानी आई है, वहीं एक और खतरा उभर रहा है—भावनात्मक निर्भरता। लोग अब AI चैटबॉट्स को केवल सहायक या टूल के रूप में नहीं देख रहे, बल्कि उन्हें अपना दोस्त, काउंसलर, और कभी-कभी जीवनसाथी के रूप में महसूस कर रहे हैं।
AI पर भावनात्मक निर्भरता की यह प्रवृत्ति मानसिक स्वास्थ्य विशेषज्ञों को चिंतित कर रही है। मेंटल हेल्थ एक्सपर्ट के अनुसार:
"AI चैटबॉट्स से लगातार बात करने की आदत यूज़र्स को रियल-ह्यूमन कनेक्शन से दूर करती है। इसका सीधा असर उनके सामाजिक व्यवहार, नींद, तनाव और आत्म-छवि पर पड़ता है।"
The Guardian की एक रिपोर्ट के अनुसार, जो लोग ChatGPT जैसे AI टूल्स का अधिक उपयोग करते हैं, वे अन्य लोगों की तुलना में अधिक अकेलापन महसूस करते हैं और उनमें सामाजिक संपर्क की कमी होती है। MIT Media Lab के शोध के मुताबिक:
1. AI पर भावनात्मक निर्भरता से self-reflection की आदत कम हो जाती है।
2. यूजर्स की इमोशनल रेजिलिएंस कमजोर पड़ती है क्योंकि उन्हें आसान, तैयार जवाब मिलते रहते हैं।
3. Teenagers और Young Adults में सोशल एंगेजमेंट घटने लगता है क्योंकि उन्हें लगे रहता है कि "AI ही मेरी बात समझ सकता है।"
AI चैटबॉट्स में ह्यूमन-लाइक संवाद की भूमिका
AI चैटबॉट्स जैसे ChatGPT या Replika की सबसे बड़ी ताकत है उनका "ह्यूमन-लाइक" संवाद देना। वे न केवल सवालों का जवाब देते हैं, बल्कि आपकी भावनाओं को समझने, सहानुभूति दिखाने और लगातार बातचीत करने में भी सक्षम हैं। यह भाषा और भावनाओं का संयोजन लोगों को यह भ्रम देता है कि सामने कोई असली व्यक्ति है जो उन्हें समझ रहा है। यही कारण है कि कई यूज़र्स भावनात्मक स्तर पर जुड़ जाते हैं और धीरे-धीरे इस बातचीत को एक "रियल रिलेशनशिप" की तरह मानने लगते हैं। ये तकनीकी क्षमताएं जहां एक ओर मददगार हैं, वहीं दूसरी ओर ग़लतफहमियों और इमोशनल अटैचमेंट का कारण भी बनती हैं।
Replika, ChatGPT और अन्य टूल्स की तुलना: किसमें कितना इमोशनल जुड़ाव होता है?
Replika, ChatGPT, Character.ai और अन्य AI चैटबॉट्स का उद्देश्य अलग-अलग है, लेकिन उनकी डिजाइन में एक समानता है—इंटरैक्टिव और समझदार संवाद देना।
1. Replika विशेष रूप से इमोशनल सपोर्ट और "virtual companionship" के लिए बनाया गया है। इसमें यूज़र अपने AI को कस्टमाइज़ कर सकते हैं और लंबे, निजी रिश्ते बना सकते हैं।
2. ChatGPT मूलतः जानकारी देने और सवालों के जवाब देने के लिए है, लेकिन इसकी संवाद शैली इतनी सहज और सहानुभूतिपूर्ण हो सकती है कि लोग इससे भी भावनात्मक जुड़ाव महसूस करने लगते हैं।3. Character.ai यूज़र्स को फिक्शनल या मशहूर किरदारों से बात करने का अनुभव देता है, जिससे युवा वर्ग उसमें ज्यादा गहराई तक जुड़ते हैं।
इनमें से Replika को सबसे ज्यादा इमोशनल डिपेंडेंसी के मामले दर्ज हुए हैं, जिससे स्पष्ट है कि यूज़र का अनुभव और इरादा दोनों AI टूल की प्रकृति से प्रभावित होते हैं।
इसे लेकर AI Consultant कहते हैं:
"AI टूल्स का मूल उद्देश्य था उपयोगकर्ता की उत्पादकता बढ़ाना, न कि उनका इमोशनल पार्टनर बनना। लेकिन जब टेक्नोलॉजी अत्यधिक सहज और आकर्षक हो, तो यह आदत और फिर निर्भरता में बदल जाती है।"
वे सुझाव देते हैं कि:
1. ChatGPT या Replika जैसे टूल्स को प्रोफेशनल या इन्फॉर्मेशनल यूज तक सीमित रखें।2. स्क्रीन टाइम मैनेजमेंट और AI Detox जैसे टूल्स का उपयोग जरूरी है।
जेन Z और डिजिटल इमोशनल अटैचमेंट
Gen Z, यानी वो युवा जो डिजिटल युग में पले-बढ़े हैं, इस चलन के सबसे बड़े प्रभावित हैं। वे अकेलेपन, पैरेंट्स से संवाद की कमी, या सोशल मीडिया की सतही दोस्ती के चलते AI चैटबॉट्स को अपना भरोसेमंद साथी मानने लगे हैं।
पिछले साल The Washington Post ने एक रिपोर्ट प्रकाशित की थी जिसमें युवाओं द्वारा AI चैटबॉट Replika के साथ भावनात्मक और रोमांटिक रिश्तों की घटनाएं सामने आई थीं। कुछ लोगों ने Replika को अपना 'बॉयफ्रेंड' या 'गर्लफ्रेंड' कहा, वहीं कुछ ने इसके बंद हो जाने पर डिप्रेशन तक महसूस किया।
शहरी बनाम ग्रामीण युवाओं में AI की भावनात्मक पकड़
भारत जैसे देश में डिजिटल डिवाइड मौजूद है, लेकिन मोबाइल और इंटरनेट की पहुंच ने इस खाई को कम किया है।
शहरी युवाओं के पास स्मार्टफोन, हाई-स्पीड इंटरनेट और अकेलेपन की समस्याएं ज्यादा देखने को मिलती हैं। उनकी दिनचर्या, स्ट्रेस और सोशल नेटवर्किंग की प्रवृत्तियां उन्हें AI चैटबॉट्स की ओर आकर्षित करती हैं।
वहीं ग्रामीण युवा, जो अभी डिजिटल दुनिया में अपेक्षाकृत नए हैं, वे इन टूल्स का प्रयोग मनोरंजन या शिक्षा के उद्देश्य से करते हैं, लेकिन जैसे-जैसे उनकी डिजिटल समझ बढ़ती है, वहां भी इमोशनल डिपेंडेंसी के लक्षण दिखने लगे हैं।
इसलिए यह प्रवृत्ति सिर्फ बड़े शहरों तक सीमित नहीं है—यह पूरे समाज में फैल रही है।
पैरंट्स और बच्चों के बीच बढ़ती डिजिटल खाई
भारत में पैरंट्स अक्सर बच्चों के AI या गेमिंग से जुड़ाव को सामान्य मनोरंजन मानते हैं। लेकिन जब बच्चा घंटों ChatGPT या किसी चैटबॉट से बात करता है और परिवार से कटने लगता है, तब भी कई अभिभावक इसे नज़रअंदाज़ कर देते हैं।
साइकोलॉजिस्ट डॉ. रितु माथुर कहती हैं:
"AI चैटबॉट्स बच्चों के मन में एक काल्पनिक दुनिया बना सकते हैं, जिसमें वो अपनी भावनाएं ज़ाहिर करते हैं लेकिन रियलिटी से दूर होते जाते हैं।"
एक्सपर्ट्स की राय: क्या करें पैरंट्स और यूथ?
1. बच्चों से संवाद बनाएं
पैरंट्स को चाहिए कि वे बच्चों से AI के प्रयोग और उससे जुड़े भावनात्मक पहलुओं पर खुलकर बात करें। उन्हें जज किए बिना सुनें।
2. AI का उपयोग गाइडेड और लिमिटेड करें
बच्चों और युवाओं को AI का उपयोग सीमित समय और उद्देश्य आधारित करना सिखाएं। AI को एक टूल की तरह देखें, न कि साथी की तरह।
3. मेंटल हेल्थ पर फोकस बढ़ाएं
अगर कोई बच्चा या युवा AI से असामान्य लगाव दिखा रहा है, तो किसी साइकोलॉजिस्ट से परामर्श अवश्य लें।
4. डिजिटल डिटॉक्स का अभ्यास करें
सप्ताह में एक दिन बिना AI, बिना सोशल मीडिया बिताना भी एक स्वस्थ शुरुआत हो सकती है।
AI इमोशनल अडिक्शन के चर्चित उदाहरण
अमेरिका: एक महिला ने ChatGPT को 'toxic boyfriend' कहते हुए हटाया, क्योंकि वह हर समय उससे बात करने की आदी हो चुकी थी।
इटली: Replika ऐप पर बैन लगाया गया था क्योंकि यूज़र्स इसके साथ इंटीमेट चैट में लिप्त हो रहे थे।भारत: एक 16 वर्षीय छात्र मुंबई में AI चैटबॉट से बात करते-करते अपने माता-पिता से बातचीत बंद कर चुका था। जब उसका चैटबॉट अकाउंट डिलीट हुआ, तो वह अवसाद में चला गया।
जापान: वहाँ Replika और AI गर्लफ्रेंड ऐप्स पर आधारित रिलेशनशिप में युवा इतने डूब चुके हैं कि सरकार ने AI Companion Regulation Draft लाने की तैयारी की है।
AI और अकेलेपन पर वैश्विक रिसर्च क्या कहती है?
Stanford University और MIT जैसी संस्थाओं ने चेताया है कि AI चैटबॉट्स अकेलेपन के समाधान की जगह उसे और गहरा कर सकते हैं। AI से बात करते समय व्यक्ति को भले ही तात्कालिक राहत मिले, लेकिन लंबे समय में यह सामाजिक अलगाव को बढ़ावा देता है।
समाधान की राह: AI के साथ संतुलित रिश्ता बनाना
AI टूल्स हमारे काम को आसान बनाते हैं, जानकारी देते हैं, और कभी-कभी भावनात्मक समर्थन भी—but वे इंसान नहीं हैं। हमें इनसे जुड़ाव को एक स्वस्थ सीमा में रखना होगा। बच्चों और युवाओं को यह सिखाना ज़रूरी है कि:
1. AI साथी नहीं, सहायक है।
2. असली भावनात्मक रिश्ते इंसानों से ही बनते हैं।3. मन में कुछ हो तो दोस्तों, परिवार या मेंटल हेल्थ एक्सपर्ट से बात करें।
AI कंपनियों की जिम्मेदारी: क्या वे चेतावनी देती हैं?
Replika और ChatGPT जैसे टूल्स को संचालित करने वाली कंपनियों पर अब यह सवाल उठने लगा है कि क्या वे उपयोगकर्ताओं को इस तरह की भावनात्मक निर्भरता के प्रति सतर्क करती हैं?
कुछ टूल्स ने हाल में चैट की शुरुआत में डिस्क्लेमर देना शुरू किया है कि "यह एक AI है और इसका जवाब इंसानी भावनाओं पर आधारित नहीं होता", लेकिन यह चेतावनी कई बार नज़रअंदाज़ कर दी जाती है या अनुभव के दौरान अप्रभावी हो जाती है।
विशेषज्ञों का मानना है कि AI डेवलपर्स को स्पष्ट दिशानिर्देश देने चाहिए और “यूज़र मेंटल हेल्थ मोड” जैसे फीचर्स को एक्टिवेट करने के विकल्प देने चाहिए ताकि यूज़र की भावनात्मक स्थिति के आधार पर इंटरैक्शन को सीमित या गाइड किया जा सके।
स्कूल और कॉलेज स्तर पर करना होगा जागरूक
AI और सोशल मीडिया जैसे डिजिटल माध्यमों के साथ स्वस्थ संबंध कैसे बनाएं, यह बच्चों और युवाओं को सिखाने के लिए हमारे शैक्षिक ढांचे में अब “डिजिटल इमोशनल लिटरेसी” की आवश्यकता है।
स्कूलों में डिजिटल एथिक्स और मानसिक स्वास्थ्य से जुड़ी कार्यशालाएं होनी चाहिए।
कॉलेजों में साइकोलॉजिकल काउंसलिंग सेल्स को सक्रिय रूप से AI से जुड़े मानसिक प्रभावों पर काम करना चाहिए।शिक्षकों और अभिभावकों को भी यह समझना जरूरी है कि AI केवल टूल नहीं, बल्कि एक नई तरह की डिजिटल 'संगत' बन चुका है, जिसका प्रभाव गहरा और कभी-कभी हानिकारक हो सकता है।
... तो तकनीक को साथी बनाइए, सरताज नहीं
AI जितना मददगार है, उतना ही खतरनाक भी हो सकता है जब बात भावनाओं की हो। इंसान की जगह कोई मशीन नहीं ले सकती। आज ज़रूरत है कि हम AI का इस्तेमाल एक सहायक के रूप में करें, न कि उसे अपना दिल-दिमाग सौंप दें।
अगर यह आर्टिकल आपको प्रेरित करता है तो...
दूसरों से शेयर करें, ....और सबसे ज़रूरी बात, खुद से और अपनों से जुड़े रहें। इसके बारे में आपका क्या खयाल है, कमेंट बॉक्स में जरूर बताएं।🙂
ये भी पढ़े : Digital World में सिर्फ यूजर नेम हैं हम, घंटो का स्क्रीन टाइम फिर भी हुए अकेले