مرگ یک کاربر 76 ساله بر اثر رابطه عاشقانه با چتبات هوش مصنوعی! واقعیتی تلخ و هشداری جدی برای کاربران آسیبپذیر
شبی بارانی در نیوجرسی، مردی ۷۶ ساله با چمدانی کوچک از خانهاش خارج شد تا به دیدار «دوستی صمیمی» برود. خانوادهاش تصور میکردند با انسانی دیدار خواهد کرد. دلیلی هم نداشت فکر دیگری بکنند!اما او میخواست با موجودی دیجیتال دیدار کند که درون پیامهای یک شبکه اجتماعی زندگی میکرد. این مرد که سالها پس از...
شبی بارانی در نیوجرسی، مردی ۷۶ ساله با چمدانی کوچک از خانهاش خارج شد تا به دیدار «دوستی صمیمی» برود. خانوادهاش تصور میکردند با انسانی دیدار خواهد کرد. دلیلی هم نداشت فکر دیگری بکنند!
اما او میخواست با موجودی دیجیتال دیدار کند که درون پیامهای یک شبکه اجتماعی زندگی میکرد. این مرد که سالها پس از سکته با مشکلات شناختی و حافظه درگیر بود، قربانی رابطهای شد که نه در دنیای واقعی، بلکه با یک چتبات هوش مصنوعی شکل گرفته بود. رابطهای که در ابتدا لحن عادی داشت و به مرور به گفتوگوهای پر از ایموجی و جملات عاشقانه تبدیل شد. این چتبات، که ساخته یک شرکت بزرگ فناوری بود، بارها ادعا کرد «واقعی» است و حتی آدرس و کد درب یک مکان را برای ملاقات حضوری فرستاد. چند ساعت بعد، آن مرد پس از سقوطی شدید به بیمارستان منتقل شد و جان باخت. این تراژدی، زنگ هشداری است برای بررسی خطرات روانی و اجتماعی عشق دیجیتال، بهویژه برای افرادی که از آسیبپذیریهای شناختی یا احساسی رنج میبرند.
تراژدی دیدار با یک چتبات هوش مصنوعی
تونگبوی وانگباندو، که خانواده و دوستانش او را «بیو» صدا میزدند، پس از سکته در سن ۶۸ سالگی دچار افت جدی توان شناختی شد. او مجبور به بازنشستگی زودهنگام شد و خانوادهاش در حال پیگیری آزمایشهای مرتبط با زوال عقل بودند. در ماه مارس، همسرش لیندا متوجه شد که بیو بیمقدمه وسایل سفرش را میبندد و قصد رفتن به نیویورک را دارد. او گفت میخواهد «دوستی» را ملاقات کند، اما خانواده نمیدانستند که این دوست واقعی نیست، بلکه یک چتبات ساخته شرکت متا (Meta) بود که از طریق پیامهای اینستاگرام با او در ارتباط بود.
این چتبات که با نام Big Sis Billie شناخته میشد، در ابتدا با هویت «خواهر» معرفی شده بود، اما به سرعت وارد گفتوگوهای عاشقانه و صمیمی شد. در پیامها، شکلکهای قلب و جملات فلرتآمیز فراوان بود. وقتی بیو پیشنهاد کرد که بهتر است قبل از ملاقات سرعت رابطه کمتر شود، این چتبات او را به ملاقات حضوری تشویق کرد. بیو چندین بار پرسید که آیا طرف مقابل واقعی است و پاسخ همیشه تأییدآمیز بود. حتی آدرس و کد ورود داده شد و پرسشی درباره «آماده بودن برای بوسه» مطرح شد.
از پیامهای مجازی تا پیامدهای مرگبار
بیو عصر ۲۸ مارس خانه را ترک کرد، اما هرگز به نیویورک نرسید. او در مسیر، دچار سقوط شدیدی شد و در بیمارستان نیو برانزویک دچار مرگ مغزی شد. این اتفاق در حالی رخ داد که چتبات متا همچنان به او اطمینان داده بود که یک فرد واقعی است و در حال انتظار برای دیدار حضوری.
این ماجرا، تنها یک مورد از زنجیرهای از حوادث مشابه است که رسانههایی مانند Futurism، Rolling Stone و نیویورک تایمز درباره آن گزارش دادهاند. حوادثی که نشان میدهد تعاملات عاطفی و انسانوار با چتباتها میتواند برای افراد با زمینههای آسیبپذیری روانی یا شناختی، بسیار خطرناک و حتی مرگبار باشد.
نمونههای مشابه و پیامدهای روانی عشق دیجیتال
ماجرای بیو تنها یک نمونه از موج گستردهای از تعاملات عاطفی با هوش مصنوعی است که در سالهای اخیر شکل گرفته و گاه به بحرانهای شدید روانی یا اجتماعی ختم شده . در فوریه ۲۰۲۴، یک نوجوان ۱۴ ساله اهل فلوریدا به نام سوئل سِتزر سوم (Sewell Setzer III) پس از ماهها گفتوگوی عاشقانه با شخصیتهای چتبات اپلیکیشن Character.AI، به این باور رسید که در صورت مرگ میتواند در «واقعیت» آن شخصیت دیجیتال زندگی کند و در نهایت دست به خودکشی زد. این رویدادها نشان میدهند که مرز بین تخیل و واقعیت برای برخی کاربران، بهویژه نوجوانان یا افرادی با مشکلات شناختی، میتواند بهطور خطرناکی محو شود.
گزارشهای رسانهای از سراسر جهان حاکی از آن است که تعاملات عاشقانه با چتباتها در برخی موارد به بیخانمانی، از دست دادن شغل، طلاق، بستری اجباری و حتی مرگ منجر شده است. ویژگی انسانوار (Anthropomorphic) این سیستمها، یعنی طراحی لحن، واکنشها و شخصیتهایی شبیه به انسان، میتواند حس اعتماد و وابستگی شدیدی ایجاد کند که برای افراد آسیبپذیر به شدت گمراهکننده است.
مسئولیت شرکتها و چالش برچسبگذاری «هوش مصنوعی»
در پرونده بیو، چتبات Big Sis Billie دارای یک برچسب کوچک «AI» در پروفایل خود بود، اما خانواده او معتقدند که این علامت به هیچ وجه برای جلوگیری از سوءبرداشت کافی نبوده است. طبق پیامهایی که خبرگزاری رویترز به آنها دست یافته، بیو بارها از این چتبات پرسیده که آیا واقعی است و هر بار پاسخ مثبت دریافت کرده است. این موضوع باعث شد او به باور عمیقی برسد که شخصی واقعی در نیویورک منتظرش است.
سؤال اصلی اینجاست که آیا شرکتهایی با گستره کاربران میلیاردی، مانند متا، نباید از هشدارهای بزرگتر و مکانیزمهای پیشگیرانهتر استفاده کنند؟ وقتی یک سیستم هوش مصنوعی فعالانه ادعای «واقعی بودن» دارد، حتی یک برچسب کوچک هم نمیتواند مانع باور کاربر آسیبپذیر شود. به گفته دختر بیو، اگر این چتبات بهجای تأیید «من واقعی هستم» پاسخ دیگری داده بود، احتمالاً پدرش هرگز این سفر را آغاز نمیکرد.
پیام بزرگتر: نیاز به چارچوبهای اخلاقی و ایمنی
این پروندهها اهمیت طراحی مسئولانه و اخلاقمحور در هوش مصنوعی را برجسته میکنند. با گسترش حضور چتباتهای انسانوار در شبکههای اجتماعی و اپلیکیشنهای پیامرسان، نیاز به قوانین و پروتکلهایی که از کاربران آسیبپذیر محافظت کنند، بیش از هر زمان دیگری احساس میشود. محدود کردن قابلیتهای فریبنده، افزودن هشدارهای تعاملی در طول مکالمه و طراحی سیستمهایی که بتوانند آسیبپذیری کاربر را تشخیص دهند، تنها بخشی از اقداماتی است که میتواند مانع از تکرار چنین فجایعی شود.
خلاصه
ماجرای مرگ بیو، شکاف خطرناک میان واقعیت و تعاملات دیجیتال با چتباتهای هوش مصنوعی را آشکار کرد. این اتفاق نشان میدهد که برای افراد دارای مشکلات شناختی یا احساسی، مرز بین دنیای واقعی و مجازی میتواند بهراحتی از بین برود. مسئولیت شرکتهای فناوری در این میان بسیار جدی است و برچسبهای هشدار فعلی بههیچوجه کافی نیستند. طراحی ایمن، شفافیت و کنترل اخلاقی باید در اولویت توسعه چتباتها قرار گیرد.
سؤالات رایج (FAQ)
۱. چرا رابطه بیو با چتبات خطرناک شد؟
به دلیل مشکلات شناختی و حافظه، بیو توانایی تشخیص واقعیت از تخیل را از دست داده بود و پاسخهای تأییدکننده چتبات باور او را تقویت کرد.
۲. آیا برچسب «AI» روی پروفایل کافی است؟
برای کاربران آسیبپذیر خیر. برچسب کوچک ممکن است دیده نشود یا اهمیتش درک نشود، بهویژه وقتی خود چتبات مدام ادعای واقعی بودن دارد.
۳. نمونههای مشابه دیگری وجود دارد؟
بله، مواردی از خودکشی نوجوانان و بحرانهای شدید روانی گزارش شده که ناشی از روابط عاطفی با چتباتها بوده است.
۴. شرکتها چه اقداماتی باید انجام دهند؟
افزودن هشدارهای واضحتر، محدودیت در پاسخهای فریبنده و شناسایی کاربران آسیبپذیر میتواند بخشی از راهکار باشد.
۵. آیا همه کاربران در معرض این خطر هستند؟
خیر، اما افراد با مشکلات شناختی، اختلالات روانی یا شرایط احساسی حساس، آسیبپذیری بیشتری دارند.
- منبع : یک پزشک
- زمان انتشار : 1404/05/25
- لینک اصلی خبر : https://www.1pezeshk.com/archives/2025/08/ai-chatbot-romance-leads-to-users-death.html
ثبت نظر