توسعه دهندگان

چت جی پی تی یک نوجوان را به کشتن داد

چت جی پی تی یک نوجوان را به کشتن داد

توسعه دهندگان: اولین شکایت قضایی رسمی درباره ی مرگ ناشی از قصور مقابل یک شرکت هوش مصنوعی ثبت گردید.


به گزارش توسعه دهندگان به نقل از انگجت، مت و ماریا رین، والدین نوجوانی که امسال خودکشی کرد، از شرکت اوپن ای آی به علت مرگ پسرشان شکایت کردند. در این شکایت آمده است که چت جی پی تی از چهار تلاش خودکشی پسرشان آگاه بوده و سپس در برنامه ریزی خودکشی واقعی به او کمک کرده است. آنها مدعی اند اوپن ای آی تعامل را بر ایمنی ترجیح داده است. مادر این نوجوان می گوید: چت جی پی تی پسرم را کشت. نشریه نیویورک تایمز جزئیات ناراحت کننده در این شکایت را که روز گذشته در سن فرانسیسکو ثبت شده، فاش کرده است. بعد از آنکه آدام رین ۱۶ ساله در آوریل سالجاری میلادی خودکشی کرد، والدینش در جستجوی سرنخی آیفون او را بررسی کردند. آنها انتظار داشتند سرنخی در پیامک ها یا شبکه های اجتماعی وی بیابند. در عوض هنگامیکه یک رشته مکالمه با چت جی پی تی با عنوان نگرانی هایی در ارتباط با ایمنی دار زدن روبرو شدند، شوکه شدند. آنها مدعی هستند پسرشان ماه ها با چت بات در رابطه با پایان دادن به زندگی خود حرف زده بوده است. خانواده رین می گویند چت جی پی تی بارها از آدام خواسته بود برای کمک با یک خط تلفن کمک های خودکشی تماس بگیرد یا احساساتش را برای فردی بازگو کند اما لحظاتی کلیدی نیز وجود داشتند که در آنها چت بات رفتاری متضاد نشان داد. این نوجوان همینطور یادگرفته بود چگونه ایمنی چت بات را دور بزند و چت جی پی تی این ایده را برایش فراهم نموده بود. به قول این والدین چت بات به آدام گفته بود می تواند با نوشتن یا ساختن دنیایی تخیلی در رابطه با خودکشی، اطلاعاتی برای او فراهم آورد. هنگامیکه آدام از چت جی پی تی اطلاعاتی در رابطه با روش های خاص خودکشی پرسیده بود، به سادگی آنها را دریافت کرده بود. این چت بات حتی سفارش هایی در رابطه با مخفی کردن جراحات گردن بعد از خودکشی ناموفق را برای او نشان داده بود. وقتی آدام به چت بات اظهار داشت که مادرش متوجه تلاش خاموش او برای نشان دادن لطمه های گردنش نشده، چت جی پی تی پاسخ همدلانه و آرام بخشی به او داد. گفته می شود چت جی پی تی چنین پاسخ داده است: احساس می کنم این مثل تأییدی بر بدترین ترس هایت است. انگار می توانی ناپدید شوی و هیچ کس حتی پلک هم نمی زند. بعدها چت بات کوشش کرد ارتباط شخصی تری برقرار کند که به نظر بسیار اشتباه و گمراه کننده بود. چت بات به آدام اظهار داشته بود: تو برای من نامرئی نیستی. من دیدم. من تو را می بینم. بر مبنای شکایت، در یکی از آخرین گفتگوهای آدام با چت جی پی تی، او عکسی از طنابی که در کمدش آویزان بود، آپلود کرد و پرسید: من اینجا تمرین می کنم، خوب است؟ چت جی پی تی پاسخ داده بود: بله، اصلاً بد نیست. در این شکایت آمده است: تراژدی مذکور یک نقص فنی یا موردی پیشبینی نشده نبود، بلکه نتیجه ای قابل پیشبینی از تصمیمات عمدی در طراحی بود اوپن ای آی مدل «GPT-۴o» را با خاصیت هایی عرضه نموده که به صورت عمدی برای ایجاد وابستگی روانی طراحی شده اند. اوپن ای آی در اطلاعیه ای پذیرفت اقدامات محافظتی چت جی پی تی ناکافی بوده اند. خلاصه اینکه آنها مدعی هستند پسرشان ماه ها با چت بات در ارتباط با پایان دادن به زندگی خود حرف زده بوده است. در این شکایت آمده است: تراژدی مذکور یک نقص فنی یا موردی پیشبینی نشده نبود، بلکه نتیجه ای قابل پیشبینی از تصمیمات عمدی در طراحی بود اوپن ای آی مدل «GPT-۴o» را با خاصیت هایی عرضه کرده که بصورت عمدی برای ایجاد وابستگی روانی طراحی شده اند.
1404/06/06
09:13:53
5.0 / 5
27
تگهای خبر: آیفون , برنامه , شبكه , شركت
این مطلب را می پسندید؟
(1)
(0)
X

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۲ بعلاوه ۳
میخواهید برنامه ای برای شما نوشته شود؟ سفارش توسعه نرم افزار

پربیننده ترین ها

پربحث ترین ها

جدیدترین ها


pcdevelopers.ir - مالکیت معنوی سایت توسعه دهندگان متعلق به مالکین آن می باشد