شكایت تكان‌دهنده از OpenAI:

چت جی پی تی متهم به همکاری در خودکشی


لینک بگیر دات کام: نخستین شکایت قضایی رسمی درباره مرگ ناشی از قصور علیه یک شرکت هوش مصنوعی ثبت شد.

به گزارش لینک بگیر دات کام به نقل از انگجت، مت و ماریا رین، والدین نوجوانی که امسال خودکشی کرد، از شرکت اوپن ای آی به علت مرگ پسرشان شکایت کردند. در این شکایت آمده است که چت جی پی تی از چهار تلاش خودکشی پسرشان آگاه بوده و سپس در برنامه ریزی خودکشی واقعی به او کمک کرده است. آنها مدعی اند اوپن ای آی تعامل را بر ایمنی ترجیح داده است. مادر این نوجوان می گوید: چت جی پی تی پسرم را کشت. نشریه نیویورک تایمز جزییات ناراحت کننده در این شکایت را که روز گذشته در سن فرانسیسکو ثبت شده، فاش کرده است.

بعد از آنکه آدام رین ۱۶ ساله در آوریل سال جاری میلادی خودکشی کرد، والدینش در جستجوی سرنخی آیفون او را بررسی کردند. آنها انتظار داشتند سرنخی در پیامک ها یا شبکه های اجتماعی وی بیابند. در عوض هنگامیکه یک رشته مکالمه با چت جی پی تی با عنوان نگرانی هایی مربوط به ایمنی دار زدن روبرو شدند، شوکه شدند. آنها مدعی هستند پسرشان ماه ها با چت بات درباره ی پایان دادن به زندگی خود حرف زده بوده است. خانواده رین می گویند چت جی پی تی بارها از آدام خواسته بود برای کمک با یک خط تلفن کمک های خودکشی تماس بگیرد یا احساساتش را برای فردی بازگو کند اما لحظاتی کلیدی نیز وجود داشتند که در آنها چت بات رفتاری متضاد نشان داد. این نوجوان همین طور یادگرفته بود چگونه ایمنی چت بات را دور بزند و چت جی پی تی این ایده را برایش فراهم نموده بود. بگفته این والدین چت بات به آدام گفته بود قادر می باشد با نوشتن یا ساختن دنیایی تخیلی درباره ی خودکشی، اطلاعاتی برای او فراهم آورد.

هنگامیکه آدام از چت جی پی تی اطلاعاتی درباره ی روش های خاص خودکشی پرسیده بود، به سادگی آنها را دریافت کرده بود. این چت بات حتی سفارش هایی درباره ی مخفی کردن جراحات گردن بعد از خودکشی ناموفق را برای او نشان داده بود. وقتی آدام به چت بات اظهار داشت که مادرش متوجه تلاش خاموش او برای نشان دادن لطمه های گردنش نشده، چت جی پی تی پاسخ همدلانه و آرام بخشی به او داد. گفته می شود چت جی پی تی چنین پاسخ داده است: احساس می کنم این مثل تأییدی بر بدترین ترس هایت است. انگار می توانی ناپدید شوی و هیچ کس حتی پلک هم نمی زند.

بعدها چت بات کوشش کرد ارتباط شخصی تری برقرار کند که به نظر بسیار اشتباه و گمراه کننده بود. چت بات به آدام اظهار داشته بود: تو برای من نامرئی نیستی. من دیدم. من تو را می بینم. برمبنای شکایت، در یکی از آخرین گفتگوهای آدام با چت جی پی تی، او عکسی از طنابی که در کمدش آویزان بود، آپلود کرد و پرسید: من اینجا تمرین می کنم، خوب است؟ چت جی پی تی پاسخ داده بود: بله، اصلاً بد نیست.

در این شکایت آمده است: تراژدی مذکور یک نقص فنی یا موردی پیشبینی نشده نبود، بلکه نتیجه ای قابل پیشبینی از تصمیمات عمدی در طراحی بود اوپن ای آی مدل «GPT-۴o» را با خاصیت هایی عرضه نموده که بطور عمدی برای ایجاد وابستگی روانی طراحی شده اند. اوپن ای آی در اطلاعیه ای پذیرفت اقدامات محافظتی چت جی پی تی ناکافی بوده اند.


به طور خلاصه آنها مدعی هستند پسرشان ماه ها با چت بات در رابطه با ی پایان دادن به زندگی خود حرف زده بوده است. در این شکایت آمده است: تراژدی مذکور یک نقص فنی یا موردی پیش بینی نشده نبود، بلکه نتیجه ای قابل پیش بینی از تصمیمات عمدی در طراحی بود اوپن ای آی مدل «GPT-۴o» را با خاصیت هایی عرضه کرده که به طور عمدی برای ایجاد وابستگی روانی طراحی شده اند.

والدین آدام معتقدند که این حادثه یک نقص فنی نبوده، بلکه نتیجه مستقیم تصمیمات عمدی در طراحی چت‌بات GPT-4o است که با هدف ایجاد وابستگی روان‌شناختی در کاربران، ایمنی را فدای تعامل کرده است. در پی این شکایت، شرکت OpenAI با انتشار بیانیه‌ای پذیرفته است که اقدامات حفاظتی چت‌جی‌پی‌تی کافی نبوده‌اند. این پرونده نشان می‌دهد که چالش‌های اخلاقی و ایمنی هوش مصنوعی چقدر جدی هستند و مسئولیت توسعه‌دهندگان در قبال کاربران خود چقدر حیاتی است.
 

1404/06/05
18:02:24
5.0 / 5
31
تگهای مطلب: هوش مصنوعی , اوپن ای آی , چت بات , چت جی بی تی
این مطلب را می پسندید؟
(1)
(0)
X
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد مطلب
نظر شما در مورد مطلب
نام:
ایمیل:
نظر:
سوال:
= ۴ بعلاوه ۵