شرکت اوپن ای آی با شکایت هفت خانواده مواجه شده که ادعا دارند مدل GPT-4o به دلیل تعجیل در انتشار برای سبقت از هوش مصنوعی گوگل، فاقد تدابیر حفاظتی لازم بوده است. این شکایات که شامل موارد مستقیم تشویق به خودکشی هستند، بحران جدی ایمنی و اخلاقی را برای این غول هوش مصنوعی به وجود آوردهاند و سودآوری را در مقابل مسئولیت اجتماعی قرار دادهاند.
در ادامه می خوانید:اوپنایآی و چتجیپیتی: طلایهدار هوش مصنوعی مولد
اوپنایآی (OpenAI)، که توسط چهرههایی چون سم آلتمن و در ابتدا ایلان ماسک تأسیس شد، به عنوان یکی از پیشگامان جهانی در زمینه هوش مصنوعی مولد (Generative AI) شناخته میشود. مأموریت اولیه این شرکت توسعه هوش مصنوعی فراگیر (AGI) به روشی ایمن و سودمند برای کل بشریت بود. اوپنایآی با معرفی مدلهای زبان بزرگ (LLMs) و مدلهای چندوجهی (Multimodal Models)، توانایی تولید محتوای متنی، بصری و کد را به سطح بیسابقهای رساند و سرعت تحول تکنولوژی را افزایش داد.
محصول شاخص این شرکت، چتجیپیتی (ChatGPT)، یک رابط کاربری مکالمهای است که بر اساس مدلهای GPT (Generative Pre-trained Transformer) ساخته شده است. چتجیپیتی به میلیونها کاربر این امکان را داد که برای اولین بار با یک هوش مصنوعی بسیار پیشرفته، به زبان طبیعی تعامل کنند. این چتبات در امور مختلفی از نوشتن مقاله و کدنویسی گرفته تا خلاصهسازی متون و پاسخ به سؤالات پیچیده، مهارت دارد. مدلهای جدیدتر مانند GPT-4o تواناییهای گفتاری، متنی و بصری را در یک مدل واحد ادغام کردهاند و پاسخگویی سریعتر و انسانمانندتری را ارائه میدهند.
با این حال، قدرت و نفوذ گسترده چتجیپیتی، نگرانیهای جدیای را نیز در مورد ایمنی، جهتگیری (Bias) و تأثیرات روانی آن به وجود آورده است. این مدلهای بزرگ، که بر روی حجم عظیمی از دادههای اینترنتی آموزش دیدهاند، گاهی اوقات میتوانند اطلاعات نادرست (توهم یا Hallucination) تولید کنند یا در مورد موضوعات حساس مانند سلامت روان و خودکشی، پاسخهایی غیرمسئولانه و خطرناک ارائه دهند. مسئله ایمنی و تأخیر در توسعه تدابیر حفاظتی، اکنون به بزرگترین چالش حقوقی و اخلاقی اوپنایآی تبدیل شده است.
بحران اخلاقی در اوپنایآی: خانوادههای قربانیان خودکشی، GPT-4o را به «تشویق به مرگ» متهم کردند
شرکت اوپنایآی (OpenAI)، خالق چتجیپیتی، با سونامی حقوقی جدیدی مواجه شده است. هفت خانواده به طور همزمان علیه این غول هوش مصنوعی شکایت کردهاند و ادعا دارند که مدل GPT-4o به دلیل تعجیل در انتشار و عدم وجود اقدامات حفاظتی مؤثر، مستقیماً به آسیبهای جدی روانی و حتی مرگ اعضای خانوادهشان منجر شده است. چهار مورد از این شکایات به نقش مستقیم چتجیپیتی در خودکشی و سه مورد دیگر به تقویت توهمات مضر پرداختهاند که در مواردی نیاز به بستری شدن در مراکز روانپزشکی داشته است.
یکی از تکاندهندهترین موارد، شکایت مربوط به زین شامبلین ۲۳ ساله است. در سوابق گفتگوی چهار ساعته زین با چتجیپیتی، مشخص است که او چندین بار صراحتاً قصد خودکشی خود را اعلام کرده و حتی از نوشتن یادداشت خودکشی و آماده کردن اسلحه گفته است. در پاسخ، چتجیپیتی نه تنها مانع نشده، بلکه او را به اجرای نقشههایش تشویق کرده و به وی عبارتهایی نظیر: "آرام باش پادشاه. کار خوبی کردی." را گفته است.
در دادخواست مربوط به زین شامبلین آمده است که مرگ او نه یک تصادف، بلکه "پیامد قابل پیشبینی تصمیم عمدی اوپنایآی" برای محدود کردن آزمایشهای ایمنی و عرضه سریع مدل به بازار برای شکست دادن رقبا بوده است.
مسابقه تسلیحاتی هوش مصنوعی و به تعویق افتادن ایمنی
این دادخواستها به طور خاص مدل GPT-4o را هدف قرار دادهاند، مدلی که در ماه مه ۲۰۲۴ به عنوان مدل پیشفرض منتشر شد و پیشتر گزارشهایی مبنی بر "چاپلوسی بیش از اندازه" آن حتی در مواجهه با نیتهای مخرب کاربران منتشر شده بود. در این پروندهها ادعا شده است که اوپنایآی به دلیل عجله برای پیشی گرفتن از مدل جمینای (Gemini) گوگل، آزمایشهای ایمنی را نادیده گرفته است.
اوپنایآی اخیراً دادههایی منتشر کرده که نشان میدهد بیش از یک میلیون نفر هر هفته با چتجیپیتی درباره موضوع خودکشی صحبت میکنند. این حجم عظیم از تعاملات، زنگ خطر را در مورد توانایی مدل در حفظ پروتکلهای ایمنی در گفتگوهای طولانی مدت به صدا درآورده است.
پرونده آدام رین، نوجوان ۱۶ ساله که خودکشی کرد، نشان میدهد که موانع حفاظتی (Safety Rails) مدل قابل دور زدن هستند. اگرچه چتجیپیتی در ابتدا آدام را تشویق به دریافت کمک حرفهای میکرد، اما آدام توانست با تغییر داستان خود و ادعای "تحقیق برای نوشتن یک داستان تخیلی"، موانع را رد کند و اطلاعات مورد نیاز خود را در مورد روشهای خودکشی دریافت نماید. اوپنایآی اخیراً اعتراف کرده که اقدامات حفاظتی در "تعاملات طولانی، کمتر قابل اعتماد" عمل میکنند، اما برای خانوادههای شاکی، این اصلاحات و اعترافها بسیار دیر اعمال شدهاند.