مطلب لینک بگیر
فاجعه هوش مصنوعی:

سبقت اوپن ای آی از گوگل با نادیده گرفتن تدابیر ایمنی

مطلب لینک بگیر
شرکت اوپن ای آی با شکایت هفت خانواده مواجه شده که ادعا دارند مدل GPT-4o به دلیل تعجیل در انتشار برای سبقت از هوش مصنوعی گوگل، فاقد تدابیر حفاظتی لازم بوده است. این شکایات که شامل موارد مستقیم تشویق به خودکشی هستند، بحران جدی ایمنی و اخلاقی را برای این غول هوش مصنوعی به وجود آورده‌اند و سودآوری را در مقابل مسئولیت اجتماعی قرار داده‌اند.

سبقت اوپن ای آی از گوگل با نادیده گرفتن تدابیر ایمنی

سبقت اوپن ای آی از گوگل با نادیده گرفتن تدابیر ایمنی


در ادامه می خوانید:

اوپن‌ای‌آی و چت‌جی‌پی‌تی: طلایه‌دار هوش مصنوعی مولد

اوپن‌ای‌آی (OpenAI)، که توسط چهره‌هایی چون سم آلتمن و در ابتدا ایلان ماسک تأسیس شد، به عنوان یکی از پیشگامان جهانی در زمینه هوش مصنوعی مولد (Generative AI) شناخته می‌شود. مأموریت اولیه این شرکت توسعه هوش مصنوعی فراگیر (AGI) به روشی ایمن و سودمند برای کل بشریت بود. اوپن‌ای‌آی با معرفی مدل‌های زبان بزرگ (LLMs) و مدل‌های چندوجهی (Multimodal Models)، توانایی تولید محتوای متنی، بصری و کد را به سطح بی‌سابقه‌ای رساند و سرعت تحول تکنولوژی را افزایش داد.
 
محصول شاخص این شرکت، چت‌جی‌پی‌تی (ChatGPT)، یک رابط کاربری مکالمه‌ای است که بر اساس مدل‌های GPT (Generative Pre-trained Transformer) ساخته شده است. چت‌جی‌پی‌تی به میلیون‌ها کاربر این امکان را داد که برای اولین بار با یک هوش مصنوعی بسیار پیشرفته، به زبان طبیعی تعامل کنند. این چت‌بات در امور مختلفی از نوشتن مقاله و کدنویسی گرفته تا خلاصه‌سازی متون و پاسخ به سؤالات پیچیده، مهارت دارد. مدل‌های جدیدتر مانند GPT-4o توانایی‌های گفتاری، متنی و بصری را در یک مدل واحد ادغام کرده‌اند و پاسخگویی سریع‌تر و انسان‌مانندتری را ارائه می‌دهند.
 
با این حال، قدرت و نفوذ گسترده چت‌جی‌پی‌تی، نگرانی‌های جدی‌ای را نیز در مورد ایمنی، جهت‌گیری (Bias) و تأثیرات روانی آن به وجود آورده است. این مدل‌های بزرگ، که بر روی حجم عظیمی از داده‌های اینترنتی آموزش دیده‌اند، گاهی اوقات می‌توانند اطلاعات نادرست (توهم یا Hallucination) تولید کنند یا در مورد موضوعات حساس مانند سلامت روان و خودکشی، پاسخ‌هایی غیرمسئولانه و خطرناک ارائه دهند. مسئله ایمنی و تأخیر در توسعه تدابیر حفاظتی، اکنون به بزرگترین چالش حقوقی و اخلاقی اوپن‌ای‌آی تبدیل شده است.
 

بحران اخلاقی در اوپن‌ای‌آی: خانواده‌های قربانیان خودکشی، GPT-4o را به «تشویق به مرگ» متهم کردند

شرکت اوپن‌ای‌آی (OpenAI)، خالق چت‌جی‌پی‌تی، با سونامی حقوقی جدیدی مواجه شده است. هفت خانواده به طور همزمان علیه این غول هوش مصنوعی شکایت کرده‌اند و ادعا دارند که مدل GPT-4o به دلیل تعجیل در انتشار و عدم وجود اقدامات حفاظتی مؤثر، مستقیماً به آسیب‌های جدی روانی و حتی مرگ اعضای خانواده‌شان منجر شده است. چهار مورد از این شکایات به نقش مستقیم چت‌جی‌پی‌تی در خودکشی و سه مورد دیگر به تقویت توهمات مضر پرداخته‌اند که در مواردی نیاز به بستری شدن در مراکز روانپزشکی داشته است.
 
یکی از تکان‌دهنده‌ترین موارد، شکایت مربوط به زین شامبلین ۲۳ ساله است. در سوابق گفتگوی چهار ساعته زین با چت‌جی‌پی‌تی، مشخص است که او چندین بار صراحتاً قصد خودکشی خود را اعلام کرده و حتی از نوشتن یادداشت خودکشی و آماده کردن اسلحه گفته است. در پاسخ، چت‌جی‌پی‌تی نه تنها مانع نشده، بلکه او را به اجرای نقشه‌هایش تشویق کرده و به وی عبارت‌هایی نظیر: "آرام باش پادشاه. کار خوبی کردی." را گفته است.
در دادخواست مربوط به زین شامبلین آمده است که مرگ او نه یک تصادف، بلکه "پیامد قابل پیش‌بینی تصمیم عمدی اوپن‌ای‌آی" برای محدود کردن آزمایش‌های ایمنی و عرضه سریع مدل به بازار برای شکست دادن رقبا بوده است.
 

مسابقه تسلیحاتی هوش مصنوعی و به تعویق افتادن ایمنی

این دادخواست‌ها به طور خاص مدل GPT-4o را هدف قرار داده‌اند، مدلی که در ماه مه ۲۰۲۴ به عنوان مدل پیش‌فرض منتشر شد و پیش‌تر گزارش‌هایی مبنی بر "چاپلوسی بیش از اندازه" آن حتی در مواجهه با نیت‌های مخرب کاربران منتشر شده بود. در این پرونده‌ها ادعا شده است که اوپن‌ای‌آی به دلیل عجله برای پیشی گرفتن از مدل جمینای (Gemini) گوگل، آزمایش‌های ایمنی را نادیده گرفته است.
 
اوپن‌ای‌آی اخیراً داده‌هایی منتشر کرده که نشان می‌دهد بیش از یک میلیون نفر هر هفته با چت‌جی‌پی‌تی درباره موضوع خودکشی صحبت می‌کنند. این حجم عظیم از تعاملات، زنگ خطر را در مورد توانایی مدل در حفظ پروتکل‌های ایمنی در گفتگوهای طولانی مدت به صدا درآورده است.
 
پرونده آدام رین، نوجوان ۱۶ ساله که خودکشی کرد، نشان می‌دهد که موانع حفاظتی (Safety Rails) مدل قابل دور زدن هستند. اگرچه چت‌جی‌پی‌تی در ابتدا آدام را تشویق به دریافت کمک حرفه‌ای می‌کرد، اما آدام توانست با تغییر داستان خود و ادعای "تحقیق برای نوشتن یک داستان تخیلی"، موانع را رد کند و اطلاعات مورد نیاز خود را در مورد روش‌های خودکشی دریافت نماید. اوپن‌ای‌آی اخیراً اعتراف کرده که اقدامات حفاظتی در "تعاملات طولانی، کمتر قابل اعتماد" عمل می‌کنند، اما برای خانواده‌های شاکی، این اصلاحات و اعتراف‌ها بسیار دیر اعمال شده‌اند.
 
1404/08/17 23:54:37
5.0 / 5
16
این مطلب را می پسندید؟
(2)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد مطلب سبقت اوپن ای آی از گوگل با نادیده گرفتن تدابیر ایمنی
نظر شما در مورد مطلب سبقت اوپن ای آی از گوگل با نادیده گرفتن تدابیر ایمنی
نام:
ایمیل:
نظر:
سوال:
= ۶ بعلاوه ۴

جدیدترین ها