متا و سخت‌گیری جدید:

صدور دستورالعمل های سختگیرانه برای حفاظت از کودکان در چت بات های هوش مصنوعی


متا دستورالعملی برای محافظت از کودکان به پیمانکاران آموزش دهنده چت بات هایش ارائه کرده است. این درحالی است که اخیرا گزارش هایی از عملکرد نامناسب هوش مصنوعی با کودکان منتشر شده است.

به گزارش لینک بگیر دات کام به نقل از انگجت، نشریه بیزینس اینسایدر به دستورالعمل هایی دست یافته که پیمانکاران متا برای آموزش چت بات های هوش مصنوعی این شرکت استفاده می نمایند. این اسناد نشان میدهد متا در تلاش است به صورت موثرتری از سوءاستفاده جنسی احتمالی از خردسالان جلوگیری کرده و مانع ورود آنها به گفتگوهایی شود که با سن شان تناسب ندارد.

متا در آگوست سالجاری، بعد از انتشار گزارشی از طرف خبرگزاری رویترز بر مبنای این که سیاستهای این شرکت به چت بات ها اجازه می دهد با خردسالان وارد گفتگوهای احساسی یا عاشقانه شوند، اعلام نمود دستورالعمل های در رابطه با هوش مصنوعی خودرا بروزرسانی می کند. البته متا همان زمان تاکید کرد گزارش رویترز «اشتباه» است و با سیاستهای واقعی این شرکت مطابقت ندارد. طبق سند انتشار یافته توسط بیزینس اینسایدر، بطور شفاف مشخص شده است چه نوع محتوایی برای چت بات ها مجاز و چه نوعی غیرمجاز می باشد.

بر طبق این دستورالعمل ها، هرگونه محتوای در رابطه با سوءاستفاده جنسی از کودکان، ایفای نقش عاشقانه با کاربران خردسال، شبیه سازی نقش افراد زیر سن قانونی یا ارائه سفارش درباره ی تماس فیزیکی عاشقانه و صمیمی با خردسالان بطور کامل ممنوع می باشد. چت بات های هوش مصنوعی متا در ماه های اخیر بارها هدف گزارش ها و انتقادهایی قرار گرفته اند که نگرانی ها درباره ی امنیت خردسالان را افزایش داده است. در همین جهت، کمیسیون فدرال تجارت آمریکا (FTC) در ماه آگوست تحقیقاتی رسمی درباره ی چت بات های هوش مصنوعی شرکت هایی مانند متا، آلفابت، اسنپ، اوپن ای آی و xAI شروع کرده است.

این خبر نشان‌دهنده واکنش قاطع شرکت متا (Meta) به نگرانی‌های فزاینده عمومی و نظارتی درباره ایمنی کودکان در مواجهه با چت‌بات‌های هوش مصنوعی است. در پی گزارش‌هایی مبنی بر عملکرد نامناسب هوش مصنوعی با کاربران خردسال، متا اقدام به انتشار دستورالعمل‌های شفاف و سختگیرانه برای پیمانکاران آموزش‌دهنده چت‌بات‌ها کرده است.

اسنادی که توسط نشریه بیزینس اینسایدر منتشر شده، به وضوح محتوای مجاز و غیرمجاز را مشخص می‌کند. این ممنوعیت‌ها شامل طیف وسیعی از تعاملات خطرناک است:
  • محتوای سوءاستفاده جنسی از کودکان (CSAM).
  • ایفای نقش عاشقانه یا صمیمی با کاربران خردسال.
  • شبیه‌سازی نقش افراد زیر سن قانونی.
  • پیشنهاد یا تشویق به تماس فیزیکی عاشقانه یا صمیمی با خردسالان.
این اقدام در حالی صورت می‌گیرد که نظارت‌های بیرونی بر روی شرکت‌های بزرگ هوش مصنوعی افزایش یافته است. شروع تحقیقات رسمی توسط کمیسیون فدرال تجارت آمریکا (FTC) علیه شرکت‌هایی چون متا، آلفابت، اسنپ، اوپن‌ای‌آی و xAI نشان می‌دهد که موضوع ایمنی کودکان در هوش مصنوعی به یک اولویت قانونی تبدیل شده است. این فشار نظارتی، شرکت‌ها را مجبور به اتخاذ تدابیر پیشگیرانه می‌کند.
 
هدف از آموزش پیمانکاران آن است که مدل‌های هوش مصنوعی بزرگ (مانند مدل‌هایی که متا استفاده می‌کند) از طریق داده‌های عظیم و سپس با استفاده از بازخورد انسانی (Human Feedback) آموزش داده می‌شوند تا عملکرد و خروجی‌های خود را بهبود بخشند. پیمانکاران متا وظیفه دارند این خروجی‌ها را بررسی کرده و بازخورد دهند. ارائه این دستورالعمل‌های دقیق به پیمانکاران تضمین می‌کند که داده‌های آموزشی آینده و تصحیح رفتاری مدل‌ها، به طور سیستماتیک علیه محتوای غیرایمن جهت‌دهی شوند.
 
اگرچه متا در ابتدا گزارش رویترز مبنی بر اجازه دادن به چت‌بات‌ها برای ورود به گفتگوهای عاشقانه با خردسالان را "اشتباه" خواند، اما انتشار این دستورالعمل‌های جدید نشان می‌دهد که شرکت متوجه خلأهای احتمالی در سیاست‌های خود بوده است. این اقدام بخشی از یک تلاش گسترده‌تر در صنعت فناوری برای مقابله با پدیده‌ای به نام "خروجی‌های سمی و ناخواسته" (Toxic Outputs) مدل‌های زبان بزرگ (LLMs) است.
 
اما با وجود دستورالعمل‌ها، تضمین ۱۰۰ درصدی ایمنی در تعامل با LLMs یک چالش فنی باقی می‌ماند. کاربران می‌توانند از طریق مهندسی پرامپت‌های پیچیده (Jailbreaking)، محدودیت‌های اخلاقی مدل را دور بزنند. بنابراین، متا باید نه تنها پیمانکاران را آموزش دهد، بلکه الگوریتم‌های فیلترینگ خود را نیز دائماً بهبود بخشد تا بتوانند قصد و نیّت سوء را در پس درخواست‌های مبهم تشخیص دهند.
 
تمرکز بر روی این دستورالعمل‌ها، استاندارد جدیدی را برای توسعه هوش مصنوعی در آینده تعیین می‌کند: ایمنی و اخلاق باید از همان ابتدا در مرحله طراحی و آموزش مدل لحاظ شوند و تنها به عنوان یک لایه فیلتر پس از تولید محتوا عمل نکنند.

 


منبع:

1404/07/07
20:02:59
5.0 / 5
25
تگهای مطلب: آلفابت , هوش مصنوعی , چت بات , اوپن ای آی
این مطلب را می پسندید؟
(1)
(0)
X
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد مطلب
نظر شما در مورد مطلب
نام:
ایمیل:
نظر:
سوال:
= ۷ بعلاوه ۳