متا دستورالعملی برای محافظت از کودکان به پیمانکاران آموزش دهنده چت بات هایش ارائه کرده است. این درحالی است که اخیرا گزارش هایی از عملکرد نامناسب هوش مصنوعی با کودکان منتشر شده است.
به گزارش لینک بگیر دات کام به نقل از انگجت، نشریه بیزینس اینسایدر به دستورالعمل هایی دست یافته که پیمانکاران متا برای آموزش چت بات های هوش مصنوعی این شرکت استفاده می نمایند. این اسناد نشان میدهد متا در تلاش است به صورت موثرتری از سوءاستفاده جنسی احتمالی از خردسالان جلوگیری کرده و مانع ورود آنها به گفتگوهایی شود که با سن شان تناسب ندارد.
متا در آگوست سالجاری، بعد از انتشار گزارشی از طرف خبرگزاری رویترز بر مبنای این که سیاستهای این شرکت به چت بات ها اجازه می دهد با خردسالان وارد گفتگوهای احساسی یا عاشقانه شوند، اعلام نمود دستورالعمل های در رابطه با هوش مصنوعی خودرا بروزرسانی می کند. البته متا همان زمان تاکید کرد گزارش رویترز «اشتباه» است و با سیاستهای واقعی این شرکت مطابقت ندارد. طبق سند انتشار یافته توسط بیزینس اینسایدر، بطور شفاف مشخص شده است چه نوع محتوایی برای چت بات ها مجاز و چه نوعی غیرمجاز می باشد.
بر طبق این دستورالعمل ها، هرگونه محتوای در رابطه با سوءاستفاده جنسی از کودکان، ایفای نقش عاشقانه با کاربران خردسال، شبیه سازی نقش افراد زیر سن قانونی یا ارائه سفارش درباره ی تماس فیزیکی عاشقانه و صمیمی با خردسالان بطور کامل ممنوع می باشد. چت بات های هوش مصنوعی متا در ماه های اخیر بارها هدف گزارش ها و انتقادهایی قرار گرفته اند که نگرانی ها درباره ی امنیت خردسالان را افزایش داده است. در همین جهت، کمیسیون فدرال تجارت آمریکا (FTC) در ماه آگوست تحقیقاتی رسمی درباره ی چت بات های هوش مصنوعی شرکت هایی مانند متا، آلفابت، اسنپ، اوپن ای آی و xAI شروع کرده است.
این خبر نشاندهنده واکنش قاطع شرکت متا (Meta) به نگرانیهای فزاینده عمومی و نظارتی درباره ایمنی کودکان در مواجهه با چتباتهای هوش مصنوعی است. در پی گزارشهایی مبنی بر عملکرد نامناسب هوش مصنوعی با کاربران خردسال، متا اقدام به انتشار دستورالعملهای شفاف و سختگیرانه برای پیمانکاران آموزشدهنده چتباتها کرده است.
اسنادی که توسط نشریه بیزینس اینسایدر منتشر شده، به وضوح محتوای مجاز و غیرمجاز را مشخص میکند. این ممنوعیتها شامل طیف وسیعی از تعاملات خطرناک است:
-
محتوای سوءاستفاده جنسی از کودکان (CSAM).
-
ایفای نقش عاشقانه یا صمیمی با کاربران خردسال.
-
شبیهسازی نقش افراد زیر سن قانونی.
-
پیشنهاد یا تشویق به تماس فیزیکی عاشقانه یا صمیمی با خردسالان.
این اقدام در حالی صورت میگیرد که نظارتهای بیرونی بر روی شرکتهای بزرگ هوش مصنوعی افزایش یافته است. شروع تحقیقات رسمی توسط کمیسیون فدرال تجارت آمریکا (FTC) علیه شرکتهایی چون متا،
آلفابت، اسنپ، اوپنایآی و xAI نشان میدهد که موضوع ایمنی کودکان در هوش مصنوعی به یک اولویت قانونی تبدیل شده است. این فشار نظارتی، شرکتها را مجبور به اتخاذ تدابیر پیشگیرانه میکند.
هدف از آموزش پیمانکاران آن است که مدلهای هوش مصنوعی بزرگ (مانند مدلهایی که متا استفاده میکند) از طریق دادههای عظیم و سپس با استفاده از بازخورد انسانی (Human Feedback) آموزش داده میشوند تا عملکرد و خروجیهای خود را بهبود بخشند. پیمانکاران متا وظیفه دارند این خروجیها را بررسی کرده و بازخورد دهند. ارائه این دستورالعملهای دقیق به پیمانکاران تضمین میکند که دادههای آموزشی آینده و تصحیح رفتاری مدلها، به طور سیستماتیک علیه محتوای غیرایمن جهتدهی شوند.
اگرچه متا در ابتدا گزارش رویترز مبنی بر اجازه دادن به چتباتها برای ورود به گفتگوهای عاشقانه با خردسالان را "اشتباه" خواند، اما انتشار این دستورالعملهای جدید نشان میدهد که شرکت متوجه خلأهای احتمالی در سیاستهای خود بوده است. این اقدام بخشی از یک تلاش گستردهتر در
صنعت فناوری برای مقابله با پدیدهای به نام "خروجیهای سمی و ناخواسته" (Toxic Outputs) مدلهای زبان بزرگ (LLMs) است.
اما با وجود دستورالعملها، تضمین ۱۰۰ درصدی ایمنی در تعامل با LLMs یک چالش فنی باقی میماند. کاربران میتوانند از طریق مهندسی پرامپتهای پیچیده (Jailbreaking)، محدودیتهای اخلاقی مدل را دور بزنند. بنابراین، متا باید نه تنها پیمانکاران را آموزش دهد، بلکه الگوریتمهای فیلترینگ خود را نیز دائماً بهبود بخشد تا بتوانند قصد و نیّت سوء را در پس درخواستهای مبهم تشخیص دهند.
تمرکز بر روی این دستورالعملها، استاندارد جدیدی را برای توسعه هوش مصنوعی در آینده تعیین میکند: ایمنی و اخلاق باید از همان ابتدا در مرحله طراحی و آموزش مدل لحاظ شوند و تنها به عنوان یک لایه فیلتر پس از تولید محتوا عمل نکنند.
منبع: linkbegir.com