به گزارش لینک بگیر دات کام گروهی از چهره های برجسته، از جمله متخصصان هوش مصنوعی و فناوری، خواستار پایان دادن به تلاش ها برای ایجاد «ابرهوش مصنوعی» شده اند که به طور اساسی در تمام وظایف شناختی از انسان ها پیشی می گیرد.
هوش مصنوعی فوق هوشمند (ASI) و نگرانیهای اخلاقی
هوش مصنوعی فوق هوشمند یا ابرهوش مصنوعی (Artificial Superintelligence - ASI) یک مفهوم نظری در علوم کامپیوتر است که به یک هوش مصنوعی فرضی اشاره دارد که به طور چشمگیری از باهوشترین و با استعدادترین ذهن انسان پیشی میگیرد. این برتری نه تنها در یک حوزه خاص (مانند شطرنج یا محاسبات) بلکه تقریباً در تمام حوزههای علمی، حل مسئله و خلاقیت نمود مییابد. ASI بالاترین سطح در سلسله مراتب هوش مصنوعی است که فراتر از هوش مصنوعی عمومی (AGI) قرار میگیرد؛ جایی که AGI تنها تواناییهای شناختی انسان را تقلید میکند، اما ASI به سرعت از آنها فراتر میرود.
ورود به عصر ASI میتواند بزرگترین رویداد تاریخ بشریت باشد. پتانسیل مثبت آن شامل حل چالشهای بزرگ بشری مانند تغییرات اقلیمی، بیماریهای لاعلاج و فقر است. با این حال، خطرات وجودی (Existential Risks) مرتبط با توسعه کنترلنشده ASI، عمیقاً جامعه علمی و فناوری را نگران کرده است. نگرانی اصلی این است که اگر هوش مصنوعی باهوشتر از انسان شود و اهداف آن به درستی با ارزشها و اخلاقیات انسانی همسو نباشد، میتواند مسیری را انتخاب کند که بقای انسان را به خطر اندازد. از آنجایی که هوش فوقالعاده سریع تکامل مییابد، کنترل آن عملاً غیرممکن خواهد شد.
در حال حاضر، شرکتهایی مانند OpenAI (سم آلتمن) و xAI (ایلان ماسک) و حتی
متا (با نامگذاری بخش LLM خود به "Meta Superintelligence Labs") علناً در حال
رقابت برای دستیابی به مدلهای زبانی پیشرفته و در نهایت ASI هستند. این رقابت شتابزده، بدون وجود مقررات کافی و توافق جهانی بر سر اصول ایمنی، باعث شده است که رهبران فکری و اخلاقی احساس خطر کنند و خواستار مکث در این توسعه شوند تا زمان لازم برای ایجاد پروتکلهای ایمنی قوی و اطمینان از کنترلپذیری این فناوری فراهم گردد.
بیش از ۸۵۰ نفر از رهبران برجسته فناوری، نخبگان علمی و چهرههای عمومی، طی یک بیانیه مشترک و تأثیرگذار، خواستار توقف فوری و ممنوعیت موقت توسعه ابرهوش مصنوعی (ASI) شدند. این بیانیه که نشاندهنده یک بحران وجدانی در قلب جامعه هوش مصنوعی است، توسط چهرههای نمادینی نظیر استیو وزنیاک (بنیانگذار اپل) و ریچارد برانسون (بنیانگذار گروه ویرجین) امضا شده است.
در صدر لیست امضاکنندگان، نامهای بسیار مهمی همچون جف هینتون و یوشوا بنگیو به چشم میخورد که هر دو از «پدرخواندههای هوش مصنوعی مدرن» و پیشگامان شناختهشده در علوم کامپیوتر هستند. پیوستن این نخبگان علمی و افراد آکادمیک برجسته (مانند استوارت راسل از دانشگاه برکلی) به این کمپین، اعتبار و فوریت این درخواست را دوچندان کرده است.
مسابقه تسلیحاتی ابرهوش و خطرات وجودی
این هشدار در شرایطی منتشر میشود که اصطلاح «ابرهوش مصنوعی» به یک واژه رایج تبدیل شده و شرکتهایی چون xAI ایلان ماسک و OpenAI سم آلتمن، علناً درگیر یک مسابقه تسلیحاتی پرشتاب برای عرضه مدلهای پیشرفتهتر زبانی (LLM) هستند؛ مسابقهای که هدف نهایی آن دستیابی به ASI است.
امضاکنندگان بیانیه، به صراحت، فهرستی نگرانکننده از خطرات مرتبط با ASI را مطرح کردهاند:
-
منسوخ شدن اقتصادی و سلب قدرت: نگرانی از حذف گسترده مشاغل و از دست رفتن کنترل اقتصادی توسط بشر.
-
تهدید آزادیهای مدنی: خطر از دست رفتن آزادیهای فردی و کنترل دولتها بر زندگی خصوصی افراد.
-
امنیت ملی و انقراض: هشدار در مورد خطرات امنیت ملی و حتی احتمال انقراض بالقوه انسان در صورت عدم کنترل صحیح این هوش برتر.
این بیانیه به صراحت خواستار آن شده است که توسعه ابرهوش مصنوعی تا زمانی که حمایت عمومی قوی و اجماع علمی گستردهای در مورد روشهای ساخت ایمن، قابل کنترل و همسو با ارزشهای انسانی حاصل نشده، ممنوع و متوقف گردد. این ائتلاف گسترده که فراتر از حوزه فناوری رفته و شامل دانشگاهیان، رهبران مذهبی، شخصیتهای رسانهای و حتی مقامات سابق سیاسی از هر دو حزب آمریکا میشود، بر این باور است که توسعه این فناوری بدون ایجاد محافظتهای لازم، یک قمار خطرناک با آینده بشریت است. این درخواست یک لحظه تاریخی را در حوزه هوش مصنوعی رقم میزند، جایی که خالقان برجسته این فناوری، اکنون در نقش نگرانترین منتقدان آن ظاهر شدهاند.
منبع: لینك بگیر دات كام
در رهبران جهانی خواستار توقف فوری توسعه ابرهوش مصنوعی شدند خواندید: