هشدار پدرخوانده‌های هوش مصنوعی:

رهبران جهانی خواستار توقف فوری توسعه ابرهوش مصنوعی شدند

به گزارش لینک بگیر دات کام گروهی از چهره های برجسته، از جمله متخصصان هوش مصنوعی و فناوری، خواستار پایان دادن به تلاش ها برای ایجاد «ابرهوش مصنوعی» شده اند که به طور اساسی در تمام وظایف شناختی از انسان ها پیشی می گیرد.

رهبران جهانی خواستار توقف فوری توسعه ابرهوش مصنوعی شدند

رهبران جهانی خواستار توقف فوری توسعه ابرهوش مصنوعی شدند

هوش مصنوعی فوق هوشمند (ASI) و نگرانی‌های اخلاقی

هوش مصنوعی فوق هوشمند یا ابرهوش مصنوعی (Artificial Superintelligence - ASI) یک مفهوم نظری در علوم کامپیوتر است که به یک هوش مصنوعی فرضی اشاره دارد که به طور چشمگیری از باهوش‌ترین و با استعدادترین ذهن انسان پیشی می‌گیرد. این برتری نه تنها در یک حوزه خاص (مانند شطرنج یا محاسبات) بلکه تقریباً در تمام حوزه‌های علمی، حل مسئله و خلاقیت نمود می‌یابد. ASI بالاترین سطح در سلسله مراتب هوش مصنوعی است که فراتر از هوش مصنوعی عمومی (AGI) قرار می‌گیرد؛ جایی که AGI تنها توانایی‌های شناختی انسان را تقلید می‌کند، اما ASI به سرعت از آن‌ها فراتر می‌رود.
ورود به عصر ASI می‌تواند بزرگ‌ترین رویداد تاریخ بشریت باشد. پتانسیل مثبت آن شامل حل چالش‌های بزرگ بشری مانند تغییرات اقلیمی، بیماری‌های لاعلاج و فقر است. با این حال، خطرات وجودی (Existential Risks) مرتبط با توسعه کنترل‌نشده ASI، عمیقاً جامعه علمی و فناوری را نگران کرده است. نگرانی اصلی این است که اگر هوش مصنوعی باهوش‌تر از انسان شود و اهداف آن به درستی با ارزش‌ها و اخلاقیات انسانی همسو نباشد، می‌تواند مسیری را انتخاب کند که بقای انسان را به خطر اندازد. از آنجایی که هوش فوق‌العاده سریع تکامل می‌یابد، کنترل آن عملاً غیرممکن خواهد شد.
 
در حال حاضر، شرکت‌هایی مانند OpenAI (سم آلتمن) و xAI (ایلان ماسک) و حتی متا (با نام‌گذاری بخش LLM خود به "Meta Superintelligence Labs") علناً در حال رقابت برای دستیابی به مدل‌های زبانی پیشرفته و در نهایت ASI هستند. این رقابت شتابزده، بدون وجود مقررات کافی و توافق جهانی بر سر اصول ایمنی، باعث شده است که رهبران فکری و اخلاقی احساس خطر کنند و خواستار مکث در این توسعه شوند تا زمان لازم برای ایجاد پروتکل‌های ایمنی قوی و اطمینان از کنترل‌پذیری این فناوری فراهم گردد.
 
بیش از ۸۵۰ نفر از رهبران برجسته فناوری، نخبگان علمی و چهره‌های عمومی، طی یک بیانیه مشترک و تأثیرگذار، خواستار توقف فوری و ممنوعیت موقت توسعه ابرهوش مصنوعی (ASI) شدند. این بیانیه که نشان‌دهنده یک بحران وجدانی در قلب جامعه هوش مصنوعی است، توسط چهره‌های نمادینی نظیر استیو وزنیاک (بنیان‌گذار اپل) و ریچارد برانسون (بنیان‌گذار گروه ویرجین) امضا شده است.
 
در صدر لیست امضاکنندگان، نام‌های بسیار مهمی همچون جف هینتون و یوشوا بنگیو به چشم می‌خورد که هر دو از «پدرخوانده‌های هوش مصنوعی مدرن» و پیشگامان شناخته‌شده در علوم کامپیوتر هستند. پیوستن این نخبگان علمی و افراد آکادمیک برجسته (مانند استوارت راسل از دانشگاه برکلی) به این کمپین، اعتبار و فوریت این درخواست را دوچندان کرده است.
 
 

مسابقه تسلیحاتی ابرهوش و خطرات وجودی

این هشدار در شرایطی منتشر می‌شود که اصطلاح «ابرهوش مصنوعی» به یک واژه رایج تبدیل شده و شرکت‌هایی چون xAI ایلان ماسک و OpenAI سم آلتمن، علناً درگیر یک مسابقه تسلیحاتی پرشتاب برای عرضه مدل‌های پیشرفته‌تر زبانی (LLM) هستند؛ مسابقه‌ای که هدف نهایی آن دستیابی به ASI است.
 
امضاکنندگان بیانیه، به صراحت، فهرستی نگران‌کننده از خطرات مرتبط با ASI را مطرح کرده‌اند:
  • منسوخ شدن اقتصادی و سلب قدرت: نگرانی از حذف گسترده مشاغل و از دست رفتن کنترل اقتصادی توسط بشر.
  • تهدید آزادی‌های مدنی: خطر از دست رفتن آزادی‌های فردی و کنترل دولت‌ها بر زندگی خصوصی افراد.
  • امنیت ملی و انقراض: هشدار در مورد خطرات امنیت ملی و حتی احتمال انقراض بالقوه انسان در صورت عدم کنترل صحیح این هوش برتر.
 
این بیانیه به صراحت خواستار آن شده است که توسعه ابرهوش مصنوعی تا زمانی که حمایت عمومی قوی و اجماع علمی گسترده‌ای در مورد روش‌های ساخت ایمن، قابل کنترل و همسو با ارزش‌های انسانی حاصل نشده، ممنوع و متوقف گردد. این ائتلاف گسترده که فراتر از حوزه فناوری رفته و شامل دانشگاهیان، رهبران مذهبی، شخصیت‌های رسانه‌ای و حتی مقامات سابق سیاسی از هر دو حزب آمریکا می‌شود، بر این باور است که توسعه این فناوری بدون ایجاد محافظت‌های لازم، یک قمار خطرناک با آینده بشریت است. این درخواست یک لحظه تاریخی را در حوزه هوش مصنوعی رقم می‌زند، جایی که خالقان برجسته این فناوری، اکنون در نقش نگران‌ترین منتقدان آن ظاهر شده‌اند.

منبع:

در رهبران جهانی خواستار توقف فوری توسعه ابرهوش مصنوعی شدند خواندید:
1404/08/01 20:43:53
5.0 / 5
15
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد مطلب رهبران جهانی خواستار توقف فوری توسعه ابرهوش مصنوعی شدند
نظر شما در مورد مطلب رهبران جهانی خواستار توقف فوری توسعه ابرهوش مصنوعی شدند
نام:
ایمیل:
نظر:
سوال:
= ۳ بعلاوه ۱
لینک بگیر
خدمات ما
با ما تماس بگیرید
درباره ما

لینک بگیر مرجع تخصصی خرید رپورتاژآگهی و خرید بک لینک از معتبرترین سایت‌های ایرانی است. با پشتیبانی ۲۴ ساعته، اطمینان از بروزرسانی مداوم سایتها و قرارداد مستقیم با درگاه‌های پرداخت آنلاین معتبر، ضامن خرید بکلینک و رپورتاژ مطمئن شماست.