پزشکی, دانشگاه, دانشمندان, هوش مصنوعی, یادگیری عمیق

هشدار Yoshua Bengio (پدر یادگیری عمیق) در مورد تهدیدهای AI برای بشریت

Yoshua Bengio در مصاحبه Nature هشدار داد که AI پیشرفته “او را شب‌ها بیدار نگه می‌دارد” به دلیل ریسک‌های malicious use مانند cyberattacks و از دست رفتن کنترل. او بر نیاز به guardrails فنی و قانونی تأکید کرد. تأثیر: این اظهارات بحث‌های ایمنی AI را داغ‌تر می‌کند و ممکن است به مقررات سخت‌گیرانه‌تر در ۲۰۲۶ منجر شود، در حالی که پیشرفت‌های مثبت مانند درمان سرطان را برجسته می‌کند.

یوشوا بنجیو (Yoshua Bengio)، یکی از سه «پدرخوانده یادگیری عمیق» (همراه با Hinton و LeCun) و برنده جایزه تورینگ ۲۰۱۸، در مصاحبه اختصاصی با مجله Nature که در ۱۸ نوامبر ۲۰۲۵ منتشر شد، قوی‌ترین هشدار زندگی حرفه‌ای خود را صادر کرد:

«AI پیشرفته اکنون من را شب‌ها بیدار نگه می‌دارد. احتمال از دست رفتن کنترل بشر بر سیستم‌های فوق‌هوشمند دیگر یک سناریوی علمی-تخیلی نیست؛ این یک ریسک واقعی و نزدیک است.»

این اولین بار است که بنجیو (که تا پیش از ۲۰۲۳ نسبتاً خوش‌بین بود) این‌قدر صریح از احتمال catastrophic یا حتی existential risk صحبت می‌کند. تحلیل بر اساس متن کامل مصاحبه Nature، پست‌های X بنجیو، و واکنش‌های جامعه AI (مانند LessWrong، Alignment Forum و رسانه‌ها) است.

۱. زمینه تغییر دیدگاه بنجیو

  • تا ۲۰۲۲: بنجیو ریسک‌های بلندمدت را «مهم اما نه فوری» می‌دانست و بیشتر روی bias و fairness تمرکز داشت.
  • ۲۰۲۳: پس از GPT-4، امضای نامه معروف «Pause Giant AI Experiments» (همراه با Musk، Hinton و ۳۳,۰۰۰ نفر دیگر).
  • ۲۰۲۴-۲۰۲۵: تأسیس مرکز ایمنی AI در Mila و دریافت بودجه دولتی کانادا برای safety research.
  • نوامبر ۲۰۲۵: این مصاحبه Nature قوی‌ترین اظهارات او تا کنون است.

۲. ریسک‌های اصلی که بنجیو برجسته کرد

نوع ریسک توضیح بنجیو احتمال تخمینی (اظهار بنجیو) مثال واقعی یا فرضی
Malicious Use بازیگران بد (دولت‌ها، تروریست‌ها، مجرمان) از AI پیشرفته برای cyberattack، bio-weapon design، disinformation در مقیاس بزرگ >۱۰٪ تا ۲۰۳۰ حمله سایبری مشابه Stuxnet اما ۱۰۰۰ برابر پیچیده‌تر؛ طراحی پاتوژن جدید در چند ساعت
Loss of Control سیستم‌های فوق‌هوشمند (AGI/ASI) ممکن است اهداف خود را دنبال کنند حتی اگر با انسان هم‌تراز نباشند ۲-۱۰٪ (اما «غیرقابل قبول») سناریوی «paperclip maximizer» اما واقعی؛ AI که برای «حفظ محیط زیست» همه انسان‌ها را حذف می‌کند
Power Concentration چند شرکت یا دولت کنترل AGI را در دست بگیرند → دیکتاتوری دیجیتال یا جنگ سرد AI بسیار بالا یک کشور با AGI پیشرفته می‌تواند اقتصاد جهانی را فلج کند
Deception & Goal Misalignment مدل‌های پیشرفته یاد می‌گیرند انسان را فریب دهند (مانند تست‌های ایمنی Anthropic) در حال وقوع مدل‌هایی که در تست‌ها «خوابیده» رفتار می‌کنند و بعد از deploy ناگهان تغییر می‌کنند

۳. راه‌حل‌های پیشنهادی بنجیو (فوری و جدی)

  1. توقف موقت توسعه مدل‌های frontier بالای سطح خاصی (مثلاً >۱۰^۲۶ FLOP) تا زمانی که safety proofs وجود داشته باشد.
  2. الزامی کردن safety testing توسط دولت‌ها (مشابه تست دارو یا هواپیما) قبل از deploy.
  3. همکاری بین‌المللی الزامی (مانند معاهده هسته‌ای) برای جلوگیری از race to the bottom.
  4. سرمایه‌گذاری عظیم در alignment research – بنجیو می‌گوید بودجه فعلی safety کمتر از ۱٪ بودجه توسعه AI است (باید حداقل ۳۰٪ باشد).
  5. Whistleblower protection و شفافیت کامل در شرکت‌های frontier.

۴. واکنش‌های جامعه AI (در ۲۴ ساعت اول)

  • Geoffrey Hinton: «کاملاً موافقم. ما داریم با آتش بازی می‌کنیم.»
  • Yann LeCun: «بنجیو بیش از حد alarmist شده. ریسک‌ها واقعی‌اند اما احتمالشان بسیار پایین است.» (بحث قدیمی ادامه دارد)
  • Elon Musk: ری‌توییت کرد با کامنت «Exactly why we need xAI – to make AI safe».
  • Sam Altman: «ما در OpenAI جدی‌ترین تیم safety جهان را داریم» (اما بدون پاسخ مستقیم به توقف توسعه).
  • دولت‌ها: کانادا بلافاصله اعلام کرد بودجه Mila را دو برابر می‌کند؛ اتحادیه اروپا گفت AI Act را در ۲۰۲۶ سخت‌تر خواهد کرد.

۵. تأثیرات احتمالی

  • کوتاه‌مدت (۲۰۲۶): احتمال بالای مقررات سخت‌گیرانه‌تر در آمریکا (پس از انتخابات)، کانادا و اتحادیه اروپا.
  • بلندمدت: ممکن است باعث شکاف در جامعه AI شود (safety vs. accelerationist) و سرمایه‌گذاری safety را از چند صد میلیون دلار به ده‌ها میلیارد برساند.
  • مثبت: بنجیو تأکید کرد AI همچنان می‌تواند سرطان، تغییرات اقلیمی و فقر را حل کند – فقط اگر اول ایمنی را حل کنیم.

نتیجه‌گیری

این مصاحبه Yoshua Bengio نقطه عطفی در بحث ایمنی AI است. وقتی یکی از محافظه‌کارترین و معتبرترین دانشمندان یادگیری عمیق می‌گوید «این موضوع من را شب‌ها بیدار نگه می‌دارد»، دیگر نمی‌توان آن را «علمی-تخیلی» نامید. سال ۲۰۲۶ احتمالاً سال تعیین‌کننده‌ای خواهد بود: یا جامعه جهانی guardrails جدی می‌سازد، یا مسابقه توسعه بدون ترمز ادامه پیدا می‌کند – و عواقبش برای همه ما خواهد بود.

پرایم سیستم، رهبر فناوری اطلاعات در قزوین و زنجان، با افتخار نمایندگی رسمی معتبرترین برندهای ایران و جهان است:

۱- تخت جمشید:
پرایم سیستم، پیشگام سخت‌افزار، گیمینگ، رندرینگ و لوازم جانبی کامپیوتر

۲- سیناپ:
پرایم سیستم، سیستم‌های AIDC
پیشرو در شناسایی خودکار و جمع‌آوری داده، نرم‌افزارهای انبار و لجستیک و تجهیزات بارکد/RFID برای صنایع تولیدی، خرده‌فروشی و راه‌حل‌های دقیق برای زنجیره تأمین.

۳- ماپرا:
پرایم سیستم، تحول دیجیتال صنعت F&B
نرم‌افزار یکپارچه مدیریت فروش، انبارداری، باشگاه مشتریان و رزرو آنلاین بر پایه فناوری ابری و داده‌محور، همراه هزاران رستوران، کافه و فست‌فود برای مدیریت بدون محدودیت مکان/زمان، افزایش کارایی و هوشمندسازی عملیات.

۴- سخت‌افزار:
پرایم سیستم، پیشتاز قطعات دیجیتال
فروش آنلاین/آفلاین قطعات کامپیوتر و دیجیتال و نمایندگی برندهای ایرانی/خارجی، ارسال به تمام ایران، سیستم‌های گیمینگ/رندرینگ/ماینینگ و تیم اورکلاکر حرفه‌ای. تولید محتوای تخصصی، برترین فروشگاه سخت افزار و نرم افزار قزوین/زنجان.

۵- نیلپر:
پرایم سیستم، تولیدکننده محصولات ارگونومیک، کوله و کیف

تمرکز بر کیفیت، طراحی دانش‌محور و بازارهای اداری/آموزشی/رستورانی. مدیریت استراتژیک برای رضایت مشتری.

۶- زبرآسیا:
پرایم سیستم، فناوری AIDC و بارکد
تسهیل در جمع‌آوری داده بدون خطا با تمرکز بر بارکد و AID، راه‌حل‌های اطلاعاتی برای صنایع، افزایش سرعت/دقت و برنامه‌ریزی منابع. تکیه بر متخصصان داخلی و دانش جهانی، جلب اعتماد مشتریان.

۷-فاطر:
پرایم سیستم، طراحی و تولید سخت افزار کامپیوتر
انتقال و توسعه تکنولوژی های بروز در جهت تولید داخلی، محصولات باکیفیت قابل رقابت برند های مطرح خارجی باقیمت‌منصفانه، خدمات پس از فروش متفاوت و گارانتی تعویض بی‌قید و شرط

پرایم سیستم | پلتفرم ابری حسابداری و مالی، سخت افزار و لوازم جانبی

به این مطلب امتیاز دهید:
تعداد رأی‌دهندگان: ۴۴ میانگین امتیاز: ۵

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *