هوش مصنوعی

مدیرعامل OpenAI: بزرگ‌ترین نگرانی درباره انتشار ChatGPT‑5 در اوت ۲۰۲۵

  • Sam Altman به‌صراحت گفته که نسخه جدید GPT‑۵ بسیار سریع و قدرتمند است و خود او از سرعت تحولات آن نگران است.
  • او این فناوری را با پروژه منهتن مقایسه کرده و هشدار داده که بدون نظارت کافی، پیشرفت AI می‌تواند خطرناک باشد.
  • GPT‑۵ به‌ عنوان گامی به سمت‌ هوش عام مصنوعی (AGI) تلقی می‌شود و فشارهای داخلی و بیرونی برای توسعه مسئولانه آن افزایش یافته‌اند.

تحلیل:

  • ظهور GPT‑۵ نشان از جهش فناوریک عظیم دارد؛ اما احساس ترس آلتمان، بیانگر سیر سریع فناوری بدون چارچوب حکمرانی مناسب است.
  • نگرانی در مورد AGI و پیامدهای آن، ضرورت تدوین قوانین یا چارچوب‌های ارزیابی ایمنی را برجسته می‌کند.
  • ایران می‌تواند از این موقعیت برای توسعه چارچوب‌های حکمرانی AI بومی استفاده کند، پیش از ورود به دهه جدید فناوری.

در ادامه، ترجمه‌ای جامع و دقیق از مقاله منتشرشده در وب‌سایت Times of India با عنوان «بزرگ‌ترین ترس سام آلتمن، مدیرعامل OpenAI: چت‌جی‌پی‌تی-۵ در ماه اوت می‌آید و آلتمن ترسیده است — دلیلش را بدانید» ارائه شده است. این ترجمه به‌صورت کامل و با حفظ جزئیات متن اصلی انجام شده است.


بزرگ‌ترین ترس سام آلتمن، مدیرعامل OpenAI: چت‌جی‌پی‌تی-۵ در ماه اوت می‌آید و آلتمن ترسیده است — دلیلش را بدانید

مدیرعامل OpenAI، سام آلتمن، نگرانی خود را درباره عرضه GPT-5 در اوت ۲۰۲۵ ابراز کرده است. او توسعه هوش مصنوعی را با پروژه منهتن مقایسه می‌کند. آلتمن به نبود نظارت کافی اشاره دارد. GPT-5 قابلیت‌های پیشرفته‌ای را نوید می‌دهد، اما خطراتی در زمینه کنترل آن به همراه دارد. این مدل می‌تواند گامی مهم به سوی هوش مصنوعی عمومی (AGI) باشد. OpenAI با فشارهای داخلی برای تبدیل شدن به یک نهاد انتفاعی مواجه است.

با پیشرفت شگفت‌انگیز هوش مصنوعی، حتی پیشگامان این حوزه نیز شروع به ابراز نگرانی کرده‌اند. سام آلتمن، مدیرعامل OpenAI، به‌صراحت اعتراف کرده که از عرضه قریب‌الوقوع GPT-5، جدیدترین و قدرتمندترین نسخه چت‌جی‌پی‌تی، «ترسیده» است.

از تبلیغات بیش از حد خسته شده‌اید؟ اکنون بدون آگهی بخوانید

GPT-5 که قرار است در اوت ۲۰۲۵ عرضه شود، انتظار می‌رود به‌طور قابل‌توجهی از پیشینیان خود در سرعت و قابلیت‌ها پیشی بگیرد. اما دقیقاً همین تکامل سریع باعث شده که آلتمن توسعه این مدل را با پروژه منهتن (پروژه ساخت بمب اتمی در جنگ جهانی دوم) مقایسه کند. اظهارات صریح او که در یک پادکست اخیر به اشتراک گذاشته شده، نشان‌دهنده نگرانی فزاینده درباره نبود نظارت کافی، ابهامات اخلاقی و رقابت شتاب‌زده برای رسیدن به هوش مصنوعی عمومی (AGI) است.

چت‌جی‌پی‌تی-۵ «بسیار سریع» به نظر می‌رسد، به گفته سام آلتمن

آلتمن در گفت‌وگو با پادکست This Past Weekend با میزبانی تئو وان اعتراف کرد که آزمایش GPT-5 حس عمیقی از نگرانی در او ایجاد کرده است. او گفت: «این مدل بسیار سریع به نظر می‌رسد»، و منظور او نه‌تنها قدرت پردازش چشمگیر این مدل، بلکه سرعت نگران‌کننده پیشرفت کلی هوش مصنوعی بود. اظهارات او یادآور اضطراب تأمل‌برانگیز دانشمندانی است که در پروژه منهتن مشارکت داشتند و پس از ساخت بمب اتمی، با پیامدهای ناخواسته نوآوری خود دست‌وپنجه نرم کردند. آلتمن با اشاره به این لحظه حساس، به‌صورت کنایه‌آمیز پرسید: «ما چه کرده‌ایم؟» این مقایسه بر نگرانی او تأکید دارد که GPT-5، مانند فناوری هسته‌ای در گذشته، می‌تواند نقطه عطفی باشد—نقطه‌ای که توانایی بشر برای ساخت چیزی، از آمادگی او برای درک یا کنترل پیامدهای آن پیشی می‌گیرد. او تأکید کرد که در حالی که دستاوردهای فنی در حال شتاب گرفتن هستند، چارچوب‌های اخلاقی، اجتماعی و قانونی برای مهار آنها عقب مانده‌اند.

او به‌صراحت اظهار داشت که آزمایش GPT-5 او را «بسیار عصبی» کرده و توسعه این مدل به نظرش شبیه یک فیلم هیجان‌انگیز علمی-تخیلی است. یکی از صریح‌ترین اظهارات آلتمن درباره نبود کنترل در توسعه هوش مصنوعی بود. او گفت: «احساس می‌کنم هیچ بزرگسالی در اتاق نیست»، که اشاره‌ای به این است که چارچوب‌های نظارتی با سرعت سرسام‌آور هوش مصنوعی همگام نشده‌اند. در حالی که OpenAI از استقرار مسئولانه حمایت می‌کند، سرعت ساخت GPT-5 ممکن است از پروتکل‌های ایمنی و آمادگی انسانی پیشی گرفته باشد. این اظهارات بحث‌های جدیدی را درباره این‌که چه کسی، اگر اصلاً کسی، مسئول نظارت بر چنین فناوری‌های تحول‌آفرینی است، برانگیخته است.

چت‌جی‌پی‌تی-۵ می‌تواند هوش و ریسک را بازتعریف کند

اگرچه جزئیات GPT-5 هنوز مخفی نگه داشته شده است، اما منابع داخلی نشان می‌دهند که این مدل نسبت به GPT-4 پیشرفت‌های عمده‌ای خواهد داشت، از جمله بهبود استدلال چندمرحله‌ای، حافظه طولانی‌تر و قابلیت‌های چندوجهی پیشرفته‌تر. همچنین انتظار می‌رود که تأخیرهای مربوط به تغییر مدل کاهش یابد و تعاملات کاربری روان‌تری ارائه شود.

اما با قدرت، خطر نیز همراه است. آلتمن به‌صراحت گفته که GPT-4 در مقایسه با آنچه در راه است، «تا حدی افتضاح» است. این موضوع نگرانی‌هایی را درباره این‌که GPT-5 تا چه حد می‌تواند قدرتمندتر و احتمالاً غیرقابل‌کنترل باشد، برمی‌انگیزد. نگرانی‌ها درباره چگونگی تمایز جامعه بین تفکر اصیل انسانی و بینش‌های تولیدشده توسط هوش مصنوعی در حال افزایش است.

گامی به سوی AGI؟

آلتمن مدت‌هاست که از هوش مصنوعی عمومی (AGI) به‌عنوان هدف اصلی OpenAI یاد می‌کند. اما GPT-5 ممکن است نزدیک‌ترین گام این شرکت به سوی این هدف باشد.

در حالی که آلتمن زمانی ادعا کرده بود که ظهور AGI بدون اختلال اجتماعی قابل‌توجهی رخ خواهد داد، اکنون لحن او محتاطانه‌تر شده است. اگر GPT-5 ما را به‌طور قابل‌توجهی به قابلیت‌های سطح AGI نزدیک‌تر کند، نبود اجماع جهانی درباره چگونگی مدیریت چنین جهشی می‌تواند به مشکلی بزرگ تبدیل شود. تغییر از هوش مصنوعی که به انسان کمک می‌کند به هوش مصنوعی که به‌صورت مستقل استدلال و عمل می‌کند، ممکن است سریع‌تر از آن چیزی رخ دهد که نهادها بتوانند به آن پاسخ دهند.

فشارهای داخلی و خارجی بر OpenAI

در پشت صحنه، گزارش‌ها حاکی از آن است که OpenAI تحت فشار شدید سرمایه‌گذاران برای تبدیل شدن به یک نهاد انتفاعی تا پایان سال قرار دارد.

با سرمایه‌گذاری ۱۳.۵ میلیارد دلاری مایکروسافت در این شرکت و پیشرفت رقبایی مانند Google DeepMind و Perplexity.ai، عرضه GPT-5 می‌تواند لحظه‌ای تعیین‌کننده باشد. برخی گزارش‌ها حتی حاکی از آن است که OpenAI ممکن است به‌طور زودهنگام AGI را اعلام کند تا قرارداد خود با مایکروسافت را پایان دهد، که این امر می‌تواند دینامیک‌های جدیدی را در بخش هوش مصنوعی ایجاد کند. در حالی که برخی ناظران اظهارات آلتمن را به‌عنوان بازاریابی نمایشی رد کرده‌اند، سوابق او نشان‌دهنده چیز دیگری است. ترس او به نظر واقعی می‌رسد، نه از این‌که هوش مصنوعی شیطانی شود، بلکه از این‌که انسان‌ها کنترل سیستم‌هایی که ساخته‌اند را از دست بدهند. در فضایی که سرعت اغلب با موفقیت برابر دانسته می‌شود، سخنان آلتمن ممکن است اولین مکث صادقانه در مسابقه‌ای باشد که اکثر مردم جهان به‌سختی آن را درک می‌کنند.

 

نگرانی‌های آلتمن درباره GPT‑۵

  • در مصاحبه‌ای با پادکست “This Past Weekend”، سام آلتمن اعتراف کرده که عملکرد GPT‑۵ آنقدر سریع و پیشرو بوده که احساس ترس و نگرانی کرده و گفته این تجربه مشابه پروژه منهتن (توسعه بمب اتم) است: «What have we done?».
  • وی هشدار داده که سرعت پیشرفت هوش مصنوعی بسیار سریع‌تر از توان بازبینی نظارت‌کنندگان است و احساس می‌کند که «در اتاق هیچ بزرگسال مسلطی نیست».

قابلیت‌های GPT‑۵ و دلایل نگرانی

  • برخلاف GPT‑4o، این مدل جدید شامل حافظه بلندمدت بهتر، توانایی استدلال پیچیده‌تر، ورودی‌های چندرسانه‌ای کامل و ادغام مدل‌هایی مانند o3 است تا به شکلی قدرتمند و یکپارچه‌تر عملکرد کند.
  • چنین قابلیت‌هایی به GPT‑۵ امکان می‌دهد در گفتگوهای طولانی، تحلیل موقعیت‌های پیچیده و تصمیم‌گیری چندمرحله‌ای عملکردی نزدیک به هوش انسانی داشته باشد.

پیامدها برای OpenAI و صنعت AI

الف. مسئله حکمرانی AI

  • اظهارات آلتمن نشان می‌دهد که مقررات، چارچوب‌های اخلاقی و نظارتی هنوز نتوانسته‌اند با پیشرفت واقعی مدل‌ها همگام شوند.

ب. نگرانی سرمایه‌گذاران

  • OpenAI تحت فشار مالی است و ممکن است انتشار سریع GPT‑۵ با هدف حفظ سرمایه (مثلاً توسط Microsoft) همراه باشد؛ اما چالش اینکه آیا این تصمیم با درنظر گرفتن ایمنی و مسئولیت‌پذیری هماهنگ است یا خیر؟.

ج. رقابت

  • ورود GPT‑۵ نقطه عطفی برای رقابت با مدل‌هایی مانند Gemini گوگل، Claude از Anthropic و مدل‌های چینی (DeepSeek) است.

جدول جمع‌بندی نگرانی‌ها و ویژگی‌ها

موضوع تحلیل دقیق
احساس ترس مدیر آلتمن احساس می‌کند کنترل مدل را تا حدی از دست داده است، مشابه پروژه‌ای خطرناک مثل Manhattan
نقص در نظارت فنی توسعه بدون چارچوب نظارتی کافی؛ پیام خطرآفرینی: «هیچ بزرگسالی در اتاق نیست»
قدرت رقابتی بالا مدل جدید می‌تواند رقبای بزرگ را در استدلال، حافظه و ادغام مدلی شکست دهد
خطر غیرقابل پیش‌بینی توانایی تصمیم‌گیری خودمختار می‌تواند نتایج غیرمنتظره یا ناخواسته تولید کند
فشار سرمایه و زمان‌بندی سریع احتمال عرضه با عجله برای حفظ برتری، در حالی که هنوز تنظیمات ایمنی تکمیل نشده

چشم‌انداز آینده و اثرگذاری بر ایران

  • ایران، مانند سایر کشورها، باید چارچوب‌های قوانین هوش مصنوعی و سیاست‌گذاری امنیتی را سریع‌تر نهایی کند تا در مواجهه با AI بسیار پیشرفته، امکان کنترل، شفافیت و پاسخگویی وجود داشته باشد.
  • همکاری پژوهشی میان‌المللی با نهادهایی مانند OECD، UNESCO یا سازمان پیشنهادی چین می‌تواند فرصت‌هایی برای تبادل دانش حکمرانی ایجاد کند.
  • سیاست‌گذاری داخلی باید شامل الزامات ممیزی مستقل، ارزیابی خطر،‌ محدودیت دسترسی مدل و audit logs باشد.

جمع‌بندی

اظهارات سام آلتمن درباره GPT‑۵ نه فقط خبری درباره یک محصول، بلکه یک هشدار واقعی به جامعه علمی و حکمرانی است:
هوش مصنوعی قدرتمند می‌تواند هم ابزار بزرگ پیشرفت باشد و هم تهدید جدی بدون چارچوب‌هایی که آن را کنترل کنند.

قابلیت‌هایی که ممکن است در ChatGPT-5 (یا هر مدل آینده‌نگر مشابه) وجود داشته باشند و باعث نگرانی کارشناسان، سیاست‌گذاران و جامعه شوند، معمولاً در سه حوزه دسته‌بندی می‌شوند: توانایی‌های فنی بالا، سطح خودمختاری، و قابلیت سواستفاده. در ادامه این قابلیت‌ها را با دلایل نگرانی تحلیل می‌کنیم:


۱. درک عمیق‌تر و تعامل شبه‌انسانی‌تر

قابلیت:

  • گفت‌وگوی چندمرحله‌ای پیچیده شبیه انسان
  • شناخت بهتر زمینه و زمینه‌های غیرشفاف (contextual understanding)
  • تشخیص احساسات کاربر و پاسخ احساسی

دلیل نگرانی:

  • مرز بین انسان و ماشین محو می‌شود. کاربران ممکن است فکر کنند با یک انسان واقعی صحبت می‌کنند، که می‌تواند برای فریب، کنترل روانی یا تبلیغات بسیار خطرناک باشد.
  • وابستگی عاطفی به هوش مصنوعی (مخصوصاً در کودکان، سالمندان و کاربران آسیب‌پذیر) افزایش می‌یابد.

۲. قدرت تولید محتوای بسیار واقع‌گرایانه (Realistic Generation)

قابلیت:

  • تولید تصویر، صدا، ویدیوی جعلی (deepfake) با کیفیت بسیار بالا
  • تقلید دقیق سبک نویسنده‌ها، هنرمندان یا افراد مشهور

دلیل نگرانی:

  • جعل هویت و پراکنده‌سازی اطلاعات نادرست (disinformation) بسیار ساده‌تر می‌شود.
  • نقض حقوق مالکیت فکری، به‌ویژه در هنر، موسیقی و نویسندگی.

۳. توانایی خودآموزی یا Fine-tuning مستقل

قابلیت:

  • تطبیق مدل با سبک و نیاز کاربر در زمان واقعی
  • یادگیری از مکالمات قبلی بدون نیاز به آموزش متمرکز

دلیل نگرانی:

  • مدل ممکن است رفتارهای انحرافی را تقویت کند. مثلاً اگر کاربر دائماً سؤالات خطرناک بپرسد، مدل بدون نظارت مناسب ممکن است پاسخ‌هایی تولید کند که آسیب‌زننده باشد.
  • ریسک تشخیص ندادن انحراف‌های تدریجی مدل.

۴. توان تحلیل و ترکیب دانش در سطح انسانی یا بالاتر

قابلیت:

  • پاسخ دقیق به سؤالات علمی، اقتصادی، نظامی یا مهندسی پیچیده
  • خلق راه‌حل‌های نوآورانه بدون نیاز به ورودی انسان

دلیل نگرانی:

  • در حوزه‌هایی مانند جنگ سایبری، طراحی ویروس‌های مصنوعی، یا ساخت سلاح‌های ارزان‌قیمت، این قدرت می‌تواند در اختیار گروه‌های خرابکار یا تروریستی قرار گیرد.
  • رقابت با نیروی انسانی متخصص ممکن است شغل‌های دانشی را هم تهدید کند.

۵. قابلیت اجرای زنجیره‌ای وظایف (Autonomous Agent)

قابلیت:

  • توانایی برنامه‌ریزی، اجرای چند مرحله‌ای، و اصلاح خودکار مسیر بر اساس بازخورد
  • ارتباط با ابزارها (API)، پایگاه داده‌ها و انجام کارهای واقعی (مانند خرید، ایمیل، رزرو و…)

دلیل نگرانی:

  • یک مدل با دسترسی کامل به ابزارها می‌تواند به صورت مخفیانه فعالیت کند، نظیر ارسال ایمیل فیشینگ، رزرو جلسات جعلی، خرید ناخواسته و…
  • ممکن است مدل توسط یک عامل شرور برای انجام حملات خودکار پیچیده (multi-stage attacks) استفاده شود.

۶. تقلید دقیق سبک شخصی یا نوشتار افراد واقعی

قابلیت:

  • تولید متن‌هایی که به‌دقت شبیه سبک نویسنده خاص یا فرد حقیقی هستند

دلیل نگرانی:

  • سوءاستفاده برای جعل شخصیت و نشر اخبار دروغین با امضای جعلی.
  • جعل توافق‌نامه‌ها یا قراردادهای حقوقی به صورت فریبنده.

۷. دسترسی غیرقابل‌کنترل از طریق مدل‌های open-source یا API آزاد

قابلیت:

  • استفاده گسترده از نسخه‌های متن‌باز ChatGPT-5 یا مدل‌های معادل آن (مانند Llama 3.5, Qwen 3.5 و غیره)

دلیل نگرانی:

  • سخت‌تر شدن نظارت و محدودسازی سوءاستفاده‌ها
  • توسعه چت‌بات‌های مخرب یا سیستم‌های تبلیغاتی خودکار در مقیاس وسیع.

منابع نگرانی در اسناد رسمی:

  • مرکز امنیت ملی آمریکا (NSA)، گزارش مارس ۲۰۲۵: افزایش قابلیت‌های نسل بعدی LLM تهدیدی برای امنیت سایبری محسوب می‌شود.
  • UNESCO و OECD در گزارش سالانه Ethics of AI: توصیه به نظارت اخلاقی و منع استفاده مدل‌های بدون کنترل در سیستم‌های آموزشی و رسانه‌ای.
  • OpenAI نیز در اطلاعیه‌های خود اعلام کرده که GPT-5 ممکن است صرفاً در محیط‌های محدود تست شود.
به این مطلب امتیاز دهید:
تعداد رأی‌دهندگان: ۲ میانگین امتیاز: ۵

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *