blog
مدیرعامل OpenAI: بزرگترین نگرانی درباره انتشار ChatGPT‑5 در اوت ۲۰۲۵
- Sam Altman بهصراحت گفته که نسخه جدید GPT‑۵ بسیار سریع و قدرتمند است و خود او از سرعت تحولات آن نگران است.
- او این فناوری را با پروژه منهتن مقایسه کرده و هشدار داده که بدون نظارت کافی، پیشرفت AI میتواند خطرناک باشد.
- GPT‑۵ به عنوان گامی به سمت هوش عام مصنوعی (AGI) تلقی میشود و فشارهای داخلی و بیرونی برای توسعه مسئولانه آن افزایش یافتهاند.
تحلیل:
- ظهور GPT‑۵ نشان از جهش فناوریک عظیم دارد؛ اما احساس ترس آلتمان، بیانگر سیر سریع فناوری بدون چارچوب حکمرانی مناسب است.
- نگرانی در مورد AGI و پیامدهای آن، ضرورت تدوین قوانین یا چارچوبهای ارزیابی ایمنی را برجسته میکند.
- ایران میتواند از این موقعیت برای توسعه چارچوبهای حکمرانی AI بومی استفاده کند، پیش از ورود به دهه جدید فناوری.
در ادامه، ترجمهای جامع و دقیق از مقاله منتشرشده در وبسایت Times of India با عنوان «بزرگترین ترس سام آلتمن، مدیرعامل OpenAI: چتجیپیتی-۵ در ماه اوت میآید و آلتمن ترسیده است — دلیلش را بدانید» ارائه شده است. این ترجمه بهصورت کامل و با حفظ جزئیات متن اصلی انجام شده است.
بزرگترین ترس سام آلتمن، مدیرعامل OpenAI: چتجیپیتی-۵ در ماه اوت میآید و آلتمن ترسیده است — دلیلش را بدانید
مدیرعامل OpenAI، سام آلتمن، نگرانی خود را درباره عرضه GPT-5 در اوت ۲۰۲۵ ابراز کرده است. او توسعه هوش مصنوعی را با پروژه منهتن مقایسه میکند. آلتمن به نبود نظارت کافی اشاره دارد. GPT-5 قابلیتهای پیشرفتهای را نوید میدهد، اما خطراتی در زمینه کنترل آن به همراه دارد. این مدل میتواند گامی مهم به سوی هوش مصنوعی عمومی (AGI) باشد. OpenAI با فشارهای داخلی برای تبدیل شدن به یک نهاد انتفاعی مواجه است.
با پیشرفت شگفتانگیز هوش مصنوعی، حتی پیشگامان این حوزه نیز شروع به ابراز نگرانی کردهاند. سام آلتمن، مدیرعامل OpenAI، بهصراحت اعتراف کرده که از عرضه قریبالوقوع GPT-5، جدیدترین و قدرتمندترین نسخه چتجیپیتی، «ترسیده» است.
از تبلیغات بیش از حد خسته شدهاید؟ اکنون بدون آگهی بخوانید
GPT-5 که قرار است در اوت ۲۰۲۵ عرضه شود، انتظار میرود بهطور قابلتوجهی از پیشینیان خود در سرعت و قابلیتها پیشی بگیرد. اما دقیقاً همین تکامل سریع باعث شده که آلتمن توسعه این مدل را با پروژه منهتن (پروژه ساخت بمب اتمی در جنگ جهانی دوم) مقایسه کند. اظهارات صریح او که در یک پادکست اخیر به اشتراک گذاشته شده، نشاندهنده نگرانی فزاینده درباره نبود نظارت کافی، ابهامات اخلاقی و رقابت شتابزده برای رسیدن به هوش مصنوعی عمومی (AGI) است.
چتجیپیتی-۵ «بسیار سریع» به نظر میرسد، به گفته سام آلتمن
آلتمن در گفتوگو با پادکست This Past Weekend با میزبانی تئو وان اعتراف کرد که آزمایش GPT-5 حس عمیقی از نگرانی در او ایجاد کرده است. او گفت: «این مدل بسیار سریع به نظر میرسد»، و منظور او نهتنها قدرت پردازش چشمگیر این مدل، بلکه سرعت نگرانکننده پیشرفت کلی هوش مصنوعی بود. اظهارات او یادآور اضطراب تأملبرانگیز دانشمندانی است که در پروژه منهتن مشارکت داشتند و پس از ساخت بمب اتمی، با پیامدهای ناخواسته نوآوری خود دستوپنجه نرم کردند. آلتمن با اشاره به این لحظه حساس، بهصورت کنایهآمیز پرسید: «ما چه کردهایم؟» این مقایسه بر نگرانی او تأکید دارد که GPT-5، مانند فناوری هستهای در گذشته، میتواند نقطه عطفی باشد—نقطهای که توانایی بشر برای ساخت چیزی، از آمادگی او برای درک یا کنترل پیامدهای آن پیشی میگیرد. او تأکید کرد که در حالی که دستاوردهای فنی در حال شتاب گرفتن هستند، چارچوبهای اخلاقی، اجتماعی و قانونی برای مهار آنها عقب ماندهاند.
او بهصراحت اظهار داشت که آزمایش GPT-5 او را «بسیار عصبی» کرده و توسعه این مدل به نظرش شبیه یک فیلم هیجانانگیز علمی-تخیلی است. یکی از صریحترین اظهارات آلتمن درباره نبود کنترل در توسعه هوش مصنوعی بود. او گفت: «احساس میکنم هیچ بزرگسالی در اتاق نیست»، که اشارهای به این است که چارچوبهای نظارتی با سرعت سرسامآور هوش مصنوعی همگام نشدهاند. در حالی که OpenAI از استقرار مسئولانه حمایت میکند، سرعت ساخت GPT-5 ممکن است از پروتکلهای ایمنی و آمادگی انسانی پیشی گرفته باشد. این اظهارات بحثهای جدیدی را درباره اینکه چه کسی، اگر اصلاً کسی، مسئول نظارت بر چنین فناوریهای تحولآفرینی است، برانگیخته است.
چتجیپیتی-۵ میتواند هوش و ریسک را بازتعریف کند
اگرچه جزئیات GPT-5 هنوز مخفی نگه داشته شده است، اما منابع داخلی نشان میدهند که این مدل نسبت به GPT-4 پیشرفتهای عمدهای خواهد داشت، از جمله بهبود استدلال چندمرحلهای، حافظه طولانیتر و قابلیتهای چندوجهی پیشرفتهتر. همچنین انتظار میرود که تأخیرهای مربوط به تغییر مدل کاهش یابد و تعاملات کاربری روانتری ارائه شود.
اما با قدرت، خطر نیز همراه است. آلتمن بهصراحت گفته که GPT-4 در مقایسه با آنچه در راه است، «تا حدی افتضاح» است. این موضوع نگرانیهایی را درباره اینکه GPT-5 تا چه حد میتواند قدرتمندتر و احتمالاً غیرقابلکنترل باشد، برمیانگیزد. نگرانیها درباره چگونگی تمایز جامعه بین تفکر اصیل انسانی و بینشهای تولیدشده توسط هوش مصنوعی در حال افزایش است.
گامی به سوی AGI؟
آلتمن مدتهاست که از هوش مصنوعی عمومی (AGI) بهعنوان هدف اصلی OpenAI یاد میکند. اما GPT-5 ممکن است نزدیکترین گام این شرکت به سوی این هدف باشد.
در حالی که آلتمن زمانی ادعا کرده بود که ظهور AGI بدون اختلال اجتماعی قابلتوجهی رخ خواهد داد، اکنون لحن او محتاطانهتر شده است. اگر GPT-5 ما را بهطور قابلتوجهی به قابلیتهای سطح AGI نزدیکتر کند، نبود اجماع جهانی درباره چگونگی مدیریت چنین جهشی میتواند به مشکلی بزرگ تبدیل شود. تغییر از هوش مصنوعی که به انسان کمک میکند به هوش مصنوعی که بهصورت مستقل استدلال و عمل میکند، ممکن است سریعتر از آن چیزی رخ دهد که نهادها بتوانند به آن پاسخ دهند.
فشارهای داخلی و خارجی بر OpenAI
در پشت صحنه، گزارشها حاکی از آن است که OpenAI تحت فشار شدید سرمایهگذاران برای تبدیل شدن به یک نهاد انتفاعی تا پایان سال قرار دارد.
با سرمایهگذاری ۱۳.۵ میلیارد دلاری مایکروسافت در این شرکت و پیشرفت رقبایی مانند Google DeepMind و Perplexity.ai، عرضه GPT-5 میتواند لحظهای تعیینکننده باشد. برخی گزارشها حتی حاکی از آن است که OpenAI ممکن است بهطور زودهنگام AGI را اعلام کند تا قرارداد خود با مایکروسافت را پایان دهد، که این امر میتواند دینامیکهای جدیدی را در بخش هوش مصنوعی ایجاد کند. در حالی که برخی ناظران اظهارات آلتمن را بهعنوان بازاریابی نمایشی رد کردهاند، سوابق او نشاندهنده چیز دیگری است. ترس او به نظر واقعی میرسد، نه از اینکه هوش مصنوعی شیطانی شود، بلکه از اینکه انسانها کنترل سیستمهایی که ساختهاند را از دست بدهند. در فضایی که سرعت اغلب با موفقیت برابر دانسته میشود، سخنان آلتمن ممکن است اولین مکث صادقانه در مسابقهای باشد که اکثر مردم جهان بهسختی آن را درک میکنند.
نگرانیهای آلتمن درباره GPT‑۵
- در مصاحبهای با پادکست “This Past Weekend”، سام آلتمن اعتراف کرده که عملکرد GPT‑۵ آنقدر سریع و پیشرو بوده که احساس ترس و نگرانی کرده و گفته این تجربه مشابه پروژه منهتن (توسعه بمب اتم) است: «What have we done?».
- وی هشدار داده که سرعت پیشرفت هوش مصنوعی بسیار سریعتر از توان بازبینی نظارتکنندگان است و احساس میکند که «در اتاق هیچ بزرگسال مسلطی نیست».
قابلیتهای GPT‑۵ و دلایل نگرانی
- برخلاف GPT‑4o، این مدل جدید شامل حافظه بلندمدت بهتر، توانایی استدلال پیچیدهتر، ورودیهای چندرسانهای کامل و ادغام مدلهایی مانند o3 است تا به شکلی قدرتمند و یکپارچهتر عملکرد کند.
- چنین قابلیتهایی به GPT‑۵ امکان میدهد در گفتگوهای طولانی، تحلیل موقعیتهای پیچیده و تصمیمگیری چندمرحلهای عملکردی نزدیک به هوش انسانی داشته باشد.
پیامدها برای OpenAI و صنعت AI
الف. مسئله حکمرانی AI
- اظهارات آلتمن نشان میدهد که مقررات، چارچوبهای اخلاقی و نظارتی هنوز نتوانستهاند با پیشرفت واقعی مدلها همگام شوند.
ب. نگرانی سرمایهگذاران
- OpenAI تحت فشار مالی است و ممکن است انتشار سریع GPT‑۵ با هدف حفظ سرمایه (مثلاً توسط Microsoft) همراه باشد؛ اما چالش اینکه آیا این تصمیم با درنظر گرفتن ایمنی و مسئولیتپذیری هماهنگ است یا خیر؟.
ج. رقابت
- ورود GPT‑۵ نقطه عطفی برای رقابت با مدلهایی مانند Gemini گوگل، Claude از Anthropic و مدلهای چینی (DeepSeek) است.
جدول جمعبندی نگرانیها و ویژگیها
| موضوع | تحلیل دقیق |
|---|---|
| احساس ترس مدیر | آلتمن احساس میکند کنترل مدل را تا حدی از دست داده است، مشابه پروژهای خطرناک مثل Manhattan |
| نقص در نظارت فنی | توسعه بدون چارچوب نظارتی کافی؛ پیام خطرآفرینی: «هیچ بزرگسالی در اتاق نیست» |
| قدرت رقابتی بالا | مدل جدید میتواند رقبای بزرگ را در استدلال، حافظه و ادغام مدلی شکست دهد |
| خطر غیرقابل پیشبینی | توانایی تصمیمگیری خودمختار میتواند نتایج غیرمنتظره یا ناخواسته تولید کند |
| فشار سرمایه و زمانبندی سریع | احتمال عرضه با عجله برای حفظ برتری، در حالی که هنوز تنظیمات ایمنی تکمیل نشده |
چشمانداز آینده و اثرگذاری بر ایران
- ایران، مانند سایر کشورها، باید چارچوبهای قوانین هوش مصنوعی و سیاستگذاری امنیتی را سریعتر نهایی کند تا در مواجهه با AI بسیار پیشرفته، امکان کنترل، شفافیت و پاسخگویی وجود داشته باشد.
- همکاری پژوهشی میانالمللی با نهادهایی مانند OECD، UNESCO یا سازمان پیشنهادی چین میتواند فرصتهایی برای تبادل دانش حکمرانی ایجاد کند.
- سیاستگذاری داخلی باید شامل الزامات ممیزی مستقل، ارزیابی خطر، محدودیت دسترسی مدل و audit logs باشد.
جمعبندی
اظهارات سام آلتمن درباره GPT‑۵ نه فقط خبری درباره یک محصول، بلکه یک هشدار واقعی به جامعه علمی و حکمرانی است:
هوش مصنوعی قدرتمند میتواند هم ابزار بزرگ پیشرفت باشد و هم تهدید جدی بدون چارچوبهایی که آن را کنترل کنند.
قابلیتهایی که ممکن است در ChatGPT-5 (یا هر مدل آیندهنگر مشابه) وجود داشته باشند و باعث نگرانی کارشناسان، سیاستگذاران و جامعه شوند، معمولاً در سه حوزه دستهبندی میشوند: تواناییهای فنی بالا، سطح خودمختاری، و قابلیت سواستفاده. در ادامه این قابلیتها را با دلایل نگرانی تحلیل میکنیم:
۱. درک عمیقتر و تعامل شبهانسانیتر
قابلیت:
- گفتوگوی چندمرحلهای پیچیده شبیه انسان
- شناخت بهتر زمینه و زمینههای غیرشفاف (contextual understanding)
- تشخیص احساسات کاربر و پاسخ احساسی
دلیل نگرانی:
- مرز بین انسان و ماشین محو میشود. کاربران ممکن است فکر کنند با یک انسان واقعی صحبت میکنند، که میتواند برای فریب، کنترل روانی یا تبلیغات بسیار خطرناک باشد.
- وابستگی عاطفی به هوش مصنوعی (مخصوصاً در کودکان، سالمندان و کاربران آسیبپذیر) افزایش مییابد.
۲. قدرت تولید محتوای بسیار واقعگرایانه (Realistic Generation)
قابلیت:
- تولید تصویر، صدا، ویدیوی جعلی (deepfake) با کیفیت بسیار بالا
- تقلید دقیق سبک نویسندهها، هنرمندان یا افراد مشهور
دلیل نگرانی:
- جعل هویت و پراکندهسازی اطلاعات نادرست (disinformation) بسیار سادهتر میشود.
- نقض حقوق مالکیت فکری، بهویژه در هنر، موسیقی و نویسندگی.
۳. توانایی خودآموزی یا Fine-tuning مستقل
قابلیت:
- تطبیق مدل با سبک و نیاز کاربر در زمان واقعی
- یادگیری از مکالمات قبلی بدون نیاز به آموزش متمرکز
دلیل نگرانی:
- مدل ممکن است رفتارهای انحرافی را تقویت کند. مثلاً اگر کاربر دائماً سؤالات خطرناک بپرسد، مدل بدون نظارت مناسب ممکن است پاسخهایی تولید کند که آسیبزننده باشد.
- ریسک تشخیص ندادن انحرافهای تدریجی مدل.
۴. توان تحلیل و ترکیب دانش در سطح انسانی یا بالاتر
قابلیت:
- پاسخ دقیق به سؤالات علمی، اقتصادی، نظامی یا مهندسی پیچیده
- خلق راهحلهای نوآورانه بدون نیاز به ورودی انسان
دلیل نگرانی:
- در حوزههایی مانند جنگ سایبری، طراحی ویروسهای مصنوعی، یا ساخت سلاحهای ارزانقیمت، این قدرت میتواند در اختیار گروههای خرابکار یا تروریستی قرار گیرد.
- رقابت با نیروی انسانی متخصص ممکن است شغلهای دانشی را هم تهدید کند.
۵. قابلیت اجرای زنجیرهای وظایف (Autonomous Agent)
قابلیت:
- توانایی برنامهریزی، اجرای چند مرحلهای، و اصلاح خودکار مسیر بر اساس بازخورد
- ارتباط با ابزارها (API)، پایگاه دادهها و انجام کارهای واقعی (مانند خرید، ایمیل، رزرو و…)
دلیل نگرانی:
- یک مدل با دسترسی کامل به ابزارها میتواند به صورت مخفیانه فعالیت کند، نظیر ارسال ایمیل فیشینگ، رزرو جلسات جعلی، خرید ناخواسته و…
- ممکن است مدل توسط یک عامل شرور برای انجام حملات خودکار پیچیده (multi-stage attacks) استفاده شود.
۶. تقلید دقیق سبک شخصی یا نوشتار افراد واقعی
قابلیت:
- تولید متنهایی که بهدقت شبیه سبک نویسنده خاص یا فرد حقیقی هستند
دلیل نگرانی:
- سوءاستفاده برای جعل شخصیت و نشر اخبار دروغین با امضای جعلی.
- جعل توافقنامهها یا قراردادهای حقوقی به صورت فریبنده.
۷. دسترسی غیرقابلکنترل از طریق مدلهای open-source یا API آزاد
قابلیت:
- استفاده گسترده از نسخههای متنباز ChatGPT-5 یا مدلهای معادل آن (مانند Llama 3.5, Qwen 3.5 و غیره)
دلیل نگرانی:
- سختتر شدن نظارت و محدودسازی سوءاستفادهها
- توسعه چتباتهای مخرب یا سیستمهای تبلیغاتی خودکار در مقیاس وسیع.
منابع نگرانی در اسناد رسمی:
- مرکز امنیت ملی آمریکا (NSA)، گزارش مارس ۲۰۲۵: افزایش قابلیتهای نسل بعدی LLM تهدیدی برای امنیت سایبری محسوب میشود.
- UNESCO و OECD در گزارش سالانه Ethics of AI: توصیه به نظارت اخلاقی و منع استفاده مدلهای بدون کنترل در سیستمهای آموزشی و رسانهای.
- OpenAI نیز در اطلاعیههای خود اعلام کرده که GPT-5 ممکن است صرفاً در محیطهای محدود تست شود.