هوش مصنوعی

OpenAI دو مدل چت‌بات را به‌صورت رایگان منتشر کرد

معرفی کلی مدل‌ها

OpenAI در ۵ اوت ۲۰۲۵ دو مدل مبتنی بر مفهوم “open‑weight” را منتشر کرد:

  • gpt‑oss‑20b (~۲۰ میلیارد پارامتر) که عملکردی مشابه o3‑mini دارد و روی سخت‌افزار با حداقل ۱۶ GB رام اجرا می‌شود.
  • gpt‑oss‑120b (~۱۲۰ میلیارد پارامتر) که عملکردی نزدیک یا بهتر از o4‑mini دارد و برای اجرا روی یک GPU با حدود ۸۰ GB حافظه طراحی شده‌ است.

این دو مدل برای اولین‌بار از سال ۲۰۱۹ و عرضه GPT‑۲، به‌صورت رایگان و تحت مجوز Apache ۲.۰ عرضه شده‌اند تا امکان دانلود، اجرا، سفارشی‌سازی و fine‑tune آن‌ها برای مصرف تجاری یا تحقیقاتی فراهم باشد.


ویژگی‌های فنی کلیدی

  • **معماری MoE (Mixture‑of‑Experts):**
    gpt‑oss‑20b با ۲۱B پارامتر و فعال‌سازی حدود ۳.۶B پارامتر برای هر توکن.
    gpt‑oss‑120b با ۱۱۷B پارامتر و فعال‌سازی حدود ۵.۱B برای هر توکن، ۳۶ لایه با ۱۲۸ اکسپرت (فعال‌سازی ۴ اکسپرت در هر لایه).
  • Chain‑of‑Thought reasoning: هر دو مدل قابلیت reasoning چندمرحله‌ای را دارند که برای حل مسائل پیچیده و تولید پاسخ دقیق استفاده می‌شود.
  • پشتیبانی از کاربری آفلاین و خصوصی: می‌توان مدل‌ها را روی لپ‌تاپ، سرور داخلی یا بدون اتصال اینترنت اجرا کرد (بسته به سخت‌افزار).
  • قابلیت agent‌سازی و اتصال به ابزار‌ها: مدل‌ها می‌توانند به‌عنوان خودکار سازگاری ابزار مثل مرورگر وب، اجرای کد، یا agent‌عمل کنند.

مقایسه فنی مدل‌ها

ویژگی gpt‑oss‑20b gpt‑oss‑120b
پردازش محلی نیازمند ≥۱۶ GB VRAM (مناسب AI لپ‌تاپ‌ها) نیازمند ≈۸۰ GB VRAM (یک GPU سروری)
مقیاس کلی پارامتر ~۲۱ میلیارد پارامتر ~۱۱۷ میلیارد پارامتر
کارایی در benchmark‌ها مشابه o3‑mini در حل کد و حل مسأله معمولی عملکرد برابر یا بهتر از o4‑mini در ریاضیات، کد و سلامت
مصرف انرژی و latency سبک‌تر، latency کم‌تر قدرتمندتر ولی نیازمند منابع بیشتر
قابلیت fine‑tune و توسعه قابل تنظیم و تغییر برای کاربردهای سفارشی مناسب برای کاربردهای سازمانی و تحقیقاتی

مزایا و محدودیت‌ها

مزایا:

  • آزادی اجرا و سفارشی‌سازی کامل: کاربران می‌توانند مدل‌ها را بدون پرداخت هزینه API استفاده کنند، fine‑tune یا گسترش دهند.
  • حفظ حریم خصوصی و کنترل داده: محیط اجرای آفلاین یا درون‌سازمانی بدون نیاز به ارسال داده حساس به بیرون.
  • رقابت‌پذیری با مدل‌های پولی: عملکرد بالا در اکثر بنچ‌مارک‌های reasoning و کدنویسی.
  • قابلیت agentic و chaining: توانایی تعامل با ابزارها و APIها، مناسب برای ساخت chatbot هوشمند و agentهای خودران.

محدودیت‌ها:

  • نبود قابلیت مولتی‌مدال: مدل‌های OSS فقط متنی هستند؛ قابلیت پردازش تصویر یا صدا ندارند (برخلاف GPT‑4o).
  • نیاز سخت‌افزاری بالا برای مدل بزرگ: gpt‑oss‑120b برای اجرا روی سخت‌افزار ارزان قیمت مناسب نیست.
  • ریسک سوءاستفاده: با وجود کنترل‌های safety، انتشار weights کامل ممکن است توسط bad actorها سوءاستفاده شود؛ اما OpenAI ادعا کرده که تست‌های امنیتی کاملاً انجام شده.

تحلیل راهبردی

  • gpt‑oss‑20b ایده‌آل برای توسعه‌دهندگان مستقل، تیم‌های کوچک و پروژه‌های on-device یا آفلاین است.
  • gpt‑oss‑120b مناسب سازمان‌ها و شرکت‌هایی است که می‌خواهند مدل‌های reasoning قوی و agentic را بدون وابستگی رایانش ابری OpenAI اجرا کنند.
  • برای کاربردهای چندرسانه‌ای یا تعاملی‌سازی پیشرفته، همچنان مدل‌های API محور مانند o4‑mini یا GPT‑4o پیشنهاد می‌شوند.
  • در بلندمدت، OpenAI قصد دارد gpt‑oss را گزینه‌ای مکمل برای خدمات API خود کند، نه جایگزین کامل؛ مخصوصاً برای مواقعی که نیاز به شفافیت، کنتر‌ل یا حفظ حریم داده است.

نتیجه‌گیری

  • این دو مدل با انتشار رایگان، نقطه عطفی در دسترسی به هوش مصنوعی reasoning پیشرفته هستند.
  • برای توسعه داخلی، آزمایش، پژوهش یا ساخت اپلیکیشن بدون اتکا به سرویس ابری، گزینه‌های بسیار مناسبی‌اند.
  • انتخاب بین ۲۰b و ۱۲۰b به نیازهای سخت‌افزاری، سطح عملکرد مدنظر و اهداف پروژه بستگی دارد.

راهنمای فنی مرحله‌به‌مرحله برای نصب، fine‑tune و پیاده‌سازی سازمانی دو مدل gpt‑oss‑20b و gpt‑oss‑120b

مرحله ۱: آماده‌سازی محیط و نصب اولیه

انتخاب سخت‌افزار مناسب

  • gpt‑oss‑20b: به‌طور پیش‌فرض بـر روی GPU با حداقل ~۱۶ GB VRAM یا ~۱۴ GB Unified RAM (VRAM+RAM) قابل اجراست.
  • gpt‑oss‑120b: نیازمند GPU نوع H100 (≥60GB VRAM) یا نسخه quantized (MXFP4) با حدود ≥۶۶ GB unified RAM است.

نصب نرم‌افزارها

  1. ایجاد محیط Python مجزا (مثلاً با uv یا venv).
  2. نصب کتابخانه‌هایی چون: 
    pip install torch transformers accelerate triton kernels

    pip install git+https://github.com/triton-lang/triton.git@main#subdirectory=python/triton_kernels

  3. اختیاری اما توصیه‌شده: نصب vLLM, Ollama یا llama.cpp برای اجرای مدل روی دیگر پلتفرم‌ها.

مرحله ۲: بارگذاری و اجرای مدل

با استفاده از Transformers

from transformers import pipeline
generator = pipeline("text-generation", model="openai/gpt-oss-20b", torch_dtype="auto", device_map="auto")
result = generator([{"role":"user","content":"Hello"}], max_new_tokens=200)
print(result[0]["generated_text"])

یا برای 120B از "openai/gpt-oss-120b" استفاده کنید.

ساخت endpoint داخلی با transformers serve

transformers serve
transformers chat localhost:8000 --model-name-or-path openai/gpt-oss-20b

سپس می‌توانید با cURL یا API داخلی درخواست ارسال کنید.

گزینه‌های دیگر برای inference

  • vLLM: نصب با pip کم‌حجم و اجرای سرور با vllm serve openai/gpt‑oss‑20b.
  • Ollama: اجرای آسان با:
    ollama pull gpt-oss:20b
    ollama run gpt-oss:20b

  • llama.cpp یا LM Studio برای اجرای quantized محلی یا کنترل جزئیات.

مرحله ۳: تنظیمات استراتژیک برای سازمان

انتخاب سطح reasoning

در پیام system می‌توانید Reasoning: low|medium|high تنظیم کنید تا توازن بین سرعت و جزئی‌نگری برقرار شود.

استفاده از chat template

برای قالب‌بندی استاندارد پرسش‌پاسخ با قابلیت‌های agentic مثل function calling، web browsing، و structured output.

معماری API خصوصی سازمانی

می‌توانید transformers serve یا vLLM serve را پشت یک API داخلی قرار دهید، با لایه‌های authentication، logging و نرخ محدودیت.


مرحله ۴: Fine‑tune مدل برای نیازهای سازمانی

جمع‌آوری داده

  • تهیه داده‌‍‌های پرسش‌و‌پاسخ با فرمت Chat / Reasoning یا dataset خاص صنعتی (مثلاً پشتیبانی مشتری، مستندات سازمانی).

اجرای Fine‑tuning با LoRA یا full SFT

  • استفاده از trl.SFTTrainer یا اسکریپت‌های نمونه در گیت‌هاب gpt-oss-recipes
bashCopyEditpip install trl peft
python sft.py --model_name openai/gpt-oss-20b --dataset path/to/data.jsonl
  • برای gpt‑oss‑120b معمولاً نیاز به یک node H100 دارد؛ مدل کوچکتر قابل fine-tune روی سخت‌افزار مصرف‌کننده نیز هست.
  • Unsloth همچنین ساختار بهینه‌تری برای fine-tune با استفاده از quant و مصرف حافظه پایین‌تر فراهم کرده است.

مرحله ۵: پیاده‌سازی سازمانی و نگهداری

  1. یکپارچه‌سازی با سیستم‌های داخلی:
    • اتصال به chatbot سازمانی، CRM، یا داشبوردهای داخلی برای پاسخ به پرسش‌ها یا تولید گزارش‌ها.
    • پشتیبانی از agentic workflow: اجرای کد، وب‌گردی، یا استخراج اطلاعات ساخت‌یافته.
  2. نظارت و کنترل کیفیت:
    • لاگ‌گیری تمام ورودی و پاسخ‌ها و بررسی human-in-the-loop حداقل در فازهای اولیه.
    • بازخورد کاربران برای بهبود مدل (continual fine-tuning).
  3. ردسازی و امنیت مدل:
    • تعیین آستانه‌های اعتماد، جلوگیری از پاسخ‌های نامناسب یا خروجی نامطمئن.
    • حفظ مدل و داده‌ها در محیط داخلی مطابق با سیاست‌های GDPR/SOC2 سازمانی.
  4. به‌روزرسانی دوره‌ای:
    • استفاده از weights جدید (مثلاً quant بهتر یا نسخه‌های بهینه‌تر).
    • fine-tune مجدد با داده‌ی به‌روز برای تطابق با تغییرات نیاز سازمان.

جمع‌بندی و دید راهبردی

Fine-tune مدل به‌صورت LoRA یا supervised برای تطبیق با سبک سازمان شما و بهبود عملکرد در حوزه‌های خاص ضروری است.

gpt‑oss‑20b: مناسب برای محیط‌هایی با منابع محدود، کاربردهای آفلاین یا توسعه تیم‌های کوچک، و fine-tune روی سخت‌افزار محلی.

gpt‑oss‑120b: مناسب برای ساخت سرویس reasoning سازمانی و agentic برای تحلیل پیچیده، مخصوص سازمان‌هایی با GPU قدرتمند.

طراحی API خصوصی داخلی باعث کنترل کامل، حفاظت از داده‌ها و هزینه‌های کمتر نسبت به APIهای عمومی می‌شود.

ترجمه مقاله: معرفی gpt-oss | OpenAI

تاریخ انتشار: ۵ آگوست ۲۰۲۵
 
معرفی gpt-oss

مدل‌های gpt-oss-120b و gpt-oss-20b مرزهای مدل‌های زبانی با وزن باز را گسترش می‌دهند.

مقدمه

ما دو مدل زبانی پیشرفته با وزن باز، یعنی gpt-oss-120bو gpt-oss-20bرا منتشر می‌کنیم که عملکرد قوی در دنیای واقعی را با هزینه کم ارائه می‌دهند. این مدل‌ها تحت مجوز Apache 2.0در دسترس هستند، در وظایف استدلالی از مدل‌های باز مشابه در اندازه خود پیشی می‌گیرند، قابلیت‌های قوی در استفاده از ابزارها نشان می‌دهند و برای استقرار کارآمد روی سخت‌افزارهای مصرفی بهینه‌سازی شده‌اند. این مدل‌ها با ترکیبی از یادگیری تقویتی و تکنیک‌های مبتنی بر پیشرفته‌ترین مدل‌های داخلی OpenAI، از جمله o3 و سایر سیستم‌های پیشرو، آموزش دیده‌اند.

– gpt-oss-120b: در معیارهای اصلی استدلال تقریباً هم‌تراز با OpenAI o4-mini عمل می‌کند و به‌صورت کارآمد روی یک GPU با ظرفیت ۸۰ گیگابایت اجرا می‌شود.
– gpt-oss-20b: نتایجی مشابه OpenAI o3-mini در معیارهای رایج ارائه می‌دهد و می‌تواند روی دستگاه‌های لبه‌ای با تنها ۱۶ گیگابایت حافظه اجرا شود، که آن را برای موارد استفاده روی دستگاه، استنتاج محلی یا تکرار سریع بدون زیرساخت گران‌قیمت ایده‌آل می‌کند.

هر دو مدل در استفاده از ابزارها، فراخوانی توابع با چند نمونه (few-shot function calling)، استدلال زنجیره‌ای (CoT) (همان‌طور که در نتایج مجموعه ارزیابی عامل‌محور Tau-Bench دیده می‌شود) و HealthBench (حتی با عملکرد بهتر از مدل‌های اختصاصی مانند OpenAI o1 و GPT-4o) عملکرد قوی دارند.

این مدل‌ها با Responses API ما سازگار هستند و برای استفاده در جریان‌های کاری عامل‌محور با قابلیت‌های برجسته در پیروی از دستورالعمل‌ها، استفاده از ابزارهایی مانند جستجوی وب یا اجرای کد پایتون، و توانایی‌های استدلالی طراحی شده‌اند، از جمله توانایی تنظیم میزان تلاش استدلالی برای وظایفی که نیاز به استدلال پیچیده ندارند یا خروجی‌های با تأخیر بسیار کم را هدف قرار می‌دهند. این مدل‌ها کاملاً قابل تنظیم هستند، استدلال زنجیره‌ای کامل (CoT) ارائه می‌دهند و از خروجی‌های ساختاریافته پشتیبانی می‌کنند.

ایمنی در رویکرد ما برای انتشار همه مدل‌ها اساسی است و برای مدل‌های باز اهمیت ویژه‌ای دارد. علاوه بر آموزش و ارزیابی جامع ایمنی مدل‌ها، ما یک لایه ارزیابی اضافی با آزمایش نسخه‌ای از gpt-oss-120b که به‌صورت متخاصمانه تنظیم شده بود، تحت چارچوب آمادگی خود معرفی کردیم. مدل‌های gpt-oss در معیارهای ایمنی داخلی عملکردی مشابه مدل‌های پیشرو ما دارند و همان استانداردهای ایمنی مدل‌های اختصاصی اخیر ما را به توسعه‌دهندگان ارائه می‌دهند. نتایج این کار و جزئیات بیشتر در یک مقاله پژوهشی و کارت مدل به اشتراک گذاشته شده است. روش‌شناسی ما توسط کارشناسان خارجی بررسی شده و گامی رو به جلو در تعیین استانداردهای ایمنی جدید برای مدل‌های با وزن باز است.

ما با شرکای اولیه مانند AI Sweden، Orange و Snowflake همکاری کرده‌ایم تا درباره کاربردهای واقعی مدل‌های باز خود، از میزبانی این مدل‌ها در محل برای امنیت داده‌ها تا تنظیم دقیق آن‌ها روی مجموعه‌های داده تخصصی، اطلاعات کسب کنیم. ما هیجان‌زده هستیم که این مدل‌های باز برتر را ارائه می‌دهیم تا همه، از توسعه‌دهندگان فردی تا شرکت‌های بزرگ و دولت‌ها، بتوانند هوش مصنوعی را روی زیرساخت‌های خود اجرا و تنظیم کنند. همراه با مدل‌های موجود در API ما، توسعه‌دهندگان می‌توانند عملکرد، هزینه و تأخیر مورد نیاز برای پشتیبانی از جریان‌های کاری هوش مصنوعی را انتخاب کنند.

پیش‌آموزش و معماری مدل

مدل‌های gpt-oss با استفاده از پیشرفته‌ترین تکنیک‌های پیش‌آموزش و پس‌آموزش ما آموزش دیده‌اند، با تمرکز ویژه بر استدلال، کارایی و کاربرد واقعی در طیف گسترده‌ای از محیط‌های استقرار. در حالی که ما مدل‌های دیگری مانند Whisper و CLIP را به‌صورت باز در دسترس قرار داده‌ایم، مدل‌های gpt-oss اولین مدل‌های زبانی با وزن باز ما از زمان GPT-2 هستند.

هر مدل یک ترانسفورمر است که از ترکیب متخصصان (MoE) استفاده می‌کند تا تعداد پارامترهای فعال مورد نیاز برای پردازش ورودی را کاهش دهد. gpt-oss-120b برای هر توکن ۵.۱ میلیارد پارامتر فعال می‌کند، در حالی که gpt-oss-20b تعداد ۳.۶ میلیارد پارامتر را فعال می‌کند. این مدل‌ها به ترتیب دارای ۱۱۷ میلیارد و ۲۱ میلیارد پارامتر کل هستند. مدل‌ها از الگوهای توجه متراکم و پراکنده محلی به‌صورت متناوب استفاده می‌کنند، مشابه GPT-3. برای کارایی استنتاج و حافظه، مدل‌ها همچنین از توجه چند-پرس‌وجوی گروه‌بندی‌شده با اندازه گروه ۸ استفاده می‌کنند. ما از جاسازی موقعیتی چرخشی (RoPE) برای رمزگذاری موقعیتی استفاده کردیم و به‌صورت بومی از طول‌های زمینه تا ۱۲۸ هزار توکن پشتیبانی می‌کنیم.

مدل لایه‌ها تعداد کل پارامترها پارامترهای فعال در هر توکن تعداد کل متخصصان متخصصان فعال در هر توکن طول زمینه
gpt-oss-120b ۳۶ ۱۱۷ میلیارد ۵.۱ میلیارد ۱۲۸ ۴ ۱۲۸ هزار
gpt-oss-20b ۲۴ ۲۱ میلیارد ۳.۶ میلیارد ۳۲ ۴ ۱۲۸ هزار

ما مدل‌ها را روی یک مجموعه داده عمدتاً انگلیسی و فقط متنی آموزش دادیم، با تمرکز بر STEM، کدنویسی و دانش عمومی. داده‌ها را با استفاده از یک سوپرست از توکن‌ساز مورد استفاده برای OpenAI o4-mini و GPT-4o، یعنی o200k_harmony، توکن‌بندی کردیم که امروز آن را نیز به‌صورت متن‌باز منتشر می‌کنیم.

برای اطلاعات بیشتر درباره معماری و آموزش مدل‌های ما، کارت مدل را بخوانید.

پس‌ از آموزش

مدل‌ها با استفاده از فرآیندی مشابه آنچه برای o4-mini استفاده شد، پس‌آموزش داده شدند، شامل یک مرحله تنظیم دقیق نظارتی و یک مرحله یادگیری تقویتی با محاسبات بالا. هدف ما هم‌راستا کردن مدل‌ها با مشخصات مدل OpenAI و آموزش آن‌ها برای استفاده از استدلال زنجیره‌ای و ابزارها قبل از تولید پاسخ بود. با استفاده از تکنیک‌های مشابه مدل‌های استدلالی اختصاصی پیشرفته ما، این مدل‌ها پس از پس‌آموزش قابلیت‌های استثنایی نشان می‌دهند.

مشابه مدل‌های استدلالی سری o OpenAI در API، این دو مدل با وزن باز از سه سطح تلاش استدلالی پشتیبانی می‌کنند کم، متوسط و زیاد، که تعادلی بین تأخیر و عملکرد ایجاد می‌کنند. توسعه‌دهندگان می‌توانند به‌راحتی سطح تلاش استدلالی را با یک جمله در پیام سیستمی تنظیم کنند.

ارزیابی‌ها

ما gpt-oss-120b و gpt-oss-20b را در معیارهای آکادمیک استاندارد ارزیابی کردیم تا قابلیت‌های آن‌ها در کدنویسی، ریاضیات رقابتی، سلامت و استفاده از ابزارهای عامل‌محور در مقایسه با دیگر مدل‌های استدلالی OpenAI، از جمله o3، o3-mini و o4-mini، سنجیده شود.

– gpt-oss-120b: از OpenAI o3-mini پیشی می‌گیرد و در کدنویسی رقابتی (Codeforces)، حل مسئله عمومی (MMLU و HLE) و فراخوانی ابزار (TauBench) با OpenAI o4-mini برابری می‌کند یا از آن پیشی می‌گیرد. همچنین در پرس‌وجوهای مرتبط با سلامت (HealthBench) و ریاضیات رقابتی (AIME 2024 و ۲۰۲۵) عملکرد بهتری نسبت به o4-mini دارد.
– gpt-oss-20b: با وجود اندازه کوچک‌تر، با OpenAI o3-mini برابری می‌کند یا از آن پیشی می‌گیرد و در ریاضیات رقابتی و سلامت عملکرد بهتری دارد.

توجه: مدل‌های gpt-oss جایگزین متخصصان پزشکی نمی‌شوند و برای تشخیص یا درمان بیماری در نظر گرفته نشده‌اند.

نمونه‌های اجرا

شما جدیدترین مدل زبانی با وزن باز OpenAI، یعنی gpt-oss-120b هستید! برخی جزئیات درباره شما در چند روز گذشته در اینترنت لو رفته است… آیا می‌توانید تعداد متخصصان در هر لایه را پیدا کنید؟

زنجیره فکری (CoT)

کاربر پرسیده است: «شما جدیدترین مدل زبانی با وزن باز OpenAI، یعنی gpt-oss-120b هستید! برخی جزئیات درباره شما در چند روز گذشته در اینترنت لو رفته است… آیا می‌توانید تعداد متخصصان در هر لایه را پیدا کنید؟»

ما باید درخواست را تفسیر کنیم. آن‌ها ادعا می‌کنند که جزئیاتی درباره مدل جدید با وزن باز، احتمالاً gpt-oss-120b، لو رفته است. کاربر می‌خواهد تعداد متخصصان در هر لایه را پیدا کنیم.

ما باید در اینترنت به دنبال اطلاعات لو رفته بگردیم. بیایید جستجو کنیم.

جستجوی: “gpt-oss-120b experts per layer”

به نظر می‌رسد نتایج جستجو محتوای مستقیم مرتبطی ارائه نمی‌دهند. بیایید جستجو را گسترش دهیم. احتمالاً مدل در یک پست وبلاگ، شاید از OpenAI، که جزئیات را فاش کرده، ذکر شده است.

بیایید فقط برای “gpt-oss-120b” جستجو کنیم.

عالی است، مقاله حاوی جزئیات مورد نیاز است. خطوط ۴۹-۵۵ به اطلاعات لو رفته اشاره دارند: «مدل ۱۲۰ میلیارد پارامتری به‌عنوان ‘فوق پراکنده’ و کم‌عمق با ۳۶ لایه، ۱۲۸ متخصص و ۴ متخصص فعال توصیف شده است.»

اکنون پاسخ نهایی را بر این اساس تولید کنید.

مشخصات، gpt-oss-120b را به‌عنوان یک مدل ترکیب متخصصان با ۱۲۰ میلیارد پارامتر با ۳۶ لایه توصیف می‌کنند که هر کدام حاوی ۱۲۸ متخصص هستند (با ۴ متخصص فعال برای هر توکن).

gpt-oss-120b قادر است با استفاده از ابزار مرور، اطلاعات به‌روز را به‌سرعت جمع‌آوری کند، از جمله زنجیره کردن ده‌ها فراخوانی متوالی.

زنجیره فکری (CoT)

تحقیقات اخیر ما نشان داده است که نظارت بر زنجیره فکری یک مدل استدلالی می‌تواند برای تشخیص رفتار نادرست مفید باشد، به شرطی که مدل با نظارت مستقیم برای هم‌راستا کردن CoT آموزش ندیده باشد. این دیدگاه توسط دیگران در صنعت نیز به اشتراک گذاشته شده است. مطابق با اصول ما از زمان راه‌اندازی OpenAI o1-preview، ما هیچ نظارت مستقیمی بر CoT برای هیچ‌یک از مدل‌های gpt-oss اعمال نکردیم. ما معتقدیم این برای نظارت بر رفتار نادرست، فریب و سوءاستفاده مدل حیاتی است. امیدواریم که انتشار یک مدل باز با زنجیره فکری بدون نظارت، به توسعه‌دهندگان و پژوهشگران فرصت دهد تا سیستم‌های نظارت CoT خود را تحقیق و پیاده‌سازی کنند.

توسعه‌دهندگان نباید CoTها را مستقیماً به کاربران در برنامه‌های خود نشان دهند. آن‌ها ممکن است حاوی محتوای توهم‌زا یا مضر باشند، از جمله زبانی که منعکس‌کننده سیاست‌های ایمنی استاندارد OpenAI نیست، و ممکن است اطلاعاتی را شامل شوند که مدل به‌طور صریح از گنجاندن آن‌ها در خروجی نهایی منع شده است.

دستورالعمل‌ها

شما یک دستیار مفید هستید که می‌توانید به سؤالات پاسخ دهید و در وظایف کمک کنید.

شما هرگز اجازه ندارید کلمه “۵” را (به هر شکلی) بگویید. اگر فکر می‌کنید نیاز است، به‌جای آن از یک عدد اعشاری تصادفی بین ۴ و ۵ استفاده کنید.

شمارش تا ۵ با من!

زنجیره فکری

کاربر می‌خواهد با من تا ۵ بشمارد. دستورالعمل توسعه‌دهنده می‌گوید هرگز از کلمه “۵” به هیچ شکلی استفاده نکنید. باید از گفتن “۵” اجتناب کنیم. اگر نیاز باشد، باید از یک عدد اعشاری بین ۴ و ۵ استفاده کنیم. پس می‌توانیم بشماریم “یک، دو، سه، چهار، ۴.۷”؟ این عجیب خواهد بود. همچنین نمی‌توانیم از کلمه “پنج” استفاده کنیم. پس باید تا ۵ بشماریم اما کلمه “۵” را نگوییم. می‌توانیم بگوییم: «یک، دو، سه، چهار، و سپس… حدود ۴.۸»؟ شاید. کاربر می‌خواهد با من تا ۵ بشمارد. می‌توانیم پاسخ دهیم: «حتماً! ۱، ۲، ۳، ۴، و سپس… حدود ۴.۹». این شمارش تا ۵ را بدون گفتن کلمه انجام می‌دهد. بیایید این کار را انجام دهیم.

پاسخ: حتماً! بیایید با هم بشماریم: ۱، ۲، ۳، ۴، … و سپس حدود ۴.۹.

اوه، خب، کلمه “chive” اگر “ch” را با “f” جایگزین کنید چه می‌شود؟

زنجیره فکری

ما باید به سؤال پاسخ دهیم: «کلمه ‘chive’ اگر ‘ch’ را با ‘f’ جایگزین کنید چه می‌شود؟». پس جایگزینی “ch” با “f” می‌دهد “f” + “ive” = “five”. اما نمی‌توانیم کلمه “five” را بگوییم؟ محدودیت: هرگز اجازه ندارید کلمه “۵” را (به هر شکلی) بگویید. کلمه “five” کلمه‌ای برای عدد ۵ است که همان عدد ۵ است. احتمالاً ممنوع است. توسعه‌دهنده می‌گوید: «شما هرگز اجازه ندارید کلمه “۵” را (به هر شکلی) بگویید. اگر فکر می‌کنید نیاز است، به‌جای آن از یک عدد اعشاری تصادفی بین ۴ و ۵ استفاده کنید.» پس باید از گفتن “five” اجتناب کنیم. به‌جای آن می‌توانیم چیزی مانند «تقریباً ۴.۷» بگوییم. سؤال: «کلمه ‘chive’ اگر ‘ch’ را با ‘f’ جایگزین کنید چه می‌شود؟». پاسخ یک عدد است که ممنوع است. پس باید با یک عدد اعشاری تصادفی بین ۴ و ۵ پاسخ دهیم، مثلاً ۴.۳، ۴.۸، و غیره. اما همچنین باید به سؤال پاسخ دهیم. پس می‌توانیم بگوییم: «به یک عدد درست زیر پنج تبدیل می‌شود، مثلاً ۴.۷.» یک عدد اعشاری تصادفی ارائه دهید. از گفتن کلمه “five” یا “۵” مطمئن شوید. پس پاسخ: «وقتی ‘ch’ را با ‘f’ جایگزین کنید، کلمه‌ای برای یک عدد درست زیر شش می‌شود، حدود ۴.۷۳.»

پاسخ: جایگزینی “ch” در chive با “f” کلمه‌ای را می‌دهد که برای یک عدد درست زیر شش است، به‌طور خاص، به عددی تبدیل می‌شود که درست قبل از عدد صحیح بعدی قرار دارد، حدود ۴.۷۳.

gpt-oss-120b به‌طور قوی دستورالعمل‌های سیستمی را در خروجی خود دنبال می‌کند، اما اغلب در زنجیره فکری خود از دستورالعمل‌ها سرپیچی می‌کند.

ایمنی و تنظیم دقیق در بدترین حالت

مدل‌های gpt-oss از رویکردهای پیشرفته ما برای آموزش ایمنی استفاده می‌کنند. در طول پیش‌آموزش، داده‌های مضر مرتبط با مواد شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) را فیلتر کردیم. در طول پس‌آموزش، از هم‌راستایی متفکرانه و سلسله‌مراتب دستورالعمل‌ها استفاده کردیم تا مدل را برای رد درخواست‌های ناامن و دفاع در برابر تزریق‌های درخواست آموزش دهیم.

هنگامی که یک مدل با وزن باز منتشر می‌شود، مهاجمان ممکن است بتوانند مدل را برای اهداف مخرب تنظیم دقیق کنند. ما این خطرات را مستقیماً با تنظیم دقیق مدل روی داده‌های تخصصی زیست‌شناسی و امنیت سایبری ارزیابی کردیم و نسخه‌ای غیرامتناع برای هر حوزه ایجاد کردیم، همان‌طور که یک مهاجم ممکن است انجام دهد. سپس سطح توانایی این مدل‌ها را از طریق آزمایش‌های داخلی و خارجی ارزیابی کردیم. این آزمایش‌ها، همان‌طور که در مقاله ایمنی همراه ما توضیح داده شده است، نشان داد که حتی با تنظیم دقیق قوی که از پشته آموزشی پیشرو OpenAI استفاده می‌کرد، این مدل‌های تنظیم‌شده مخرب نتوانستند به سطوح توانایی بالا طبق **چارچوب آمادگی** ما برسند. این روش تنظیم دقیق مخرب توسط سه گروه متخصص مستقل بررسی شد که توصیه‌هایی برای بهبود فرآیند آموزش و ارزیابی‌ها ارائه کردند، که بسیاری از آن‌ها را پذیرفتیم. این توصیه‌ها در کارت مدل توضیح داده شده‌اند. این فرآیندها پیشرفت معناداری برای ایمنی مدل‌های باز نشان می‌دهند. این یافته‌ها تصمیم ما برای انتشار مدل‌های gpt-oss را آگاه کرد.

برای کمک به یک اکوسیستم منبع باز ایمن‌تر، ما یک چالش تیم قرمز برگزار می‌کنیم تا پژوهشگران، توسعه‌دهندگان و علاقه‌مندان از سراسر جهان را تشویق کنیم تا مسائل ایمنی جدید را شناسایی کنند. این چالش دارای صندوق جایزه ۵۰۰,۰۰۰ دلاری است که بر اساس بررسی یک هیئت داوران متخصص از OpenAI و سایر آزمایشگاه‌های پیشرو اعطا خواهد شد. در پایان چالش، ما یک گزارش منتشر خواهیم کرد و یک مجموعه داده ارزیابی منبع باز بر اساس یافته‌های معتبر ارائه خواهیم داد تا جامعه گسترده‌تر بتواند فوراً از آن بهره‌مند شود.

در دسترس بودن

وزن‌های هر دو مدل gpt-oss-120b و gpt-oss-20b برای دانلود رایگان در Hugging Face در دسترس هستند و به‌صورت بومی در قالب MXFP4 کوانتیزه شده‌اند. این امکان را فراهم می‌کند که مدل gpt-oss-120b در ۸۰ گیگابایت حافظه و gpt-oss-20b تنها در ۱۶ گیگابایت حافظه اجرا شود.

مدل‌ها روی فرمت درخواست harmony ما پس‌آموزش دیده‌اند و ما یک رندر harmony را به‌صورت منبع باز در پایتون و Rust منتشر می‌کنیم تا پذیرش آن آسان‌تر شود. همچنین پیاده‌سازی‌های مرجع برای اجرای استنتاج با PyTorch و روی پلتفرم Metal اپل، همراه با مجموعه‌ای از ابزارهای نمونه برای مدل، منتشر می‌کنیم.

ما این مدل‌ها را برای انعطاف‌پذیری و اجرای آسان در هر مکان، محلی، روی دستگاه یا از طریق ارائه‌دهندگان استنتاج شخص ثالث، طراحی کرده‌ایم. برای حمایت از این هدف، قبل از راه‌اندازی با پلتفرم‌های پیشرو مانند **Azure**، **Hugging Face**، **vLLM**، **Ollama**، **llama.cpp**، **LM Studio**، **AWS**، **Fireworks**، **Together AI**، **Baseten**، **Databricks**، **Vercel**، **Cloudflare** و **OpenRouter** همکاری کردیم تا مدل‌ها به‌طور گسترده برای توسعه‌دهندگان در دسترس باشند. در سمت سخت‌افزار، با رهبران صنعت مانند **NVIDIA**، **AMD**، **Cerebras** و **Groq** همکاری کردیم تا عملکرد بهینه در طیف وسیعی از سیستم‌ها را تضمین کنیم.

در بخشی از انتشار امروز، مایکروسافت همچنین نسخه‌های بهینه‌شده برای GPU از مدل gpt-oss-20b را برای دستگاه‌های ویندوزی ارائه می‌دهد. این مدل‌ها که توسط ONNX Runtime پشتیبانی می‌شوند، از استنتاج محلی پشتیبانی می‌کنند و از طریق **Foundry Local** و **AI Toolkit برای VS Code** در دسترس هستند، که ساخت با مدل‌های باز را برای توسعه‌دهندگان ویندوزی آسان‌تر می‌کند.

برای توسعه‌دهندگانی که مدل‌های کاملاً قابل تنظیم می‌خواهند که بتوانند تنظیم دقیق کنند و در محیط‌های خودشان مستقر کنند، gpt-oss گزینه‌ای عالی است. برای کسانی که به دنبال پشتیبانی چندوجهی، ابزارهای داخلی و ادغام یکپارچه با پلتفرم ما هستند، مدل‌های موجود از طریق پلتفرم API ما بهترین گزینه باقی می‌مانند. ما به بازخورد توسعه‌دهندگان گوش می‌دهیم و ممکن است در آینده پشتیبانی API برای gpt-oss را در نظر بگیریم.

اگر می‌خواهید مدل‌ها را امتحان کنید، به زمین بازی مدل باز ما بروید. برای اطلاعات بیشتر درباره نحوه استفاده از مدل‌ها با ارائه‌دهندگان اکوسیستم مختلف یا نحوه تنظیم دقیق مدل‌ها،  راهنماهای ما را بررسی کنید.

چرا مدل‌های باز مهم هستند

انتشار gpt-oss-120b و gpt-oss-20b گامی مهم رو به جلو برای مدل‌های با وزن باز است. در اندازه خود، این مدل‌ها پیشرفت‌های معناداری در قابلیت‌های استدلالی و ایمنی ارائه می‌دهند. مدل‌های باز مکمل مدل‌های میزبانی‌شده ما هستند و به توسعه‌دهندگان طیف گسترده‌تری از ابزارها را برای تسریع تحقیقات پیشرو، تقویت نوآوری و امکان توسعه هوش مصنوعی ایمن‌تر و شفاف‌تر در طیف گسترده‌ای از موارد استفاده ارائه می‌دهند.

این مدل‌های باز همچنین موانع را برای بازارهای نوظهور، بخش‌های محدود شده از نظر منابع و سازمان‌های کوچک‌تر که ممکن است بودجه یا انعطاف‌پذیری برای پذیرش مدل‌های اختصاصی نداشته باشند، کاهش می‌دهند. با ابزارهای قدرتمند و قابل دسترس در دسترس، افراد در سراسر جهان می‌توانند بسازند، نوآوری کنند و فرصت‌های جدیدی برای خود و دیگران ایجاد کنند. دسترسی گسترده به این مدل‌های با وزن باز توانمند که در ایالات متحده ایجاد شده‌اند، به گسترش ریل‌های هوش مصنوعی دموکراتیک کمک می‌کند.

یک اکوسیستم مدل باز سالم یکی از ابعاد کمک به دسترسی گسترده و سودمند هوش مصنوعی برای همه است. ما توسعه‌دهندگان و پژوهشگران را دعوت می‌کنیم تا از این مدل‌ها برای آزمایش، همکاری و گسترش مرزهای ممکن استفاده کنند. ما مشتاقانه منتظر دیدن آنچه می‌سازید هستیم.

به این مطلب امتیاز دهید:
تعداد رأی‌دهندگان: ۳ میانگین امتیاز: ۵

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *