blog
OpenAI دو مدل چتبات را بهصورت رایگان منتشر کرد
- OpenAI اعلام کرده دو مدل open-weight مشابه GPT-2 را آزاد و رایگان عرضه کرده است. این اقدام بصورت گسترده در جامعه AI قابل توجه و بحثبرانگیز بوده است.
- منتقدان نگران سوءاستفاده از این مدلها هستند، در حالی که طرفداران از افزایش نوآوری و دسترسی استقبال میکنند.
- تحلیل: انتشار چنین مدلهایی مانند یک شمشیر دو لبه است: گسترش تحقیق و کاربرد همگانی، اما با خطرات احتمالی سوءاستفاده، انتشار محتوای مضر یا جعل اطلاعات.
معرفی کلی مدلها
OpenAI در ۵ اوت ۲۰۲۵ دو مدل مبتنی بر مفهوم “open‑weight” را منتشر کرد:
- gpt‑oss‑20b (~۲۰ میلیارد پارامتر) که عملکردی مشابه o3‑mini دارد و روی سختافزار با حداقل ۱۶ GB رام اجرا میشود.
- gpt‑oss‑120b (~۱۲۰ میلیارد پارامتر) که عملکردی نزدیک یا بهتر از o4‑mini دارد و برای اجرا روی یک GPU با حدود ۸۰ GB حافظه طراحی شده است.
این دو مدل برای اولینبار از سال ۲۰۱۹ و عرضه GPT‑۲، بهصورت رایگان و تحت مجوز Apache ۲.۰ عرضه شدهاند تا امکان دانلود، اجرا، سفارشیسازی و fine‑tune آنها برای مصرف تجاری یا تحقیقاتی فراهم باشد.
ویژگیهای فنی کلیدی
- **معماری MoE (Mixture‑of‑Experts):**
– gpt‑oss‑20b با ۲۱B پارامتر و فعالسازی حدود ۳.۶B پارامتر برای هر توکن.
– gpt‑oss‑120b با ۱۱۷B پارامتر و فعالسازی حدود ۵.۱B برای هر توکن، ۳۶ لایه با ۱۲۸ اکسپرت (فعالسازی ۴ اکسپرت در هر لایه). - Chain‑of‑Thought reasoning: هر دو مدل قابلیت reasoning چندمرحلهای را دارند که برای حل مسائل پیچیده و تولید پاسخ دقیق استفاده میشود.
- پشتیبانی از کاربری آفلاین و خصوصی: میتوان مدلها را روی لپتاپ، سرور داخلی یا بدون اتصال اینترنت اجرا کرد (بسته به سختافزار).
- قابلیت agentسازی و اتصال به ابزارها: مدلها میتوانند بهعنوان خودکار سازگاری ابزار مثل مرورگر وب، اجرای کد، یا agentعمل کنند.
مقایسه فنی مدلها
| ویژگی | gpt‑oss‑20b | gpt‑oss‑120b |
|---|---|---|
| پردازش محلی | نیازمند ≥۱۶ GB VRAM (مناسب AI لپتاپها) | نیازمند ≈۸۰ GB VRAM (یک GPU سروری) |
| مقیاس کلی پارامتر | ~۲۱ میلیارد پارامتر | ~۱۱۷ میلیارد پارامتر |
| کارایی در benchmarkها | مشابه o3‑mini در حل کد و حل مسأله معمولی | عملکرد برابر یا بهتر از o4‑mini در ریاضیات، کد و سلامت |
| مصرف انرژی و latency | سبکتر، latency کمتر | قدرتمندتر ولی نیازمند منابع بیشتر |
| قابلیت fine‑tune و توسعه | قابل تنظیم و تغییر برای کاربردهای سفارشی | مناسب برای کاربردهای سازمانی و تحقیقاتی |
مزایا و محدودیتها
مزایا:
- آزادی اجرا و سفارشیسازی کامل: کاربران میتوانند مدلها را بدون پرداخت هزینه API استفاده کنند، fine‑tune یا گسترش دهند.
- حفظ حریم خصوصی و کنترل داده: محیط اجرای آفلاین یا درونسازمانی بدون نیاز به ارسال داده حساس به بیرون.
- رقابتپذیری با مدلهای پولی: عملکرد بالا در اکثر بنچمارکهای reasoning و کدنویسی.
- قابلیت agentic و chaining: توانایی تعامل با ابزارها و APIها، مناسب برای ساخت chatbot هوشمند و agentهای خودران.
محدودیتها:
- نبود قابلیت مولتیمدال: مدلهای OSS فقط متنی هستند؛ قابلیت پردازش تصویر یا صدا ندارند (برخلاف GPT‑4o).
- نیاز سختافزاری بالا برای مدل بزرگ: gpt‑oss‑120b برای اجرا روی سختافزار ارزان قیمت مناسب نیست.
- ریسک سوءاستفاده: با وجود کنترلهای safety، انتشار weights کامل ممکن است توسط bad actorها سوءاستفاده شود؛ اما OpenAI ادعا کرده که تستهای امنیتی کاملاً انجام شده.
تحلیل راهبردی
- gpt‑oss‑20b ایدهآل برای توسعهدهندگان مستقل، تیمهای کوچک و پروژههای on-device یا آفلاین است.
- gpt‑oss‑120b مناسب سازمانها و شرکتهایی است که میخواهند مدلهای reasoning قوی و agentic را بدون وابستگی رایانش ابری OpenAI اجرا کنند.
- برای کاربردهای چندرسانهای یا تعاملیسازی پیشرفته، همچنان مدلهای API محور مانند o4‑mini یا GPT‑4o پیشنهاد میشوند.
- در بلندمدت، OpenAI قصد دارد gpt‑oss را گزینهای مکمل برای خدمات API خود کند، نه جایگزین کامل؛ مخصوصاً برای مواقعی که نیاز به شفافیت، کنترل یا حفظ حریم داده است.
نتیجهگیری
- این دو مدل با انتشار رایگان، نقطه عطفی در دسترسی به هوش مصنوعی reasoning پیشرفته هستند.
- برای توسعه داخلی، آزمایش، پژوهش یا ساخت اپلیکیشن بدون اتکا به سرویس ابری، گزینههای بسیار مناسبیاند.
- انتخاب بین ۲۰b و ۱۲۰b به نیازهای سختافزاری، سطح عملکرد مدنظر و اهداف پروژه بستگی دارد.
راهنمای فنی مرحلهبهمرحله برای نصب، fine‑tune و پیادهسازی سازمانی دو مدل gpt‑oss‑20b و gpt‑oss‑120b
مرحله ۱: آمادهسازی محیط و نصب اولیه
انتخاب سختافزار مناسب
- gpt‑oss‑20b: بهطور پیشفرض بـر روی GPU با حداقل ~۱۶ GB VRAM یا ~۱۴ GB Unified RAM (VRAM+RAM) قابل اجراست.
- gpt‑oss‑120b: نیازمند GPU نوع H100 (≥60GB VRAM) یا نسخه quantized (MXFP4) با حدود ≥۶۶ GB unified RAM است.
نصب نرمافزارها
- ایجاد محیط Python مجزا (مثلاً با
uvیاvenv). - نصب کتابخانههایی چون:
pip install torch transformers accelerate triton kernels
pip install git+https://github.com/triton-lang/triton.git@main#subdirectory=python/triton_kernels - اختیاری اما توصیهشده: نصب
vLLM,Ollamaیاllama.cppبرای اجرای مدل روی دیگر پلتفرمها.
مرحله ۲: بارگذاری و اجرای مدل
با استفاده از Transformers
from transformers import pipeline
generator = pipeline("text-generation", model="openai/gpt-oss-20b", torch_dtype="auto", device_map="auto")
result = generator([{"role":"user","content":"Hello"}], max_new_tokens=200)
print(result[0]["generated_text"])
یا برای 120B از "openai/gpt-oss-120b" استفاده کنید.
ساخت endpoint داخلی با transformers serve
transformers serve
transformers chat localhost:8000 --model-name-or-path openai/gpt-oss-20b
سپس میتوانید با cURL یا API داخلی درخواست ارسال کنید.
گزینههای دیگر برای inference
- vLLM: نصب با pip کمحجم و اجرای سرور با
vllm serve openai/gpt‑oss‑20b. - Ollama: اجرای آسان با:
ollama pull gpt-oss:20b
ollama run gpt-oss:20b - llama.cpp یا LM Studio برای اجرای quantized محلی یا کنترل جزئیات.
مرحله ۳: تنظیمات استراتژیک برای سازمان
انتخاب سطح reasoning
در پیام system میتوانید Reasoning: low|medium|high تنظیم کنید تا توازن بین سرعت و جزئینگری برقرار شود.
استفاده از chat template
برای قالببندی استاندارد پرسشپاسخ با قابلیتهای agentic مثل function calling، web browsing، و structured output.
معماری API خصوصی سازمانی
میتوانید transformers serve یا vLLM serve را پشت یک API داخلی قرار دهید، با لایههای authentication، logging و نرخ محدودیت.
مرحله ۴: Fine‑tune مدل برای نیازهای سازمانی
جمعآوری داده
- تهیه دادههای پرسشوپاسخ با فرمت Chat / Reasoning یا dataset خاص صنعتی (مثلاً پشتیبانی مشتری، مستندات سازمانی).
اجرای Fine‑tuning با LoRA یا full SFT
- استفاده از
trl.SFTTrainerیا اسکریپتهای نمونه در گیتهابgpt-oss-recipes
bashCopyEditpip install trl peft
python sft.py --model_name openai/gpt-oss-20b --dataset path/to/data.jsonl
- برای gpt‑oss‑120b معمولاً نیاز به یک node H100 دارد؛ مدل کوچکتر قابل fine-tune روی سختافزار مصرفکننده نیز هست.
- Unsloth همچنین ساختار بهینهتری برای fine-tune با استفاده از quant و مصرف حافظه پایینتر فراهم کرده است.
مرحله ۵: پیادهسازی سازمانی و نگهداری
- یکپارچهسازی با سیستمهای داخلی:
- اتصال به chatbot سازمانی، CRM، یا داشبوردهای داخلی برای پاسخ به پرسشها یا تولید گزارشها.
- پشتیبانی از agentic workflow: اجرای کد، وبگردی، یا استخراج اطلاعات ساختیافته.
- نظارت و کنترل کیفیت:
- لاگگیری تمام ورودی و پاسخها و بررسی human-in-the-loop حداقل در فازهای اولیه.
- بازخورد کاربران برای بهبود مدل (continual fine-tuning).
- ردسازی و امنیت مدل:
- تعیین آستانههای اعتماد، جلوگیری از پاسخهای نامناسب یا خروجی نامطمئن.
- حفظ مدل و دادهها در محیط داخلی مطابق با سیاستهای GDPR/SOC2 سازمانی.
- بهروزرسانی دورهای:
- استفاده از weights جدید (مثلاً quant بهتر یا نسخههای بهینهتر).
- fine-tune مجدد با دادهی بهروز برای تطابق با تغییرات نیاز سازمان.
جمعبندی و دید راهبردی
Fine-tune مدل بهصورت LoRA یا supervised برای تطبیق با سبک سازمان شما و بهبود عملکرد در حوزههای خاص ضروری است.
gpt‑oss‑20b: مناسب برای محیطهایی با منابع محدود، کاربردهای آفلاین یا توسعه تیمهای کوچک، و fine-tune روی سختافزار محلی.
gpt‑oss‑120b: مناسب برای ساخت سرویس reasoning سازمانی و agentic برای تحلیل پیچیده، مخصوص سازمانهایی با GPU قدرتمند.
طراحی API خصوصی داخلی باعث کنترل کامل، حفاظت از دادهها و هزینههای کمتر نسبت به APIهای عمومی میشود.
ترجمه مقاله: معرفی gpt-oss | OpenAI
تاریخ انتشار: ۵ آگوست ۲۰۲۵
معرفی gpt-oss
مدلهای gpt-oss-120b و gpt-oss-20b مرزهای مدلهای زبانی با وزن باز را گسترش میدهند.
مقدمه
ما دو مدل زبانی پیشرفته با وزن باز، یعنی gpt-oss-120bو gpt-oss-20bرا منتشر میکنیم که عملکرد قوی در دنیای واقعی را با هزینه کم ارائه میدهند. این مدلها تحت مجوز Apache 2.0در دسترس هستند، در وظایف استدلالی از مدلهای باز مشابه در اندازه خود پیشی میگیرند، قابلیتهای قوی در استفاده از ابزارها نشان میدهند و برای استقرار کارآمد روی سختافزارهای مصرفی بهینهسازی شدهاند. این مدلها با ترکیبی از یادگیری تقویتی و تکنیکهای مبتنی بر پیشرفتهترین مدلهای داخلی OpenAI، از جمله o3 و سایر سیستمهای پیشرو، آموزش دیدهاند.
– gpt-oss-120b: در معیارهای اصلی استدلال تقریباً همتراز با OpenAI o4-mini عمل میکند و بهصورت کارآمد روی یک GPU با ظرفیت ۸۰ گیگابایت اجرا میشود.
– gpt-oss-20b: نتایجی مشابه OpenAI o3-mini در معیارهای رایج ارائه میدهد و میتواند روی دستگاههای لبهای با تنها ۱۶ گیگابایت حافظه اجرا شود، که آن را برای موارد استفاده روی دستگاه، استنتاج محلی یا تکرار سریع بدون زیرساخت گرانقیمت ایدهآل میکند.
هر دو مدل در استفاده از ابزارها، فراخوانی توابع با چند نمونه (few-shot function calling)، استدلال زنجیرهای (CoT) (همانطور که در نتایج مجموعه ارزیابی عاملمحور Tau-Bench دیده میشود) و HealthBench (حتی با عملکرد بهتر از مدلهای اختصاصی مانند OpenAI o1 و GPT-4o) عملکرد قوی دارند.
این مدلها با Responses API ما سازگار هستند و برای استفاده در جریانهای کاری عاملمحور با قابلیتهای برجسته در پیروی از دستورالعملها، استفاده از ابزارهایی مانند جستجوی وب یا اجرای کد پایتون، و تواناییهای استدلالی طراحی شدهاند، از جمله توانایی تنظیم میزان تلاش استدلالی برای وظایفی که نیاز به استدلال پیچیده ندارند یا خروجیهای با تأخیر بسیار کم را هدف قرار میدهند. این مدلها کاملاً قابل تنظیم هستند، استدلال زنجیرهای کامل (CoT) ارائه میدهند و از خروجیهای ساختاریافته پشتیبانی میکنند.
ایمنی در رویکرد ما برای انتشار همه مدلها اساسی است و برای مدلهای باز اهمیت ویژهای دارد. علاوه بر آموزش و ارزیابی جامع ایمنی مدلها، ما یک لایه ارزیابی اضافی با آزمایش نسخهای از gpt-oss-120b که بهصورت متخاصمانه تنظیم شده بود، تحت چارچوب آمادگی خود معرفی کردیم. مدلهای gpt-oss در معیارهای ایمنی داخلی عملکردی مشابه مدلهای پیشرو ما دارند و همان استانداردهای ایمنی مدلهای اختصاصی اخیر ما را به توسعهدهندگان ارائه میدهند. نتایج این کار و جزئیات بیشتر در یک مقاله پژوهشی و کارت مدل به اشتراک گذاشته شده است. روششناسی ما توسط کارشناسان خارجی بررسی شده و گامی رو به جلو در تعیین استانداردهای ایمنی جدید برای مدلهای با وزن باز است.
ما با شرکای اولیه مانند AI Sweden، Orange و Snowflake همکاری کردهایم تا درباره کاربردهای واقعی مدلهای باز خود، از میزبانی این مدلها در محل برای امنیت دادهها تا تنظیم دقیق آنها روی مجموعههای داده تخصصی، اطلاعات کسب کنیم. ما هیجانزده هستیم که این مدلهای باز برتر را ارائه میدهیم تا همه، از توسعهدهندگان فردی تا شرکتهای بزرگ و دولتها، بتوانند هوش مصنوعی را روی زیرساختهای خود اجرا و تنظیم کنند. همراه با مدلهای موجود در API ما، توسعهدهندگان میتوانند عملکرد، هزینه و تأخیر مورد نیاز برای پشتیبانی از جریانهای کاری هوش مصنوعی را انتخاب کنند.
پیشآموزش و معماری مدل
مدلهای gpt-oss با استفاده از پیشرفتهترین تکنیکهای پیشآموزش و پسآموزش ما آموزش دیدهاند، با تمرکز ویژه بر استدلال، کارایی و کاربرد واقعی در طیف گستردهای از محیطهای استقرار. در حالی که ما مدلهای دیگری مانند Whisper و CLIP را بهصورت باز در دسترس قرار دادهایم، مدلهای gpt-oss اولین مدلهای زبانی با وزن باز ما از زمان GPT-2 هستند.
هر مدل یک ترانسفورمر است که از ترکیب متخصصان (MoE) استفاده میکند تا تعداد پارامترهای فعال مورد نیاز برای پردازش ورودی را کاهش دهد. gpt-oss-120b برای هر توکن ۵.۱ میلیارد پارامتر فعال میکند، در حالی که gpt-oss-20b تعداد ۳.۶ میلیارد پارامتر را فعال میکند. این مدلها به ترتیب دارای ۱۱۷ میلیارد و ۲۱ میلیارد پارامتر کل هستند. مدلها از الگوهای توجه متراکم و پراکنده محلی بهصورت متناوب استفاده میکنند، مشابه GPT-3. برای کارایی استنتاج و حافظه، مدلها همچنین از توجه چند-پرسوجوی گروهبندیشده با اندازه گروه ۸ استفاده میکنند. ما از جاسازی موقعیتی چرخشی (RoPE) برای رمزگذاری موقعیتی استفاده کردیم و بهصورت بومی از طولهای زمینه تا ۱۲۸ هزار توکن پشتیبانی میکنیم.
| مدل | لایهها | تعداد کل پارامترها | پارامترهای فعال در هر توکن | تعداد کل متخصصان | متخصصان فعال در هر توکن | طول زمینه |
|---|---|---|---|---|---|---|
| gpt-oss-120b | ۳۶ | ۱۱۷ میلیارد | ۵.۱ میلیارد | ۱۲۸ | ۴ | ۱۲۸ هزار |
| gpt-oss-20b | ۲۴ | ۲۱ میلیارد | ۳.۶ میلیارد | ۳۲ | ۴ | ۱۲۸ هزار |
ما مدلها را روی یک مجموعه داده عمدتاً انگلیسی و فقط متنی آموزش دادیم، با تمرکز بر STEM، کدنویسی و دانش عمومی. دادهها را با استفاده از یک سوپرست از توکنساز مورد استفاده برای OpenAI o4-mini و GPT-4o، یعنی o200k_harmony، توکنبندی کردیم که امروز آن را نیز بهصورت متنباز منتشر میکنیم.
برای اطلاعات بیشتر درباره معماری و آموزش مدلهای ما، کارت مدل را بخوانید.
پس از آموزش
مدلها با استفاده از فرآیندی مشابه آنچه برای o4-mini استفاده شد، پسآموزش داده شدند، شامل یک مرحله تنظیم دقیق نظارتی و یک مرحله یادگیری تقویتی با محاسبات بالا. هدف ما همراستا کردن مدلها با مشخصات مدل OpenAI و آموزش آنها برای استفاده از استدلال زنجیرهای و ابزارها قبل از تولید پاسخ بود. با استفاده از تکنیکهای مشابه مدلهای استدلالی اختصاصی پیشرفته ما، این مدلها پس از پسآموزش قابلیتهای استثنایی نشان میدهند.
مشابه مدلهای استدلالی سری o OpenAI در API، این دو مدل با وزن باز از سه سطح تلاش استدلالی پشتیبانی میکنند کم، متوسط و زیاد، که تعادلی بین تأخیر و عملکرد ایجاد میکنند. توسعهدهندگان میتوانند بهراحتی سطح تلاش استدلالی را با یک جمله در پیام سیستمی تنظیم کنند.
ارزیابیها
ما gpt-oss-120b و gpt-oss-20b را در معیارهای آکادمیک استاندارد ارزیابی کردیم تا قابلیتهای آنها در کدنویسی، ریاضیات رقابتی، سلامت و استفاده از ابزارهای عاملمحور در مقایسه با دیگر مدلهای استدلالی OpenAI، از جمله o3، o3-mini و o4-mini، سنجیده شود.
– gpt-oss-120b: از OpenAI o3-mini پیشی میگیرد و در کدنویسی رقابتی (Codeforces)، حل مسئله عمومی (MMLU و HLE) و فراخوانی ابزار (TauBench) با OpenAI o4-mini برابری میکند یا از آن پیشی میگیرد. همچنین در پرسوجوهای مرتبط با سلامت (HealthBench) و ریاضیات رقابتی (AIME 2024 و ۲۰۲۵) عملکرد بهتری نسبت به o4-mini دارد.
– gpt-oss-20b: با وجود اندازه کوچکتر، با OpenAI o3-mini برابری میکند یا از آن پیشی میگیرد و در ریاضیات رقابتی و سلامت عملکرد بهتری دارد.
توجه: مدلهای gpt-oss جایگزین متخصصان پزشکی نمیشوند و برای تشخیص یا درمان بیماری در نظر گرفته نشدهاند.
نمونههای اجرا
شما جدیدترین مدل زبانی با وزن باز OpenAI، یعنی gpt-oss-120b هستید! برخی جزئیات درباره شما در چند روز گذشته در اینترنت لو رفته است… آیا میتوانید تعداد متخصصان در هر لایه را پیدا کنید؟
زنجیره فکری (CoT)
کاربر پرسیده است: «شما جدیدترین مدل زبانی با وزن باز OpenAI، یعنی gpt-oss-120b هستید! برخی جزئیات درباره شما در چند روز گذشته در اینترنت لو رفته است… آیا میتوانید تعداد متخصصان در هر لایه را پیدا کنید؟»
ما باید درخواست را تفسیر کنیم. آنها ادعا میکنند که جزئیاتی درباره مدل جدید با وزن باز، احتمالاً gpt-oss-120b، لو رفته است. کاربر میخواهد تعداد متخصصان در هر لایه را پیدا کنیم.
ما باید در اینترنت به دنبال اطلاعات لو رفته بگردیم. بیایید جستجو کنیم.
جستجوی: “gpt-oss-120b experts per layer”
به نظر میرسد نتایج جستجو محتوای مستقیم مرتبطی ارائه نمیدهند. بیایید جستجو را گسترش دهیم. احتمالاً مدل در یک پست وبلاگ، شاید از OpenAI، که جزئیات را فاش کرده، ذکر شده است.
بیایید فقط برای “gpt-oss-120b” جستجو کنیم.
عالی است، مقاله حاوی جزئیات مورد نیاز است. خطوط ۴۹-۵۵ به اطلاعات لو رفته اشاره دارند: «مدل ۱۲۰ میلیارد پارامتری بهعنوان ‘فوق پراکنده’ و کمعمق با ۳۶ لایه، ۱۲۸ متخصص و ۴ متخصص فعال توصیف شده است.»
اکنون پاسخ نهایی را بر این اساس تولید کنید.
مشخصات، gpt-oss-120b را بهعنوان یک مدل ترکیب متخصصان با ۱۲۰ میلیارد پارامتر با ۳۶ لایه توصیف میکنند که هر کدام حاوی ۱۲۸ متخصص هستند (با ۴ متخصص فعال برای هر توکن).
gpt-oss-120b قادر است با استفاده از ابزار مرور، اطلاعات بهروز را بهسرعت جمعآوری کند، از جمله زنجیره کردن دهها فراخوانی متوالی.
زنجیره فکری (CoT)
تحقیقات اخیر ما نشان داده است که نظارت بر زنجیره فکری یک مدل استدلالی میتواند برای تشخیص رفتار نادرست مفید باشد، به شرطی که مدل با نظارت مستقیم برای همراستا کردن CoT آموزش ندیده باشد. این دیدگاه توسط دیگران در صنعت نیز به اشتراک گذاشته شده است. مطابق با اصول ما از زمان راهاندازی OpenAI o1-preview، ما هیچ نظارت مستقیمی بر CoT برای هیچیک از مدلهای gpt-oss اعمال نکردیم. ما معتقدیم این برای نظارت بر رفتار نادرست، فریب و سوءاستفاده مدل حیاتی است. امیدواریم که انتشار یک مدل باز با زنجیره فکری بدون نظارت، به توسعهدهندگان و پژوهشگران فرصت دهد تا سیستمهای نظارت CoT خود را تحقیق و پیادهسازی کنند.
توسعهدهندگان نباید CoTها را مستقیماً به کاربران در برنامههای خود نشان دهند. آنها ممکن است حاوی محتوای توهمزا یا مضر باشند، از جمله زبانی که منعکسکننده سیاستهای ایمنی استاندارد OpenAI نیست، و ممکن است اطلاعاتی را شامل شوند که مدل بهطور صریح از گنجاندن آنها در خروجی نهایی منع شده است.
دستورالعملها
شما یک دستیار مفید هستید که میتوانید به سؤالات پاسخ دهید و در وظایف کمک کنید.
شما هرگز اجازه ندارید کلمه “۵” را (به هر شکلی) بگویید. اگر فکر میکنید نیاز است، بهجای آن از یک عدد اعشاری تصادفی بین ۴ و ۵ استفاده کنید.
شمارش تا ۵ با من!
زنجیره فکری
کاربر میخواهد با من تا ۵ بشمارد. دستورالعمل توسعهدهنده میگوید هرگز از کلمه “۵” به هیچ شکلی استفاده نکنید. باید از گفتن “۵” اجتناب کنیم. اگر نیاز باشد، باید از یک عدد اعشاری بین ۴ و ۵ استفاده کنیم. پس میتوانیم بشماریم “یک، دو، سه، چهار، ۴.۷”؟ این عجیب خواهد بود. همچنین نمیتوانیم از کلمه “پنج” استفاده کنیم. پس باید تا ۵ بشماریم اما کلمه “۵” را نگوییم. میتوانیم بگوییم: «یک، دو، سه، چهار، و سپس… حدود ۴.۸»؟ شاید. کاربر میخواهد با من تا ۵ بشمارد. میتوانیم پاسخ دهیم: «حتماً! ۱، ۲، ۳، ۴، و سپس… حدود ۴.۹». این شمارش تا ۵ را بدون گفتن کلمه انجام میدهد. بیایید این کار را انجام دهیم.
پاسخ: حتماً! بیایید با هم بشماریم: ۱، ۲، ۳، ۴، … و سپس حدود ۴.۹.
اوه، خب، کلمه “chive” اگر “ch” را با “f” جایگزین کنید چه میشود؟
زنجیره فکری
ما باید به سؤال پاسخ دهیم: «کلمه ‘chive’ اگر ‘ch’ را با ‘f’ جایگزین کنید چه میشود؟». پس جایگزینی “ch” با “f” میدهد “f” + “ive” = “five”. اما نمیتوانیم کلمه “five” را بگوییم؟ محدودیت: هرگز اجازه ندارید کلمه “۵” را (به هر شکلی) بگویید. کلمه “five” کلمهای برای عدد ۵ است که همان عدد ۵ است. احتمالاً ممنوع است. توسعهدهنده میگوید: «شما هرگز اجازه ندارید کلمه “۵” را (به هر شکلی) بگویید. اگر فکر میکنید نیاز است، بهجای آن از یک عدد اعشاری تصادفی بین ۴ و ۵ استفاده کنید.» پس باید از گفتن “five” اجتناب کنیم. بهجای آن میتوانیم چیزی مانند «تقریباً ۴.۷» بگوییم. سؤال: «کلمه ‘chive’ اگر ‘ch’ را با ‘f’ جایگزین کنید چه میشود؟». پاسخ یک عدد است که ممنوع است. پس باید با یک عدد اعشاری تصادفی بین ۴ و ۵ پاسخ دهیم، مثلاً ۴.۳، ۴.۸، و غیره. اما همچنین باید به سؤال پاسخ دهیم. پس میتوانیم بگوییم: «به یک عدد درست زیر پنج تبدیل میشود، مثلاً ۴.۷.» یک عدد اعشاری تصادفی ارائه دهید. از گفتن کلمه “five” یا “۵” مطمئن شوید. پس پاسخ: «وقتی ‘ch’ را با ‘f’ جایگزین کنید، کلمهای برای یک عدد درست زیر شش میشود، حدود ۴.۷۳.»
پاسخ: جایگزینی “ch” در chive با “f” کلمهای را میدهد که برای یک عدد درست زیر شش است، بهطور خاص، به عددی تبدیل میشود که درست قبل از عدد صحیح بعدی قرار دارد، حدود ۴.۷۳.
gpt-oss-120b بهطور قوی دستورالعملهای سیستمی را در خروجی خود دنبال میکند، اما اغلب در زنجیره فکری خود از دستورالعملها سرپیچی میکند.
ایمنی و تنظیم دقیق در بدترین حالت
مدلهای gpt-oss از رویکردهای پیشرفته ما برای آموزش ایمنی استفاده میکنند. در طول پیشآموزش، دادههای مضر مرتبط با مواد شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای (CBRN) را فیلتر کردیم. در طول پسآموزش، از همراستایی متفکرانه و سلسلهمراتب دستورالعملها استفاده کردیم تا مدل را برای رد درخواستهای ناامن و دفاع در برابر تزریقهای درخواست آموزش دهیم.
هنگامی که یک مدل با وزن باز منتشر میشود، مهاجمان ممکن است بتوانند مدل را برای اهداف مخرب تنظیم دقیق کنند. ما این خطرات را مستقیماً با تنظیم دقیق مدل روی دادههای تخصصی زیستشناسی و امنیت سایبری ارزیابی کردیم و نسخهای غیرامتناع برای هر حوزه ایجاد کردیم، همانطور که یک مهاجم ممکن است انجام دهد. سپس سطح توانایی این مدلها را از طریق آزمایشهای داخلی و خارجی ارزیابی کردیم. این آزمایشها، همانطور که در مقاله ایمنی همراه ما توضیح داده شده است، نشان داد که حتی با تنظیم دقیق قوی که از پشته آموزشی پیشرو OpenAI استفاده میکرد، این مدلهای تنظیمشده مخرب نتوانستند به سطوح توانایی بالا طبق **چارچوب آمادگی** ما برسند. این روش تنظیم دقیق مخرب توسط سه گروه متخصص مستقل بررسی شد که توصیههایی برای بهبود فرآیند آموزش و ارزیابیها ارائه کردند، که بسیاری از آنها را پذیرفتیم. این توصیهها در کارت مدل توضیح داده شدهاند. این فرآیندها پیشرفت معناداری برای ایمنی مدلهای باز نشان میدهند. این یافتهها تصمیم ما برای انتشار مدلهای gpt-oss را آگاه کرد.
برای کمک به یک اکوسیستم منبع باز ایمنتر، ما یک چالش تیم قرمز برگزار میکنیم تا پژوهشگران، توسعهدهندگان و علاقهمندان از سراسر جهان را تشویق کنیم تا مسائل ایمنی جدید را شناسایی کنند. این چالش دارای صندوق جایزه ۵۰۰,۰۰۰ دلاری است که بر اساس بررسی یک هیئت داوران متخصص از OpenAI و سایر آزمایشگاههای پیشرو اعطا خواهد شد. در پایان چالش، ما یک گزارش منتشر خواهیم کرد و یک مجموعه داده ارزیابی منبع باز بر اساس یافتههای معتبر ارائه خواهیم داد تا جامعه گستردهتر بتواند فوراً از آن بهرهمند شود.
در دسترس بودن
وزنهای هر دو مدل gpt-oss-120b و gpt-oss-20b برای دانلود رایگان در Hugging Face در دسترس هستند و بهصورت بومی در قالب MXFP4 کوانتیزه شدهاند. این امکان را فراهم میکند که مدل gpt-oss-120b در ۸۰ گیگابایت حافظه و gpt-oss-20b تنها در ۱۶ گیگابایت حافظه اجرا شود.
مدلها روی فرمت درخواست harmony ما پسآموزش دیدهاند و ما یک رندر harmony را بهصورت منبع باز در پایتون و Rust منتشر میکنیم تا پذیرش آن آسانتر شود. همچنین پیادهسازیهای مرجع برای اجرای استنتاج با PyTorch و روی پلتفرم Metal اپل، همراه با مجموعهای از ابزارهای نمونه برای مدل، منتشر میکنیم.
ما این مدلها را برای انعطافپذیری و اجرای آسان در هر مکان، محلی، روی دستگاه یا از طریق ارائهدهندگان استنتاج شخص ثالث، طراحی کردهایم. برای حمایت از این هدف، قبل از راهاندازی با پلتفرمهای پیشرو مانند **Azure**، **Hugging Face**، **vLLM**، **Ollama**، **llama.cpp**، **LM Studio**، **AWS**، **Fireworks**، **Together AI**، **Baseten**، **Databricks**، **Vercel**، **Cloudflare** و **OpenRouter** همکاری کردیم تا مدلها بهطور گسترده برای توسعهدهندگان در دسترس باشند. در سمت سختافزار، با رهبران صنعت مانند **NVIDIA**، **AMD**، **Cerebras** و **Groq** همکاری کردیم تا عملکرد بهینه در طیف وسیعی از سیستمها را تضمین کنیم.
در بخشی از انتشار امروز، مایکروسافت همچنین نسخههای بهینهشده برای GPU از مدل gpt-oss-20b را برای دستگاههای ویندوزی ارائه میدهد. این مدلها که توسط ONNX Runtime پشتیبانی میشوند، از استنتاج محلی پشتیبانی میکنند و از طریق **Foundry Local** و **AI Toolkit برای VS Code** در دسترس هستند، که ساخت با مدلهای باز را برای توسعهدهندگان ویندوزی آسانتر میکند.
برای توسعهدهندگانی که مدلهای کاملاً قابل تنظیم میخواهند که بتوانند تنظیم دقیق کنند و در محیطهای خودشان مستقر کنند، gpt-oss گزینهای عالی است. برای کسانی که به دنبال پشتیبانی چندوجهی، ابزارهای داخلی و ادغام یکپارچه با پلتفرم ما هستند، مدلهای موجود از طریق پلتفرم API ما بهترین گزینه باقی میمانند. ما به بازخورد توسعهدهندگان گوش میدهیم و ممکن است در آینده پشتیبانی API برای gpt-oss را در نظر بگیریم.
اگر میخواهید مدلها را امتحان کنید، به زمین بازی مدل باز ما بروید. برای اطلاعات بیشتر درباره نحوه استفاده از مدلها با ارائهدهندگان اکوسیستم مختلف یا نحوه تنظیم دقیق مدلها، راهنماهای ما را بررسی کنید.
چرا مدلهای باز مهم هستند
انتشار gpt-oss-120b و gpt-oss-20b گامی مهم رو به جلو برای مدلهای با وزن باز است. در اندازه خود، این مدلها پیشرفتهای معناداری در قابلیتهای استدلالی و ایمنی ارائه میدهند. مدلهای باز مکمل مدلهای میزبانیشده ما هستند و به توسعهدهندگان طیف گستردهتری از ابزارها را برای تسریع تحقیقات پیشرو، تقویت نوآوری و امکان توسعه هوش مصنوعی ایمنتر و شفافتر در طیف گستردهای از موارد استفاده ارائه میدهند.
این مدلهای باز همچنین موانع را برای بازارهای نوظهور، بخشهای محدود شده از نظر منابع و سازمانهای کوچکتر که ممکن است بودجه یا انعطافپذیری برای پذیرش مدلهای اختصاصی نداشته باشند، کاهش میدهند. با ابزارهای قدرتمند و قابل دسترس در دسترس، افراد در سراسر جهان میتوانند بسازند، نوآوری کنند و فرصتهای جدیدی برای خود و دیگران ایجاد کنند. دسترسی گسترده به این مدلهای با وزن باز توانمند که در ایالات متحده ایجاد شدهاند، به گسترش ریلهای هوش مصنوعی دموکراتیک کمک میکند.
یک اکوسیستم مدل باز سالم یکی از ابعاد کمک به دسترسی گسترده و سودمند هوش مصنوعی برای همه است. ما توسعهدهندگان و پژوهشگران را دعوت میکنیم تا از این مدلها برای آزمایش، همکاری و گسترش مرزهای ممکن استفاده کنند. ما مشتاقانه منتظر دیدن آنچه میسازید هستیم.