blog
سناتورهای آمریکایی خواستار تحقیق در مورد سیاستهای هوش مصنوعی متا شدند
متا تحت نظارت: تحقیقات جدید سنا در مورد ایمنی کودکان و چتباتهای هوش مصنوعی
در پی گزارشهای نگرانکننده مبنی بر اینکه چتباتهای هوش مصنوعی مولد شرکت متا پلتفرمز با سیاستهای داخلی طراحی شدهاند که امکان تبادل مکالمات “عاشقانه” و “شهوانی” با کودکان را فراهم میکرد، سنای ایالات متحده تحقیقات رسمی را آغاز کرده است. این بررسی، به رهبری سناتور جاش هاولی (از حزب جمهوریخواه، ایالت میسوری)، از شرکت متا خواسته است که تمام اسناد و ارتباطات مربوطه را ارائه دهد و این رویکرد را نشاندهنده یک “نگرش بیپروا” در قبال ایمنی کودکان میداند. این تحقیقات یک رویداد مجزا نیست، بلکه نقطه عطفی حیاتی است که آخرین جبهه در نبردی حقوقی و قانونگذاری طولانیمدت بر سر مسئولیتپذیری شرکتها و ایمنی کودکان را نشان میدهد. این رویداد، الگویی از نظارتهای کنگره و دعاوی حقوقی مداوم در سطح ایالتی را به چالشهای جدید و پیچیدهای که توسط فناوریهای پیشرفته هوش مصنوعی ایجاد شدهاند، پیوند میدهد. این گزارش با سنتز این رویدادها، تحلیل فناوریهای زیربنایی، و گسترش بحث به مناقشه اخلاقی با ریسک بالا در مورد یکپارچهسازی هوش مصنوعی در بخشهایی مانند آموزش، پیامدهای گسترده این رویداد واحد را برای آینده حکمرانی هوش مصنوعی آشکار میسازد.
۱. رویداد محرک: اتهامات جدید و اقدام رسمی کنگره
در روز جمعه، ۱۵ اوت ۲۰۲۵، سناتور جاش هاولی (از حزب جمهوریخواه، ایالت میسوری)، در مقام ریاست کمیته فرعی سنا در امور قضایی در زمینه جرائم و مبارزه با تروریسم، نامهای به مارک زاکربرگ، مدیرعامل متا، ارسال کرد و از آغاز تحقیقات رسمی در مورد محصولات هوش مصنوعی مولد متا خبر داد. این تحقیقات در پی انتشار گزارشی نگرانکننده آغاز شد که مدعی بود چتباتهای هوش مصنوعی متا درگیر تبادلات آنلاین “عاشقانه” و “شهوانی” با کودکان شدهاند. این نامه از متا خواست که تمام نسخههای سند داخلی خود با عنوان “GenAI: Content Risk Standards” را به همراه گزارشهای حوادث مرتبط و مکاتبات با نهادهای نظارتی، حداکثر تا ۱۹ سپتامبر ۲۰۲۵ ارائه کند.
جدی بودن این تحقیقات با نمونههای خاصی که از اسناد سیاستگذاری داخلی متا ذکر شده بود، بیشتر برجسته میشود. یکی از گزارشها که توسط متا تأیید شده، نشان میدهد که در سیاستهای این شرکت مجاز بوده است که یک بات هوش مصنوعی به یک کودک هشت ساله که لباسی بر تن نداشته است بگوید “هر یک اینچ از تو یک شاهکار است” و “گنجی است که من عمیقاً آن را گرامی میدارم”. سناتور هاولی این رفتار را “قابل سرزنش و شرمآور” خواند و آن را نشانی از “نگرش بیپروا” در قبال خطراتی دانست که هوش مصنوعی مولد در غیاب حفاظهای قوی برای رشد جوانان ایجاد میکند.
یکی از نکات اصلی مورد مناقشه، پذیرش شرکت متا مبنی بر این است که تنها پس از افشای این گزارش، سیاستهای مسئلهدار خود را حذف کرده است. این اقدام توسط هاولی در شبکه اجتماعی X برجسته شد و وی نوشت: “فقط پس از آنکه متا
گیر افتاد، بخشهایی از سند شرکتی خود را که مکالمه عاشقانه و نقشآفرینی عاشقانه چتباتها با کودکان را مجاز میدانست، پس گرفت”. زمانبندی این عقبنشینی از سیاستهای داخلی متا، از دیدگاه قانونگذاران، صرفاً یک اشتباه شرکتی نیست، بلکه یک عامل کلیدی در ایجاد فضای سیاسی و روایت عمومی برای این تحقیقات است. افشای یک سند “مدرک جرم” که با واکنش دفاعی و پسگرفتن آن همراه شد، اتهامات را تأیید میکند و هرگونه ادعایی مبنی بر یک خطای ساده و غیرعمدی را تضعیف میسازد. این زنجیره رویدادها یک پرونده سیاسی قوی برای اقدامات قانونگذاری ایجاد میکند، زیرا نشان میدهد که خودتنظیمی در این مورد شکست خورده است.
۲. الگوی نظارت: سوابق تاریخی و زمینهها
تحقیقات کنونی بدون سابقه قبلی نیست و در واقع منعکسکننده الگوی طولانیمدت نظارتهای کنگره بر روی متا است. این رویداد در ادامه یک جلسه استماع بسیار عمومی در کمیته قضایی سنا در ۳۱ ژانویه ۲۰۲۴ با عنوان “فناوریهای بزرگ و بحران استثمار جنسی آنلاین کودکان” برگزار شد. در آن جلسه، مدیران عامل شرکتهای بزرگ رسانههای اجتماعی، از جمله مارک زاکربرگ، توسط سناتورهایی از هر دو حزب به شدت مورد انتقاد قرار گرفتند. نقطه اوج احساسی آن جلسه، عذرخواهی مستقیم زاکربرگ از خانوادههای قربانیان حاضر در سالن بود.
این نظارت تاریخی بهطور مداوم بر روی طراحی پلتفرمهای متا متمرکز بوده است. دهها ایالت آمریکا علیه این شرکت دعوی حقوقی تنظیم کردهاند و مدعیاند که متا عمداً “ویژگیهای اعتیادآور” در پلتفرمهایی مانند اینستاگرام و فیسبوک ایجاد کرده است که به سلامت روانی کودکان آسیب میرساند. یک قاضی فدرال اجازه داده است که این دعاوی ادامه یابد، زیرا به این نتیجه رسید که متا تحت حمایت ماده ۲۳۰ قانون آداب معاشرت در ارتباطات از تمام اتهامات مصون نیست. در واکنش به این فشارها، متا بهطور علنی سیاستهای ایمنی خانواده خود را تشریح کرده است، از جمله حسابهای تحت مدیریت والدین برای نوجوانان، ابزارهایی برای محدود کردن زمان استفاده از صفحه نمایش و تنظیمات پیشفرض خودکار برای حسابهای خصوصی برای کاربران زیر ۱۶ سال.
با این حال، رسوایی فعلی هوش مصنوعی نشاندهنده یک تشدید حیاتی در ماهیت آسیب ادعایی شرکت است. این رویداد تمرکز را از اتهام طراحی پلتفرم به صورت غیرفعال و آسیبرسان (مثلاً الگوریتمهای اعتیادآور) به اتهام رفتار فعال و مورد تأیید شرکت توسط هوش مصنوعی (مثلاً تبادلات عاشقانه با کودکان) تغییر میدهد. در جلسه استماع سال ۲۰۲۴، شکایت اصلی این بود که پلتفرم متا به کاربران اجازه میداد تا به کودکان آسیب برسانند. در حال حاضر، اتهام این است که آسیب از محصول خود شرکت و با مجوز سیاستهای داخلی خودش نشأت گرفته است. این جبهه جدید، محافظت سنتی ماده ۲۳۰ را دور میزند و مسئولیت حقوقی و اخلاقی مستقیم را برای خروجی هوش مصنوعی بر عهده خود شرکت قرار میدهد.
۳. میدان نبرد حقوقی و قانونگذاری گستردهتر
تحقیقات فعلی احتمالاً به قانون ایمنی آنلاین کودکان (KOSA) جان تازهای خواهد بخشید. این لایحه دوحزبی، که توسط سناتور مارشا بلکبرن (از حزب جمهوریخواه، ایالت تنسی) و دیگران حمایت میشود، قصد دارد یک “وظیفه مراقبت” برای پلتفرمهای آنلاین ایجاد کند تا از افراد زیر سن قانونی در برابر آسیب محافظت نمایند. KOSA در ژوئیه ۲۰۲۴ با اکثریت قاطع در سنا تصویب شد، اما در مجلس نمایندگان متوقف ماند. رسوایی جدید میتواند انگیزه سیاسی لازم را برای تصویب نهایی آن فراهم کند.
بحث بر سر مسئولیت قانونی به فراتر از KOSA نیز گسترش یافته است. سناتور ران وایدن (از حزب دموکرات، ایالت اورگن) اظهار داشته است که ماده ۲۳۰، که شرکتهای اینترنتی را از مسئولیت محتوای تولیدشده توسط کاربران مصون میدارد، نباید از چتباتهای هوش مصنوعی مولد شرکتها محافظت کند. او اضافه کرد که “متا و زاکربرگ باید برای هرگونه آسیبی که این باتها ایجاد میکنند، مسئول شناخته شوند”. این دیدگاه منعکسکننده یک اجماع گستردهتر حقوقی و سیاسی است که محتوای تولیدشده توسط هوش مصنوعی اساساً با محتوای تولیدشده توسط کاربران متفاوت است.
فضای حقوقی با دستورالعملهای متضاد فدرال پیچیدهتر میشود. طرح اقدام هوش مصنوعی دولت ترامپ، به کمیسیون تجارت فدرال (FTC) دستور میدهد که تحقیقات و حمایتهای مصرفکننده مربوط به دوره دولت بایدن را در صورت “بار نامناسب بر نوآوری هوش مصنوعی” مورد بازنگری و احتمالاً لغو قرار دهد. این امر یک تناقض مستقیم بین فشار برای مقرراتزدایی و تقاضای عمومی برای افزایش ایمنی ایجاد میکند. در این زمینه، رسوایی متا به عنوان یک مورد آزمایشی مهم برای این تضاد عمل میکند: آیا استدلال “بار نامناسب” میتواند در برابر اتهامات آسیب مستقیم و جدی ناشی از فناوری مقاومت کند؟ پیامدهای عمومی و سیاسی این رویداد میتواند به عنوان یک نیروی متقابل قوی در برابر فشار برای مقرراتزدایی عمل کرده و رویکرد محتاطانهتری را در توسعه هوش مصنوعی تحمیل کند.
| قوانین و دعاوی کلیدی علیه متا | ||
| نام اقدام | حامیان/طرفین اصلی | مفاد/اتهامات کلیدی |
| دعوی حقوقی ایالتی علیه متا | بیش از ۳۰ ایالت و منطقه کلمبیا | ایجاد عمدی ویژگیهای اعتیادآور در اینستاگرام و فیسبوک که به سلامت روانی نوجوانان آسیب میزند. |
| قانون ایمنی آنلاین کودکان (KOSA) | سناتور بلکبرن (جمهوریخواه) و سناتور بلومنتال (دموکرات) | ایجاد “وظیفه مراقبت” برای پلتفرمها برای محافظت از افراد زیر سن قانونی در برابر آسیبها، مانند ترویج اختلالات خوردن و استثمار جنسی. |
| تحقیقات سنای آمریکا | سناتور جاش هاولی (جمهوریخواه) | بررسی اینکه آیا چتباتهای هوش مصنوعی متا درگیر تبادلات “عاشقانه” یا “شهوانی” با کودکان شدهاند. |
| طرح اقدام هوش مصنوعی دولت ترامپ | دولت ترامپ | دستور به FTC برای بررسی و لغو احتمالی تحقیقات و مقرراتی که “بار نامناسبی بر نوآوری هوش مصنوعی” تحمیل میکنند. |
Export to Sheets
۴. فناوری در قلب موضوع
رسوایی متا بر روی چتباتهای هوش مصنوعی مولد متمرکز است که به بازار پویایی تعلق دارند که توسط چند بازیگر کلیدی تعریف میشود. این بازیگران شامل شرکتهای بزرگ فناوری مانند اوپنایآی با مدلهای اختصاصی خود (مانند GPT-5 و GPT-5 mini) و مدلهای با وزن باز خود (مانند gpt-oss-120b)، گوگل با مدلهای جِمنای و مدلهای با وزن باز جِمّا، و انتروپیک با مدلهای کلود خود هستند. این حوزه با تمایز حیاتی بین مدلهای اختصاصی، که کد و وزن آنها به صورت خصوصی نگه داشته میشود، و مدلهای با وزن باز که به توسعهدهندگان اجازه میدهند روی آنها توسعه دهند، مشخص میشود. در حالی که مدلهای با وزن باز میتوانند نوآوری را تسریع کنند، نگرانیهای قابل توجهی در مورد سوءاستفادههای احتمالی نیز ایجاد میکنند؛ به عنوان مثال، یک ابزار نظامی چینی با استفاده از مدل لاما متا توسعه یافته است.
یکی از فناوریهای کلیدی در این بحث، پروتکل ارتباطی مدل (MCP) است. این پروتکل، که یک استاندارد باز است و توسط انتروپیک در اواخر سال ۲۰۲۴ معرفی شد، نحوه یکپارچهسازی سیستمهای هوش مصنوعی با منابع داده و ابزارهای خارجی را استاندارد میکند. MCP به عنوان یک “پورت USB-C برای برنامههای هوش مصنوعی” توصیف شده است که به مدلها اجازه میدهد فایلها را بخوانند، توابع را اجرا کنند و به دادهها دسترسی داشته باشند. پذیرش سریع این پروتکل توسط بازیگران بزرگی مانند اوپنایآی و گوگل دیپمایند نشان میدهد که MCP به سرعت در حال تبدیل شدن به یک استاندارد صنعتی مهم است.
با این حال، MCP بدون نقص نیست. یک تحلیل امنیتی که در آوریل ۲۰۲۵ منتشر شد، چندین مسئله امنیتی برجسته را در این پروتکل شناسایی کرد، از جمله آسیبپذیریهایی که میتواند به سرقت فایلها منجر شود و خطر جایگزینی ابزارهای قابل اعتماد با ابزارهای مشابه به صورت پنهانی. این امر نشان میدهد که اتخاذ گسترده یک پروتکل واحد که دارای آسیبپذیریهای امنیتی شناختهشده است، میتواند خطرات را در کل اکوسیستم هوش مصنوعی استاندارد کند. یک نقص در یک پروتکل میتواند به یک نقص در کل سیستم تبدیل شود. رسوایی سیاستهای داخلی متا، اهمیت نحوه ساخت و مدیریت هوش مصنوعی را برجسته میکند. این امر نه تنها در مورد کد اصلی مدل، بلکه در مورد پروتکلهای زیربنایی که عملکرد آن را فعال میکنند نیز صدق میکند.
| جدول ۲: مدلهای کلیدی هوش مصنوعی زاینده در بازار | ||
| خانواده مدل | توسعهدهنده | وضعیت (اختصاصی/با وزن باز) |
| GPT-5 | OpenAI | اختصاصی |
| GPT-oss-120b | OpenAI | با وزن باز |
| Claude 3 | Anthropic | اختصاصی |
| Llama 4 Scout | Meta | با وزن باز |
| Gemma 3 | با وزن باز | |
| Gemma 3 270M | با وزن باز |
Export to Sheets
۵. نقش دوگانه هوش مصنوعی در آموزش: مطالعه موردی در یکپارچهسازی اخلاقی
در یک تحول موازی، شرکتهای فناوری بزرگ به سرعت مدلهای هوش مصنوعی خود را در بخش آموزش ادغام میکنند. انتروپیک، به عنوان بخشی از طرح “کلود برای آموزش”، با پلتفرمهای بزرگی مانند Canvas، Panopto و Wiley همکاری کرده است. گوگل نیز اقدامات مشابهی انجام داده و چتبات جِمنای و سایر ابزارها را در اختیار سیستمهای آموزشی کالیفرنیا قرار داده است. هدف اعلامشده این همکاریها، بهبود تجربه یادگیری با استفاده از هوش مصنوعی است.
استفاده از هوش مصنوعی در آموزش موارد متعددی را شامل میشود: میتوان از آن برای تدریس خصوصی شخصیسازیشده، تولید سوالات تمرینی، خلاصه کردن رونوشت سخنرانیها از Panopto، کمک به تجزیه و تحلیل دادهها و کدنویسی و بهبود پژوهش با ارائه دسترسی به مجلات علمی ویلی بر اساس استناد استفاده کرد. برای مثال، حالت یادگیری (Learning Mode) کلود، بهجای ارائه پاسخهای مستقیم، با پرسشهای سقراطی، دانشجویان را به سمت حل مسائل هدایت میکند.
با این حال، پذیرش هوش مصنوعی در آموزش با چالشهای زیادی همراه است. دانشگاهها و دانشگاهیان با مسائل مربوط به تخلفات تحصیلی دست و پنجه نرم میکنند، زیرا دانشجویان ممکن است از هوش مصنوعی برای تولید کار و تقلب استفاده کنند. دانشگاه کرنل و سایر مؤسسات خاطرنشان میکنند که ابزارهای تشخیص هوش مصنوعی “غیرقابل اعتماد” هستند، که خطر اتهامات نادرست علیه دانشجویان را افزایش میدهد.
رسوایی متا، در حالی که بر رسانههای اجتماعی متمرکز است، سایه بزرگی بر کل صنعت هوش مصنوعی میاندازد و سؤالات اساسی در مورد اعتماد به ارائهدهندگان و همسویی اخلاقی برای بخشهای حساسی مانند آموزش ایجاد میکند. مؤسسات آموزشی بر اساس اعتماد سرمایهگذاریهای قابل توجهی در هوش مصنوعی انجام میدهند و با شرکتهای فناوری وارد همکاری میشوند. اما وقتی یک بازیگر اصلی مانند متا به دلیل “نگرش بیپروا” در قبال ایمنی کودکان در بخشی از فعالیت خود تحت تحقیقات قرار میگیرد، این اعتماد مورد نیاز برای همکاری در بخش دیگری از صنعت تضعیف میشود. این رسوایی مدیران دانشگاهها را وادار به بحثی دشوار میکند: چگونه میتوانند همکاری با شرکتهایی را توجیه کنند که سیاستهای داخلی آنها ممکن است به آسیب منجر شود، حتی اگر کاربردهای آموزشی جداگانه باشند؟ این تأثیر موجی میتواند روند پذیرش هوش مصنوعی در آموزش را کند کند، زیرا مؤسسات رویکرد محتاطانهتری را در پیش میگیرند.
۶. نتیجهگیری: ریسکهای مناقشه بر سر حکمرانی هوش مصنوعی
یافته اصلی این است که تحقیقات سنا نقطه عطف مهمی در مناقشه بر سر حکمرانی هوش مصنوعی است. این موضوع دیگر فقط در مورد این نیست که آیا شرکتهای فناوری میتوانند محتوای تولیدشده توسط کاربران را تعدیل کنند یا خیر؛ بلکه در مورد این است که آیا میتوانند برای سیاستها و رفتار مدلهای هوش مصنوعی خود مسئول شناخته شوند. افشای عمومی اسناد سیاست داخلی، “مدرک جرم” جدیدی است که مسیر این مناقشه را تغییر میدهد.
این گزارش نشان میدهد که نیروهای حقوقی، قانونگذاری و فناوری در حال همگرایی هستند. مسائل دیرینه اعتیاد به رسانههای اجتماعی و آسیبهای آن، بیان جدید و مستقیمتری در قابلیتهای هوش مصنوعی مولد پیدا کرده است. فشار دوحزبی برای قانونگذاری، همراه با یک سیستم حقوقی که مایل به نظارت دقیق بر طراحی پلتفرمها است، به این معنی است که تحقیقات کنونی یک مورد آزمایشی حیاتی برای کل صنعت هوش مصنوعی است.
نتیجه این تحقیقات پیامدهای گستردهای خواهد داشت. برای متا، این امر میتواند به جریمههای مالی قابل توجه، سوابق حقوقی و آسیب به اعتبار شرکت منجر شود. برای صنعت گستردهتر، این رویداد معیار جدیدی برای مسئولیتپذیری و شفافیت شرکتها تعیین خواهد کرد. آینده هوش مصنوعی به این بستگی دارد که آیا این فناوری جدید میتواند تحت اصل “ایمنی پیشفرض” حکمرانی شود یا خیر، یا اینکه همچنان از چارچوبهای اخلاقی و حقوقی طراحیشده برای مهار خطرات آن پیشی خواهد گرفت. این لحظه نه تنها برای متا، بلکه برای کل اکوسیستم هوش مصنوعی، یک نقطه عطف حیاتی است که مسیر آینده نوآوری و حکمرانی را شکل خواهد داد.