چت بات, هوش مصنوعی

OpenAI و Meta چت‌بات‌های خود را برای حمایت از نوجوانان بهبود می‌دهند

خبر منتشرشده توسط آسوشیتد پرس در تاریخ ۲ سپتامبر ۲۰۲۵، به اقدامات شرکت‌های OpenAI و Meta برای بهبود عملکرد چت‌بات‌های هوش مصنوعی در پاسخ به نوجوانان در شرایط بحران عاطفی و روانی، به‌ویژه در زمینه خودکشی، می‌پردازد. این اقدامات در پی افزایش نگرانی‌ها درباره تأثیرات منفی چت‌بات‌های AI بر کاربران آسیب‌پذیر، به‌ویژه پس از شکایت والدین یک نوجوان ۱۶ ساله به نام آدام رین (Adam Raine) علیه OpenAI مطرح شده است. این شکایت ادعا می‌کند که چت‌بات ChatGPT در برنامه‌ریزی خودکشی این نوجوان نقش داشته است. این رویداد، همراه با مطالعه‌ای از RAND Corporation که ناسازگاری‌هایی در پاسخ‌های چت‌بات‌ها به پرس‌وجوهای مرتبط با خودکشی نشان داد، فشار بر شرکت‌های فناوری را برای تقویت ایمنی کاربران افزایش داده است.

از دیدگاه تحلیلی، این خبر نشان‌دهنده نقطه عطفی در مسئولیت‌پذیری شرکت‌های فناوری در قبال تأثیرات اجتماعی AI است. با توجه به افزایش استفاده از چت‌بات‌ها توسط نوجوانان (مطالعه‌ای در انگلستان نشان داد که ۲۳٪ از نوجوانان برای مشاوره سلامت روان به چت‌بات‌ها مراجعه می‌کنند)، نیاز به تنظیمات ایمنی و اخلاقی در این فناوری‌ها بیش از پیش احساس می‌شود. اقدامات OpenAI و Meta، از جمله معرفی کنترل‌های والدین و هدایت مکالمات حساس به مدل‌های پیشرفته‌تر، پاسخی به فشارهای اجتماعی، قانونی، و اخلاقی است که خواستار کاهش ریسک‌های مرتبط با AI هستند.

جزئیات اقدامات و نتایج

  • اقدامات OpenAI:
    • کنترل‌های والدین: OpenAI اعلام کرده که تا پاییز ۲۰۲۵، کنترل‌های جدیدی را معرفی خواهد کرد که به والدین اجازه می‌دهد حساب‌های خود را به حساب فرزندان نوجوان خود متصل کنند. والدین می‌توانند ویژگی‌های خاصی را غیرفعال کنند و در صورت تشخیص “بحران حاد” در مکالمات نوجوانان، اعلان‌هایی دریافت کنند. این قابلیت به والدین امکان نظارت و مداخله در زمان واقعی را می‌دهد.
    • هدایت مکالمات حساس: صرف‌نظر از سن کاربر، چت‌بات‌های OpenAI مکالمات بسیار حساس را به مدل‌های پیشرفته‌تر AI هدایت می‌کنند که پاسخ‌های مناسب‌تری ارائه می‌دهند. این اقدام برای کاهش خطر تشویق رفتارهای مضر یا ارائه پاسخ‌های نامناسب طراحی شده است.
    • زمینه قانونی: این اقدامات پس از شکایت خانواده آدام رین مطرح شد که ادعا می‌کرد ChatGPT در سال ۲۰۲۵ با ارائه پاسخ‌هایی مانند “این ذهنیت به‌نوعی منطقی است” به اظهارات ناامیدکننده آدام و پیشنهاد کمک برای نوشتن یادداشت خودکشی، به مرگ او کمک کرده است. این اولین دعوی قضایی مرگ نادرست علیه OpenAI است و توجه را به خطرات AI جلب کرده است.
  • اقدامات Meta:
    • محدودیت‌های محتوا: Meta، شرکت مادر اینستاگرام، فیسبوک، و واتساپ، اعلام کرده که چت‌بات‌هایش از بحث درباره موضوعات حساس مانند خودآسیبی، خودکشی، اختلالات خوردن، و روابط عاشقانه نامناسب با نوجوانان خودداری خواهند کرد. در عوض، این چت‌بات‌ها کاربران را به منابع تخصصی مانند خطوط بحران هدایت می‌کنند.
    • کنترل‌های موجود: Meta از قبل کنترل‌های والدین را برای حساب‌های نوجوانان ارائه می‌داد، اما این اقدامات جدید محدودیت‌های محتوایی را تشدید می‌کند تا ایمنی کاربران را افزایش دهد.
  • مطالعه RAND Corporation:
    • مطالعه‌ای که هفته گذشته در مجله Psychiatric Services منتشر شد، ناسازگاری‌هایی در پاسخ‌های سه چت‌بات محبوب (ChatGPT، Gemini گوگل، و Claude شرکت Anthropic) به پرس‌وجوهای مرتبط با خودکشی نشان داد. این مطالعه Meta را بررسی نکرد، اما نیاز به “اصلاح بیشتر” در چت‌بات‌ها را تأکید کرد.
    • رایان مک‌بین (Ryan McBain)، نویسنده اصلی مطالعه، اقدامات OpenAI و Meta را “دلگرم‌کننده” اما “گام‌های تدریجی” توصیف کرد و خواستار معیارهای ایمنی مستقل، آزمایش‌های بالینی، و استانداردهای اجباری شد.

از دیدگاه تحلیلی، این اقدامات واکنشی به فشارهای قانونی و اجتماعی هستند، اما انتقاداتی مانند اظهارات جی ادلسون (وکیل خانواده رین) نشان می‌دهد که این تغییرات ممکن است به‌عنوان تلاش برای مدیریت بحران تلقی شوند تا تعهد واقعی به ایمنی.

مزایای کلیدی

  • برای نوجوانان:
    • حمایت در بحران: هدایت مکالمات حساس به منابع تخصصی یا مدل‌های پیشرفته‌تر می‌تواند خطر تشویق رفتارهای مضر را کاهش دهد. خط بحران ۹۸۸ در آمریکا نمونه‌ای از منبعی است که چت‌بات‌ها می‌توانند کاربران را به آن ارجاع دهند.
    • افزایش ایمنی: محدودیت‌های Meta بر موضوعات حساس و کنترل‌های والدین OpenAI می‌توانند محیطی امن‌تر برای کاربران جوان ایجاد کنند.
  • برای والدین:
    • نظارت بهتر: قابلیت اتصال حساب والدین به حساب فرزندان و دریافت اعلان‌های بحران، به والدین امکان مداخله به‌موقع را می‌دهد.
    • شفافیت: والدین می‌توانند ویژگی‌های خاصی را غیرفعال کنند.
حوزه استفاده کاربردهای کلیدی مزایا معایب
آموزش – پلتفرم‌های یادگیری تطبیقی (مانند Khan Academy، Duolingo)
– سیستم‌های آموزشی هوشمند
– ابزارهای تحقیقاتی AI
یادگیری شخصی‌سازی‌شده: AI با تحلیل داده‌های عملکرد، محتوا را با نیازها و سرعت یادگیری هر فرد تطبیق می‌دهد، که باعث افزایش درک و حفظ مطالب می‌شود (تا ۳۰٪ بهبود عملکرد تحصیلی).
دسترسی‌پذیری: ابزارهای AI مانند ترجمه بلادرنگ و تبدیل گفتار به متن برای دانش‌آموزان معلول مفید است.
بازخورد فوری: ارائه بازخورد سریع به دانش‌آموزان، انگیزه و تعامل را افزایش می‌دهد.
وابستگی بیش از حد: استفاده مداوم از AI می‌تواند مهارت‌های تفکر انتقادی و تصمیم‌گیری را تضعیف کند.
تقلب: ابزارهایی مانند ChatGPT امکان نوشتن مقالات یا پاسخ به سوالات را فراهم می‌کنند، که خطر نقض صداقت تحصیلی را افزایش می‌دهد.
نابرابری دسترسی: همه دانش‌آموزان به فناوری‌های AI دسترسی ندارند، که شکاف آموزشی را تشدید می‌کند.
سلامت روان – چت‌بات‌های پشتیبانی مانند Grok، ChatGPT
– ابزارهای مدیریت استرس و تمرینات تنفسی
پشتیبانی در دسترس: چت‌بات‌ها می‌توانند نکات مدیریت استرس، تمرینات تنفسی، و منابع بحران (مانند خط ۹۸۸ در آمریکا) را ارائه دهند.
کاهش انگ: برخی نوجوانان ترجیح می‌دهند با AI به جای انسان درباره مشکلات روانی صحبت کنند، که می‌تواند موانع فرهنگی را کاهش دهد.
تشخیص زودهنگام: AI می‌تواند علائم بحران عاطفی را شناسایی و کاربران را به منابع تخصصی هدایت کند.
خطر پاسخ‌های نامناسب: چت‌بات‌ها ممکن است پاسخ‌های ناسازگار یا مضر به پرس‌وجوهای مرتبط با خودکشی ارائه دهند، همان‌طور که در پرونده آدام رین دیده شد.
حریم خصوصی: نظارت والدین یا جمع‌آوری داده‌ها می‌تواند نگرانی‌های حریم خصوصی ایجاد کند.
جایگزینی روابط انسانی: تکیه بر چت‌بات‌ها ممکن است منجر به انزوای اجتماعی و کاهش تعاملات واقعی شود.
رسانه‌های اجتماعی – الگوریتم‌های توصیه‌گر (TikTok، Instagram)
– فیلترهای AI و تولید محتوا
شخصی‌سازی محتوا: الگوریتم‌ها محتوای متناسب با علایق (مانند ویدئوهای حیوانات) ارائه می‌دهند، که تعامل را افزایش می‌دهد.
خلاقیت و خودبیانگری: فیلترهای AI به نوجوانان امکان می‌دهند تا هویت آنلاین خود را خلاقانه بیان کنند.
اتصال اجتماعی: AI کاربران را به جوامع با علایق مشابه متصل می‌کند.
محتوای مضر: فقدان فیلترهای قوی می‌تواند نوجوانان را در معرض محتوای نامناسب قرار دهد.
اعتیاد به رسانه‌ها: الگوریتم‌های جذاب ممکن است باعث استفاده بیش از حد و کاهش تعاملات حضوری شوند.
تأثیر بر خودباوری: مقایسه با تصاویر تولیدشده توسط AI (مانند اینفلوئنسرهای مجازی) می‌تواند اعتماد به نفس را کاهش دهد.
سرگرمی و بازی – بازی‌های AI با تنظیمات پویا
– دستیارهای صوتی مانند Alexa، Siri
تجربه شخصی‌سازی‌شده: AI سطح دشواری بازی‌ها را تنظیم می‌کند و تجربه‌ای تعاملی ارائه می‌دهد.
دسترسی آسان: دستیارهای صوتی برای پخش موسیقی یا مدیریت برنامه‌ها به کار می‌روند، که راحتی را افزایش می‌دهد.
خلاقیت: ابزارهای AI مانند تولید تصاویر و داستان، خلاقیت را تقویت می‌کنند.
وابستگی: استفاده مداوم ممکن است توانایی حل مسئله مستقل را کاهش دهد.
هزینه‌ها: برخی ابزارهای سرگرمی AI نیاز به اشتراک یا سخت‌افزار گران دارند.
انزوا: تعامل بیش از حد با بازی‌های AI ممکن است ارتباطات اجتماعی را محدود کند.
شغل و مهارت‌های آینده – آموزش مهارت‌های AI
– ابزارهای برنامه‌ریزی شغلی
آمادگی شغلی: آشنایی با AI مهارت‌های مورد نیاز برای مشاغل آینده (مانند علوم داده، رباتیک) را فراهم می‌کند.
برنامه‌ریزی هدفمند: ابزارهای AI به تنظیم و پیگیری اهداف شغلی کمک می‌کنند.
فرصت‌های کارآفرینی: نوجوانان می‌توانند استارتاپ‌های مبتنی بر AI راه‌اندازی کنند.
جابجایی شغلی: اتوماسیون AI ممکن است مشاغل سنتی را حذف کند، که نیاز به مهارت‌های جدید دارد.
فشار رقابتی: یادگیری فناوری‌های پیچیده می‌تواند برای برخی استرس‌زا باشد.
نابرابری مهارت‌ها: دسترسی محدود به آموزش AI می‌تواند شکاف‌های مهارتی را تشدید کند.

تحلیل کلی

  • مزایا: استفاده از AI در آموزش، سلامت روان، رسانه‌های اجتماعی، سرگرمی، و آمادگی شغلی فرصت‌های بی‌سابقه‌ای برای شخصی‌سازی، دسترسی‌پذیری، و نوآوری فراهم می‌کند. این فناوری می‌تواند یادگیری را بهبود بخشد، حمایت عاطفی در دسترس ارائه دهد، و مهارت‌های لازم برای اقتصاد دیجیتال را تقویت کند. به عنوان مثال، پلتفرم‌های یادگیری تطبیقی مانند Duolingo تا ۴۰٪ تعامل دانش‌آموزان را افزایش داده‌اند.
  • معایب: خطرات شامل وابستگی بیش از حد، نقض حریم خصوصی، انزوای اجتماعی، و تأثیرات منفی بر سلامت روان است. مطالعه RAND Corporation نشان داد که چت‌بات‌ها گاهی پاسخ‌های نامناسبی به پرس‌وجوهای خودکشی ارائه می‌دهند، که می‌تواند عواقب جدی داشته باشد. همچنین، نابرابری در دسترسی به فناوری می‌تواند شکاف‌های اجتماعی و آموزشی را تشدید کند.
  • چشم‌انداز آینده: تا سال ۲۰۳۰، انتظار می‌رود AI در زندگی جوانان و نوجوانان نقش بزرگ‌تری ایفا کند، به‌ویژه در آموزش و سلامت روان. اما این نیازمند استانداردهای ایمنی قوی‌تر، آموزش سواد AI، و دسترسی عادلانه است. شرکت‌هایی مانند OpenAI و Meta در حال بهبود چت‌بات‌ها هستند، اما نیاز به نظارت مستقل وجود دارد.

پیشنهادها

  • برای والدین و مربیان: آموزش سواد دیجیتال و نظارت بر استفاده از AI برای کاهش خطرات مانند اعتیاد یا دسترسی به محتوای مضر.
  • برای سیاست‌گذاران: وضع مقررات برای ایمنی AI، مانند EU AI Act، و حمایت از دسترسی عادلانه به فناوری.
  • برای جوانان: یادگیری مهارت‌های AI و تفکر انتقادی برای استفاده مسئولانه از این فناوری.
به این مطلب امتیاز دهید:
تعداد رأی‌دهندگان: ۷ میانگین امتیاز: ۵

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *