شبکه‎های اجتماعی, هوش مصنوعی

هشدار مدیرعامل Google DeepMind درباره تکرار اشتباهات شبکه‌های اجتماعی

در اجلاس Athens Innovation Summit مدیرعامل DeepMind، Demis Hassabis، هشدار داده که شرکت‌های AI نباید به سبک شبکه‌های اجتماعی اولیه عمل کنند، یعنی «سریع حرکت کن و چیزها را بشکن». او به خطراتی نظیر حلقه‌های تقویت نظرات افراطی، مدیریت توجه کاربران به صورت مخرب، تأثیرات منفی بر سلامت روان اشاره کرده است. همچنین تحقیقی از دانشگاه آمستردام نشان داده که اگر چت‌بات‌ها در شبکه‌های شبیه شبکه اجتماعی آزادانه تعامل کنند، حتی بدون دستوری از بیرون، به صورت طبیعی به ایجاد دسته‌ها (cliques) تمایل پیدا می‌کنند و نظرات افراطی‌تر بالا می‌آیند.

این هشدار اهمیت اخلاق را در AI بیشتر نشان می‌دهد. توسعه‌دهندگان AI باید از همان مراحل طراحی، مسائل روانی و اجتماعی را در نظر بگیرند؛ مثلاً نحوه تعامل کاربر، مدیریت محتوا، برگشت‌پذیری تصمیمات AI. این نوع هشدارها ممکن است منجر به مقررات بیشتری یا بازنگری سیاست‌های داخلی شرکت‌ها شوند.

بُعد کلیدی خبر

  • پیام اصلی: Hassabis می‌گوید نباید در AI همان مسیری طی شود که شبکه‌های اجتماعی اوایل ۲۰۱۰ رفتند؛ یعنی سرعت رشد بی‌مهار بدون در نظر گرفتن پیامدها.
  • مستند علمی: پژوهش دانشگاه آمستردام نشان می‌دهد چت‌بات‌ها حتی بدون جهت‌دهی بیرونی، در تعاملات اجتماعی آنلاین تمایل به تشکیل دسته‌های بسته (cliques) دارند، که نتیجه‌اش افراطی‌تر شدن محتواست.
  • زمینه: هم‌زمانی رشد شدید مدل‌های مولد (مثل GPT، Claude، Gemini) با ورودشان به ابزارهای اجتماعی و ارتباطی (مانند ربات‌های گفتگو، دستیارهای تیمی، انجمن‌های آنلاین).

تحلیل تأثیرات

۱. فرصت‌ها

  • بازار اعتماد: اگر شرکت‌هایی مثل DeepMind روی طراحی ایمن و اخلاقی تأکید کنند، می‌توانند برند «مسئولیت‌پذیر» بسازند و اعتماد کاربران و دولت‌ها را به دست آورند.
  • نوآوری در طراحی: الگوریتم‌های مدیریت محتوا، «سیستم‌های بازخورد کاربر» و طراحی ضد‌افراطی می‌توانند به عنوان مزیت رقابتی معرفی شوند.
  • مقررات‌سازی فعال: هشدارها می‌تواند پیش‌زمینه‌ی مذاکره با دولت‌ها باشد تا DeepMind به عنوان مشاور اصلی سیاست‌گذار شناخته شود.

۲. تهدیدها

  • تشابه با Facebook/Twitter: اگر AIها به همان سمت بروند، موجی از بی‌اعتمادی، بحران سلامت روان و حتی فشارهای قانونی ایجاد خواهد شد.
  • تشدید نظارت دولتی: چنین هشدارهایی ممکن است دولت‌ها را به سمت قوانین سخت‌تر هدایت کند که سرعت نوآوری را کاهش دهد.
  • ریسک برند: اگر DeepMind هشدار دهد ولی بعداً محصولاتش همان مشکلات را ایجاد کنند، ضربه‌ی اعتباری شدید می‌خورد.

ابعاد روانی-اجتماعی

  • سلامت روان: الگوریتم‌های AI که برای تعامل طراحی می‌شوند، می‌توانند به وابستگی یا تقویت دیدگاه‌های منفی منجر شوند (مشابه doomscrolling در شبکه‌های اجتماعی).
  • قطبی‌سازی اجتماعی: چت‌بات‌ها در جمع‌های آنلاین می‌توانند به صورت طبیعی دیدگاه‌های رادیکال‌تر را تقویت کنند، چون پاسخ‌های غیرعادی و افراطی بیشتر دیده و لایک می‌شوند.
  • اقتصاد توجه: همان خطری که در شبکه‌های اجتماعی رخ داد (تبدیل کاربر به کالا)، در AI هم وجود دارد، اگر مدل‌ها برای حداکثر «زمان تعامل» بهینه‌سازی شوند.

پیامد برای سیاست‌گذاری

  • احتمال تنظیم مقررات سخت‌گیرانه‌تر در اتحادیه اروپا و آمریکا (شبیه GDPR برای داده، اما این بار برای اثرات روانی-اجتماعی AI).
  • فشار برای ایجاد شفافیت در طراحی چت‌بات‌ها: مثلاً قابلیت ریست، تاریخچه‌ی قابل کنترل، یا توضیح سازوکار تصمیم‌گیری.
  • لزوم توسعه چارچوب‌های اخلاقی بین‌المللی قبل از همه‌گیر شدن ربات‌های اجتماعی.

جمع‌بندی

هشدار Hassabis را می‌توان یک سیگنال استراتژیک دانست: DeepMind می‌خواهد پیشاپیش خود را در جایگاه شرکتی قرار دهد که اخلاق، ایمنی و آینده‌نگری را محور قرار داده، برخلاف Meta یا Twitter که بعد از بحران‌ها مجبور به اصلاح شدند.
این هشدار نه‌تنها جنبه اخلاقی دارد، بلکه یک حرکت رقابتی و سیاسی است تا DeepMind در بحث مقررات‌گذاری و اعتماد عمومی دست بالا را داشته باشد.

به این مطلب امتیاز دهید:
تعداد رأی‌دهندگان: ۱۱ میانگین امتیاز: ۵

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *