کتاب, هوش مصنوعی

شکایت رسانه‌ای علیه استفاده AI از محتوای کتاب Trump

  • شرکت رسانه‌ای متعلق به Rupert Murdoch اعلام کرده که کتاب‌های ترامپ توسط موتورهای AI مصرف شده و درآمدزایی می‌کنند بی‌آنکه مجوزی داده شده باشد.
  • این شرکت حقوق خود را “دزدیده‌شده” از طریق AI توصیف کرده و قصد دارد اقدامات قانونی علیه استفاده‌کنندگان AI اتخاذ کند.
  • تحلیل: این موضوع پرچم جدی‌تری درباره مالکیت معنوی محتوای تولیدشده توسط AI به اهتزاز درآورده است. آینده قانونی بسیاری از مدل‌هایی که روی داده‌های نمایش عمومی آموزش دیده‌اند در هاله‌ای از ابهام قرار گرفته.

جزئیات شکایت Media Corp علیه استفاده AI از کتاب‌های ترامپ

  • شرکت رسانه‌ای News Corp (صاحب HarperCollins که منتشرکننده سه کتاب از دونالد ترامپ است) به‌شدت به استفاده AI از محتوای عنوان‌هایی مانند The Art of the Deal انتقاد کرده و اعلام کرده این کتاب‌ها بدون مجوز توسط مدل‌های هوش مصنوعی مصرف شده‌اند و سپس برای تولید درآمد استفاده شده‌اند. آن‌ها این اقدام را «هنر سرقت» (The Art of the Deal has become The Art of the Steal) توصیف کرده‌اند.
  • مدیرعامل News Corp، رابرت تامسون، تأکید کرده در مذاکراتی پیشرفته با چند شرکت AI درباره حقوق تألیف مشغول هستند، اما در کنار همکاری، آماده‌اند حقوق معنوی محتواهای خود را نیز از طریق اقدام قانونی تأمین نمایند.

مبانی حقوقی و وضعیت پرونده‌ها

  • پرونده مشابهی علیه Meta در جریان بود: ادعا می‌شد برای آموزش مدل LLaMA از کتاب The Art of the Deal استفاده شده است. دادگاه این ادعا را رد کرد، قائل شد استدلال‌های مدعیان ضعیف بودند اما تصمیم‌گیری درباره مشروعیت کلی استفاده از آثار بدون مجوز هنوز باز است.
  • در مورد OpenAI، شکایت‌های مشابهی از سوی نویسندگان مانند Sarah Silverman، Paul Tremblay، Mona Awad مطرح شده‌اند. بسیاری از ادعاها در مرحله ابتدایی رد شدند، اما برخی اتهامات مثل نقض ممنوع رقابت یا حقوق مستقیم کپی‌رایت ادامه دارد و هنوز تصمیم نهایی صادر نشده.
  • پرونده علیه Anthropic هم مشابه بوده است؛ دادگاه در مورد استفاده از کتاب‌های قانونی دفاع کرد ولی از استفاده از میلیون‌ها نسخه دانلودشده غیرقانونی ایراد گرفت و بخش قضیه را به دادگاه برده است.

تحلیل فنی و پیامدهای راهبردی

ناشران در مقابل مدل‌های AI

  • ناشران مانند News Corp و HarperCollins می‌گویند AI به‌صورت خودکار محتوای کتاب را بدون کسب مجوز استخراج کرده و از آن درآمد کسب کرده است—حتی اگر خروجی‌ها مستقیماً تکرار نشده باشند. این مسأله حقوقی پیچیده‌ای است که باید در دادگاه بررسی شود.

دفاع استدلال fair use

  • شرکت‌های AI مانند Meta و OpenAI مدعی هستند این آموزش‌ها تحت قاعده fair use قرار دارند، زیرا استفاده «transformative» بوده و خروجی‌ها شامل نسخه‌های دقیق کتاب نیستند. چنین دفاعی تاکنون در برخی پرونده‌ها موفقیت‌آمیز بوده است، اما هنوز در دادگاه‌های مختلف ادامه دارد.

ریسک کپی‌برداری (Memorization)

  • برخی شکایت‌ها مدعی هستند که مدل AI خلاصه‌هایی بسیار دقیق از کتاب‌های خاص ارائه داده‌اند که صرفاً با آموزش مستقیم روی آن کتاب‌ها ممکن است—موضوع memorization یا overfitting که نگرانی حقوقی معناداری ایجاد کرده است.

اثر حقوقی گسترده

  • این پرونده‌ها تعیین‌کننده‌اند برای اینکه آیا AI می‌تواند بدون مجوز قانونی از آثار محافظت‌شده استفاده کند یا باید با ناشران قراردادها و پرداخت داشته باشد. روند حقوقی فعلی نشانگر فشار فزاینده صنعت نشر برای کسب سهم بیشتر از ارزش محتوای تولیدشده توسط AI است.

خلاصه تحلیلی

موضوع جزئیات تحلیل
موضوع شکایت استفاده بدون مجوز از کتاب‌های ترامپ توسط AI
ادعای حقوقی درآمدزایی بدون مجوز، زیر پا گذاشتن IP
دفاع AI «fair use»، استفادۀ تحویلی و غیرقابل تکرار
وضعیت پرونده‌ها برخی پرونده‌ها رد، برخی در جریان دادگاه
پیامد احتمالی نهایی الزام به توافق با ناشران و چارچوب حقوقی جدید
ریسک‌های امنیتی/اخلاقی خطر memorization، نقض اعتماد محتوا

جمع‌بندی و توصیه‌ها

نظارت اتحادیه‌نویسندگان و نویسندگان (مانند Authors Guild) در کنار اقدامات قانونی، تعیین‌کننده مسیر آینده سیاست‌های استفاده از داده برای مدل‌های هوش مصنوعی خواهد بود.

موضوع شکایت رسانه‌ای علیه استفاده AI از محتوای کتاب ترامپ، نه تنها یک منازعه حقوقی ساده نیست بلکه نماد مشکلات ساختاری حقوق نشر در عصر AI است.

در صورت شکست دفاع fair use و تصمیم به نفع ناشران، ممکن است شرکت‌های AI مجبور شوند مجوزهای گسترده‌ای به ناشرین بدهند یا حق تألیف را به‌طور مستقیم بپردازند.

مدل‌ها و محصولات AI باید مسیرهای شفاف برای licensing داشته باشند تا از خطرات قانونی، کلایم‌های حقوقی و اختلال در اعتماد کاربران اجتناب شود.

خلاصه و تحلیل مقاله: درخواست نیوز کورپ از ترامپ در مورد سرقت هوش مصنوعی

منبع: Sydney Morning Herald
تاریخ انتشار: ۶ آگوست ۲۰۲۵
نویسنده: کالوم جاسپن


خلاصه نکات کلیدی:

  1. درخواست از ترامپ در مورد سرقت محتوا توسط هوش مصنوعی:
  • رابرت تامسون، مدیرعامل نیوز کورپ، در گزارش سالانه مالی شرکت به‌طور غیرمستقیم از دونالد ترامپ خواست تا علیه سرقت محتوای فکری توسط شرکت‌های هوش مصنوعی اقدام کند. او با اشاره به کتاب معروف ترامپ، «هنر معامله» (The Art of the Deal)، این وضعیت را «هنر سرقت» نامید و هشدار داد که هوش مصنوعی با استفاده غیرمجاز از آثار، فروش آینده کتاب‌ها را تضعیف می‌کند.
  • تامسون خواستار جبران خسارت‌های چند ده میلیارد دلاری از سوی شرکت‌های هوش مصنوعی شد تا از ظهور یک «هوش مصنوعی مشتق‌شده و بیدار» جلوگیری شود.
  1. نتایج مالی قوی نیوز کورپ:
  • نیوز کورپ رشد درآمدی ۲٪ با مجموع ۸.۴۵ میلیارد دلار (۱۳.۱ میلیارد دلار استرالیا) گزارش کرد، که عمدتاً ناشی از عملکرد قوی گروه REA (پلتفرم realestate.com.au) و شرکت داو جونز (ناشر وال استریت ژورنال) بود.
  • سود قبل از بهره، مالیات، استهلاک و Amortization (EBITDA) با ۱۴٪ افزایش به ۱.۴۲ میلیارد دلار رسید.
  • با وجود کاهش ۴٪ درآمد در بخش روزنامه‌های استرالیایی (مانند The Australian، Herald Sun و Daily Telegraph)، افزایش ۲.۵٪ در اشتراک‌های دیجیتال این کاهش را جبران کرد.
  • گروه REA با رشد ۱۵٪ درآمد (۱.۷ میلیارد دلار) و افزایش ۲۳٪ سود خالص پس از مالیات (۵۶۴ میلیون دلار) عملکرد برجسته‌ای داشت.
  1. تنش‌های حقوقی با ترامپ:
  • این درخواست در حالی مطرح شد که روابط بین نیوز کورپ و ترامپ به دلیل دعوی حقوقی ۱۰ میلیارد دلاری اخیر او علیه وال استریت ژورنال تیره شده است. این دعوی به دلیل گزارش ژورنال درباره نامه‌ای ادعایی از ترامپ به جفری اپستین در سال ۲۰۰۳ است.
  • نیوز کورپ و وال استریت ژورنال قاطعانه از گزارش خود دفاع کرده و خواستار رد دعوی شده‌اند. توافق اخیر برای به تعویق انداختن شهادت روپرت مورداک در این پرونده، نشانه‌ای از تلاش برای کاهش تنش‌هاست.
  1. تحرکات استراتژیک:
  • نیوز کورپ پس از فروش Foxtel به DAZN، ساختار ساده‌تری پیدا کرده و روی دارایی‌های دیجیتال مانند REA و داو جونز تمرکز دارد.
  • این شرکت اعلام کرد که یک روزنامه جدید به نام The California Post را در لس‌آنجلس راه‌اندازی خواهد کرد که رویکردی محافظه‌کارانه مشابه نیویورک پست خواهد داشت.
  • کاهش درآمد در بخش‌های رسانه‌ای بریتانیا (۱۰٪) و استرالیا (۴٪) نشان‌دهنده چالش‌های صنعت چاپ است، اما رشد در بخش املاک دیجیتال این زیان‌ها را جبران می‌کند.

تحلیل:

  • استراتژی سیاسی و تجاری: درخواست تامسون از ترامپ را می‌توان تلاشی برای جلب حمایت او در مبارزه با سرقت محتوای هوش مصنوعی دانست، به‌ویژه در زمانی که نیوز کورپ با دعوی حقوقی سنگین از سوی او مواجه است. این اقدام نشان‌دهنده رویکرد «هویج و چماق» مورداک برای مدیریت روابط با ترامپ است—تلاش برای همکاری در زمینه‌ای مشترک (مبارزه با هوش مصنوعی) در حالی که تنش‌های حقوقی ادامه دارد.
  • تمرکز بر دارایی‌های دیجیتال: عملکرد قوی REA و داو جونز نشان‌دهنده موفقیت نیوز کورپ در انتقال به مدل‌های درآمدی دیجیتال و اشتراکی است، در حالی که بخش‌های سنتی چاپ با کاهش درآمد مواجه‌اند. راه‌اندازی The California Post نیز تلاشی برای گسترش نفوذ سیاسی محافظه‌کارانه در مناطق دموکرات‌نشین مانند لس‌آنجلس است.
  • چالش‌های حقوقی و روابط با ترامپ: دعوی حقوقی علیه وال استریت ژورنال و تلاش برای به تعویق انداختن شهادت مورداک نشان‌دهنده پیچیدگی روابط مورداک و ترامپ است. مورداک، با وجود حمایت تاریخی از سیاست‌های محافظه‌کارانه، با انتشار گزارش‌های حساس درباره اپستین، استقلال journalistic وال استریت ژورنال را حفظ کرده، اما این امر روابط با پایگاه MAGA ترامپ را به خطر انداخته است.
  • تهدید هوش مصنوعی: اشاره به «هوش مصنوعی بیدار» و سرقت محتوا بخشی از استراتژی گسترده‌تر نیوز کورپ برای فشار بر شرکت‌های فناوری است. این شرکت قبلاً با OpenAI توافقی ۲۵۰ میلیون دلاری برای استفاده از محتوایش امضا کرده و علیه Perplexity AI نیز شکایت کرده است، که نشان‌دهنده رویکرد دوگانه «همکاری و诉讼» است.

نکات برجسته:

  • اهمیت برای نیوز کورپ: این درخواست از ترامپ نه‌تنها تلاشی برای محافظت از حقوق مالکیت فکری است، بلکه نشانه‌ای از استراتژی مورداک برای حفظ نفوذ سیاسی و تجاری در عصر دیجیتال است.
  • چشم‌انداز آینده: موفقیت REA و رشد اشتراک‌های دیجیتال نشان می‌دهد که نیوز کورپ به‌خوبی در حال تطبیق با تغییرات بازار است، اما چالش‌های حقوقی و کاهش درآمد در بخش‌های سنتی همچنان تهدید هستند.
  • رابطه با ترامپ: تلاش برای جلب حمایت ترامپ در حالی که دعوی حقوقی ادامه دارد، نشان‌دهنده مهارت مورداک در مدیریت روابط پیچیده سیاسی و رسانه‌ای است.

برای کاهش ریسک قانونی استفاده از داده‌های کتاب‌ها یا دیگر آثار دارای حق نشر در آموزش مدل‌های هوش مصنوعی، شرکت‌ها باید راه‌حل‌هایی مسئولانه، شفاف، و مطابق با قانون طراحی کنند. در ادامه به‌صورت مرحله‌ای و تحلیلی توضیح داده‌ام که چگونه این راهکارها قابل طراحی و پیاده‌سازی هستند:


تدوین سیاست‌های داده‌محور شفاف و قابل دفاع حقوقی

  • چرا مهم است؟ شکایات اخیر مانند دعوی علیه OpenAI به‌خاطر استفاده از محتوای کتاب ترامپ نشان می‌دهد نبود سیاست داده شفاف، ریسک‌پذیری قانونی را افزایش می‌دهد.
  • چه باید کرد؟
    • مستندسازی دقیق منابع داده (کتاب، مقاله، وب‌سایت).
    • تفکیک داده‌های دارای مجوز، مالکیت عمومی، یا تحت استفاده منصفانه (Fair Use).
    • شفاف‌سازی فرآیند جمع‌آوری و استفاده از داده در اسناد مدل.

بستن قراردادهای مجوز محتوا (Content Licensing) با ناشران

  • چرا مهم است؟ استفاده از محتوای دارای کپی‌رایت، بدون مجوز، منجر به دعاوی حقوقی می‌شود.
  • چه باید کرد؟
    • مذاکره با ناشران و پلتفرم‌های محتوا برای خرید یا لایسنس رسمی متون.
    • مدل‌سازی اقتصادی روی هزینه لایسنس در مقابل جریمه‌های احتمالی حقوقی.

استفاده از داده‌های Synthetic یا بازسازی‌شده

  • تعریف: ایجاد متون مشابه ولی متفاوت از متن اصلی به کمک مدل‌های زبان قبلی یا با بازنویسی.
  • مزیت: کاهش ریسک کپی‌رایت، حفظ ویژگی‌های آماری داده اصلی.

جدا کردن فاز Pretraining و Fine-Tuning با سیاست داده متفاوت

  • در Pretraining: از داده‌های عمومی و کم‌ریسک استفاده شود.
  • در Fine-Tuning: از داده‌های تخصصی با مجوز مشخص برای کاربرد خاص سازمان.

ابزارهای شناسایی داده‌های دارای ریسک کپی‌رایت

  • توسعه یا استفاده از ابزارهای AI برای:
    • تشخیص خودکار شباهت متون به منابع دارای کپی‌رایت.
    • فیلتر کردن محتواهای حساس پیش از ورود به پایگاه داده آموزشی.

پیاده‌سازی «Right to Opt-Out» برای نویسندگان

  • همان‌طور که برخی نویسندگان و ناشران مانند New York Times و Authors Guild مطالبه کرده‌اند، شرکت‌ها می‌توانند:
    • پورتال Opt-Out طراحی کنند.
    • یا APIهایی برای ناشران ایجاد کنند تا آثار خود را از فرایند یادگیری AI حذف کنند.

افزودن ممیزی قانونی در چرخه عمر مدل

  • تعریف مراحل بررسی قانونی در:
    • انتخاب و پردازش داده.
    • مستندسازی آموزش مدل.
    • بررسی پاسخ‌های تولیدشده برای رعایت حقوق نشر.

پیروی از چارچوب‌های مسئولیت‌پذیری بین‌المللی (مثلاً EU AI Act)

  • استفاده از معیارهای مسئولانه‌بودن مدل:
    • Explainability
    • Data Governance
    • Transparency
    • Fairness
  • ثبت مدل در پایگاه‌های نظارتی در صورت نیاز (مثل EU AI Database).

نمونه عملیاتی پیشنهادی برای سازمان‌ها:

مرحله راهکار پیشنهادی
۱. جمع‌آوری داده فقط از منابع دارای مجوز (Creative Commons، Public Domain)
۲. پردازش پاک‌سازی داده‌های پرریسک با ابزارهای NLP
۳. آموزش جداسازی مدل‌های پیش‌تربیت و مدل‌های کاربردی
۴. پیاده‌سازی اتصال API سیاست‌های استفاده مسئولانه و opt-out
۵. پایش مستمر استفاده از ابزار شناسایی ریسک پاسخ‌های تولیدشده

نتیجه‌گیری راهبردی:

برای آینده پایدار در آموزش مدل‌های AI، سازمان‌ها باید از الگوهای یادگیری اخلاق‌محور و قانونی‌محور استفاده کنند. این نه تنها ریسک حقوقی را کاهش می‌دهد، بلکه به ایجاد اعتماد عمومی و رقابت‌پذیری بلندمدت در بازار منجر می‌شود.

در ادامه یک چک‌لیست اجرایی و یک سند سیاست‌های داده برای استفاده از AI در سازمان‌ها آورده شده که به شرکت‌ها کمک می‌کند از داده‌ها به‌صورت مسئولانه استفاده کرده، ریسک قانونی را کاهش دهند و مطابق قوانین حریم خصوصی و کپی‌رایت عمل کنند:


چک‌لیست اجرایی استفاده مسئولانه از داده در پروژه‌های AI

مرحله اقدام توضیحات
۱. شناسایی داده‌ها بررسی منابع داده مشخص‌کردن اینکه داده‌ها از کجا تهیه شده‌اند (عمومی، اختصاصی، دارای مجوز)
۲. طبقه‌بندی داده‌ها تعیین سطح حساسیت داده‌ها را به عمومی، خصوصی، محرمانه و دارای کپی‌رایت طبقه‌بندی کنید
۳. دریافت مجوز بررسی مالکیت حقوقی برای استفاده از کتاب‌ها، مقالات، یا محتواهای دارای کپی‌رایت، مجوز دریافت شود
۴. مستندسازی ثبت منبع و روش استفاده تمام منابع و نحوه استفاده از داده‌ها مستند شود (برای ممیزی و پاسخگویی)
۵. حذف داده‌های حساس پاک‌سازی داده‌ها حذف اطلاعات شخصی و حساس طبق اصول privacy-by-design
۶. استفاده از داده مصنوعی یا خلاصه‌شده جایگزینی داده‌ها در صورت حساس بودن داده، از نسخه‌های خلاصه یا synthetic استفاده شود
۷. کنترل دسترسی ️ اعمال محدودیت دسترسی به داده‌های آموزش باید محدود به افراد مجاز باشد
۸. تست قانونی ⚖️ بازبینی حقوقی تیم حقوقی بررسی کند که آیا داده‌ها نقض قوانین کپی‌رایت یا GDPR نمی‌کنند
۹. تعیین سیاست نگهداری ️ مدت زمان نگهداری داده داده‌ها باید مدت مشخصی ذخیره شوند و سپس حذف یا آرشیو شوند
۱۰. مستندسازی خروجی مدل ثبت خروجی‌ها بررسی شود که آیا خروجی مدل محتوای محافظت‌شده را بازتولید نمی‌کند
 

سند سیاست‌های داده برای پروژه‌های هوش مصنوعی

عنوان: سیاست استفاده مسئولانه از داده در پروژه‌های هوش مصنوعی
نسخه: 1.۰
تاریخ تصویب: 2025/۰۸/۰۶
مرجع: تیم حقوقی + واحد تحقیق و توسعه

۱. هدف

تعیین خط‌مشی رسمی شرکت در استفاده از داده‌ها برای توسعه، آموزش، fine-tune و استقرار مدل‌های هوش مصنوعی، با رعایت اصول اخلاقی و قوانین مرتبط.

۲. دامنه

این سیاست شامل همه پروژه‌های AI، کارکنان، پیمانکاران، و ابزارهایی است که در آن‌ها از داده برای آموزش مدل یا inference استفاده می‌شود.

۳. اصول کلیدی

اصل شرح
شفافیت تمام داده‌های مورد استفاده باید دارای مستندات دقیق در مورد منبع، مجوز و هدف باشند.
حداقل‌گرایی تنها از داده‌هایی استفاده شود که برای هدف آموزش ضروری هستند.
حفاظت از حریم خصوصی استفاده از داده‌های شخصی تنها با رضایت و مطابق مقررات (مثل GDPR) مجاز است.
احترام به مالکیت فکری هیچ داده‌ای که دارای کپی‌رایت است بدون مجوز معتبر استفاده نمی‌شود.
مسئولیت خروجی مدل خروجی‌های مدل که محتوای تولیدشده را شامل می‌شوند، نباید ناقض حقوق نویسنده یا ناشر باشند.
 

۴. مراحل ارزیابی پروژه

  1. بررسی منبع داده‌ها (open source, licensed, user data)

  2. ارزیابی ریسک قانونی توسط تیم حقوقی

  3. بررسی وجود اطلاعات حساس یا شخصی

  4. تست مدل برای جلوگیری از بازتولید مستقیم محتوای دارای حق نشر

  5. بازبینی سالانه سیاست‌ها و داده‌ها

۵. پیاده‌سازی

  • هر پروژه AI باید دارای “مدیر مسئول داده” باشد.

  • هر مدل باید قبل از استقرار توسط تیم اخلاق و حقوق مورد بررسی نهایی قرار گیرد.

  • سیستم هشدار خودکار برای کشف موارد استفاده از محتوای محافظت‌شده در خروجی مدل فعال شود.

۶. ضمانت اجرا

  • تخطی از این سیاست می‌تواند منجر به اقدامات انضباطی، شکایات قانونی یا ضرر مالی شود.

  • همه اعضای سازمان باید دوره آموزشی سیاست داده AI را گذرانده و گواهی دریافت کنند.

به این مطلب امتیاز دهید:
تعداد رأی‌دهندگان: ۴ میانگین امتیاز: ۵

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *