هوش مصنوعی

تاخیر احتمالی اجرای AI Act اتحادیه اروپا

شرکت‌هایی بزرگ مانند Google، Meta، Mistral و ASML در بیانیه‌ای مشترک از کمیسیون اروپا خواسته‌اند اجرای قوانین سخت‌گیرانه AI Act که قرار است از ۲ اوت ۲۰۲۵ آغاز شود، به تعویق بیافتد.


تحلیل:
  • اهداف مقررات: شفافیت، مستندسازی فنی، تست تبعیض و بهره‌وری انرژی برای مدل‌های AI عمومی و نظارت شدیدتر برای مدل‌های پرخطر.
  • چالش‌ها: نبود راهکارهای روشنی برای اجرای این قوانین، هزینه‌های سنگین مطابقت‌پذیری، و پیچیدگی فنی زیاد.
  • پیامدها:
    • فعالان ریز و درشت بدنبال آرامش هستند: شرکت‌های اروپایی کوچک نگرانند فشار رگولاتوری مانع نوآوری شود.
    • فرصت برای فرصت‌طلبی قانونی: تعطیلی موقتی قوانین، می‌تواند به بروز راهکارهای جدید و مدل‌های همکاری بین‌المللی کمک کند.
    • تعادل میان رشد و حفاظت: تعویق، زمان بیشتری برای تدوین چارچوب‌های اجرایی به‌جا فراهم می‌کند؛ اما به تاخیر در حفاظت از کاربران منجر می‌شود.

تحلیل جامع درخواست شرکت‌ها برای به تعویق انداختن قانون هوش مصنوعی اتحادیه اروپا

درخواستی از سوی بیش از ۱۱۰ سازمان اروپایی، از جمله شرکت‌های برجسته ASML، SAP و Mistral AI، به اتحادیه اروپا ارسال شده است تا اجرای قانون هوش مصنوعی (AI Act) این اتحادیه به تعویق بیفتد. این شرکت‌ها هشدار می‌دهند که این مقررات، در صورت اجرای عجولانه، می‌تواند جاه‌طلبی‌های اروپا در زمینه هوش مصنوعی را به خطر اندازد و مانع از نوآوری شود.

۱. خلاصه درخواست شرکت‌ها

شرکت‌های ASML Holding NV، SAP SE، Mistral AI و بیش از ۱۱۰ سازمان اروپایی دیگر در نامه‌ای مشترک به اتحادیه اروپا خواستار تعلیق اجرای قانون هوش مصنوعی شده‌اند. دلیل اصلی این درخواست، نگرانی آن‌ها از عدم قطعیت‌های نظارتی، فقدان دستورالعمل‌های نهایی، و پتانسیل این قانون برای خفه کردن نوآوری و از بین بردن مزیت رقابتی اروپا در صحنه جهانی هوش مصنوعی است. آن‌ها استدلال می‌کنند که بدون راهنمایی‌های روشن، به ویژه در مورد مدل‌های هوش مصنوعی عمومی (GPAI) و سیستم‌های پرخطر، شرکت‌ها قادر به رعایت مقررات نخواهند بود و با جریمه‌های سنگین (تا ۷٪ از فروش سالانه) مواجه خواهند شد.

۲. پروفایل شرکت‌های کلیدی و ارتباط آن‌ها با هوش مصنوعی

  • ASML (Advanced Semiconductor Materials Lithography):
    • نقش: یک شرکت چندملیتی هلندی و رهبر جهانی بلامنازع در تولید ماشین‌آلات فوتولیتوگرافی برای ساخت نیمه‌رساناها، به ویژه فناوری لیتوگرافی فرابنفش (EUV). این ماشین‌آلات برای تولید پیشرفته‌ترین تراشه‌ها که قلب سخت‌افزار هوش مصنوعی مدرن هستند، حیاتی می‌باشند.
    • دلیل نگرانی: اگرچه ASML مستقیماً یک شرکت هوش مصنوعی نیست، اما فناوری آن برای مشتریانش (تراشه‌سازان) و اکوسیستم گسترده‌تر فناوری ضروری است. نگرانی این شرکت احتمالاً از تأثیر این قانون بر مشتریان خود و توانایی آن‌ها در نوآوری، و همچنین نیاز به اطمینان از عدم ایجاد اختلال در زنجیره تأمین جهانی تراشه‌ها ناشی می‌شود. ASML به شدت در تحقیق و توسعه سرمایه‌گذاری می‌کند و به دنبال یک اکوسیستم نوآوری قوی است که ممکن است تحت تأثیر قوانین دست و پا گیر قرار گیرد.
    • ASML Holding – Wikipedia
    • Innovation ecosystem | ASML – Supplying the semiconductor industry
  • SAP:
    • نقش: یک شرکت نرم‌افزاری چندملیتی آلمانی و پیشرو در نرم‌افزارهای برنامه‌ریزی منابع سازمانی (ERP). SAP به طور گسترده در هوش مصنوعی تجاری (SAP Business AI) سرمایه‌گذاری می‌کند و قابلیت‌های هوش مصنوعی (مانند Joule، هوش مصنوعی مولد کواپایلوت خود) را در تمام عملکردهای تجاری خود (زنجیره تأمین، مالی، تدارکات، منابع انسانی، فروش و غیره) ادغام می‌کند.
    • دلیل نگرانی: نگرانی SAP مستقیماً به توانایی آن در توسعه، استقرار و فروش راه‌حل‌های مبتنی بر هوش مصنوعی به پایگاه مشتریان گسترده خود مربوط می‌شود. الزامات پیچیده قانون هوش مصنوعی می‌تواند بر چگونگی جمع‌آوری، پردازش و استفاده از داده‌ها توسط هوش مصنوعی و همچنین بر نیاز به شفافیت و قابلیت توضیح‌پذیری در سیستم‌های هوش مصنوعی آن تأثیر بگذارد.
    • SAP Business AI | AI Software Solutions | AI For Business
    • SAP Software Solutions | Business Applications and Technology
  • Mistral AI:
    • نقش: یک استارت‌آپ هوش مصنوعی فرانسوی است که در زمینه مدل‌های زبان بزرگ (LLMs) با وزن باز و همچنین مدل‌های اختصاصی تخصص دارد. این شرکت که توسط کارمندان سابق گوگل دیپ‌مایند و متا پلتفرمز تأسیس شده است، به سرعت رشد کرده و به عنوان یک رقیب اروپایی برای شرکت‌هایی مانند OpenAI شناخته می‌شود.
    • دلیل نگرانی: مدل کسب و کار Mistral AI مستقیماً تحت تأثیر مقررات مربوط به مدل‌های هوش مصنوعی عمومی قرار می‌گیرد، زیرا این مدل‌ها هسته اصلی کسب و کار آن‌ها هستند. فقدان دستورالعمل‌های نهایی و دقیق برای GPAI می‌تواند نوآوری در توسعه مدل‌های پایه را مختل کند و بار نظارتی سنگینی را بر این استارت‌آپ‌ها تحمیل کند.
    • Mistral AI – Wikipedia
    • Mistral AI | Company Overview & News – Forbes

۳. جزئیات قانون هوش مصنوعی اتحادیه اروپا و چالش‌های آن

قانون هوش مصنوعی اتحادیه اروپا یک رویکرد مبتنی بر ریسک را اتخاذ کرده و سیستم‌های هوش مصنوعی را به چهار دسته اصلی تقسیم می‌کند:

  • سیستم‌های هوش مصنوعی با ریسک غیرقابل قبول (ممنوع): این سیستم‌ها به دلیل تهدید آشکار برای ایمنی یا حقوق اساسی افراد (مانند سیستم‌های امتیازدهی اجتماعی دولتی، دستکاری شناختی-رفتاری، یا شناسایی بیومتریک بی‌هدف) ممنوع هستند. این ممنوعیت از فوریه ۲۰۲۵ لازم‌الاجرا شده است.
  • سیستم‌های هوش مصنوعی پرخطر: این سیستم‌ها در زمینه‌های حیاتی مانند زیرساخت‌های حیاتی، آموزش، استخدام، خدمات عمومی و خصوصی ضروری، اجرای قانون، مهاجرت و عدالت استفاده می‌شوند. آن‌ها مشمول الزامات سخت‌گیرانه‌ای مانند ارزیابی ریسک، شفافیت، نظارت انسانی، کیفیت داده‌ها و سیستم‌های مدیریت کیفیت هستند. این الزامات از آگوست ۲۰۲۶ لازم‌الاجرا می‌شوند. پیوست III قانون فهرستی از موارد استفاده پرخطر را مشخص می‌کند (مانند سیستم‌های مورد استفاده در استخدام، اعتبارسنجی، مدیریت مهاجرت).
  • سیستم‌های هوش مصنوعی با ریسک محدود: این سیستم‌ها (مانند چت‌بات‌ها یا سیستم‌های مولد محتوا) مشمول الزامات شفافیت هستند، به این معنی که کاربران باید از تعامل با یک سیستم هوش مصنوعی آگاه شوند.
  • مدل‌های هوش مصنوعی عمومی (GPAI) / مدل‌های بنیادی: این مدل‌ها قابلیت‌های گسترده‌ای دارند و می‌توانند اساس بسیاری از سیستم‌های هوش مصنوعی را تشکیل دهند (مانند GPT-4، DALL-E). قوانین مربوط به ارائه‌دهندگان GPAI از آگوست ۲۰۲۵ لازم‌الاجرا می‌شود. برای GPAI‌هایی که ریسک سیستمی قابل توجهی دارند، الزامات اضافی (مانند مدیریت ریسک و گزارش‌دهی حوادث) اعمال می‌شود. دفتر هوش مصنوعی اتحادیه اروپا در حال تهیه “کد عمل” (Code of Practice) برای تشریح این قوانین است که انتظار می‌رود تا اوت ۲۰۲۵ نهایی شود.

چالش‌ها برای شرکت‌ها:

  • ابهام در کد عمل GPAI: مهمترین نگرانی این است که “کد عمل” برای GPAI هنوز نهایی نشده است، در حالی که قوانین مربوط به آن در آگوست ۲۰۲۵ لازم‌الاجرا می‌شود. این امر به معنای آن است که شرکت‌ها باید با قوانینی که جزئیات آن‌ها هنوز مشخص نیست، مطابقت داشته باشند و این امر به “عدم قطعیت کامل” منجر می‌شود.
  • پیچیدگی و بار انطباق: الزامات قانون هوش مصنوعی، به ویژه برای سیستم‌های پرخطر و GPAI، بسیار پیچیده و گسترده است. این امر بار سنگینی را بر دوش شرکت‌ها، به خصوص استارت‌آپ‌ها و شرکت‌های کوچک و متوسط (SMEs)، تحمیل می‌کند.
  • ریسک جریمه‌های سنگین: جریمه‌های بالا (تا ۷٪ از فروش سالانه جهانی یا ۳۵ میلیون یورو) برای عدم انطباق، شرکت‌ها را به شدت نگران کرده است.
  • خطر fragmentation: عدم وجود دستورالعمل‌های نهایی و تفاسیر ملی متناقض می‌تواند به اجرای پراکنده و متناقض قانون در سراسر بازار واحد اروپا منجر شود.

۴. استدلال‌های شرکت‌ها برای تأخیر

شرکت‌ها استدلال‌های متعددی را برای به تعویق انداختن اجرای قانون هوش مصنوعی مطرح می‌کنند:

  • فقدان دستورالعمل‌های نهایی و “کد عمل” برای GPAI: مهمترین دلیل، عدم تکمیل “کد عمل” برای مدل‌های هوش مصنوعی عمومی است. شرکت‌ها نمی‌توانند با قوانینی که جزئیات آن‌ها هنوز مشخص نیست، مطابقت داشته باشند. این امر منجر به عدم قطعیت قانونی و عملیاتی می‌شود.
  • عدم قطعیت نظارتی و تکه‌تکه شدن بازار: نبود دستورالعمل‌های نهایی می‌تواند به تفسیرهای ملی متناقض منجر شود و یک “پازل نظارتی” را در بازار واحد اروپا ایجاد کند که به طور نامتناسبی بر شرکت‌های کوچک‌تر تأثیر می‌گذارد.
  • مانع‌تراشی در نوآوری و سرمایه‌گذاری: اجرای عجولانه این قانون بدون راهنمایی‌های کافی، خطر خفه کردن پیشرفت فناوری، دلسرد کردن سرمایه‌گذاری و عقب افتادن اروپا در رقابت جهانی هوش مصنوعی را به همراه دارد. شرکت‌ها ممکن است به “صلاحیت‌های چابک‌تر” کوچ کنند.
  • کاهش مزیت رقابتی در برابر رقبای جهانی: رقبایی در ایالات متحده، بریتانیا و آسیا تحت چارچوب‌های انعطاف‌پذیرتر و قابل پیش‌بینی‌تر عمل می‌کنند، که به آن‌ها در جذب استعداد، سرمایه‌گذاری و سهم بازار برتری می‌دهد.
  • بار انطباق: پیچیدگی و وسعت الزامات، به ویژه برای سیستم‌های پرخطر و GPAI، به معنای بار مالی و عملیاتی قابل توجهی برای شرکت‌ها است.
  • درخواست “توقف زمان”: شرکت‌ها خواستار توقف موقت برای بررسی و دقت بیشتر هستند تا چارچوبی منسجم و از نظر فنی دقیق ارائه شود. هدف آن‌ها کنار گذاشتن قانون نیست، بلکه اجرای کارآمد آن است.

۵. پیامدهای احتمالی (تأخیر در مقابل عدم تأخیر)

پیامدهای عدم تأخیر (آن‌گونه که شرکت‌ها استدلال می‌کنند):

پیامدهای تأخیر (مزایای احتمالی یا استدلال‌های متقابل):

  • تکمیل چارچوب قانونی: امکان نهایی شدن “کد عمل” و استانداردها، فراهم آوردن قطعیت قانونی برای شرکت‌ها.
  • پنجره انطباق منصفانه: دادن زمان کافی به شرکت‌ها برای آماده‌سازی و انطباق.
  • توسعه مسئولانه هوش مصنوعی: تضمین اینکه قانون از توسعه GPAI حمایت می‌کند و منجر به هوش مصنوعی قابل اعتماد می‌شود.
  • تحریک نوآوری: با ارائه دستورالعمل‌های ساختارمند، شرکت‌ها می‌توانند استراتژی‌های هوش مصنوعی خود را با الزامات انطباق از ابتدا هماهنگ کنند و در نهایت نوآوری را تسریع بخشند.

خطرات تأخیر (از دیدگاه اتحادیه اروپا یا منتقدان تأخیر):

  • کاهش حمایت‌ها: احتمال تضعیف حفاظت از حریم خصوصی، مصرف‌کننده، کار و محیط زیست.
  • تقویت شرکت‌های بزرگ فناوری: افزایش نفوذ شرکت‌های بزرگ فناوری.
  • خلق خلاءهای نظارتی: ایجاد فضایی که در آن سوءاستفاده‌های هوش مصنوعی بدون مقررات کافی رشد کند.
  • تضعیف نقش جهانی: اگر اتحادیه اروپا نتواند قدرت نظارتی خود را با رهبری فناوری هماهنگ کند، ممکن است به یک “قانون‌گذار صرف” تبدیل شود.

۶. واکنش‌ها و ذی‌نفعان

  • صنعت: همانطور که ذکر شد، بیش از ۱۱۰ سازمان اروپایی، از جمله شرکت‌های بزرگی مانند ایرباس، مرسدس بنز و دویچه لوفت‌هانزا، نامه درخواست تأخیر را امضا کرده‌اند. این نشان‌دهنده یک نگرانی گسترده در بخش فناوری اروپا است.
  • کشورهای عضو اتحادیه اروپا: لهستان و جمهوری چک ابراز تمایل به تأخیر کرده‌اند. اولف کریسترسون، نخست‌وزیر سوئد، نیز به طور رسمی از تعلیق حمایت کرده است.
  • کمیسیون و پارلمان اروپا: در حال حاضر، هیچ اطلاعیه رسمی و عمومی از سوی کمیسیون اروپا یا پارلمان اروپا مبنی بر تأخیر در اجرای قانون هوش مصنوعی در پاسخ به این درخواست منتشر نشده است. با این حال، هنا ویرکونن، رئیس فناوری کمیسیون اروپا، اذعان کرده است که “اگر ببینیم استانداردها و دستورالعمل‌ها به موقع آماده نیستند، نباید به تعویق انداختن برخی از بخش‌های قانون هوش مصنوعی را رد کنیم.” این نشان می‌دهد که کمیسیون در حال بررسی این موضوع است، اما هنوز تصمیم قاطعی گرفته نشده است.

۷. زمینه جهانی

رویکرد اتحادیه اروپا در قبال تنظیم مقررات هوش مصنوعی، که با “قانون هوش مصنوعی” خود نمایان می‌شود، به عنوان اولین چارچوب قانونی جامع هوش مصنوعی در جهان شناخته می‌شود. این رویکرد مبتنی بر ریسک و “پیش‌بینی‌پذیر” است و به دنبال ایجاد هوش مصنوعی قابل اعتماد و حمایت از حقوق اساسی است.

  • چین: چین رویکردی “تجویزی‌تر” را اتخاذ کرده است، به ویژه در مورد هوش مصنوعی مولد. مقررات آن بر موارد زیر تمرکز دارد:
    • قوانین برچسب‌گذاری: محتوای تولید شده توسط هوش مصنوعی باید به صراحت برچسب‌گذاری شود (از سپتامبر ۲۰۲۵ لازم‌الاجرا).
    • مسئولیت ارائه‌دهنده: ارائه‌دهندگان خدمات هوش مصنوعی مولد مسئول خروجی سیستم‌های خود هستند.
    • الزامات داده‌های آموزشی: داده‌های مورد استفاده برای آموزش باید الزامات سختگیرانه‌ای را رعایت کنند، از جمله عدم نقض مالکیت فکری و کسب رضایت برای اطلاعات شخصی.
    • نظارت بر محتوا: ارائه‌دهندگان باید اقداماتی برای فیلتر کردن محتوای نامناسب و بهینه‌سازی الگوریتم‌ها برای جلوگیری از تولید آن انجام دهند.
    • ارزیابی‌های امنیتی: خدمات جدید هوش مصنوعی مولد که به عموم ارائه می‌شوند، نیاز به ارزیابی امنیتی از سوی اداره فضای مجازی چین (CAC) دارند.
    • شفافیت الگوریتمی: تمرکز بر شفافیت الگوریتمی و بررسی‌های اخلاقی. چین رویکرد “عمودی” را در پیش گرفته و کاربردهای خاص هوش مصنوعی را تنظیم می‌کند.
    • China AI Regulations Explained: Compliance & Innovation
    • China’s New AI Regulations – Latham & Watkins LLP
    • China – AI Regulatory Horizon Tracker – Bird & Bird

مقایسه: رویکرد اتحادیه اروپا جامع، پیش‌بینی‌پذیر و مبتنی بر ریسک است، در حالی که رویکرد ایالات متحده داوطلبانه و تکه‌تکه است و رویکرد چین بر کنترل محتوا و امنیت ملی متمرکز است. قانون هوش مصنوعی اتحادیه اروپا پتانسیل تبدیل شدن به یک معیار جهانی را دارد، مشابه GDPR، اما چالش یافتن تعادل مناسب بین نوآوری و مقررات را نیز به همراه دارد تا از خروج نوآوری از قاره جلوگیری کند.

جمع‌بندی:

درخواست شرکت‌های بزرگ فناوری اروپایی برای تأخیر در اجرای قانون هوش مصنوعی اتحادیه اروپا، نشان‌دهنده تنش میان جاه‌طلبی‌های قانون‌گذاری اروپا برای تنظیم مسئولانه هوش مصنوعی و نیاز صنعت به انعطاف‌پذیری و قطعیت برای نوآوری است. در حالی که اتحادیه اروپا قصد دارد رهبری جهانی در هوش مصنوعی قابل اعتماد باشد، عدم تکمیل دستورالعمل‌ها و نگرانی‌ها در مورد بار انطباق می‌تواند به قیمت عقب‌ماندگی اروپا در صحنه رقابت جهانی تمام شود. آینده قانون هوش مصنوعی و تأثیر آن بر اکوسیستم فناوری اروپا به تصمیمات آتی کمیسیون در مورد درخواست این تأخیر بستگی خواهد داشت.

 

به این مطلب امتیاز دهید:
تعداد رأی‌دهندگان: ۸ میانگین امتیاز: ۵

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *