امنیت و هک
گزارش Gartner درباره فناوریهای موثر در سال ۲۰۲۶
گارتنر فهرستی از فناوریهای راهبردی که در سال ۲۰۲۶ تأثیرگذار خواهند بود منتشر کرده است؛ از جمله «پلتفرمهای امنیت AI»، «محاسبات محرمانه (confidential computing)»، «AI فیزیکی (Physical AI)» و «پیشبینی دیجیتال (digital provenance)».
افزایش نگرانی متخصصان امنیت از تهدیدات AI در سال ۲۰۲۶
گزارش جدید از ISACA نشان میدهد که ۵۱٪ از متخصصان امنیت سایبری در اروپا بر این باورند که تهدیدات مبتنی بر هوش مصنوعی و دیپفیکها مهمترین چالش امنیتی سال آینده خواهند بود.
پروژه امنیتی ATLANTIS: یک سیستم ترکیبی برای کشف و تعمیر خودکار آسیبپذیریهای نرمافزاری
مقاله جدید در arXiv معرفی میکند که گروهی از دانشگاهها و مؤسسات تحقیقاتی پروژهای به نام ATLANTIS را توسعه دادهاند، سیستمی که با ترکیب مدل زبانی بزرگ (LLM) و تحلیل برنامه (symbolic execution, fuzzing) میتواند آسیبپذیریهای نرمافزاری را شناسایی و تعمیر کند.
Picus Security قابلیت جدید AI برای شبیهسازی حملات سایبری عرضه کرد
شرکت امنیت سایبری Picus Security قابلیت جدیدی در پلتفرم Breach & Attack Simulation (BAS) خود ارائه کرده است که بهصورت هوشمندانه سناریوهای حمله را شبیهسازی کرده و از هوش مصنوعی برای پیشبینی راهبردهای تهدیدات بهره میبرد.
حمله زنجیرهای ناشی از یک اپلیکیشن هوش مصنوعی: افشای اطلاعات صدها شرکت
یک شرکت ارائهدهنده چتبات مبتنی بر هوش مصنوعی (Salesloft-Drift) دچار نفوذ امنیتی شد و این نفوذ منجر به افشای اطلاعات بیش از ۷۰۰ شرکت – برخی از آنها شرکتهای امنیت سایبری خودشان، گردید.
زنگ خطر توسط DeepSeek در مورد خروجیهای سوگیریشده هوش مصنوعی و ریسک سازمانی به صدا درآمد
خبر بایاس DeepSeek AI زنگ خطری برای سازمانها و سیاستگذاران است که AI را از ابزار نوآوری به میدان ژئوپلیتیک تبدیل کرده است. نفوذ سانسور دولتی چین در خروجیهای DeepSeek، اعتماد به مدلهای چینی را تضعیف میکند و ریسکهای امنیتی، عملیاتی و شهرتی را برای سازمانها ایجاد میکند. این مشکل سیستمیک، فراتر از DeepSeek، نشاندهنده نیاز فوری به استانداردهای جهانی AI است.
تهدید حملات صفر-روزه AI (Zero-day AI attack)
گزارشهای اخیر هشداری ارائه دادهاند که عاملان مخرب با استفاده از عاملهای خودکار AI ممکن است به حملات سایبری جدیدی روی بیاورند که به سختی قابل ردگیریاند و از آسیبپذیریهای شخصیسازیشده استفاده میکنند.
ظهور «Dark AI» بهعنوان ابزار جدید جرایم سایبری
نفوذ هوش مصنوعی تاریک (Dark AI) در جرایم سایبری رشد قابلتوجهی دارد. این نوع استفادهٔ غیرقانونی از AI، شامل سیستمهایی است که برای حملات سایبری خودکار، فیشینگ، تولید بدافزارهای هوشمند یا نفوذ به شبکهها بهکار میروند.
هشدار درباره خطرات احتمالی AI فوقهوشمند
این تحلیلگر یکی از طرفداران اتخاذ اقداماتی در راستای ایمنی AI پیش از ورود به دورهای است که کنترل آن سخت یا ناممکن گردد. پیام او به خوبی ریسکهای احتمالی را یادآوری مینماید و ضرورت ساخت چارچوبهای سختگیرانه برای جلوگیری از رفتارهای غیرقابل پیشبینی AI را برجسته میسازد.
Project Ire مایکروسافت برای تشخیص بدافزار بدون دخالت انسان
در آزمایشی واقعی روی حدود ۴۰۰۰ فایل بررسیشده توسط Defender، ۹۰٪ از فایلهایی که Project Ire تشخیص داده بود، واقعاً بدافزار بودهاند. اما حساسیت آن (recall) تنها حدود ۲۵٪ بوده.
Anthropic’s Claude به عنوان قهرمان مسابقات هک شناخته شد
مدل AI شرکت Anthropic، با نام Claude، در رقابتهای معتبر هک مانند PicoCTF، Hack the Box و مسابقات دفاع سایبری کالج، عملکردی فراتر از تیمهای انسانی از خود نشان داده و در زمینههای مانند مهندسی معکوس و نفوذ به سیستمها موفق بوده است.