آرشیو برچسبها: Cybersecurity
اخبار سایبری دسامبر ۲۰۲۵: حملات پیشرفته و هشدارها
امنیت سایبری را اولویت میکند، ممکن است ۲۰٪ بودجههای امنیتی شرکتها را افزایش دهد.
هوش مصنوعی ممکن است پاسخ بهتری برای مقاومت در برابر فیشینگ باشد
امنیت سایبری را تقویت میکند، ممکن است ۳۰٪ حملات فیشینگ را کاهش دهد و رقابت ابزارهای امنیتی را افزایش دهد.
هوش مصنوعی در ۲۰۲۶ رشد و تقاضای امنیتی جدید ایجاد میکند
شرکتهای امنیتی را تقویت میکند، ممکن است بازار cybersecurity AI را ۴۰٪ رشد دهد و مقررات را سختتر سازد.
آمازون سه عامل AI جدید (Frontier Agents) را معرفی کرد، از کدنویسی تا امنیت
عاملهای AI را برای enterprise واقعی میکند، ممکن است بهرهوری توسعهدهندگان را ۴۰٪ افزایش دهد و رقابت با GitHub Copilot را شدیدتر کند.
پیشرفت در پذیرش AI و داده در کسبوکارهای سنگاپور، با چالش امنیت سایبری
این واقعیت که کسبوکارهای تجاری — نه فقط شرکتهای فناوری، به AI روی آوردهاند، نشاندهنده بلوغ بازار است. اما چالش امنیت سایبری هشدار میدهد که بدون سرمایهگذاری در محافظت داده و زیرساخت امن، این پذیرش میتواند آسیبپذیر باشد.
Anthropic اولین حمله سایبری کاملاً AI-orchestrated توسط هکرهای چینی را متوقف کرد
زنگ خطر برای سوءاستفاده دولتی از AI، ممکن است قوانین نظارت بر ابزارهای کدنویسی سختتر شود.
اختلال آنتروپیک در اولین حمله سایبری ارکسترشده توسط AI توسط هکرهای چینی
شرکت آنتروپیک (Anthropic) اعلام کرد که هکرهای مورد حمایت دولت چین از مدل Claude Code برای خودکارسازی ۸۰-۹۰٪ فرآیندهای حمله سایبری استفاده کردهاند، از جمله تحقیق روی اهداف، نوشتن ایمیلهای فیشینگ و دیباگ کدهای مخرب.
ضعفهای امنیتی جدی در فریمورکهای استنتاج AI کشف شد
پژوهشگران شرکت Oligo Security نقایص امنیتی «اجرای کد از راه دور» (RCE) را در فریمورکهای استنتاج AI مانند Meta’s Llama Stack، Nvidia’s TensorRT-LLM، vLLM و SGLang کشف کردهاند.
AI عوامل (Agents) درِ حملات سایبری جدید را باز میکنند
این خبر نقطهای مهم از تحول در امنیت سایبری را نشان میدهد: وقتی AI تبدیل به عامل فعال میشود، خطرات جدیدی ایجاد میکند، نه فقط از دید حمله به داده بلکه حمله به خود عاملها.
چهار روند عمده AI در منطقه آسیا–پاسفیک برای سال ۲۰۲۶ معرفی شد
این گزارش نشاندهنده حرکت سازمانها از «پایلوت AI» به «عملیاتیسازی AI عامل» است؛ دیگر فقط آزمون نیست بلکه عنصر دائمی در سازمان میشود.
نگرانیهای شدید متخصصان امنیت نسبت به تهدیدات AI
طبق گزارش منتشرشده، حدود ۵۱٪ از متخصصان امنیت سایبری در اروپا بر این باورند که تهدیدات مبتنی بر هوش مصنوعی و دیپفیکها بزرگترین چالش امنیتی سال آینده خواهند بود.
افزایش نگرانی متخصصان امنیت از تهدیدات AI در سال ۲۰۲۶
گزارش جدید از ISACA نشان میدهد که ۵۱٪ از متخصصان امنیت سایبری در اروپا بر این باورند که تهدیدات مبتنی بر هوش مصنوعی و دیپفیکها مهمترین چالش امنیتی سال آینده خواهند بود.
پروژه امنیتی ATLANTIS: یک سیستم ترکیبی برای کشف و تعمیر خودکار آسیبپذیریهای نرمافزاری
مقاله جدید در arXiv معرفی میکند که گروهی از دانشگاهها و مؤسسات تحقیقاتی پروژهای به نام ATLANTIS را توسعه دادهاند، سیستمی که با ترکیب مدل زبانی بزرگ (LLM) و تحلیل برنامه (symbolic execution, fuzzing) میتواند آسیبپذیریهای نرمافزاری را شناسایی و تعمیر کند.
Picus Security قابلیت جدید AI برای شبیهسازی حملات سایبری عرضه کرد
شرکت امنیت سایبری Picus Security قابلیت جدیدی در پلتفرم Breach & Attack Simulation (BAS) خود ارائه کرده است که بهصورت هوشمندانه سناریوهای حمله را شبیهسازی کرده و از هوش مصنوعی برای پیشبینی راهبردهای تهدیدات بهره میبرد.
زنگ خطر توسط DeepSeek در مورد خروجیهای سوگیریشده هوش مصنوعی و ریسک سازمانی به صدا درآمد
خبر بایاس DeepSeek AI زنگ خطری برای سازمانها و سیاستگذاران است که AI را از ابزار نوآوری به میدان ژئوپلیتیک تبدیل کرده است. نفوذ سانسور دولتی چین در خروجیهای DeepSeek، اعتماد به مدلهای چینی را تضعیف میکند و ریسکهای امنیتی، عملیاتی و شهرتی را برای سازمانها ایجاد میکند. این مشکل سیستمیک، فراتر از DeepSeek، نشاندهنده نیاز فوری به استانداردهای جهانی AI است.
تهدید حملات صفر-روزه AI (Zero-day AI attack)
گزارشهای اخیر هشداری ارائه دادهاند که عاملان مخرب با استفاده از عاملهای خودکار AI ممکن است به حملات سایبری جدیدی روی بیاورند که به سختی قابل ردگیریاند و از آسیبپذیریهای شخصیسازیشده استفاده میکنند.
ظهور «Dark AI» بهعنوان ابزار جدید جرایم سایبری
نفوذ هوش مصنوعی تاریک (Dark AI) در جرایم سایبری رشد قابلتوجهی دارد. این نوع استفادهٔ غیرقانونی از AI، شامل سیستمهایی است که برای حملات سایبری خودکار، فیشینگ، تولید بدافزارهای هوشمند یا نفوذ به شبکهها بهکار میروند.
هشدار درباره خطرات احتمالی AI فوقهوشمند
این تحلیلگر یکی از طرفداران اتخاذ اقداماتی در راستای ایمنی AI پیش از ورود به دورهای است که کنترل آن سخت یا ناممکن گردد. پیام او به خوبی ریسکهای احتمالی را یادآوری مینماید و ضرورت ساخت چارچوبهای سختگیرانه برای جلوگیری از رفتارهای غیرقابل پیشبینی AI را برجسته میسازد.
سایبری در برابر تهدیدات هوش مصنوعی: نیاز به حفاظت پیشگیرانه
موج جدید تهدیدات سایبری هوشمحور نیازمند تحول در استراتژی امنیت دیجیتال است؛ سیستمها باید نه فقط دفاعی بلکه واکنشی و پیشگیرانه باشند تا از حملات AI-enabled مقابله کنند.
Project Ire مایکروسافت برای تشخیص بدافزار بدون دخالت انسان
در آزمایشی واقعی روی حدود ۴۰۰۰ فایل بررسیشده توسط Defender، ۹۰٪ از فایلهایی که Project Ire تشخیص داده بود، واقعاً بدافزار بودهاند. اما حساسیت آن (recall) تنها حدود ۲۵٪ بوده.