تیم تحریریه استاد ای تی گزارش می دهد: دنیای فناوری با یک هشدار جدی از سوی پیشگامان هوش مصنوعی روبرو شده است. شرکت OpenAI در گزارشی جامع و هیجان انگیز اعلام کرد که نبرد در جبهه های دیجیتال وارد فاز جدیدی شده است. این غول فناوری موفق شده است بیش از ۴۰ شبکه سازمان یافته را که از قدرت مدل های زبانی برای نقض سیاست های امنیتی و انجام عملیات های مخرب استفاده می کردند شناسایی و متوقف کند. این خبر نه تنها یک گزارش فنی بلکه زنگ خطری برای تمام زیرساخت های دیجیتال در سراسر جهان است.
نفوذ به قلب زیرساخت ها: ردپای CyberAv3ngers و Storm-0817
در میان موارد افشا شده نام گروه های شناخته شده ای به چشم می خورد که با استفاده از ChatGPT به دنبال اهداف خطرناکی بوده اند. گروه CyberAv3ngers که به فعالیت های سایبری علیه زیرساخت های حیاتی شهرت دارد از این هوش مصنوعی برای تحقیق درباره سیستم های کنترل صنعتی یا همان ICS استفاده کرده است. هدف آن ها شناسایی نقاط ضعف در تصفیه خانه های آب در ایالات متحده و اسرائیل بوده است. این گروه با پرسش های تخصصی سعی داشتند کدهای مخرب خود را بهینه سازی کرده و راه های نفوذ به شبکه های ایزوله را پیدا کنند.
از سوی دیگر گروه Storm-0817 با رویکردی متفاوت به سراغ توسعه بدافزارهای جاسوسی برای سیستم عامل اندروید رفته است. آن ها از مدل های OpenAI برای نوشتن اسکریپت های استخراج داده از شبکه های اجتماعی مانند اینستاگرام و همچنین تحقیق درباره آسیب پذیری های وب (Web Vulnerabilities) استفاده کرده اند. این نشان می دهد که هوش مصنوعی مولد (Generative AI) چگونه می تواند به عنوان یک کاتالیزور در دستان بازیگران دولتی و غیر دولتی عمل کند تا فرآیندهای پیچیده مهندسی معکوس و تولید بدافزار را با سرعتی باورنکردنی انجام دهند.
آمار تکان دهنده از وضعیت امنیت سایبری در سال ۲۰۲۵ و ۲۰۲۶
طبق داده های منتشر شده توسط منابع معتبری همچون Check Point و Microsoft حملات سایبری در سال ۲۰۲۵ با رشدی ۷۰ درصدی نسبت به سال های گذشته روبرو شده است. سازمان ها به طور میانگین با ۱۹۶۸ حمله در هفته مواجه هستند که بخش بزرگی از این افزایش ناشی از دسترسی هکرها به ابزارهای هوش مصنوعی است. هزینه جهانی جرایم سایبری در سال ۲۰۲۵ به رقم خیره کننده ۱۰.۵ تریلیون دلار رسیده است که نشان دهنده ابعاد وسیع این تهدید دیجیتال است.
| شاخص امنیتی | مقدار در سال ۲۰۲۵/۲۰۲۶ | منبع آماری |
|---|---|---|
| میانگین حملات هفتگی به سازمان ها | ۱۹۶۸ حمله | Check Point Research |
| رشد حملات نسبت به سال ۲۰۲۳ | ۷۰ درصد افزایش | Security Report 2026 |
| هزینه جهانی جرایم سایبری | ۱۰.۵ تریلیون دلار | Cybersecurity Ventures |
| نرخ شناسایی کلاهبرداری توسط هوش مصنوعی | ۳ برابر بیشتر از تولید آن | OpenAI Report |
تحلیل تخصصی: هوش مصنوعی؛ شمشیر دو لبه در دستان هکرها
کارشناسان استاد ای تی معتقدند که ما در حال گذار از دوران حملات سنتی به دوران حملات هوشمند هستیم. در این گزارش OpenAI به وضوح اشاره شده است که هکرها از هوش مصنوعی برای خلق قابلیت های کاملا جدید استفاده نمی کنند بلکه از آن برای سرعت بخشیدن به متدهای قدیمی خود بهره می برند. این یعنی هوش مصنوعی به عنوان یک “جعبه ابزار توسعه” یا Development Sandbox عمل می کند که زمان لازم برای تحقیق درباره یک آسیب پذیری یا نوشتن یک ایمیل فیشینگ متقاعد کننده را از چند روز به چند دقیقه کاهش می دهد.
استفاده از واژه نامه های تخصصی و گلاسری های امنیتی مانند CVE (Common Vulnerabilities and Exposures) و APT (Advanced Persistent Threat) در تعاملات این گروه ها با ChatGPT نشان دهنده سطح بالای دانش فنی آن هاست. با این حال نکته امیدوارکننده اینجاست که سیستم های دفاعی مبتنی بر هوش مصنوعی نیز با همان سرعت در حال پیشرفت هستند. طبق گزارش مایکروسافت مدل های دفاعی اکنون می توانند نشانه های اولیه حملات را بسیار سریع تر از انسان تشخیص داده و قبل از وقوع فاجعه آن ها را خنثی کنند.
جمع بندی و نگاه به آینده
در نهایت گزارش OpenAI ثابت می کند که امنیت در عصر هوش مصنوعی گزینه ایی نیست که در زمان وقوع باید آن را مهار کرد بلکه یک ضرورت حیاتی است که باید در زمان های مختلف موضوعات گوناگون آنها را بررسی و عملیات های پیشگیرانه را در نظر گرفت. شناسایی و مسدود سازی حساب های مرتبط با عملیات های نفوذ نشان دهنده مسئولیت پذیری توسعه دهندگان بزرگ هوش مصنوعی است. اما کاربران و سازمان ها نیز باید با آگاهی از این تهدیدات و استفاده از ابزارهای دفاعی نوین خود را برای مقابله با موج جدید حملات آماده کنند. آینده امنیت دیجیتال در گرو پیروزی هوش مصنوعی مدافع بر هوش مصنوعی مهاجم خواهد بود.
منابع: OpenAI – Disrupting malicious uses of AI

