گوگل از کشف ۲۰ آسیب‌پذیری امنیتی توسط هوش مصنوعی خود خبر داد

گوگل اعلام کرده که باگ هانتر یا شکارچی باگ هوشمند این شرکت به‌نام Big Sleep توانسته ۲۰ آسیب‌پذیری امنیتی را کشف و گزارش کند.

براساس گزارش‌ها، این ابزار پیشرفته که توسط تیم هوش مصنوعی گوگل، DeepMind، و تیم هکرهای خبره Project Zero توسعه یافته است، نخستین بار این نقص‌ها را در نرم‌افزارهای متن‌باز محبوب مانند کتابخانه صوتی و تصویری FFmpeg و نرم‌افزار ویرایش تصویر ImageMagick شناسایی کرده است.

کشف ۲۰ باگ امنیتی توسط هوش مصنوعی گوگل

«هدر آدکینز»، معاون بخش امنیت گوگل، می‌گوید درحال‌حاضر جزئیات دقیقی درباره شدت و تأثیر این آسیب‌پذیری‌ها منتشر نشده، چرا که گوگل منتظر رفع مشکلات امنیتی است. این روال مطابق با سیاست‌های معمول در حوزه امنیت است که ابتدا نقص‌ها اصلاح شوند و سپس جزئیات عمومی اعلام گردد. بااین‌حال، کشف این ۲۰ آسیب‌پذیری توسط Big Sleep نشان‌دهنده توانمندی بالای ابزارهای مبتنی بر هوش مصنوعی در زمینه امنیت سایبری است.

«کیمبری سامرا»، سخنگوی گوگل، در مصاحبه با TechCrunch توضیح داد که هرچند عامل هوش مصنوعی بدون دخالت انسانی این آسیب‌پذیری‌ها را شناسایی و بازتولید کرده، اما پیش از گزارش نهایی، یک متخصص به دقت نتایج را بررسی و تأیید کرده تا اطمینان حاصل شود که کیفیت و صحت گزارش‌ها حفظ شده است.

«رویال هانسن»، معاون مهندسی گوگل، در شبکه اجتماعی ایکس عنوان کرد که این یافته‌ها نشان‌دهنده آغاز دوره جدیدی در کشف خودکار آسیب‌پذیری‌ها هستند. ابزارهای مشابه مانند RunSybil و XBOW نیز با استفاده از مدل‌های بزرگ زبانی (LLM) به دنبال شناسایی آسیب‌پذیری‌ها هستند و به موفقیت‌هایی دست یافته‌اند.

برای اطمینان از صحت گزارش‌های هوش مصنوعی و واقعی‌بودن آسیب‌پذیری‌ها، حضور انسان در بررسی آنها ضروری است؛ مانند آنچه در پروژه Big Sleep دیده می‌شود.

«ولاد ایونسکو»، مدیر فناوری شرکت RunSybil، در مصاحبه با TechCrunch بیان کرد که پروژه Big Sleep اعتبار زیادی دارد، چرا که تیم توسعه‌دهنده با دانش بالا و تجربه کافی در زمینه کشف آسیب‌پذیری‌ها فعالیت می‌کند و از حمایت فنی و منابع قدرتمند DeepMind برخوردار است.

بااین‌وجود، برخی توسعه‌دهندگان نرم‌افزار از وجود گزارش‌های اشتباهی شکایت دارند که ناشی از توهمات هوش مصنوعی است و آنها را معادل گزارش‌های بی‌ارزش و نادرست می‌دانند. ایونسکو در این رابطه گفت:

«مشکل اصلی این است که گزارش‌هایی دریافت می‌کنیم که در ظاهر ارزشمند به‌نظر می‌رسند اما در واقع فاقد اعتبار هستند.»

این موضوع نشان می‌دهد که هرچند فناوری هوش مصنوعی در کشف آسیب‌پذیری‌ها پیشرفت کرده است، اما نیاز به بررسی و اعتبارسنجی دارد تا از صحت و کیفیت نتایج مطمئن شویم.

منبع خبر

نظر و دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

زنجیره تامین نیازها