اوایل سال جاری، گروهی از محققان امنیتی با استفاده از یک روش خلاقانه، موفق به هک هوش مصنوعی «جمینای» (Gemini) شدند و برای اولین بار، پیامدهای این حمله سایبری را به دنیای فیزیکی کشاندند. این محققان که نتایج کار خود را با گوگل به اشتراک گذاشته بودند، از یک دعوتنامه آلوده در تقویم گوگل (Google Calendar) استفاده کردند تا دستورالعملهایی پنهانی را به هوش مصنوعی منتقل کنند. هدف نهایی، کنترل محصولات خانه هوشمند در یک آپارتمان بود. این پژوهش نه تنها زنگ خطری جدی برای آینده تعامل ما با هوش مصنوعی بود، بلکه اهمیت حیاتی امنیت هوش مصنوعی را بیش از پیش نمایان ساخت.
این محققان به جای استفاده از دستورات مستقیم، از یک روش هوشمندانه بهره بردند. آنها دستورالعملهای مخرب را به گونهای طراحی کردند که در آینده و در زمان مشخصی فعال شوند. زمانی که محققان قصد فعالسازی این دستورات را داشتند، از جمینای خواستند تا رویدادهای تقویم هفته آینده را برایشان خلاصه کند. در این لحظه بود که کدهای پنهان در دعوتنامهها، فعال شدند و دستورالعملها را به سیستم هوش مصنوعی منتقل کردند. این دستورات به جمینای اجازه دادند تا کنترل محصولات خانه هوشمند را در دست بگیرد و به این ترتیب، یک حمله نرمافزاری به پیامدهای فیزیکی واقعی منجر شد. محققان معتقدند که این حمله، احتمالاً اولین باری است که یک سیستم هوش مصنوعی مولد (Generative AI) هک شده، نتایجی ملموس و فیزیکی در دنیای واقعی به دنبال داشته است.
تزریق پرامپت غیرمستقیم، خطری پنهان در کمین هوش مصنوعی
این حمله بخشی از یک پروژه تحقیقاتی بزرگتر و جامعتر با 14 بخش بود که به منظور آزمایش حملات «تزریق پرامپت غیرمستقیم» (Indirect Prompt Injection) علیه جمینای طراحی شده بود. تزریق پرامپت به معنی فریب دادن یک مدل زبان بزرگ (LLM) برای انجام کارهایی است که برای آن طراحی نشده است. در حالت عادی، این حملات با وارد کردن دستورات مخرب به صورت مستقیم در چتباکس انجام میشوند. اما در این مورد، محققان با تزریق دستورات از طریق یک منبع خارجی (دعوتنامه تقویم) و نه از طریق ورودی مستقیم کاربر، موفق به انجام این حمله شدند. عنوان این پروژه «دعوتنامه تنها چیزی است که نیاز دارید» (Invitation Is All You Need) بود که به خوبی ماهیت این نوع حمله را نشان میدهد. نتایج کامل این پژوهش به صورت آنلاین و رایگان در دسترس عموم قرار گرفته است.
مفهوم تزریق غیرمستقیم پرامپت به این معناست که مهاجم میتواند از طریق دادههای خارجی که هوش مصنوعی آنها را پردازش میکند، دستورات مخفیانه خود را به مدل تزریق کند. به عنوان مثال، یک هوش مصنوعی ممکن است برای خلاصهنویسی یک وبسایت یا ایمیل طراحی شده باشد. اگر آن وبسایت یا ایمیل حاوی دستورالعملهای پنهان باشد، هوش مصنوعی ممکن است ناخواسته آنها را به عنوان بخشی از وظیفه خود اجرا کند. این آسیبپذیری به این دلیل خطرناک است که برخلاف حملات مستقیم، کاربر از وجود دستورالعملهای مخرب در دادههای خارجی بیخبر است و هوش مصنوعی نیز بدون آگاهی از ماهیت مخرب آنها، به اجرایشان میپردازد. این موضوع اهمیت بررسی و تأمین امنیت هوش مصنوعی را در برابر منابع داده خارجی دوچندان میکند.
همکاری محققان و گوگل؛ گامی به سوی امنیت بیشتر
نمایندهای از گوگل در گفتگو با نشریه Wired اعلام کرد که این پروژه تحقیقاتی و یافتههای محققان به گوگل کمک کرده تا تلاشهای خود برای مقابله با حملات تزریق پرامپت را تسریع بخشد. این همکاری مستقیم، منجر به بهبود و تسریع در ارائه سیستمهای دفاعی گوگل در برابر این نوع حملات شده است. این موضوع از این نظر اهمیت دارد که خطرات هوش مصنوعی را به صورت واضح نشان میدهد، به ویژه با توجه به اینکه استفاده از این فناوری روز به روز گستردهتر میشود. همانطور که ابزارهای هوش مصنوعی بیشتری به بازار عرضه میشوند، تزریق غیرمستقیم پرامپت به یک مسئله شایعتر تبدیل خواهد شد. بنابراین، شناسایی و برجسته کردن هر چه سریعتر مشکلات پیرامون این حملات، برای توسعه تدابیر امنیتی مؤثر در جهت محافظت از سیستمهای هوش مصنوعی، کاملاً ضروری است.
در طول سالهای اخیر، ما شاهد روشهای جالب و متفاوتی بودهایم که محققان برای به چالش کشیدن و آسیبپذیر کردن هوش مصنوعی به کار گرفتهاند. از تلاش برای القای احساس درد به یک هوش مصنوعی گرفته تا استفاده از یک هوش مصنوعی برای هک کردن هوش مصنوعی دیگر! محققان اقدامات بسیار گستردهای را انجام دادهاند تا دقیقاً متوجه شوند که هوش مصنوعی تا چه حد میتواند آسیبپذیر باشد. با توجه به اینکه افراد سرشناس بسیاری به طور فزایندهای درباره خطراتی که هوش مصنوعی برای بشریت ایجاد میکند ابراز نگرانی میکنند، داشتن تصویری واضحتر از اینکه چه اقداماتی برای سوء استفاده از این سیستمها میتوان انجام داد، کلیدی است برای توسعه اقدامات امنیتی کارآمد. این پژوهش نشان داد که در حالی که هوش مصنوعی میتواند ابزار قدرتمندی باشد، آسیبپذیریهای آن نیز میتوانند نتایج قابل توجهی در دنیای واقعی داشته باشند و اهمیت امنیت هوش مصنوعی در عصر کنونی غیرقابل انکار است.