به گزارش «تابناک» به نقل از گجت نیوز؛ گزارش OpenAI نشان میدهد که ظاهرا هکرها به هوش مصنوعی این شرکت رخنه کردهاند. آنطور که در این گزارش آمده، هکرهای ایرانی و چینی از ChatGPT، یکی از قدرتمندترین مدلهای زبانی هوش مصنوعی، برای طراحی حملات سایبری پیچیده استفاده میکنند. این ابزار که به دلیل تواناییاش در تولید متنهای خلاقانه و پاسخگویی به سوالات پیچیده شناخته شده است، حالا در دستان هکرها به یک سلاح خطرناک تبدیل شده است.
طراحی بیش از ۲۰ حمله سایبری وسیع با استفاده از ChatGPT
براساس این گزارش، بیش از 20 حمله سایبری با استفاده از ChatGPT طراحی و اجرا شده است. هکرها از این ابزار برای ایجاد بدافزارهای پیچیده، طراحی حملات فیشینگ هدفمند و سوءاستفاده از آسیبپذیریهای سیستمها استفاده کردهاند. این حملات نه تنها دولتها، بلکه کاربران عادی را نیز هدف قرار داده است. گروههای هکری چینی و ایرانی از چت جی پی تی برای ایجاد بدافزارهایی استفاده کردهاند که قادر به سرقت اطلاعات حساس، نظیر رمزهای عبور، تاریخچه مرورگر و حتی موقعیت مکانی کاربران هستند.
ChatGPT با ارائه یک رابط کاربری ساده و توانایی تولید کدهای پیچیده، کار هکرها را برای طراحی حملات سایبری بسیار آسانتر کرده است. حتی افرادی که دانش فنی زیادی ندارند، میتوانند با استفاده از این ابزار، حملات مخربی را طراحی کنند. این اتفاق نگرانیها در مورد امنیت هوش مصنوعی را افزایش داده است. اگرچه هوش مصنوعی میتواند در بسیاری از زمینهها مفید باشد، اما سوءاستفاده از آن توسط افراد سودجو میتواند عواقب جدی برای امنیت سایبری داشته باشد.
OpenAI اعلام کرده است که برای جلوگیری از سوءاستفاده از چت جی پی تی برای اهداف مخرب، اقدامات جدی را در پیش خواهد گرفت. این شرکت در حال توسعه ابزارهایی برای تشخیص و جلوگیری از تولید محتوای مخرب توسط مدلهای زبانی خود است. با این حال، این مشکل تنها به OpenAI محدود نمیشود و سایر شرکتهای فعال در حوزه هوش مصنوعی نیز باید برای مقابله با این تهدید اقدام کنند. توسعه و اجرای استانداردهای امنیتی قوی برای مدلهای زبانی بزرگ، امری ضروری است.
با پیشرفت سریع فناوری هوش مصنوعی، این سوال مطرح میشود که آیا میتوان از سوءاستفاده از این فناوری برای اهداف مخرب جلوگیری کرد یا خیر. پاسخ به این سوال نیازمند همکاری بین شرکتهای فناوری، دولتها و متخصصان امنیت سایبری است.