عملکرد بدافزارهای آینده مبتنی بر هوش مصنوعی خواهد بود
امروزه، تهدیدات سایبری مرتبط با یادگیری عمیق و شبکههای عصبی مصنوعی در حال شکل گیری هستند. در آیندهای نه چندان دور، مجرمین سایبری با فریب این شبکههای عصبی، آنها را دچار اشتباه خواهند کرد. به این ترتیب، هکرها با استفاده از یادگیری عمیق، بدافزارهای خود را مخفی کرده و قربانیانشان را از بین میلیونها کاربر شناسایی میکنند.
در ماه آگوست، محققان کمپانی IBM بدافزار اثبات مفهوم DeepLocker را معرفی کردند که با بهرهگیری از شبکههای عصبی عمیق، مجموعه تهدیدات مخرب خود را پنهان کرده و بعد از شناسایی اهداف مورد نظر، آنها را فعال میکند.
یک وجه آسیبرسان بدافزارهای مبتنی بر هوش مصنوعی مانند DeepLocker، استفاده آنها از black box یادگیری عمیق است. محققان امنیتی معمولاً این نوع از بدافزارها را از طریق مهندسی معکوس شناسایی میکنند. متاسفانه، اعمال مهندسی معکوس روی شبکههای عصبی مصنوعی کار بهشدت دشواری است. همین موضوع به هکرها امکان میدهد که ابزارهای امنیتی و تحلیلگر را راحتتر دور بزنند.
نوع دیگری از تهدیدات مبتنی بر هوش مصنوعی، حملات خصمانه (Adversarial Attack) نام دارند. این شکل از حملات، دادههای داخلی را وادار میکنند که در عملکرد شبکههای عصبی مصنوعی اختلال ایجاد کنند.
تمام این تلاشها جهت فریب دادن الگوریتمهای دیداری کامپیوترها است. Adversarial Attack تنها به هدف قرار دادن الگوریتمهای دیداری اکتفا نمیکنند. با کمک این نوع حملات، هکرها قادر خواهند بود با دستکاری فایلهای صوتی آنها را برای انسان غیرقابل شناسایی کرده و فرمانهای مورد نظر خود را از طریق اسپیکرهای هوشمند، اجرایی کنند.
تولید و توسعه بدافزارهای هوشمند و Adversarial Attack همچنان کار دشواری است. از طرفی، هنوز برای مقابله با بدافزارهای مبتنی بر هوش مصنوعی راه حل مشخصی به ثبت نرسیده است. با این وجود، نباید خطر حملات این بدافزارها را نادیده گرفت، در نتیجه بهتر است بهتدریج خود را برای مقابله با آنها ایمن و آماده کنیم.