عملکرد بد‌افزار‌های آینده مبتنی بر هوش مصنوعی خواهد بود

امروزه، تهدیدات سایبری مرتبط با یادگیری عمیق و شبکه‌های عصبی مصنوعی در حال شکل گیری هستند. در آینده‌ای نه چندان دور، مجرمین سایبری با فریب این شبکه‌های عصبی، آن‌ها را دچار اشتباه خواهند کرد. به این ترتیب، هکر‌ها با استفاده از یادگیری عمیق، بد‌افزار‌های خود را مخفی کرده و قربانیان‌شان را از بین میلیون‌ها کاربر شناسایی می‌کنند.

در ماه آگوست، محققان کمپانی IBM بد‌افزار اثبات مفهوم DeepLocker را معرفی کردند که با بهره‌گیری از شبکه‌های عصبی عمیق، مجموعه تهدیدات مخرب خود را پنهان کرده و بعد از شناسایی اهداف مورد نظر، آن‌ها را فعال می‌کند.

یک وجه آسیب‌رسان بد‌افزار‌های مبتنی بر هوش مصنوعی مانند DeepLocker، استفاده آن‌ها از black box یادگیری عمیق است. محققان امنیتی معمولاً این نوع از بد‌افزار‌ها را از طریق مهندسی معکوس شناسایی می‌کنند. متاسفانه، اعمال مهندسی معکوس روی شبکه‌های عصبی مصنوعی کار به‌شدت دشواری است. همین موضوع به هکر‌ها امکان می‌دهد که ابزار‌های امنیتی و تحلیلگر را راحت‌تر دور بزنند.

نوع دیگری از تهدیدات مبتنی بر هوش مصنوعی، حملات خصمانه (Adversarial Attack) نام دارند. این شکل از حملات، داده‌های داخلی را وادار می‌کنند که در عملکرد شبکه‌های عصبی مصنوعی اختلال ایجاد کنند.

تمام این تلاش‌ها جهت فریب دادن الگوریتم‌های دیداری کامپیوتر‌ها است. Adversarial Attack تنها به هدف قرار دادن الگوریتم‌های دیداری اکتفا نمی‌کنند. با کمک این نوع حملات، هکر‌ها قادر خواهند بود با دستکاری فایل‌های صوتی آن‌ها را برای انسان غیر‌قابل شناسایی کرده و فرمان‌های مورد نظر خود را از طریق اسپیکر‌های هوشمند، اجرایی کنند.

تولید و توسعه بد‌افزار‌های هوشمند و Adversarial Attack همچنان کار دشواری است. از طرفی، هنوز برای مقابله با بد‌افزار‌های مبتنی بر هوش مصنوعی راه حل مشخصی به ثبت نرسیده است. با این وجود، نباید خطر حملات این بد‌افزار‌ها را نادیده گرفت، در نتیجه بهتر است به‌تدریج خود را برای مقابله با آن‌ها ایمن و آماده کنیم.

خروج از نسخه موبایل