خبر

طراحی ابزار جدید برای بررسی احتمال نشت اطلاعات از سیستم‌های هوش مصنوعی

تعداد زیادی از برنامه‌های کاربردی گوشی‌های هوشمند تلفن همراه مثل دستیار هوشمند گوگل و برنامه‌های تبدیل گفتار به متن از هوش مصنوعی استفاده می‌کنند. شرکت‌های مختلف نیز از هوش مصنوعی برای کاربردهای مختلفی همچون پیش بینی مخاطراتی که سلامت انسان ها را تهدید می کنند، بهبود راهبردهای بازاریابی، توصیه محصول و ارایه خدمات به کاربران استفاده می کنند.

برای اینکه سیستم‌های هوش مصنوعی قادر به ایجاد این اطلاعات باشند باید با استفاده از داده‌های مرتبط و مناسب مثل پرونده پزشکی و الگوهای خرید کاربران، آموزش های لازم را به آنها داد. زمانی که یک مدل هوش مصنوعی آموزش داده شود، به این ترتیب حتی اگر هکرها درباره عملکرد داخلی یک برنامه هوش مصنوعی جاسوسی کنند نمی‌توانند اطلاعات حساس را از آن استخراج نمایند.

با این وجود بر اساس مطالعات انجام شده در خصوص امنیت و حریم خصوصی، مدل‌های هوش مصنوعی در برابر حملات خاصی که به هکرها امکان استخراج اطلاعات حساس را درباره داده‌های آموزشی می دهند، آسیب پذیر هستند. در این حملات هکرها دائماً از سرویس هوش مصنوعی درخواست می‌کنند اطلاعات خاصی را تولید کند. سپس خروجی‌ها را تحلیل می‌کنند تا از آن به یک الگو برسند. آنها پس از تشخیص الگو می‌توانند مشخص کنند که آیا برای آموزش هوش مصنوعی، از یک نوع داده خاص استفاده شده است یا خیر. هکرها می‌توانند با این حملات که به آن «حمله استنتاج» گفته می‌شود، مجموعه داده اصلی که از آن برای آموزش موتور هوش مصنوعی استفاده شده است را بازسازی کنند.

این حملات برای سازمان‌های مختلف در سطح جهان تبدیل به یک دغدغه مهم شده است. برای مثال در سال ۲۰۰۹ حملات مشابهی بر ضد مؤسسه ملی سلامت (NIH[۱]) آمریکا صورت گرفت و NIH ملزم به تغییر سیاست‌های دسترسی به داده‌های حساس پزشکی شد.

رضا شکری، استادیار دانشکده رایانه دانشگاه ملی سنگاپور (NUS Computing) در رابطه با این مسأله می‌گوید: «شناسایی حملات استنتاج کار سختی است چون سیستم در زمان ارایه اطلاعات تصور می‌کند که هکر یک کاربر معمولی است. بنابراین در حال حاضر شرکت‌ها راهی برای تشخیص اینکه سرویس‌های هوش مصنوعی خودشان نیز در معرض خطر قرار دارند یا خیر ندارند چون ابزار کاملی برای شناسایی این حملات وجود ندارد».

پیاده سازی ابزار Machine Learning Privacy Meter برای ارزیابی میزان مخاطره حملات

استاد شکری و تیم او برای حل این مشکل یک ابزار کدمنبع باز طراحی کرده اند که می‌تواند به شرکت‌ها برای تشخیص آسیب‌پذیر بودن سرویس‌های هوش مصنوعی شان در برابر حملات استنتاج کمک کند. این تحلیل، مبتنی بر حملاتی موسوم به حمله استنتاج عضویت (Membership Inference Attack) است و هدف آن مشخص کردن این نکته است که آیا یک رکورد داده‌ای خاص، جزو مجموعه داده آموزشی مدل بوده یا خیر.

الگوریتم‌های تحلیل حریم خصوصی می‌توانند با شبیه سازی چنین حملاتی به سرعت ارزیابی کنند حجم اطلاعاتی که یک مدل هوش مصنوعی درباره هر رکورد از مجموعه داده آموزشی خود افشا می‌کند، چقدر است. به این ترتیب میزان مخاطره حملاتی که تلاش می کنند تمام یا بخشی از مجموعه داده را بازسازی نمایند، مشخص می‌شود. این ابزار، گزارش‌های جامعی تولید می‌کند که به طور خاص بخش‌های آسیب‌پذیر موجود در داده‌های آموزشی مورد استفاده را مشخص می‌کند.

این ابزار همچنین با بررسی نتیجه تحلیل حریم خصوصی می‌تواند خروجی کاملی تولید کند که نشان می‌دهد مهاجمان با چه دقتی قادر به بازسازی مجموعه داده مورد استفاده برای آموزش مدل خواهند بود. به این ترتیب نقاط ضعف موجود در مجموعه داده شناسایی می‌شود و می‌توان از این اطلاعات برای کاهش احتمال موفقیت حملات استنتاج استفاده کرد.

این گروه تحقیقاتی، ابزار خودشان را “Machine Learning Privacy Meter” نامگذاری کرده‌اند. ابتکار اصلی این ابزار، توسعه یک فرمول استاندارد برای حملات است. این فرمول یک چارچوب کلی برای الگوریتم‌های هوش مصنوعی ارایه می‌کند تا بتوانند با دقت مناسبی انواع حملات استنتاج عضویت را آزمایش و ارزیابی کنند. این ابزار، منتج شده از نتایج تحقیقی است که تیم NUS در سه سال اخیر روی آن کار کرده است. پیش از طراحی این روش، هیچ راهکار استانداردی برای ارزیابی و سنجش مخاطره الگوریتم‌های یادگیری ماشینی برای هوش مصنوعی وجود نداشت.

به گفته استاد شکری: «سازمان‌ها هنگام ایجاد سیستم‌های هوش مصنوعی با استفاده از داده‌های حساس باید مطمئن شوند که داده‌های مورد استفاده در این سیستم‌ها به خوبی حفاظت می‌شوند. ابزار ما می‌تواند به سازمان‌ها کمک کند تا تحلیل مخاطره حریم خصوصی را پیش از نصب سیستم‌های هوش مصنوعی انجام دهند. همچنین اجرایی شدن قوانینی مثل مقررات عمومی حفاظت از داده اتحادیه اروپا باعث ایجاد نیاز به ارزیابی میزان مخاطره ابزارهای یادگیری ماشینی برای داده‌های کاربران شده است. ابزار ما با ارزیابی میزان خطری که متوجه داده‌های کاربران است می‌تواند به شرکت‌ها برای جلوگیری از بروز مشکلات قانونی کمک کند».

استاد شکری و همکارانش پیش از این هم تحلیل‌های نظری این مطالعه را برای IEEE Symposium on Security and Privacy ارسال کرده بودند که معتبرترین کنفرانس در زمینه حریم خصوصی و امنیت است.

شکری قرار است در آینده هدایت تیمی را بر عهده بگیرد که با بخش صنعتی برای ادغام ابزار ML Privacy Meter در سرویس‌های مختلف همکاری می‌کند. همچنین تیم او در حال کار روی الگوریتم‌هایی است که امکان ایجاد مدل‌های هوش مصنوعی خاصی را فراهم می‌کند که طراحی آنها از پایه با هدف حفاظت از حریم خصوصی انجام می‌شود.

 

[۱] National Institutes of Health

 

منبع: techxplore

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

ده + نوزده =

دکمه بازگشت به بالا