طراحی ابزار جدید برای بررسی احتمال نشت اطلاعات از سیستمهای هوش مصنوعی
تعداد زیادی از برنامههای کاربردی گوشیهای هوشمند تلفن همراه مثل دستیار هوشمند گوگل و برنامههای تبدیل گفتار به متن از هوش مصنوعی استفاده میکنند. شرکتهای مختلف نیز از هوش مصنوعی برای کاربردهای مختلفی همچون پیش بینی مخاطراتی که سلامت انسان ها را تهدید می کنند، بهبود راهبردهای بازاریابی، توصیه محصول و ارایه خدمات به کاربران استفاده می کنند.
برای اینکه سیستمهای هوش مصنوعی قادر به ایجاد این اطلاعات باشند باید با استفاده از دادههای مرتبط و مناسب مثل پرونده پزشکی و الگوهای خرید کاربران، آموزش های لازم را به آنها داد. زمانی که یک مدل هوش مصنوعی آموزش داده شود، به این ترتیب حتی اگر هکرها درباره عملکرد داخلی یک برنامه هوش مصنوعی جاسوسی کنند نمیتوانند اطلاعات حساس را از آن استخراج نمایند.
با این وجود بر اساس مطالعات انجام شده در خصوص امنیت و حریم خصوصی، مدلهای هوش مصنوعی در برابر حملات خاصی که به هکرها امکان استخراج اطلاعات حساس را درباره دادههای آموزشی می دهند، آسیب پذیر هستند. در این حملات هکرها دائماً از سرویس هوش مصنوعی درخواست میکنند اطلاعات خاصی را تولید کند. سپس خروجیها را تحلیل میکنند تا از آن به یک الگو برسند. آنها پس از تشخیص الگو میتوانند مشخص کنند که آیا برای آموزش هوش مصنوعی، از یک نوع داده خاص استفاده شده است یا خیر. هکرها میتوانند با این حملات که به آن «حمله استنتاج» گفته میشود، مجموعه داده اصلی که از آن برای آموزش موتور هوش مصنوعی استفاده شده است را بازسازی کنند.
این حملات برای سازمانهای مختلف در سطح جهان تبدیل به یک دغدغه مهم شده است. برای مثال در سال 2009 حملات مشابهی بر ضد مؤسسه ملی سلامت (NIH[1]) آمریکا صورت گرفت و NIH ملزم به تغییر سیاستهای دسترسی به دادههای حساس پزشکی شد.
رضا شکری، استادیار دانشکده رایانه دانشگاه ملی سنگاپور (NUS Computing) در رابطه با این مسأله میگوید: «شناسایی حملات استنتاج کار سختی است چون سیستم در زمان ارایه اطلاعات تصور میکند که هکر یک کاربر معمولی است. بنابراین در حال حاضر شرکتها راهی برای تشخیص اینکه سرویسهای هوش مصنوعی خودشان نیز در معرض خطر قرار دارند یا خیر ندارند چون ابزار کاملی برای شناسایی این حملات وجود ندارد».
پیاده سازی ابزار Machine Learning Privacy Meter برای ارزیابی میزان مخاطره حملات
استاد شکری و تیم او برای حل این مشکل یک ابزار کدمنبع باز طراحی کرده اند که میتواند به شرکتها برای تشخیص آسیبپذیر بودن سرویسهای هوش مصنوعی شان در برابر حملات استنتاج کمک کند. این تحلیل، مبتنی بر حملاتی موسوم به حمله استنتاج عضویت (Membership Inference Attack) است و هدف آن مشخص کردن این نکته است که آیا یک رکورد دادهای خاص، جزو مجموعه داده آموزشی مدل بوده یا خیر.
الگوریتمهای تحلیل حریم خصوصی میتوانند با شبیه سازی چنین حملاتی به سرعت ارزیابی کنند حجم اطلاعاتی که یک مدل هوش مصنوعی درباره هر رکورد از مجموعه داده آموزشی خود افشا میکند، چقدر است. به این ترتیب میزان مخاطره حملاتی که تلاش می کنند تمام یا بخشی از مجموعه داده را بازسازی نمایند، مشخص میشود. این ابزار، گزارشهای جامعی تولید میکند که به طور خاص بخشهای آسیبپذیر موجود در دادههای آموزشی مورد استفاده را مشخص میکند.
این ابزار همچنین با بررسی نتیجه تحلیل حریم خصوصی میتواند خروجی کاملی تولید کند که نشان میدهد مهاجمان با چه دقتی قادر به بازسازی مجموعه داده مورد استفاده برای آموزش مدل خواهند بود. به این ترتیب نقاط ضعف موجود در مجموعه داده شناسایی میشود و میتوان از این اطلاعات برای کاهش احتمال موفقیت حملات استنتاج استفاده کرد.
این گروه تحقیقاتی، ابزار خودشان را “Machine Learning Privacy Meter” نامگذاری کردهاند. ابتکار اصلی این ابزار، توسعه یک فرمول استاندارد برای حملات است. این فرمول یک چارچوب کلی برای الگوریتمهای هوش مصنوعی ارایه میکند تا بتوانند با دقت مناسبی انواع حملات استنتاج عضویت را آزمایش و ارزیابی کنند. این ابزار، منتج شده از نتایج تحقیقی است که تیم NUS در سه سال اخیر روی آن کار کرده است. پیش از طراحی این روش، هیچ راهکار استانداردی برای ارزیابی و سنجش مخاطره الگوریتمهای یادگیری ماشینی برای هوش مصنوعی وجود نداشت.
به گفته استاد شکری: «سازمانها هنگام ایجاد سیستمهای هوش مصنوعی با استفاده از دادههای حساس باید مطمئن شوند که دادههای مورد استفاده در این سیستمها به خوبی حفاظت میشوند. ابزار ما میتواند به سازمانها کمک کند تا تحلیل مخاطره حریم خصوصی را پیش از نصب سیستمهای هوش مصنوعی انجام دهند. همچنین اجرایی شدن قوانینی مثل مقررات عمومی حفاظت از داده اتحادیه اروپا باعث ایجاد نیاز به ارزیابی میزان مخاطره ابزارهای یادگیری ماشینی برای دادههای کاربران شده است. ابزار ما با ارزیابی میزان خطری که متوجه دادههای کاربران است میتواند به شرکتها برای جلوگیری از بروز مشکلات قانونی کمک کند».
استاد شکری و همکارانش پیش از این هم تحلیلهای نظری این مطالعه را برای IEEE Symposium on Security and Privacy ارسال کرده بودند که معتبرترین کنفرانس در زمینه حریم خصوصی و امنیت است.
شکری قرار است در آینده هدایت تیمی را بر عهده بگیرد که با بخش صنعتی برای ادغام ابزار ML Privacy Meter در سرویسهای مختلف همکاری میکند. همچنین تیم او در حال کار روی الگوریتمهایی است که امکان ایجاد مدلهای هوش مصنوعی خاصی را فراهم میکند که طراحی آنها از پایه با هدف حفاظت از حریم خصوصی انجام میشود.
[1] National Institutes of Health
منبع: techxplore