NIST با استفاده از AI RMF، خطرات هوش مصنوعی را برطرف می کند
امروزه سازمانهای دولتی و مشاغل مختلف به سرعت در حال بهرهبرداری از انواع برنامههای کاربردی هوش مصنوعی در راستای انجام عملیات خودکارسازی فعالیتها، افزایش بهرهوری، تأیید اعتبار، پردازش تصویر، پلیس پیشگیرانه و غیره هستند.
مشابه سایر فناوریهای دیجیتالی، هوش مصنوعی نیز دارای نقاط ضعف امنیتی مختلفی در زمینه حریم خصوصی، جانبداری، نابرابری، مشکلات ایمنی و سایر حوزهها بوده و نگرانیهایی را هم در رابطه با این مسائل ایجاد کرده است. مؤسسه بینالمللی فناوری و استاندارد یا NIST (به انگلیسی: National Institute of Standards and Technology) در حال طراحی یک پلتفرم داوطلبانه تحت عنوان «فریمورک مدیریت ریسک هوش مصنوعی یا AI RMF (به انگلیسی: Artificial Intelligence Risk Management Framework)» برای مدیریت کارآمد ریسکهای مربوط به هوش مصنوعی است. هدف از طراحی و ارایه چنین فریمورکی افزایش امکان رعایت ملاحظات مربوط به قابلیت اطمینان در طراحی، توسعه، استفاده و ارزیابی محصولات، خدمات و سیستمهای هوش مصنوعی است.
پیش نویس اولیه این فریمورک بر اساس مقاله مفهومی که در دسامبر 2021 میلادی توسط NIST منتشر شد، تهیه شده است. NIST امیدوار است که AI RMF به تشریح تفاوت ریسک ناشی از سیستمهای مبتنی بر هوش مصنوعی با سایر دامنهها کمک کرده و بسیاری از طرفهای دخیل در حوزه مصنوعی را به ابزارهای لازم برای مقابله با این ریسکها مجهز کند. NIST اعلام کرده که امکان استفاده از این فریمورک برای تشخیص ملاحظات قانونی از جمله قوانین، مقررات و سایر دستورالعملهای اجباری موجود وجود دارد.
اگرچه هوش مصنوعی در معرض همان ریسکهایی است که توسط سایر فریمورکهای NIST پوشش داده شدهاند اما یکسری از نگرانیها و خلأها فقط مربوط به هوش مصنوعی هستند. هدف AI RMF رسیدگی به این خلأها است.
گروههای تأثیرگذار در فناوری هوش مصنوعی و خصوصیات فنی
NIST چند گروه صاحب قدرت از جمله سهامداران، متصدیان، آزمونگران، سهامداران خارجی و عموم مردم را به عنوان مخاطبان این فریمورک در نظر گرفته است. این مؤسسه یکسری خصوصیات مثل خصوصیات فنی، خصوصیات فنی-اجتماعی و اصول راهنما را در قالب سه رده مختلف مشخص کرده است. این ویژگیها باید در رویکردهای کلی برای تشخیص و مدیریت ریسکهای مرتبط با سیستمهای هوش مصنوعی در نظر گرفته شوند.
خصوصیات فنی عواملی هستند که تحت کنترل مستقیم توسعهدهندگان و طراحان سیستم هوش مصنوعی قرار دارد. امکان ارزیابی این ویژگیها با استفاده از ضوابط ارزیابی استاندارد مثل دقت، قابلیت اطمینان و ارتجاع پذیری وجود دارد. خصوصیات فنی – اجتماعی نیز شامل شیوه استفاده از هوش مصنوعی و نگرش نسبت به آن در زمینههایهای فردی، گروهی و اجتماعی مثل توضیحپذیری، حریم خصوصی، ایمنی و جانبداری است. در نهایت در اصطلاحات AI RMF، اصول راهنما ارزشها و هنجارهای اجتماعی گستردهتری را دربر میگیرد که بیانگر الویتهای اجتماعی مثل عدالت، مسئولیتپذیری و شفافیت هستند.
مشابه سایر فریمورکهای NIST، هسته اصلی AI RMF هم شامل سه عنصر است که فعالیتهای مدیریت ریسک هوش مصنوعی را سازماندهی میکنند. این عناصر عبارتند از: توابع، دستهبندیهای اصلی و دستهبندیهای فرعی. قابلیتها به صورتی سازماندهی شدهاند که ریسکهای هوش مصنوعی را نگاشت، ارزیابی، مدیریت و حاکمیت کنند. AI RMF فراهمسازی زمینه لازم برای کاربردهای خاص از طریق پروفایلها را پیشبینی کرده است. البته انجام این کار به همراه تهیه یک راهنمای عملی تا زمان طراحی پیشنویسی بعدی به تعویق افتاده است.
NIST پس از انتشار فریمورک پیشنویس، طی برگذاری یک ورکشاپ 3 روزه همه جوانب AI RMF از جمله بررسی عمیقتر موضوع مقابله با جانبداریهای مضر در فناوریهای هوش مصنوعی را تشریح کرد.
ترسیم ریسکهای هوش مصنوعی با نگاهی به شرایط و زمینه
Rayid Ghani از دانشگاه کارنگی ملون در این ورکشاپ گفت: «هنوز هم باید شرایط، کاربرد و سناریوی نصب و استقرار را در نظر داشته باشیم. من معتقدم که در حالت ایدهآل همه این کارها باید در هنگام طراحی سیستم انجام شوند».
Marilyn Zigmund Luke معاون طرحهای بیمه سلامت آمریکا به حضار گفت: «با توجه به تنوع شرایط و ساختارها، ریسک ایجاد شده نیز برای سازمانها و افراد متفاوت خواهد بود. به نظر من باید از ابتدا و پیش از شروع عملیات همه این شرایط را در نظر گرفته و ریسکها را ارزیابی کنید. سپس کار اصلی را شروع کرده و پارامترهای مختلف را مشخص نمایید».
اجرای تکنیکهای جدید برای ارزیابی فعالیتهای هوش مصنوعی
با توجه به پیچیدگیهای مسائل اخلاقی، سیاسی، اجتماعی و همچنین سیستمهای هوش مصنوعی، ارزیابی فعالیتهای مرتبط با هوش مصنوعی همچنان در حال رشد و تکامل است. David Danks فعال در دانشگاه سندیگوی کالیفرنیا میگوید: «ریسک و مخاطرات امنیتی تهدیدی برای ارزشهای انسانی و سازمانها هستند. از این رو تعیین ارزشها به صورت رسمی کار چندان سادهای نبوده و در حال حاضر نیز بخش عمدهای از ارزیابیها به نیروی انسانی واگذار شده است. معنا و مفهوم جانبداری در شرایط خاص و مشخص نمودن ارزشهای مربوطه از جمله مواردی هستند که باید توسط انسان مورد سنجش قرار بگیرند».
بنا به گفته Jack Clark بنیانگذار شرکت Anthropic که بر روی تحقیقات و ایمنی هوش مصنوعی کار میکند: «ظهور هوش مصنوعی منجر به ایجاد نیازی برای ساختن معیارها و تدابیر جدیدی شده که در حالت ایدهآل بهتر است در خود فناوری هوش مصنوعی تعبیه شده باشند». Clark میگوید: «یکی از مسائل چالش برانگیز درباره هوش مصنوعی نوین این است که باید علاوه بر توسعه خود فناوری، تکنیکهای ارزیابی جدیدی را هم طراحی کنیم».
ارتقای دادههای آموزشی جهت مدیریت ریسک هوش مصنوعی
تابع مدیریت AI RMF به ریسکهای مشخص شده و ارزیابی شده رسیدگی میکند تا مزایا را به حداکثر و پیامدهای نامطلوب را به حداقل برساند اما مسائل کیفیتی میتواند مانعی برای مدیریت ریسکهای هوش مصنوعی باشد. Jiahao Chen مدیر ارشد فناوری Parity AI میگوید: «دسترسپذیری دادههایی که برای آموزش مدلها در اختیار داریم، لزوماً به دنیای واقعی گسترش نمییابد چون ممکن است این دادهها مربوط به چندین سال قبل باشند. باید توجه کرد که آیا دادههای آموزشی وضعیت کنونی دنیای ما را به خوبی منعکس میکنند یا خیر».
Grace Yee مدیر ابتکار و نوآوری در شرکت ادوبی میگوید: «امروزه حتی استفاده از بهترین فناوریهای جهان برای ایجاد تجربیات دیجیتال کافی نیست. باید اطمینان یابیم که فناوری ما با هدف پوشش کامل همه اقشار طراحی شده و به مشتریان، جوامع و ارزشها احترام میگذارد. به ویژه در حال طراحی سیستمها و فرایندهایی هستیم که مشخص میکنند آیا هوش مصنوعی ما جانبداریهای مضری دارد یا خیر».
Vincent Southerland از دانشکده حقوق دانشگاه نیویورک به موضوع استفاده از هوش مصنوعی به عنوان ابزاری برای پیشبینی در حوزه جرم و جنایت اشاره کرده و میگوید: «از این فناوری در حوزههای مختلف مثل شناسایی مظنون ارتکاب به جرم و اینکه مجرمان چه زمانی باید آزاد شوند استفاده میشود. البته تا مدتی پیش این موضوع به رسمیت شناخته نشده بود که دادههای مورد استفاده این ابزارها و نحوه عملکردشان میتواند به نابرابری نژادی دامن زده و منجر به تشدید زیان و ضرر جرایم شود».
حاکمیت هوش مصنوعی
سازمانها معمولاً توجه چندانی به سیاستهای حاکم بر هوش مصنوعی ندارند. Patrick Hall از محققان bnh.ai میگوید: «علاوه بر شرکتهای اقتصادی بزرگ و تعدادی حوزه محدود که تحت نظارتهای قانونی شدید قرار دارند، در سایر حوزهها هوش مصنوعی بدون دستورالعملهای رسمی مورد استفاده قرار میگیرد در نتیجه سازمانها باید مسائل حاکمیتی را حل کنند».
Natasha Crampton مدیر مسئول هوش مصنوعی در شرکت مایکروسافت میگوید: «وقتی رویکرد شما برای حاکمیت بیش از حد غیرمتمرکز باشد، احتمال خطا نیز افزایش مییابد. تیمها در چنین شرایطی باید مدلهای هوش مصنوعی را وارد محیط تولید نموده و از فرایندها و ساختارهای خودشان که هماهنگی چندان زیادی در بینشان وجود ندارد استفاده کنند».
Agus Sudjianto معاون ارشد و مدیر ریسک سازمانی در شرکت Wells Fargo هم بر مدیریت سطح بالای ریسکهای هوش مصنوعی تأکید دارد و میگوید: «اگر مدیر مسئول هوش مصنوعی یا مدیران اجرایی، پشتیبانی لازم را در اختیار نداشته باشند، موفقیتی ایجاد نخواهد شد».
Teresa Tung از شرکت Accenture هم تأکید میکند که همه شرکتها باید متمرکز بر هوش مصنوعی باشند. بنا بر گفته او: «حدود نیمی از 2 هزار شرکت جهانی در گزارش عملکردشان درباره هوش مصنوعی گزارش دادهاند. همه مشاغل باید نسبت به این موضوع آگاه باشند».
نسخه نهایی AI RMF هم مثل سایر فریمورکهای مدیریت ریسک طراحی شده توسط NIST از جمله فریمورک امنیت سایبری، میتواند برای سازمانهای خصوصی و دولتی پیامدهای مختلفی داشته باشد.
برای مطالعه سایر مقالات در حوزه امنیت سایبری اینجا کلیک کنید.
منبع: csoonline