NIST با استفاده از AI RMF، خطرات هوش مصنوعی را برطرف می کند

رسیدگی به مخاطرات ناشی از هوش مصنوعی توسط مؤسسه NIST

امروزه سازمان‌های دولتی و مشاغل مختلف به سرعت در حال بهره‌برداری از انواع برنامه‌های کاربردی هوش مصنوعی در راستای انجام عملیات خودکارسازی فعالیت‌ها، افزایش بهره‌وری، تأیید اعتبار، پردازش تصویر، پلیس پیشگیرانه و غیره هستند.

مشابه سایر فناوری‌های دیجیتالی، هوش مصنوعی نیز دارای نقاط ضعف‌ امنیتی مختلفی در زمینه حریم خصوصی، جانبداری، نابرابری، مشکلات ایمنی و سایر حوزه‌ها بوده و نگرانی‌هایی را هم در رابطه با این مسائل ایجاد کرده است. مؤسسه بین‌المللی فناوری و استاندارد یا NIST (به انگلیسی: National Institute of Standards and Technology) در حال طراحی یک پلتفرم داوطلبانه تحت عنوان «فریم‌ورک مدیریت ریسک هوش مصنوعی یا AI RMF (به انگلیسی: Artificial Intelligence Risk Management Framework)» برای مدیریت کارآمد ریسک‌های مربوط به هوش مصنوعی است. هدف از طراحی و ارایه چنین فریم‌ورکی افزایش امکان رعایت ملاحظات مربوط به قابلیت اطمینان در طراحی، توسعه، استفاده و ارزیابی محصولات، خدمات و سیستم‌های هوش مصنوعی است.

پیش نویس اولیه این فریم‌ورک بر اساس مقاله مفهومی که در دسامبر ۲۰۲۱ میلادی توسط NIST منتشر شد، تهیه شده است. NIST امیدوار است که AI RMF به تشریح تفاوت ریسک ناشی از سیستم‌های مبتنی بر هوش مصنوعی با سایر دامنه‌ها کمک کرده و بسیاری از طرف‌های دخیل در حوزه مصنوعی را به ابزارهای لازم برای مقابله با این ریسک‌ها مجهز کند. NIST اعلام کرده که امکان استفاده از این فریم‌ورک برای تشخیص ملاحظات قانونی از جمله قوانین، مقررات و سایر دستورالعمل‌های اجباری موجود وجود دارد.

اگرچه هوش مصنوعی در معرض همان ریسک‌هایی است که توسط سایر فریم‌ورک‌های NIST پوشش داده شده‌اند اما یکسری از نگرانی‌ها و خلأها فقط مربوط به هوش مصنوعی هستند. هدف AI RMF رسیدگی به این خلأها است.

گروه‌های تأثیرگذار در فناوری هوش مصنوعی و خصوصیات فنی

NIST چند گروه صاحب قدرت از جمله سهامداران، متصدیان، آزمونگران، سهامداران خارجی و عموم مردم را به عنوان مخاطبان این فریم‌ورک در نظر گرفته است. این مؤسسه یکسری خصوصیات مثل خصوصیات فنی، خصوصیات فنی-اجتماعی و اصول راهنما را در قالب سه رده مختلف مشخص کرده است. این ویژگی‌ها باید در رویکردهای کلی برای تشخیص و مدیریت ریسک‌های مرتبط با سیستم‌های هوش مصنوعی در نظر گرفته شوند.

خصوصیات فنی عواملی هستند که تحت کنترل مستقیم توسعه‌دهندگان و طراحان سیستم هوش مصنوعی قرار دارد. امکان ارزیابی این ویژگی‌ها با استفاده از ضوابط ارزیابی استاندارد مثل دقت، قابلیت اطمینان و ارتجاع پذیری وجود دارد. خصوصیات فنی – اجتماعی نیز شامل شیوه استفاده از هوش مصنوعی و نگرش نسبت به آن در زمینه‌های‌های فردی، گروهی و اجتماعی مثل توضیح‌پذیری، حریم خصوصی، ایمنی و جانبداری است. در نهایت در اصطلاحات AI RMF، اصول راهنما ارزش‌ها و هنجارهای اجتماعی گسترده‌تری را دربر می‌گیرد که بیانگر الویت‌های اجتماعی مثل عدالت، مسئولیت‌پذیری و شفافیت هستند.

مشابه سایر فریم‌ورک‌های NIST، هسته اصلی AI RMF هم شامل سه عنصر است که فعالیت‌های مدیریت ریسک هوش مصنوعی را سازماندهی می‌کنند. این عناصر عبارتند از: توابع، دسته‌بندی‌های اصلی و دسته‌بندی‌های فرعی. قابلیت‌ها به صورتی سازماندهی شده‌اند که ریسک‌های هوش مصنوعی را نگاشت، ارزیابی، مدیریت و حاکمیت کنند. AI RMF فراهم‌سازی زمینه لازم برای کاربردهای خاص از طریق پروفایل‌ها را پیش‌بینی کرده است. البته انجام این کار به همراه تهیه یک راهنمای عملی تا زمان طراحی پیش‌نویسی بعدی به تعویق افتاده است.

NIST پس از انتشار فریم‌ورک پیش‌نویس، طی برگذاری یک ورکشاپ ۳ روزه همه جوانب AI RMF از جمله بررسی عمیق‌تر موضوع مقابله با جانبداری‌های مضر در فناوری‌های هوش مصنوعی را تشریح کرد.

گروه‌های تأثیرگذار در فناوری هوش مصنوعی و خصوصیات فنی

ترسیم ریسک‌های هوش مصنوعی با نگاهی به شرایط و زمینه

Rayid Ghani از دانشگاه کارنگی ملون در این ورکشاپ گفت: «هنوز هم باید شرایط، کاربرد و سناریوی نصب و استقرار را در نظر داشته باشیم. من معتقدم که در حالت ایده‌آل همه این کارها باید در هنگام طراحی سیستم انجام شوند».

Marilyn Zigmund Luke معاون طرح‌های بیمه سلامت آمریکا به حضار گفت: «با توجه به تنوع شرایط و ساختارها، ریسک ایجاد شده نیز برای سازمان‌ها و افراد متفاوت خواهد بود. به نظر من باید از ابتدا و پیش از شروع عملیات همه این شرایط را در نظر گرفته و ریسک‌ها را ارزیابی کنید. سپس کار اصلی را شروع کرده و پارامترهای مختلف را مشخص نمایید».

اجرای تکنیک‌های جدید برای ارزیابی فعالیت‌های هوش مصنوعی

با توجه به پیچیدگی‌های مسائل اخلاقی، سیاسی، اجتماعی و همچنین سیستم‌های هوش مصنوعی، ارزیابی فعالیت‌های مرتبط با هوش مصنوعی همچنان در حال رشد و تکامل است. David Danks فعال در دانشگاه سن‌دیگوی کالیفرنیا می‌گوید: «ریسک و مخاطرات امنیتی تهدیدی برای ارزش‌های انسانی و سازمان‌ها هستند. از این رو تعیین ارزش‌ها به صورت رسمی کار چندان ساده‌ای نبوده و در حال حاضر نیز بخش عمده‌ای از ارزیابی‌ها به نیروی انسانی واگذار شده است. معنا و مفهوم جانبداری در شرایط خاص و مشخص نمودن ارزش‌های مربوطه از جمله مواردی هستند که باید توسط انسان مورد سنجش قرار بگیرند».

بنا به گفته Jack Clark ‌بنیانگذار شرکت Anthropic که بر روی تحقیقات و ایمنی هوش مصنوعی کار می‌کند: «ظهور هوش مصنوعی منجر به ایجاد نیازی برای ساختن معیارها و تدابیر جدیدی شده که در حالت ایده‌آل بهتر است در خود فناوری هوش مصنوعی تعبیه شده باشند». Clark می‌گوید: «یکی از مسائل چالش برانگیز درباره هوش مصنوعی نوین این است که باید علاوه بر توسعه خود فناوری، تکنیک‌های ارزیابی جدیدی را هم طراحی کنیم».

ارتقای داده‌های آموزشی جهت مدیریت ریسک هوش مصنوعی

تابع مدیریت AI RMF به ریسک‌های مشخص شده و ارزیابی شده رسیدگی می‌کند تا مزایا را به حداکثر و پیامدهای نامطلوب را به حداقل برساند اما مسائل کیفیتی می‌تواند مانعی برای مدیریت ریسک‌های هوش مصنوعی باشد. Jiahao Chen مدیر ارشد فناوری Parity AI می‌گوید: «دسترس‌پذیری داده‌هایی که برای آموزش مدل‌ها در اختیار داریم، لزوماً به دنیای واقعی گسترش نمی‌یابد چون ممکن است این داده‌‌ها مربوط به چندین سال قبل باشند. باید توجه کرد که آیا داده‌های آموزشی وضعیت کنونی دنیای ما را به خوبی منعکس می‌کنند یا خیر».

Grace Yee مدیر ابتکار و نوآوری در شرکت ادوبی می‌گوید: «امروزه حتی استفاده از بهترین فناوری‌های جهان برای ایجاد تجربیات دیجیتال کافی نیست. باید اطمینان یابیم که فناوری ما با هدف پوشش کامل همه اقشار طراحی شده و به مشتریان، جوامع و ارزش‌ها احترام می‌گذارد. به ویژه در حال طراحی سیستم‌ها و فرایندهایی هستیم که مشخص می‌کنند آیا هوش مصنوعی ما جانبداری‌های مضری دارد یا خیر».

Vincent Southerland از دانشکده حقوق دانشگاه نیویورک به موضوع استفاده از هوش مصنوعی به عنوان ابزاری برای پیش‌بینی در حوزه جرم و جنایت اشاره کرده و می‌گوید: «از این فناوری در حوزه‌های مختلف مثل شناسایی مظنون ارتکاب به جرم و اینکه مجرمان چه زمانی باید آزاد شوند استفاده می‌شود. البته تا مدتی پیش این موضوع به رسمیت شناخته نشده بود که داده‌های مورد استفاده این ابزارها و نحوه عملکردشان می‌تواند به نابرابری نژادی دامن زده و منجر به تشدید زیان و ضرر جرایم شود».

ارتقای داده‌های آموزشی جهت مدیریت ریسک هوش مصنوعی

حاکمیت هوش مصنوعی

سازمان‌ها معمولاً توجه چندانی به سیاست‌های حاکم بر هوش مصنوعی ندارند. Patrick Hall از محققان bnh.ai می‌گوید: «علاوه بر شرکت‌های اقتصادی بزرگ و تعدادی حوزه محدود که تحت نظارت‌های قانونی شدید قرار دارند، در سایر حوزه‌ها هوش مصنوعی بدون دستورالعمل‌های رسمی مورد استفاده قرار می‌گیرد در نتیجه سازمان‌ها باید مسائل حاکمیتی را حل کنند».

Natasha Crampton مدیر مسئول هوش مصنوعی در شرکت مایکروسافت می‌گوید: «وقتی رویکرد شما برای حاکمیت بیش از حد غیرمتمرکز باشد، احتمال خطا نیز افزایش می‌یابد. تیم‌ها در چنین شرایطی باید مدل‌های هوش مصنوعی را وارد محیط تولید نموده و از فرایندها و ساختارهای خودشان که هماهنگی چندان زیادی در بین‌شان وجود ندارد استفاده کنند».

Agus Sudjianto معاون ارشد و مدیر ریسک سازمانی در شرکت Wells Fargo هم بر مدیریت سطح بالای ریسک‌های هوش مصنوعی تأکید دارد و می‌گوید: «اگر مدیر مسئول هوش مصنوعی یا مدیران اجرایی، پشتیبانی لازم را در اختیار نداشته باشند، موفقیتی ایجاد نخواهد شد».

Teresa Tung از شرکت Accenture هم تأکید می‌کند که همه شرکت‌ها باید متمرکز بر هوش مصنوعی باشند. بنا بر گفته او: «حدود نیمی از ۲ هزار شرکت جهانی در گزارش عملکردشان درباره هوش مصنوعی گزارش داده‌اند. همه مشاغل باید نسبت به این موضوع آگاه باشند».

نسخه نهایی AI RMF هم مثل سایر فریم‌ورک‌های مدیریت ریسک طراحی شده توسط NIST از جمله فریم‌ورک امنیت سایبری، می‌تواند برای سازمان‌های خصوصی و دولتی پیامدهای مختلفی داشته باشد.

برای مطالعه سایر مقالات در حوزه امنیت سایبری اینجا کلیک کنید.

منبع: csoonline

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.

0
سبد خرید
  • هیچ محصولی در سبدخرید نیست.