نقش دیدگاه جانبدارانه در هوش مصنوعی و جنگافزارهای آینده
هوش مصنوعی و جنگافزارهای نوین با آنچه در عکس ها مشاهده میشود، تفاوت زیادی دارند. امروزه شاهد تحقیق و پژوهش بسیاری از کشورها در زمینه هوش مصنوعی و پیادهسازی سیستمهای هوشمند در طرحهای دفاعی و نظامی هستیم. از آنجا که علاقه و توجه کشورها نسبت به هوش مصنوعی در سال های اخیر همواره رو به افزایش بوده است، در حال حاضر بحث درباره اصول اخلاقی و مشروعیت استفاده از این فناوری در جنگها به شدت بالا گرفته است. یکی از مشکلاتی که در این حوزه وجود دارد و مورد توجه چندانی هم قرار نگرفته موضوع سیستمهای هوش مصنوعی جانبدارانه است که در این مطلب از فراست به بررسی آن می پردازیم.
هوش مصنوعی جانبدارانه
با نگاهی به نمونههای هوش مصنوعی جانبدارانه در محیطهای غیرنظامی میتوان درسهای زیادی از آنها گرفت. مطالعات و تحقیقات مختلف به وضوح نشان میدهد که جانبداری و تعصبات موجود در جوامع انسانی به هوش مصنوعی هم نفوذ کرده است. برای مثال نرمافزار تشخیص چهره شرکت آمازون چهره انسانهای سفید پوست را به راحتی شناسایی میکند ولی عملکرد قابل قبولی در زمینه تشخیص چهره زنان سیاه پوست ندارد.
مثال بعدی در رابطه با نرمافزار مورد استفاده در دادگاههای آمریکا است. این نرمافزار به صورت کاملاً اشتباه پیشبینی میکرد که احتمال ارتکاب جرم توسط اشخاص سیاه پوست بیشتر از افراد سفید پوست است. بنابراین واضح است که هوش مصنوعی جانبدارانه می تواند پیامدهای واقعی و جدی را در جامعه به دنبال داشته باشد.
نقاط ورود نگرش جانبدارانه
یکی از چالشهای کلیدی موجود این است که نقاط ورود مختلفی برای نفوذ یک جانبهگرایی به هوش مصنوعی وجود دارد. ممکن است این مسئله ناشی از جانبداری ناخواسته توسعهدهندگان نرمافزار بوده و در مواقعی که نیروی کار تنوع زیادی ندارد یا دادههای آموزشی بیشتر یا کمتر از حد لازم نمونههای یک گروه آماری خاص باشد (مثل اتفاقی که برای نرمافزار تشخیص چهره آمازون رخ داد) به وقوع بپیوندد. دلایل و روشهای مختلف دیگری نیز برای نفوذ جانبدارانه به نرمافزارهای مبتنی بر هوش مصنوعی وجود دارد. این نفوذ جانبدارانه به هوش مصنوعی متأسفانه یک معضل اخلاقی و اجتماعی مهم را ایجاد کرده و به استفاده از آن در جنگ ها دامن زده است.
نگرانیهای مهم درباره هوش مصنوعی و جنگافزارها
با توجه به نمونههای هوش مصنوعی جانبدارانه در محیطهای غیرجنگی میتوان به سه موضوع نگرانکننده و مهم برای استفاده از هوش مصنوعی در محیطهای جنگی و جنگافزارها اشاره کرد. اولین موضوع مربوط به نقش هوش مصنوعی در ارزیابی تهدید است. ارزیابیهای تهدید بر اساس الگوریتمهایی انجام میشود که در آنها تعدادی ویژگی خاص برای تشخیص میزان تهدیدآمیز بودن هدف مشخصی انتخاب میشود. یکی از مشکلات چنین روشی این است که معمولاً در شکلگیری دیدگاههای ما نسبت به تهدیدآمیز بودن یک موجودیت، جانبداری نقش مهمی دارد. بنا به گفته Sarah Shoker محققی که درباره تبعیض جنسیتی و پهپادهای جنگی مطالعه میکند: «در دوره ریاست جمهوری بوش و اوباما حد آستانه مورد استفاده برای کشتن مردان نسبت به زنان با استفاده از پهپاد کمتر بوده و این مشکل ناشی از نگاه جانبدارانه نسبت به جنسیت، سن، قومیت و مذهب بوده است».
مدارک به دست آمده از دوره ریاست جمهوری ترامپ نشان میدهد که در این دوره هم تصمیمگیریهای مشابهی صورت گرفته و مردان بیشتر از زنان عامل تهدید تلقی شدهاند. همچنین صرفنظر از جنگجو بودن یا نبودن، مردان «قابل کشتنتر» در نظر گرفته میشوند. این مسئله باعث ایجاد سؤالاتی درباره خصوصیات مورد استفاده در ارزیابی تهدید و تأثیر آنها بر روی اشتباه در شناسایی افراد به عنوان تهدید شده است.
نگرانی بعدی مربوط به قابل اعتماد بودن نرمافزارهای تشخیص چهره و شیء در سیستمهای هدفگیری میدان جنگ است. با پیشرفت سلاحهای جنگی و طراحی سلاحها و خودروهای مستقل ممکن است بیش از پیش شاهد استفاده از هوش مصنوعی در چنین ابزارهایی باشیم. تشخیص اشیا و چهرهها نقش بسیار مهمی در هدفگیری و انتخاب اهداف در چنین سیستمهایی دارد. احتمال دارد به دلیل وجود جانبداری در نرمافزارهای این سیستمها دقت آنها در شناسایی بعضی از گروههای نژادی یا قومی کمتر شود.
مسئله سوم هم مربوط به امنیت سایبری و هک است. بسیاری از محققان معتقدند که به طور کلی بحث امنیت، جنسیت زده شده و این موضوع پیامدهای مختلفی در راهکارهای دفاع سایبری دارد. بر اساس هنجارهای جنسیت زده آنچه که در جامعه، مردانه تلقی شده و به همین دلیل مهمتر در نظر گرفته میشود در زمینه امنیت سایبری و دفاع نیز اولویت بیشتری پیدا میکند.
پیامد چنین دیدگاهی این است که سازمانهایی مثل شرکتهای بزرگ و نظامی که مردانهتر در نظر گرفته میشوند از ابزارها و منابع بیشتری برای دفاع سایبری برخوردار بوده و سایر صنایع مانند مراقبتهای بهداشتی و درمانی، آموزش و سازمانهای غیرانتفاعی آسیبپذیر باقی میمانند. محققان امنیتی ثابت کردهاند چنین مؤسساتی در برابر حملات سایبری آسیبپذیرتر بوده و بیشتر مورد هدف این حملات قرار میگیرند. برای مثال در سال 2017 میلادی در انگلیس کل سیستم مراقبت بهداشتی این کشور از کار افتاد. با وابستگی روزافزون عملیات امنیت سایبری به هوش مصنوعی باید دقت لازم به احتمال جانبدارانه شدن سازوکارهای دفاعی در زمینه اولویتبخشی به واکنشها را داشت.
نیاز به انجام تحقیقات بیشتر
تحقیق درباره پیامدهای نظامی جانبدارانه شدن هوش مصنوعی هنوز در مراحل ابتدایی خود قرار دارد. هر چند شاهد افزایش تعداد گزارشها و نوشتههای مرتبط با چالشهای اخلاقی استفاده از هوش مصنوعی در جنگافزارها و نمونههای هوش مصنوعی جانبدارانه در محیطهای غیرنظامی هستیم اما هنوز اقدامات کمی در این حوزه انجام شده است. از پیادهسازیهای هوش مصنوعی در محیطهای غیرنظامی میتوان درسهای زیادی گرفت و افزایش اطلاعات ما در این زمینه به آشنایی هر چه بهتر با جانبداری جنسیتی در کاربردهای نظامی هوش مصنوعی کمک میکند.
منبع: prio