خبرمقالات

نقش دیدگاه جانبدارانه در هوش مصنوعی و جنگ‌افزارهای آینده

هوش مصنوعی و جنگ‌افزارهای نوین با آنچه در عکس ها مشاهده می‌شود، تفاوت زیادی دارند. امروزه شاهد تحقیق و پژوهش بسیاری از کشورها در زمینه هوش مصنوعی و پیاده‌سازی سیستم‌های هوشمند در طرح‌های دفاعی و نظامی هستیم. از آنجا که علاقه و توجه کشورها نسبت به هوش مصنوعی در سال های اخیر همواره رو به افزایش بوده است، در حال حاضر بحث درباره اصول اخلاقی و مشروعیت استفاده از این فناوری در جنگ‌ها به شدت بالا گرفته است. یکی از مشکلاتی که در این حوزه وجود دارد و مورد توجه چندانی هم قرار نگرفته موضوع سیستم‌های هوش مصنوعی جانبدارانه است که در این مطلب از فراست به بررسی آن می پردازیم.

هوش مصنوعی جانبدارانه

با نگاهی به نمونه‌های هوش مصنوعی جانبدارانه در محیط‌های غیرنظامی می‌توان درس‌های زیادی از آنها گرفت. مطالعات و تحقیقات مختلف به وضوح نشان می‌دهد که جانبداری و تعصبات موجود در جوامع انسانی به هوش مصنوعی هم نفوذ کرده است. برای مثال نرم‌افزار تشخیص چهره شرکت آمازون چهره انسان‌های سفید پوست را به راحتی شناسایی می‌کند ولی عملکرد قابل قبولی در زمینه تشخیص چهره زنان سیاه پوست ندارد.

مثال بعدی در رابطه با نرم‌افزار مورد استفاده در دادگاه‌های آمریکا است. این نرم‌افزار به صورت کاملاً اشتباه پیش‌بینی می‌کرد که احتمال ارتکاب جرم توسط اشخاص سیاه پوست بیشتر از افراد سفید پوست است. بنابراین واضح است که هوش مصنوعی جانبدارانه می تواند پیامدهای واقعی و جدی را در جامعه به دنبال داشته باشد.

نقاط ورود نگرش جانبدارانه

یکی از چالش‌های کلیدی موجود این است که نقاط ورود مختلفی برای نفوذ یک جانبه‌گرایی به هوش مصنوعی وجود دارد. ممکن است این مسئله ناشی از جانبداری ناخواسته توسعه‌دهندگان نرم‌افزار بوده و در مواقعی که نیروی کار تنوع زیادی ندارد یا داده‌های آموزشی بیشتر یا کمتر از حد لازم نمونه‌های یک گروه آماری خاص باشد (مثل اتفاقی که برای نرم‌افزار تشخیص چهره آمازون رخ داد) به وقوع بپیوندد. دلایل و روش‌های مختلف دیگری نیز برای نفوذ جانبدارانه به نرم‌افزارهای مبتنی بر هوش مصنوعی وجود دارد. این نفوذ جانبدارانه به هوش مصنوعی متأسفانه یک معضل اخلاقی و اجتماعی مهم را ایجاد کرده و به استفاده از آن در جنگ ها دامن زده است.

نگرانی‌های مهم درباره هوش مصنوعی و جنگ‌افزارها

با توجه به نمونه‌های هوش مصنوعی جانبدارانه در محیط‌های غیرجنگی می‌توان به سه موضوع نگران‌کننده و مهم برای استفاده از هوش مصنوعی در محیط‌های جنگی و جنگ‌افزارها اشاره کرد. اولین موضوع مربوط به نقش هوش مصنوعی در ارزیابی تهدید است. ارزیابی‌های تهدید بر اساس الگوریتم‌هایی انجام می‌شود که در آنها تعدادی ویژگی خاص برای تشخیص میزان تهدیدآمیز بودن هدف مشخصی انتخاب می‌شود. یکی از مشکلات چنین روشی این است که معمولاً در شکل‌گیری دیدگاه‌های ما نسبت به تهدیدآمیز بودن یک موجودیت، جانبداری نقش مهمی دارد. بنا به گفته Sarah Shoker محققی که درباره تبعیض جنسیتی و پهپادهای جنگی مطالعه می‌کند: «در دوره ریاست جمهوری بوش و اوباما حد آستانه مورد استفاده برای کشتن مردان نسبت به زنان با استفاده از پهپاد کمتر بوده و این مشکل ناشی از نگاه جانبدارانه نسبت به جنسیت، سن، قومیت و مذهب بوده است».

مدارک به دست آمده از دوره ریاست جمهوری ترامپ نشان می‌دهد که در این دوره هم تصمیم‌گیری‌های مشابهی صورت گرفته و مردان بیشتر از زنان عامل تهدید تلقی شده‌اند. همچنین صرف‌نظر از جنگجو بودن یا نبودن، مردان «قابل کشتن‌تر» در نظر گرفته می‌شوند. این مسئله باعث ایجاد سؤالاتی درباره خصوصیات مورد استفاده در ارزیابی تهدید و تأثیر آنها بر روی اشتباه در شناسایی افراد به عنوان تهدید شده است.

نگرانی بعدی مربوط به قابل اعتماد بودن نرم‌افزارهای تشخیص چهره و شیء در سیستم‌های هدف‌گیری میدان جنگ است. با پیشرفت سلاح‌های جنگی و طراحی سلاح‌ها و خودروهای مستقل ممکن است بیش از پیش شاهد استفاده از هوش مصنوعی در چنین ابزارهایی باشیم. تشخیص اشیا و چهره‌ها نقش بسیار مهمی در هدف‌گیری و انتخاب اهداف در چنین سیستم‌هایی دارد. احتمال دارد به دلیل وجود جانبداری در نرم‌افزارهای این سیستم‌ها دقت آنها در شناسایی بعضی از گروه‌های نژادی یا قومی کمتر شود.

مسئله سوم هم مربوط به امنیت سایبری و هک است. بسیاری از محققان معتقدند که به طور کلی بحث امنیت، جنسیت زده شده و این موضوع پیامدهای مختلفی در راهکارهای دفاع سایبری دارد. بر اساس هنجارهای جنسیت زده آنچه که در جامعه، مردانه تلقی شده و به همین دلیل مهم‌تر در نظر گرفته می‌شود در زمینه امنیت سایبری و دفاع نیز اولویت بیشتری پیدا می‌کند.

پیامد چنین دیدگاهی این است که سازمان‌هایی مثل شرکت‌های بزرگ و نظامی که مردانه‌تر در نظر گرفته می‌شوند از ابزارها و منابع بیشتری برای دفاع سایبری برخوردار بوده و سایر صنایع مانند مراقبت‌های بهداشتی و درمانی، آموزش و سازمان‌های غیرانتفاعی آسیب‌پذیر باقی می‌مانند. محققان امنیتی ثابت کرده‌اند چنین مؤسساتی در برابر حملات سایبری آسیب‌پذیرتر بوده و بیشتر مورد هدف این حملات قرار می‌گیرند. برای مثال در سال ۲۰۱۷ میلادی در انگلیس کل سیستم مراقبت بهداشتی این کشور از کار افتاد. با وابستگی روزافزون عملیات امنیت سایبری به هوش مصنوعی باید دقت لازم به احتمال جانبدارانه شدن سازوکارهای دفاعی در زمینه اولویت‌بخشی به واکنش‌ها را داشت.

 

نیاز به انجام تحقیقات بیشتر

تحقیق درباره پیامدهای نظامی جانبدارانه شدن هوش مصنوعی هنوز در مراحل ابتدایی خود قرار دارد. هر چند شاهد افزایش تعداد گزارش‌ها و نوشته‌های مرتبط با چالش‌های اخلاقی استفاده از هوش مصنوعی در جنگ‌افزارها و نمونه‌های هوش مصنوعی جانبدارانه در محیط‌های غیرنظامی هستیم اما هنوز اقدامات کمی در این حوزه انجام شده است. از پیاده‌سازی‌های هوش مصنوعی در محیط‌های غیرنظامی می‌توان درس‌های زیادی گرفت و افزایش اطلاعات ما در این زمینه به آشنایی هر چه بهتر با جانبداری جنسیتی در کاربردهای نظامی هوش مصنوعی کمک می‌کند.

 

منبع: prio

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

هفده − 13 =

0
سبد خرید
  • هیچ محصولی در سبدخرید نیست.