تهدیداتمقالات

مهمترین خطرات هوش مصنوعی برای بشر در ۱۵ سال آینده

اگر چه سال ۲۰۲۰ تا این لحظه به اندازه کافی بد بوده اما حالا تیمی متشکل از دانشگاهیان، کارشناسان حوزه سیاست و فعالان بخش خصوصی هشدار داده‌اند که تازه دردسرهای بیشتری هم در راه است. آنها به ۱۸ تهدید ایجاد شده توسط هوش مصنوعی اشاره کرده‌اند که باید برای ۱۵ سال آینده نگران آنها باشیم.

معمولاً در فیلم‌های علمی – تخیلی و در فرهنگ عمومی این باور وجود دارد که پیشرفت ربات‌های هوش مصنوعی باعث نابودی ما می‌شوند ولی در این مطالعه مشخص شد که مهمترین خطر، ناشی از کارهای انسان‌ها است و نه خود هوش مصنوعی!

 

این گروه به جای هشدار درباره آسیب‌های احتمالی هوش مصنوعی، شکست ناپذیر بودن آن، سودآوری و دسترس پذیری آن برای مجرمان، موضوع جعل عمیق (Deep Fake) – فناوری که همین حالا هم وجود داشته و همچنان رو به گسترش است – را مهمترین تهدید ایجاد شده توسط هوش مصنوعی می‌دانند.

در این حالت به جای اینکه رباتی ساختمان‌ها و شهرها را نابود کند، آسیب اصلی با از بین بردن اعتماد نسبت به اشخاص و جامعه ایجاد می‌شود.

 

تهدیدهای هوش مصنوعی

همیشه به نظر می‌رسد که تهدید هوش مصنوعی در آینده ایجاد می‌شود و مخصوص زمان حال نیست؛ به هر حال وقتی الکسا قادر به ارایه یک گزارش درست از آب و هوا نیست چطور می‌تواند تهدیدی برای ما محسوب شود؟ اما Shane Johnson مدیر مرکز جرایم آینده در دانشگاه UCL که بنیانگذار این مطالعه است، توضیح داده که پیچیدگی این تهدیدها و ارتباط آنها با زندگی روزمره ما روز به روز بیشتر خواهد شد.

او می‌گوید: «ما در دنیایی زندگی می‌کنیم که همواره در حال تغییر و ایجاد فرصت‌های (خوب و بد) جدید است. بنابراین باید تهدیدات و جرایم آینده را پیش‌بینی کنیم تا سیاستمداران و سایر نهادهای ذیربط که توانایی اقدام دارند بتوانند به موقع برای مقابله با این جرایم برنامه ریزی کنند».

هر چند نویسندگان این تحقیق تصدیق کرده اند که قضاوت‌های صورت گرفته در این مطالعه بیشتر حالت پیش‌بینانه دارند و تحت تأثیر چشم‌انداز سیاسی و فنی فعلی هستند اما این گروه بر این باورند که نمی‌توان آینده فناوری را از آینده این محیط‌ها جدا تلقی کرد.

 

هوش مصنوعی، اینک در اختیار مجرمان

برای انجام این تحقیق، گروهی متشکل از ۱۴ فرد دانشگاهی در رشته‌های مختلف، ۷ کارشناس از بخش خصوصی و ۱۰ کارشناس از بخش خصوصی تشکیل شد. این ۳۰ کارشناس به گروه‌هایی شامل ۴ تا ۶ نفر تقسیم شدند و لیستی از جرایم احتمالی هوش مصنوعی در اختیار آنها قرار گرفت که از تهدیدهای فیزیکی (مثل حمله پهبادهای ناشناس) تا تهدیدات دیجیتال مثل حمله‌های فیشینگ را شامل می‌شد.

این گروه برای قضاوت بهتر، چهار ویژگی اصلی حمله‌ها را در نظر گرفتند که عبارتند از:

  1. آسیب رساندن
  2. سودآوری برای مجرمان
  3. دسترس پذیری برای مجرمان
  4. شکست پذیر بودن

در اینجا منظور از آسیب، هر نوع صدمه جسمی، روحی یا اجتماعی است. نویسندگان این مطالعه، این تهدیدات را در دو گروه، شامل شکست دادن هوش مصنوعی (مثل دور زدن فناوری‌های تشخیص چهره) و استفاده از هوش مصنوعی برای ارتکاب جرم (مثل اخاذی از مردم با استفاده از ویدیوهای جعل عمیق) تعریف کردند.

هر چند نمی‌توان این عوامل را به صورت کامل از هم تفکیک کرد (مثلاً ممکن است آسیب ایجاد شده در اثر یک حمله با میزان سودآوری آن ارتباط داشته باشد) اما از این کارشناسان درخواست شد که تأثیر این عوامل را به صورت مجزا در نظر بگیرند. امتیازهای مشخص شده توسط این گروه، مرتب سازی شدند تا مخرب‌ترین حمله‌های هوش مصنوعی طی ۱۵ سال آینده مشخص شود.

به نظر می‌رسد خطرات هوش مصنوعی از جعل عمیق گرفته تا جعل اسناد، در سال‌های پیش رو شدت خواهند گرفت.

 

مهمترین مخاطرات هوش مصنوعی برای بشر

بر اساس نتایج این نظرسنجی، این گروه از بین ۱۸ خطر هوش مصنوعی، دستکاری صدا و تصویر با استفاده از فناوری جعل عمیق را مهمترین تهدید برشمردند.

نویسندگان این مطالعه می‌گویند: «انسان‌ها تمایل زیادی دارند که به چشم و گوش خودشان اعتماد داشته باشند. بنابراین با وجود تاریخچه طولانی ترفندهای دستکاری تصویر، همیشه اعتبار زیادی برای شواهد ویدیویی و صوتی قائل بودند (و حتی اغلب مواقع این شواهد در دادگاه هم معتبر تلقی می‌شدند) اما پیشرفت‌های اخیر در حوزه یادگیری عمیق (و جعل عمیق) منجر به افزایش قابل توجه حجم محتوای جعلی شده است».

این محققان، تأثیرات این دستکاری‌ها را بسیار گسترده تر از کلاهبرداری از اشخاص مسن با جعل ویدیوی یکی از اعضای خانواده تا تخریب چهره‌های دولتی و عمومی می دانند. همچنین آنها افزوده اند که تشخیص چنین حمله‌هایی برای انسان‌های معمولی (و در برخی موارد برای کارشناسان) سخت است و همین موضوع باعث سخت‌تر شدن کار برای مقابله با آنها می‌شود. به گفته آنها «بنابراین تنها سازوکار دفاعی مؤثر در برابر چنین حمله‌هایی، تغییر رفتار شهروندان است».”

سایر تهدیدهای بیان شده، عبارتند از استفاده از خودروهای مستقل به عنوان سلاح‌هایی با امکان کنترل از راه دور مثل حمله‌های تروریستی که در سال‌های اخیر با استفاده از وسایل نقلیه انجام شده و خبرهای جعلی که توسط هوش مصنوعی نوشته می‌شود. نکته جالب اینجا است که این گروه، ربات‌های غارتگر (مثل ربات‌هایی که می‌توانند از درهای مخصوص حیوانات خانگی عبور کرده و کلیدهای منزل را بدزدند یا به سارقان کمک کنند) را جزو پایین‌ترین سطح خطرات تلقی کرده اند.

 

چگونه با مخاطرات هوش مصنوعی مقابله کنیم؟

اما آیا این مسأله یعنی ما محکوم به نابودی هستیم؟ قطعاً خیر! با این وجود کارهایی هستند که باید برای پیشگیری از خطر انجام دهیم. معمولاً همیشه این تصور وجود دارد که هوش مصنوعی یک دکمه توقف قرمز دارد که با فشردن آن، حملات همه ربات‌ها و رایانه‌ها متوقف می‌شود اما در واقعیت مشکل اصلی ربات‌ها نیستند بلکه طرز استفاده ما از آنها است.

می‌توانیم با درک این مخاطرات، افزایش اطلاعات عمومی جامعه و تشکیل انجمن‌هایی برای اطلاع رسانی؛ با این خطرات مقابله کنیم.

چکیده

در این مطالعه، یک بررسی جامع برای شناسایی کاربردهای هوش مصنوعی و فناوری‌های مربوط به آن در زمینه ارتکاب جرم صورت گرفته است. همچنین از نمونه‌های جمع آوری شده، برای رده‌بندی کاربردهای مجرمانه هوش مصنوعی استفاده شده تا بتوان خطرات آن را بهتر ارزیابی کرد.

این مطالعه در یک کارگاه دو روزه با عنوان «هوش مصنوعی و آینده جرم» صورت گرفت که نمایندگانی از بخش‌های خصوصی و دولتی، حوزه دفاعی، بخش های سیاست و دانشگاهی در آن مشارکت داشتند. هدف این کارگاه، ایجاد فهرستی از جرایم و تهدیدات تروریستی ناشی از افزایش میزان کاربرد و قدرت هوش مصنوعی و همچنین رده‌بندی این مخاطرات از نظر میزان آسیب آنها به قربانیان، سودآوری برای مجرمان، دسترس پذیری برای مجرمان و میزان شکست پذیری آنها بوده است.

در نهایت، هجده رده‌بندی مختلف از این تهدیدها شناسایی و رتبه‌بندی شدند. از بین ۶ موردی که بیشترین امتیاز را داشتند، ۵ مورد مربوط به پیامدهای اجتماعی بودند مثل آنهایی که به تولید محتوای جعلی توسط هوش مصنوعی یا استفاده از روش‌های اتوماسیون برای استفاده از هوش مصنوعی در مقیاس وسیع مربوط بودند و ششمین مورد هم مربوط به استفاده از فناوری خودروهای بدون راننده برای اجرای حمله‌های تروریستی بود.

 

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

4 × 3 =

دکمه بازگشت به بالا