مهمترین خطرات هوش مصنوعی برای بشر در 15 سال آینده
اگر چه سال 2020 تا این لحظه به اندازه کافی بد بوده اما حالا تیمی متشکل از دانشگاهیان، کارشناسان حوزه سیاست و فعالان بخش خصوصی هشدار دادهاند که تازه دردسرهای بیشتری هم در راه است. آنها به 18 تهدید ایجاد شده توسط هوش مصنوعی اشاره کردهاند که باید برای 15 سال آینده نگران آنها باشیم.
معمولاً در فیلمهای علمی – تخیلی و در فرهنگ عمومی این باور وجود دارد که پیشرفت رباتهای هوش مصنوعی باعث نابودی ما میشوند ولی در این مطالعه مشخص شد که مهمترین خطر، ناشی از کارهای انسانها است و نه خود هوش مصنوعی!
این گروه به جای هشدار درباره آسیبهای احتمالی هوش مصنوعی، شکست ناپذیر بودن آن، سودآوری و دسترس پذیری آن برای مجرمان، موضوع جعل عمیق (Deep Fake) – فناوری که همین حالا هم وجود داشته و همچنان رو به گسترش است – را مهمترین تهدید ایجاد شده توسط هوش مصنوعی میدانند.
در این حالت به جای اینکه رباتی ساختمانها و شهرها را نابود کند، آسیب اصلی با از بین بردن اعتماد نسبت به اشخاص و جامعه ایجاد میشود.
تهدیدهای هوش مصنوعی
همیشه به نظر میرسد که تهدید هوش مصنوعی در آینده ایجاد میشود و مخصوص زمان حال نیست؛ به هر حال وقتی الکسا قادر به ارایه یک گزارش درست از آب و هوا نیست چطور میتواند تهدیدی برای ما محسوب شود؟ اما Shane Johnson مدیر مرکز جرایم آینده در دانشگاه UCL که بنیانگذار این مطالعه است، توضیح داده که پیچیدگی این تهدیدها و ارتباط آنها با زندگی روزمره ما روز به روز بیشتر خواهد شد.
او میگوید: «ما در دنیایی زندگی میکنیم که همواره در حال تغییر و ایجاد فرصتهای (خوب و بد) جدید است. بنابراین باید تهدیدات و جرایم آینده را پیشبینی کنیم تا سیاستمداران و سایر نهادهای ذیربط که توانایی اقدام دارند بتوانند به موقع برای مقابله با این جرایم برنامه ریزی کنند».
هر چند نویسندگان این تحقیق تصدیق کرده اند که قضاوتهای صورت گرفته در این مطالعه بیشتر حالت پیشبینانه دارند و تحت تأثیر چشمانداز سیاسی و فنی فعلی هستند اما این گروه بر این باورند که نمیتوان آینده فناوری را از آینده این محیطها جدا تلقی کرد.
هوش مصنوعی، اینک در اختیار مجرمان
برای انجام این تحقیق، گروهی متشکل از 14 فرد دانشگاهی در رشتههای مختلف، 7 کارشناس از بخش خصوصی و 10 کارشناس از بخش خصوصی تشکیل شد. این 30 کارشناس به گروههایی شامل 4 تا 6 نفر تقسیم شدند و لیستی از جرایم احتمالی هوش مصنوعی در اختیار آنها قرار گرفت که از تهدیدهای فیزیکی (مثل حمله پهبادهای ناشناس) تا تهدیدات دیجیتال مثل حملههای فیشینگ را شامل میشد.
این گروه برای قضاوت بهتر، چهار ویژگی اصلی حملهها را در نظر گرفتند که عبارتند از:
- آسیب رساندن
- سودآوری برای مجرمان
- دسترس پذیری برای مجرمان
- شکست پذیر بودن
در اینجا منظور از آسیب، هر نوع صدمه جسمی، روحی یا اجتماعی است. نویسندگان این مطالعه، این تهدیدات را در دو گروه، شامل شکست دادن هوش مصنوعی (مثل دور زدن فناوریهای تشخیص چهره) و استفاده از هوش مصنوعی برای ارتکاب جرم (مثل اخاذی از مردم با استفاده از ویدیوهای جعل عمیق) تعریف کردند.
هر چند نمیتوان این عوامل را به صورت کامل از هم تفکیک کرد (مثلاً ممکن است آسیب ایجاد شده در اثر یک حمله با میزان سودآوری آن ارتباط داشته باشد) اما از این کارشناسان درخواست شد که تأثیر این عوامل را به صورت مجزا در نظر بگیرند. امتیازهای مشخص شده توسط این گروه، مرتب سازی شدند تا مخربترین حملههای هوش مصنوعی طی 15 سال آینده مشخص شود.
به نظر میرسد خطرات هوش مصنوعی از جعل عمیق گرفته تا جعل اسناد، در سالهای پیش رو شدت خواهند گرفت.
مهمترین مخاطرات هوش مصنوعی برای بشر
بر اساس نتایج این نظرسنجی، این گروه از بین 18 خطر هوش مصنوعی، دستکاری صدا و تصویر با استفاده از فناوری جعل عمیق را مهمترین تهدید برشمردند.
نویسندگان این مطالعه میگویند: «انسانها تمایل زیادی دارند که به چشم و گوش خودشان اعتماد داشته باشند. بنابراین با وجود تاریخچه طولانی ترفندهای دستکاری تصویر، همیشه اعتبار زیادی برای شواهد ویدیویی و صوتی قائل بودند (و حتی اغلب مواقع این شواهد در دادگاه هم معتبر تلقی میشدند) اما پیشرفتهای اخیر در حوزه یادگیری عمیق (و جعل عمیق) منجر به افزایش قابل توجه حجم محتوای جعلی شده است».
این محققان، تأثیرات این دستکاریها را بسیار گسترده تر از کلاهبرداری از اشخاص مسن با جعل ویدیوی یکی از اعضای خانواده تا تخریب چهرههای دولتی و عمومی می دانند. همچنین آنها افزوده اند که تشخیص چنین حملههایی برای انسانهای معمولی (و در برخی موارد برای کارشناسان) سخت است و همین موضوع باعث سختتر شدن کار برای مقابله با آنها میشود. به گفته آنها «بنابراین تنها سازوکار دفاعی مؤثر در برابر چنین حملههایی، تغییر رفتار شهروندان است».”
سایر تهدیدهای بیان شده، عبارتند از استفاده از خودروهای مستقل به عنوان سلاحهایی با امکان کنترل از راه دور مثل حملههای تروریستی که در سالهای اخیر با استفاده از وسایل نقلیه انجام شده و خبرهای جعلی که توسط هوش مصنوعی نوشته میشود. نکته جالب اینجا است که این گروه، رباتهای غارتگر (مثل رباتهایی که میتوانند از درهای مخصوص حیوانات خانگی عبور کرده و کلیدهای منزل را بدزدند یا به سارقان کمک کنند) را جزو پایینترین سطح خطرات تلقی کرده اند.
چگونه با مخاطرات هوش مصنوعی مقابله کنیم؟
اما آیا این مسأله یعنی ما محکوم به نابودی هستیم؟ قطعاً خیر! با این وجود کارهایی هستند که باید برای پیشگیری از خطر انجام دهیم. معمولاً همیشه این تصور وجود دارد که هوش مصنوعی یک دکمه توقف قرمز دارد که با فشردن آن، حملات همه رباتها و رایانهها متوقف میشود اما در واقعیت مشکل اصلی رباتها نیستند بلکه طرز استفاده ما از آنها است.
میتوانیم با درک این مخاطرات، افزایش اطلاعات عمومی جامعه و تشکیل انجمنهایی برای اطلاع رسانی؛ با این خطرات مقابله کنیم.
چکیده
در این مطالعه، یک بررسی جامع برای شناسایی کاربردهای هوش مصنوعی و فناوریهای مربوط به آن در زمینه ارتکاب جرم صورت گرفته است. همچنین از نمونههای جمع آوری شده، برای ردهبندی کاربردهای مجرمانه هوش مصنوعی استفاده شده تا بتوان خطرات آن را بهتر ارزیابی کرد.
این مطالعه در یک کارگاه دو روزه با عنوان «هوش مصنوعی و آینده جرم» صورت گرفت که نمایندگانی از بخشهای خصوصی و دولتی، حوزه دفاعی، بخش های سیاست و دانشگاهی در آن مشارکت داشتند. هدف این کارگاه، ایجاد فهرستی از جرایم و تهدیدات تروریستی ناشی از افزایش میزان کاربرد و قدرت هوش مصنوعی و همچنین ردهبندی این مخاطرات از نظر میزان آسیب آنها به قربانیان، سودآوری برای مجرمان، دسترس پذیری برای مجرمان و میزان شکست پذیری آنها بوده است.
در نهایت، هجده ردهبندی مختلف از این تهدیدها شناسایی و رتبهبندی شدند. از بین 6 موردی که بیشترین امتیاز را داشتند، 5 مورد مربوط به پیامدهای اجتماعی بودند مثل آنهایی که به تولید محتوای جعلی توسط هوش مصنوعی یا استفاده از روشهای اتوماسیون برای استفاده از هوش مصنوعی در مقیاس وسیع مربوط بودند و ششمین مورد هم مربوط به استفاده از فناوری خودروهای بدون راننده برای اجرای حملههای تروریستی بود.