اخبار جهان

هوش مصنوعی شاید خطرناک‌تر از بمب هسته‌ای باشد

توبی والش روزهای بروجرد توبی والش کارشناس فناوری استرالیایی است. به او لقب «ستاره راک البته در انقلاب دیجیتال استرالیا» را داده‌اند. او استاد هوش مصنوعی در دانشگاه نیو ساوث ولز است. آخرین کتاب او با عنوان «ماشین‌هایی که بد رفتار می‌کنند: اخلاق هوش مصنوعی» نام دارد.

او در سال ۲۰۱۵ میلادی پیشتاز انتشار نامه سرگشاده‌ای شد که در آن خواستار ممنوعیت تسلیحات خودمختار تهاجمی شد که بیش از ۲۰ هزار امضا را به همراه داشت. او نویسنده سه کتاب در زمینه هوش مصنوعی برای مخاطبان عام است: «این زنده است!، هوش مصنوعی از پیانوی منطقی تا ربات‌های قاتل» که به تاریخ و حال هوش مصنوعی می‌پردازد، «۲۰۶۲: جهانی که هوش مصنوعی ساخته است» که به تاثیر بالقوه هوش مصنوعی بر جامعه ما می‌پردازد و «ماشین‌ها با رفتار بد: اخلاق هوش مصنوعی» که به چالش‌های اخلاقی هوش مصنوعی می‌پردازد.

او در سال ۲۰۲۰ میلادی به عنوان عضو انجمن آمریکایی «برای پیشرفت علم» انتخاب شد. او در سال ۲۰۱۸ میلادی برنده جایزه سالانه افراد سال انجمن کنترل تسلیحات شد. او در سال ۲۰۱۴ میلادی برنده جایزه بنیاد هومبولت آلمان شد.

به گزارش فرارو به نقل از اشپیگل، «توبی والش» در مصاحبه با نشریه «آلمانی» اشپیگل” به بررسی اثرات مخرب بالقوه استفاده از هوش مصنوعی در میدان جنگ می‌پردازد. او می‌گوید که ما نمی‌توانیم هوش مصنوعی را از بین ببریم، اما باید آن را با ارزش‌های جامعه هماهنگ سازیم.

در ادامه پاسخ‌های او را به پرسش‌های خبرنگار «اشپیگل» خواهید خواند:

جنگ روسیه علیه اوکراین شبیه آزمایشگاهی برای سیستم‌های تسلیحاتی مدرن به نظر می‌رسد. اوکراین از ابتدا به پهپاد‌های ترکی بایراکتار متکی بود و اکنون گفته می‌شود روسیه نیز می‌تواند از پهپاد‌های ایرانی استفاده کند. این سلاح‌ها می‌توانند در آینده به طور مستقل و با کمک هوش مصنوعی کنترل شوند؟

در مورد استفاده از ربات‌های قاتل کنترل شده با هوش مصنوعی تنها موضوع زمان است. من فقط در یک مقاله در مورد نوع جدیدی از مین ضد نفر روسی به نام POM-۳ هشدار دادم. این مین بر اساس طرحی از ورماخت آلمان به نام Schrapnell mine ساخته شده است. این مین رد پا را تشخیص می‌دهد سپس ابتدا به هوا می‌پرد و پس از آن در ارتفاع یک متری منفجر می‌شود تا حد امکان با ترکش به سربازان آسیب برساند.

روسیه اعلام کرده که این مین ترکش را با استفاده از نرم‌افزار هوش مصنوعی کنترل خواهد کرد که می‌تواند به دقت تشخیص دهد که آیا واحد‌های روسی خود در حال نزدیک شدن هستند یا خیر و در صورت نزدیک شدن نیرو‌های خودی روس منفجر نمی‌شود و تنها در صورت تشخیص نزدیک شدن سربازان دشمن منفجر می‌شود و آنان را از بین می‌برد. چنین مین‌های زمینی‌ای ماهیت حیوانی دارند چرا که افراد را به صورتی بی‌رویه نابود می‌کنند و اغلب به کودکان ضربه وارد می‌سازند. به همین دلیل است که این نوع از مین‌ها در سطح بین المللی غیرقانونی محسوب می‌شوند.

۱۶۴ دولت از جمله اوکراین متعهد شده‌اند که از آن استفاده نکنند. با این وجود، روسیه جزو این فهرست نیست. انتقاد من از POM-۳ و استفاده از آن توسط ارتش روسیه باعث شد تا در فهرست افراد ممنوع الورود به خاک روسیه قرار گیرم و دیگر اجازه نداشته باشم به آن کشور سفر کنم.

یک مسابقه تسلیحاتی جهانی هوش مصنوعی مدت‌هاست که در جریان می‌باشد و عموم مردم تاکنون از آن بی‌اطلاع بوده اند. ارتش ایالات متحده در حال توسعه یک تانک رباتیک به نام اطلس است. نیروی دریایی ایالات متحده در حال کار بر روی یک کشتی جنگی رباتیک کاملا خودکار به نام «شکارچی دریا» یا Sea Hunter است که پیش‌تر به طور مستقل سفر خود را از هاوایی به سواحل کالیفرنیا تکمیل کرده است.

هم چنین، چین در حال توسعه موشک‌های کنترل شده با هوش مصنوعی است. روسیه قصد دارد یک زیردریایی بدون سرنشین به نام «پوزیدون» را بسازد که حتی قادر است به تسلیحات هسته‌ای مجهز شود. این یک کابوس است. آیا می‌توانید به چیزی وحشتناک‌تر از یک زیردریایی فکر کنید که در آن به جای یک کاپیتان یک برنامه رایانه‌ای تصمیم می‌گیرد که جنگ هسته‌ای را آغاز کند یا خیر؟

نباید فکر کنیم که این سناریو‌های ترسناک در نهایت هرگز محقق نمی‌شوند. سلاح‌های خودمختار شاید حتی از بمب‌های هسته‌ای نیز خطرناک‌تر باشند بدان خاطر که ساخت بمب هسته‌ای به دانش باورنکردنی نیاز دارد شما به فیزیکدانان و مهندسان برجسته نیاز دارید به مواد شکافت‌پذیر نیاز دارید به پول زیادی نیاز دارید.

بنابراین، خوشبختانه در آینده قابل پیش‌بینی سلاح‌های هسته‌ای برای بسیاری از کشور‌ها دور از دسترس خواهند بود. از سوی دیگر، درباره سلاح‌های مبتنی بر هوش مصنوعی وضعیت کاملا متفاوت است. اغلب سیستم‌های تسلیحاتی معمولی که هر جنگ سالار کوچکی در اختیار دارد برای توسعه تسلیحات هوش مصنوعی کافی هستند. با تراشه‌های رایانه‌ای و لوازم جانبی مناسب از یک چاپگر سه بعدی آن تسلیحات به یک سلاح مستقل تبدیل می‌شوند.

من نمی‌دانم آیا چنین سلاح‌هایی برای مثال، چند فروند تانک اطلس خودمختار و یا کشتی‌های «شکارچی دریا» واقعا برای جنگ تعیین کننده هستند یا خیر. با این وجود، این تسلیحات قادر خواهند بود به‌طور تصادفی از طریق نقص عملکرد جنگی را آغاز کنند. برای مثال، روسیه ظاهرا از یک سلاح مافوق صوت در تهاجم به اوکراین استفاده کرده است که با سرعت چند برابر مافوق صوت به سمت هدف خود پرواز می‌کند.

در چنین موردی، زمان کمی برای مدافعان وجود دارد که واکنش نشان دهند و این امر جنگ را تسریع می‌کند. این امر می‌تواند منجر به حمله رعد آسا شود که در آن سیستم‌های رایانه‌ای دشمن یکدیگر را در کوتاه‌ترین زمان ممکن موشک باران می‌کنند. این اتوماسیون جنگ اثر بی‌ثبات کننده‌ای دارد و ما باید به هر قیمتی از آن جلوگیری کنیم.

در اینجا این پرسش مطرح می‌شود که آیا سلاح‌های نیمه خودمختار نمی‌توانند جان انسان‌ها را نجات دهند؟ برای مثال، سیستم دفاع موشکی فالانکس ایالات متحده برای دفاع از کشتی‌های جنگی بسیار سریع‌تر از یک انسان به حملات پاسخ می‌دهد. با این وجود، فالانکس به وضوح یک سیستم دفاعی است. هوش مصنوعی در واقع با سلاح‌های دفاعی مشکل کمتری دارد. با این وجود، استفاده از آن نیز دشوار است. چنین سیستمی تا چه میزان قابل اعتماد است؟ اگر نرم‌افزار به اشتباه هواپیمای مسافربری را موشک دشمن تشخیص دهد و آن را منهدم کند چه خواهد شد؟

حدس و گمانه زنی‌های زیادی در این باره وجود دارد که ربات‌های قاتل تهاجمی هم اکنون مورد استفاده قرار می‌گیرند. ترکیه یک پهپاد خودگردان انتحاری به نام کارگو با نرم‌افزار تشخیص چهره را برای شکار انسان در مرز سوریه فرستاده است. طبق گزارش‌ها، کارگو از الگوریتم‌های تشخیص چهره مشابهی که در گوشی‌های تلفن همراه هوشمند وجود دارد با تمام خطاهای‌شان برای شناسایی و کشتن افراد روی زمین استفاده می‌کند.

تصور کنید که تعقیب شدن توسط انبوهی از پهپاد‌های قاتل تا چه اندازه وحشتناک خواهد بود. حتی اگر این پهپاد‌ها به طور خاص قابل اعتماد کار نکنند دیکتاتوری‌ها می‌توانند از آن برای ترساندن مردم استفاده کنند. این پهپاد‌ها برای کاربرد در ترور دولتی مناسب هستند.

برخی این ایده را مطرح می‌کنند که سلاح‌های کنترل شده با هوش مصنوعی را غیرقانونی کنیم. برای مثال، از همتای معاهده منع گسترش سلاح‌های هسته‌ای برای آن استفاده نماییم. غیر قانونی کردن این تسلیحات ممکن است همواره کارآیی نداشته باشد، اما می‌تواند از بدتر شدن آن جلوگیری کند.

نمونه‌های بسیار کمی از تسلیحاتی وجود دارند که در ابتدا مورد استفاده قرار گرفتند، اما بعدا غیرقانونی شدند. به استفاده گسترده از گاز سمی در جنگ جهانی اول فکر کنید یا به لیزر‌های کور کننده فکر کنید که می‌توانند سربازان را نابینا سازند. این تسلیحات توسط پروتکل سازمان ملل متحد در سال ۱۹۹۸ میلادی غیرقانونی شدند و از آن زمان تقریبا هرگز در میدان‌های جنگ ظاهر نشدند حتی اگر همان طور که می‌دانیم فناوری لیزر غیرنظامی به طور گسترده مورد استفاده قرار گیرد.

برای مین‌های ضد نفر این ممنوعیت به خوبی کار نمی‌کند، اما دست کم ۴۰ میلیون مین به دلیل پروتکل‌های غیر قانونی نابود شده‌اند و این شرایط جان بسیاری از کودکان را نجات می‌دهد. این یک داستان مشابه در مورد مهمات خوشه‌ای است: حدود ۹۹ درصد از ذخایر منهدم شده است حتی اگر دوباره در سوریه استفاده شود. ما می‌توانیم از غیر قابل قبول شدن سلاح‌های خودمختار از طریق انگ زدن به آن اطمینان حاصل کنیم.

من پیش‌تر دید خوش بینانه‌ای نسبت به هوش مصنوعی داشتم و آینده درخشانی را برای آن پیش بینی کرده بود. اما نظرم تغییر پیدا کرد. واقعیت رخ داد! ما به تازگی شاهد بسیاری از عوارض جانبی ناخوشایند هوش مصنوعی بوده ایم.

در این میان، اتحادیه اروپا در تنظیم مقررات هوش مصنوعی براستی پیشرو بوده است و بازار اروپا به اندازه‌ای بزرگ است که برای شرکت‌های جهانی ارزش دارد که محصولات هوش مصنوعی خود را با قوانین اروپایی تطبیق دهند. با این وجود، شیطان در جزئیات است. تدوین قوانین یک موضوع است، اما پرسش اینجاست که تبعیت از قوانین واقعا تا چه حد اجرا می‌شود.

مشکل آن است که ما نمی‌توانیم سیستم هوش مصنوعی را که بد رفتار می‌کند قطع کنیم. ما نمی‌توانیم تنها رایانه‌های سیستم بانکی جهانی را خاموش کنیم چرا که در آن صورت اقتصاد جهانی فرو خواهد ریخت. ما نمی‌توانیم رایانه‌های کنترل ترافیک هوایی را نیز خاموش کنیم چرا که در آن صورت ترافیک هوایی از بین می‌رود.

ما هم چنین نمی‌توانیم رایانه‌های نیروگاه‌ها را خاموش کنیم، زیرا در آن صورت دچار خاموشی می‌شویم. امروزه ما کاملا به رایانه وابسته هستیم. این وابستگی تنها با هوش مصنوعی در حال افزایش است. ما نمی‌توانیم از شر آن خلاص شویم. ما تنها می‌توانیم تلاش کنیم تا اطمینان حاصل شود که ارزش‌های هوش مصنوعی با ارزش‌های جامعه ما هماهنگ هستند.

من پیش‌تر به درستی پیش بینی کردم که یک خودروی خودران باعث تصادف مرگبار با دوچرخه سوار و عابر پیاده می‌شود و آن پیش بینی دقیقا یک سال بعد رخ داد.

برای پنج سال آینده درباره هوش مصنوعی پیش بینی من آن است که با فناوری هوش مصنوعی «تشخیص چهره خودکار» رسوایی‌هایی را شاهد خواهیم بود. استارت آپ آمریکایی Clearview AI میلیون‌ها عکس را بدون رضایت افراد درگیر مورد استفاده قرار داده است. از این شرکت شکایت شد، اما کماکان به کار خود ادامه می‌دهد.

یک پیش بینی دیگر من آن است که دیپ فیک یا جعل عمیق یعنی فیلم‌ها و عکس‌های دستکاری شده با کمک هوش مصنوعی در اینترنت افزایش خواهند یافت. در چند سال آینده دیپ فیک‌ها در مورد انتخابات تصمیم می‌گیرند یا جنگ را آغاز می‌کنند یا هر دو عمل را انجام خواهند داد.

 

 

تگ ها

مقالات مشابه

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد.

این مطلب هم پیشنهاد میشود

Close
Close