هوش مصنوعی و پهپادهای قاتل – پراخواتیلوف – ا. م. شیری

هوش مصنوعی و پهپادهای قاتل

ولادیمیر پراخواتیلوف (VLADIMIR PROKHVATILOV)

ا. م. شیری 

کشورهایی که بخشی از بلوک نظامی پیمان امنیتی سه‌جانبه بین استرالیا، انگلستان و آمریکا (AUKUS) هستند، بر روی تعامل دسته‌ای از پهپادهای خودران با هواپیماهای سرنشین‌دار، نیروهای زمینی و دریایی شروع به کار کرده‌اند. شبیه‌سازی‌های رایانه‌ای اخیراً برای دفع تهاجم فرضی چین به تایوان انجام شده است که نشان‌دهندۀ کارآمدی پهپادهای کنترل‌شونده با هوش مصنوعی در غلبه بر سامانه‌های دفاع موشکی و هوایی چین است.

دیوید اوچمانک (Ochmanek)، محقق ارشد شرکت RAND، گفت که شبیه‌سازی‌های انجام‌شدۀ مشترک توسط نیروی هوایی ایالات متحده و شرکت RAND نشان داد که تبادل داده‌های گروهی از پهپادها با استفاده از شبکۀ ارتباطی لیزری «مشبک» هنگام شبیه‌سازی عبور از سامانۀ چینی A2 / AD عملکرد خوبی داشتند.

A2 / AD (محدودیت و ممنوعیت دسترسی و مانورanti-access and area denial =) – به مفهوم بازدارندگی دشمن با افزایش خطر برای استقرار یا حرکت نیروهای دشمن به منطقۀ حفاظت‌شده است.

استفاده از لیزرهای خط دید مستقیم برای ارسال و دریافت داده‌ها بین پهپادها، به آن‌ها استقلال عمل می‌دهد و اجازه می‌دهد تا فوراً داده‌های پرواز و هدف‌گیری را مبادله کنند.

اوچمانک با تشریح چندین راه که گروه پهپادها می‌توانند جریان را به نفع ایالات متحده و تایوان برگردانند، خاطرنشان کرد که می‌توان از آن‌ها همراه با جت‌های جنگنده رادارگریز اف-۳۵ و اف-۲۲ برای هدف قرار دادن کشتی‌های جنگی، هواپیماها و سامانه‌‌های موشکی چین استفاده کرد.

او گفت که پهپادهای شناسایی به هواپیماهای سرنشین‌دار اجازه خواهند داد تا با رعایت سکوت الکترونیکی خود، از شناسایی توسط رادارهای دشمن جلوگیری کنند.

پهپادهای متشکله در شبکه، آگاهی موقعیتی و قابلیت‌های دستیابی به هدف را برای سکوهای سرنشین‌دار به طور چشمگیری افزایش می‌دهند و همزمان رادارهای دشمن را با چندین هدف پر می‌کنند و آن‌ها را مجبور می‌کنند تا موشک‌ها را روی طعمه‌های فریبنده به هدر دهند.

باب ورک (Bob Wark)، معاون سابق وزیر دفاع ایالات متحده اخیراً علناً اعلام کرد که در واقعی‌ترین شبیه‌سازی حمله به تایوان که ایالات متحده می‌توانست انجام دهد، ایالات متحده با نتیجه ۱۸ بر صفر به چین باخت. این شکست‌ها نشان داد که قابلیت‌های A2/AD چین به حدی توسعه یافته است که ایالات متحده دیگر نمی‌تواند انتظار برتری سریع هوایی، فضایی یا دریایی را داشته باشد.

ایالات متحده و متحدانش در پیمان امنیتی سه‌جانبه (AUKUS) روی انبوهی از پهپادهای خودمختار حساب می‌کنند تا سلطۀ نظامی گستردۀ چین در منطقۀ هند و اقیانوس آرام را خنثی نمایند.

دادن خودمختاری بیشتر و بیشتر در امر حملۀ مستقل به انبوه پهپادهای دشمن نه تنها در میان روشنفکران غیرنظامی که از «قیام روبات‌ها» می‌ترسند، بلکه در میان ارتش نیز نگران‌کننده است.

حادثۀ اخیر که در خلال شبیه‌سازی کامپیوتری ارتش ایالات متحده از مأموریت گروهی از پهپادهای نظامی تحت کنترل هوش مصنوعی با نظارت یک متصدی، پهپاد اپراتور را «کشت»، نفت بر آتش پاشید.

پهپادها قرار بود تجهیزات پدافند هوایی دشمن را نابود کنند و برای هر حمله مجوز نهایی از اپراتور بگیرند. همه چیز طبق برنامه پیش می‌رفت تا اینکه اپراتور، انهدام تعدادی از تجهیزات را که توسط هوش مصنوعی به عنوان هدف شناسایی شده بود، ممنوع کرد. هوش مصنوعی با تشخیص اینکه اپراتور در مأموریت تداخل دارد، آن را منفجر کرد.

برای اصلاح این وضعیت، برنامه‌نویسان نظامی که شبیه‌سازی را اجرا می‌کردند، هوش مصنوعی را از کشتن اپراتورهای آن منع کردند. پس از آن، هوش مصنوعی به سمت دیگری رفت: برج ارتباطی را منفجر کرد تا دیگرهیچ کس نتواند از انجام مأموریت آن جلوگیری کند.

تاکر همیلتون، سرهنگ نیروی هوایی در کنفرانس دفاعی ماه مه انجمن سلطنتی هوافضا با موضوع توانایی‌های رزمی هوایی و فضایی آینده در مورد این حادثه صحبت کرد. پس از انتشار خلاصۀ گزارش‌ها در سایت جامعه، منطقۀ جنگی، اینسایدر و گاردین در این باره نوشتند.

اگرچه سخنگوی ستاد نیروی هوایی در پنتاگون انجام چنین شبیه‌سازی را رد کرد، اما انجمن سلطنتی هوافضا خلاصۀ سخنرانی سرهنگ همیلتون را از وب سایت خود حذف نکرده است. و سرهنگ همیلتون آدمی نیست که داستان بگوید. او بخش آزمایش و عملیات هوش مصنوعی و نیروی ویژۀ ۹۶ را زیر چتر آزمایشی ۹۶ در پایگاه نیروی هوایی اگلین در فلوریدا رهبری می‌کند. پهپادهای پیشرفته خودران در این مرکز مورد آزمایش قرار می‌گیرند.

سرهنگ در مصاحبه با Defense IQ گفت: «ما باید با جهانی روبرو شویم که هوش مصنوعی در آن وجود دارد و جامعۀ ما را تغییر می‌دهد. هوش مصنوعی همچنین بسیار شکننده است. به این معنی که می‌توان آن را به راحتی فریب داد و یا دستکاری کرد. ما باید راه‌هایی را توسعه دهیم تا هوش مصنوعی را قابل اعتمادتر کنیم و بهتر درک کنیم که چرا رمزهای برنامه‌نویسی تصمیمات‌ خاصی که ما آن را توضیح‌پذیری هوش مصنوعی می‌نامیم، می‌گیرد».

سرگئی راستارگوی‌یف، دانشمند برجستۀ روس، استاد دانشگاه دولتی لومونسوف روسیه، سال‌های زیادی به مطالعۀ مسائل قابل توضیح هوش مصنوعی پرداخت. او در تک‌نگاری بنیادی  بیست سال پیش زیر عنوان «هدف بمثابه رمزنگاری. تجزیه و تحلیل رمز اهداف مصنوعی» که به مطالعۀ روانشناسی (!) هوش مصنوعی اختصاص داشت،  می‌نویسد: «امروزه برای دنیای برنامه‌های کامپیوتری، کسب استقلال به یک عمل انجام شده تبدیل شده است… محصولات نرم‌افزاری، ادامۀ ناخودآگاه جمعی انسان هستند که در چارچوب روانشناسی تحلیلی مورد مطالعه قرار گرفته‌اند…».

نوربرت وینر، پدر علم سایبرنتیک در کتاب سایبرنتیک خود خاطرنشان کرد: «ایدۀ دستگاه‌های غیرانسانی که دارای قدرت و توانایی زیادی برای اجرای سیاست‌های خود هستند و خطر آن‌ها، به خودی خود چیز جدیدی نیست. آنچه جدید است این است که ما اکنون از این دست دستگاه‌های کارآمد داریم».

سرگئی راستارگوی‌یف می‌نویسد که «افزایش قابلیت اطمینان و پیچیدگی به حافظه و پیچیدگی بیشتر و بیشتری نیاز دارد و در برخی مواقع نرم‌افزار سیستمی برای خود شروع به زندگی می‌کند و برای خود هدفی پیدا می‌کند». و مجموعۀ کامپیوتری هرچه پیچیده‌تر باشد، «برنامه مستقل‌تر عمل می‌کند»!

دانشمند روس خطر اصلی را نه در انواع ویروس‌ها، قطع برق یا خطاهای اپراتور، بلکه در استقلال رو به رشد نرم‌افزار، به عبارت امروزی- در هوش مصنوعی می‌بیند.

تمایل ارتش انگلیسی-آمریکایی برای خنثی کردن برتری نظامی جمهوری خلق چین در منطقۀ هند و اقیانوس آرام، با پیشروی در مسیر به حداکثر رساندن پیچیدگی و خودکارسازی پهپادهای قاتل با کمک هوش مصنوعی، حوادثی مانند آنچه را سرهنگ همیلتون بیان کرد، به یک ویژگی ضروری جنگ‌های آینده تبدیل می‌کند.

منبع: وبگاه بنیاد فرهنگ راهبردی

یادوری: کلمات و عبارات آبی رنگ در متن مقاله، پیوند منابع مورد استفاده هستند.

۱۶ خرداد-جوزا ۱۴۰۲