Na tle konfliktów i globalnych problemów bezpieczeństwa, rok 2023 może okazać się przełomowy także w odniesieniu do zautomatyzowanych systemów broni nuklearnej.

Rok, który rozpoczął się od chatbotów i sztucznej inteligencji (AI) w treści głównych doniesień medialnych – czasem ze szczególnie niepokojącymi nagłówkami - zakończył się wprowadzeniem przez członków Kongresu Stanów Zjednoczonych ustawodawstwa wykluczającego systemy AI z uzbrojenia nuklearnego i podpisaniem przez prezydenta USA Bidena rozporządzenia wykonawczego w tym zakresie. Kwestia ta została nawet poruszona w dyskusjach między Stanami Zjednoczonymi a Chinami na forum Współpracy Gospodarczej Azji i Pacyfiku, które odbyło się w listopadzie w San Francisco.

Samoloty państw członkowskich ćwiczą zdolność NATO do odstraszania nuklearnego w ramach ćwiczenia Steadfast Noon w dniach 16-26 października 2023 roku. Na zdjęciu: holenderski myśliwiec F-16 Fighting Falcon podczas startu. © NATO
)

Samoloty państw członkowskich ćwiczą zdolność NATO do odstraszania nuklearnego w ramach ćwiczenia Steadfast Noon w dniach 16-26 października 2023 roku. Na zdjęciu: holenderski myśliwiec F-16 Fighting Falcon podczas startu. © NATO

Wydaje się, że jesteśmy na szybkiej ścieżce do opracowania ram dyplomatycznych i regulacyjnych, które ograniczą wykorzystanie sztucznej inteligencji w systemach broni nuklearnej. Jest to niepokojące z co najmniej dwóch powodów:

  1. Istnieje zastosowanie sztucznej inteligencji, które wzmocni odstraszanie nuklearne bez konieczności rozbudowywania arsenału nuklearnego.

  2. Obserwowany obecnie pośpiech, by zakazać wykorzystywania sztucznej inteligencji w systemach obrony nuklearnej wydaje się wyrastać z błędnego zrozumienia. aktualnego stadium rozwoju sztucznej inteligencji – to błędne wyobrażenie zdaje się więcej czerpać z rozpowszechnionej fikcji niż z powszechnych nauk empirycznych.

Polityka Stanów Zjednoczonych - członka NATO dysponującego największym arsenałem nuklearnym - w zakresie wykorzystania sztucznej inteligencji w systemach obrony nuklearnej będzie prawdopodobnie nadawać ton pozostałym państwom członkowskim NATO posiadającym potencjał nuklearny, to jest Francji i Wielkiej Brytanii. Dlatego też należy zająć się nieporozumieniami dotyczącymi sztucznej inteligencji, przede wszystkim w Stanach Zjednoczonych, ale w ogólniejszym ujęciu w całym Sojuszu, a ustawodawców należy wezwać do ostrożniejszego procedowania wszelkich proponowanych regulacji. Ze względu na potencjalne korzyści geopolityczne, które należy realizować, zakaz wykorzystywania sztucznej inteligencji w obronie nuklearnej jest złym pomysłem.

Błędne zrozumienie nowej nauki

Kiedy ludzie myślą o sztucznej inteligencji w kontekście broni nuklearnej, mogą wyobrazić sobie coś w rodzaju systemu Skynet z filmu Terminator 2: Dzień sądu z 1991 roku. W filmie tym Skynet uzyskuje samoświadomość i uruchamia globalny atak nuklearny.

Być może mają na myśli film Gry wojenne z 1983 roku i jego system sztucznej inteligencji zwany WOPR, albo nawet bardziej niszowe kino – na przykład film Colossus: Projekt Forbina z 1970 roku. Filmy te, wypuszczane w każdej z ostatnich trzech dekad zimnej wojny, przedstawiają systemy sztucznej inteligencji zdolne do samodzielnego myślenia - co czasami określa się mianem ogólnej sztucznej inteligencji (AGI). Niebezpieczeństwo, które przedstawiają, polega na tym, że systemy zdolne do niezależnego myślenia byłyby zdolne do obierania niezależnych celów i ukrytych motywów. Z pewnością byłoby to niepokojące, gdyby takie systemy istniały. Jednak nie istnieją. Chociaż sceptyczny konsensus nie jest powszechny, istnieją poważne wątpliwości, przynajmniej po stronie niektórych badaczy co do tego, czy takie systemy kiedykolwiek będą istnieć.

Dzieła popularnej fikcji nie zawsze dokładnie odzwierciedlają współczesną naukę. W najlepszym przypadku fikcja może stanowić punkt wyjścia do debaty i strategicznego myślenia. Na przykład Last War in the World H.G. Wellsa była jednym z pierwszych dzieł fikcyjnych o wojnie nuklearnej. Powieść powstała w czasach, gdy atomistyka była w powijakach i jest pełna nieporozumień dotyczących pojęć takich, jak wydajność wybuchu i okres połowicznego rozpadu. Niemniej jednak, późniejsze niefikcyjne dzieło Hermana Kahna, On Thermonuclear War), przyjmuje za punkt wyjścia scenariusze, które można natychmiast rozpoznać z fabuły * Last War *. Kahn pokazał, że poważna myśl akademicka może rozpocząć się od rozważenia fikcyjnych scenariuszy, nawet tych z naukowymi nieścisłościami. Jednak prawdopodobnie jego ważniejsza praca, opracowana później - i obecnie powszechnie cytowana On Escalation - opierała się na dowodach empirycznych. Precyzja naukowa i dowody empiryczne muszą być również podstawą naszych dyskusji o sztucznej inteligencji.

Dostępna obecnie sztuczna inteligencja nie jest AGI. Może ona przejść test Turinga - to znaczy, może być nie do odróżnienia od człowieka, gdy odpowiada na pytania zadawane przez użytkownika. Nie jest jednak zdolna do samodzielnego myślenia i z pewnością nie jest samoświadoma.

Historyczny precedens - udoskonalone systemy naprowadzania

Sztuczna inteligencja mogłaby odegrać niezliczone role w naszej obronie nuklearnej, w tym w ramach systemów naprowadzania opartych na sztucznej inteligencji. Jeśli założymy, że naprowadzanie oparte na sztucznej inteligencji sprawi, że broń nuklearna będzie bardziej precyzyjna - to znaczy, że z większym prawdopodobieństwem trafi w to, w co powinna, a nie w to, w co nie powinna - to jakie są geopolityczne korzyści z jej rozwoju i wdrażania? Warto powrócić do historycznych przykładów, aby zilustrować, w jaki sposób zwiększenie celności broni nuklearnej wzmocniło obronę USA i NATO podczas zimnej wojny.

W swoim przemówieniu wygłoszonym w Gabinecie Owalnym w marcu 1983 roku prezydent Ronald Reagan przedstawił argumenty przemawiające za rozwojem systemu obrony przed rakietami balistycznymi. Jeden z jego argumentów polegał na tym, że Związek Radziecki posiadał więcej broni nuklearnej niż Stany Zjednoczone. Pod koniec lat 70. Związek Radziecki rzeczywiście wyprzedził USA pod względem liczby posiadanej broni nuklearnej, ale wynikało to w dużej mierze z wdrożenia przez USA bardziej precyzyjnych systemów rakietowych, takich jak Polaris, Titan II i Pershing. Nie było już konieczne celowanie w miasto lub instalację wojskową za pomocą wielu pocisków, więc Stany Zjednoczone mogły nadal skutecznie odstraszać Związek Radziecki i realizować swoje cele strategiczne przy użyciu mniejszej liczby głowic. Oszczędności wynikające z posiadania mniejszej liczby celniejszych pocisków nuklearnych pozwoliły Stanom Zjednoczonym uwolnić cenne środki na rozwój nowych systemów obronnych, takich jak bombowce stealth i pociski manewrujące.

Dzięki wdrożeniu przez Stany Zjednoczone pod koniec lat 70. bardziej precyzyjnych systemów rakietowych, takich jak Polaris, Titan II i Pershing, nie było już konieczne celowanie w miasto lub instalację wojskową wieloma pociskami, dzięki czemu USA mogły nadal skutecznie odstraszać Związek Radziecki i realizować swoje cele strategiczne przy użyciu mniejszej liczby głowic. Na zdjęciu: System rakietowy Pershing II testowany w lutym 1983 roku © Wikipedia
)

Dzięki wdrożeniu przez Stany Zjednoczone pod koniec lat 70. bardziej precyzyjnych systemów rakietowych, takich jak Polaris, Titan II i Pershing, nie było już konieczne celowanie w miasto lub instalację wojskową wieloma pociskami, dzięki czemu USA mogły nadal skutecznie odstraszać Związek Radziecki i realizować swoje cele strategiczne przy użyciu mniejszej liczby głowic. Na zdjęciu: System rakietowy Pershing II testowany w lutym 1983 roku © Wikipedia

Zmniejszenie ogólnej liczebności amerykańskiej broni nuklearnej w końcowych dekadach zimnej wojny, w czasie, gdy wydatki na obronę stanowiły znacznie większą część produktu krajowego brutto niż obecnie sugeruje, że bardziej precyzyjna broń może oznaczać mniej jednostek uzbrojenia.

Jednym z dowodów sugerujących, w jaki sposób rozwój bardziej precyzyjnej broni nuklearnej potencjalnie wpłynął na amerykańską politykę nuklearną, jest niedawno odtajniona Dyrektywa Prezydencka 59, podpisana przez prezydenta Jimmy'ego Cartera w 1980 roku. Dwa istotne punkty tej dyrektywy to wniosek o zwiększenie wysiłków wywiadowczych dotyczących celów i nacisk na coś, co określa się jako zdolność "look-shoot-look" - zdolność do namierzenia celu, trafienia go, a następnie oceny uderzenia. Podejście to zakłada, że uderzenie nuklearne powinno trafić w zamierzony cel, cel ten powinien mieć wartość strategiczną, a nuklearne naloty dywanowe, które nie trafiają w zamierzony cel, są strategicznie bezcelowe.

Równolegle do rozwoju broni nuklearnej, broń konwencjonalna również stawała się coraz bardziej precyzyjna. Wojna w Zatoce Perskiej (1990-1991) była ważnym punktem zwrotnym dla systemów broni konwencjonalnej - precyzyjna amunicja, która trafiała w cele wojskowe i stosunkowo minimalizowała ofiary wśród ludności cywilnej, była głównym tematem briefingów prasowych prowadzonych przez amerykańskiego generała Normana Schwarzkopfa. Korzyści płynące ze zminimalizowania ofiar wśród ludności cywilnej skłoniły wielu członków NATO do zakazania stosowania starszych i stosunkowo masowych rodzajów broni, takich jak amunicja kasetowa.

Wieloprowadnicowa wyrzutnia rakiet (MLRS) Pierwszej Dywizji Armii Stanów Zjednoczonych wystrzeliwująca pocisk podczas wojny w Zatoce Perskiej. © Steve Elfers / The LIFE Picture Collection, via Getty Images
)

Wieloprowadnicowa wyrzutnia rakiet (MLRS) Pierwszej Dywizji Armii Stanów Zjednoczonych wystrzeliwująca pocisk podczas wojny w Zatoce Perskiej. © Steve Elfers / The LIFE Picture Collection, via Getty Images

Potencjał na przyszłość - rola systemów naprowadzania opartych na sztucznej inteligencji

Trudno w tym momencie oszacować, jaką formę może przybrać dokładniejszy, oparty na sztucznej inteligencji system namierzania celów broni jądrowej, jako że znaczna część tej technologii wciąż znajduje się w fazie rozwoju. Można sobie wyobrazić hipotetyczny scenariusz, w którym broń nuklearna celuje w bazę morską, ale rozpoznawanie wzorców dokonane podczas podejścia stwierdza, że docelowe okręty podwodne już wypłynęły w morze, więc pocisk wybiera przekierowane uderzenie podwodne zamiast detonacji w powietrzu. Jest to tylko jeden z wielu możliwych scenariuszy z udziałem sztucznej inteligencji.

Jeśli przeszłość jest prologiem, a wykorzystanie dokładniejszych systemów naprowadzania opartych na sztucznej inteligencji prowadzi do zmniejszenia ogólnej liczby jednostek broni nuklearnej, to w jakim zakresie można by dokonać takich redukcji? Na to pytanie odpowie oczywiście przegląd strategiczny. Jedną z opcji mogą być lądowe międzykontynentalne pociski balistyczne (ICBM). Chociaż obecnie polityka USA jest odmienna, byli wysocy urzędnicy, w tym sekretarz obrony USA William Perry, argumentowali właśnie za tym.

Potencjalne korzyści mogą wykraczać poza przezwyciężanie zagrożeń ze strony państw narodowych. Zmniejszenie liczby jednostek broni nuklearnej ułatwi zabezpieczenie pozostałych składów i zapobiegnie koszmarnym scenariuszom terroryzmu nuklearnego, w których źle zabezpieczona broń wpada w niepowołane ręce.

Istnieje oczywiście możliwość rozpętania wyścigu zbrojeń w systemach naprowadzania opartych na wykorzystaniu sztucznej inteligencji w sferze jądrowej. Ważne jest jednak również, aby zwrócić uwagę na rolę, jaką ciągłe badania i rozwój mogą odegrać w dyplomacji nuklearnej i redukcji zbrojeń. Wracając do historycznego precedensu, zanim Stany Zjednoczone rozmieściły w Europie pociski Pershing średniego zasięgu, były one postrzegane jako karta przetargowa w rozmowach na temat redukcji zbrojeń strategicznych. Tarcza antyrakietowa prezydenta Reagana była podobnie postrzegana przez Rosjan jako coś, co można było wytargować. Podczas szczytu w Reykjaviku w 1986 roku prezydent Reagan w drodze negocjacji przekonał przywódcę Związku Radzieckiego Michaiła Gorbaczowa do rezygnacji z dużej liczby jednostek broni nuklearnej w zamian za zgodę USA na niewdrażanie systemu obrony przed rakietami balistycznymi. W to miejsce po szczycie nastąpiły negocjacje w sprawie traktatu o siłach nuklearnych średniego zasięgu, które doprowadziły do deinstalacji pocisków Pershing.

Prezydent USA Reagan i przywódca ZSRR Michaił Gorbaczow podpisują układ o siłach nuklearnych średniego zasięgu, w którym oba państwa zgadzają się wyeliminować swoje zapasy lądowych pocisków rakietowych pośredniego i krótkiego zasięgu (lub „średniego zasięgu"), 8 grudnia 1987 roku © Biały Dom
)

Prezydent USA Reagan i przywódca ZSRR Michaił Gorbaczow podpisują układ o siłach nuklearnych średniego zasięgu, w którym oba państwa zgadzają się wyeliminować swoje zapasy lądowych pocisków rakietowych pośredniego i krótkiego zasięgu (lub „średniego zasięgu"), 8 grudnia 1987 roku © Biały Dom

Obecnie istnieją poważne kwestie związane z dyplomacją nuklearną, którymi należy się zająć. Rosja odrzuca inspekcje nuklearne i kontynuuje prace nad hipersonicznymi pociskami balistycznymi nowej generacji. Tymczasem Chiny historycznie wolały samodzielnie ograniczać swój arsenał nuklearny, rzadko decydując się na formalne porozumienia z USA. Nadzieją dyplomatów specjalizujących się w kwestiach nuklearnych jest dziś wielostronny traktat o redukcji zbrojeń między USA, Rosją i Chinami. Biorąc pod uwagę brutalną wojnę Rosji w Ukrainie i napięcia w regionie Indo-Pacyfiku, wyzwania związane z opracowaniem takiego traktatu są ogromne. Jeśli wszystkie strony ostatecznie zgodzą się na rozmowy, systemy broni nuklearnej z naprowadzaniem opartym na sztucznej inteligencji mogą przynajmniej zapewnić Stanom Zjednoczonym i ich sojusznikom z NATO kartę przetargową w tych negocjacjach. Wspomniana funkcja w przyszłych negocjacjach dotyczących kontroli zbrojeń polega w efekcie na „rozbudowie, by rozpocząć demontaż" (strategia dobrze ugruntowana w negocjacjach dotyczących broni nuklearnej). Nakazuje ona jednak wyprzedzać innych w inwestowaniu w rozwój najbardziej efektywnych systemów, a nie ograniczać ich rozwój

Testy głowic przenoszonych za pomocą pocisków ponownego wejścia(reentry vehicles) "Peacekeeper" - wszystkie osiem (z możliwych dziesięciu) zostały oddzielone z jednego pocisku. Każda linia pokazuje ścieżkę pojedynczej głowicy bojowej uchwyconej podczas ponownego wejścia w atmosferę za pomocą fotografii z długim czasem naświetlania. Zdjęcie © Wikipedia
)

Testy głowic przenoszonych za pomocą pocisków ponownego wejścia(reentry vehicles) "Peacekeeper" - wszystkie osiem (z możliwych dziesięciu) zostały oddzielone z jednego pocisku. Każda linia pokazuje ścieżkę pojedynczej głowicy bojowej uchwyconej podczas ponownego wejścia w atmosferę za pomocą fotografii z długim czasem naświetlania. Zdjęcie © Wikipedia

Jeśli ostatecznie zapadnie decyzja, że systemy AI powinny zostać wykluczone z obrony nuklearnej, każde proponowane sformułowanie prawne musi starannie zdefiniować sztuczną inteligencję - co jest trudnym zadaniem w odniesieniu do szybko rozwijającej się nauki. Na przykład, projekt ustawy w Kongresie USA sugerował, że systemy, które „wybierają lub angażują cele ataku nuklearnego" powinny zostać zakazane i definiował „autonomiczny system uzbrojenia" jako system uzbrojenia, który „po aktywacji może wybierać i angażować cele bez dalszej interwencji operatora". W tym przypadku należy wskazać, że od początku lat 70. XX wieku w amerykańskim arsenale nuklearnym wykorzystywano system niezależnych głowic atomowych (MIRV) - pocisk, który wystrzeliwuje, a następnie umieszcza każdą z przenoszonych głowic na kursie balistycznym prowadzącym do odrębnych celów bez dalszej interwencji operatora. Eksperci prawni powinni rozważyć, czy takie sformułowanie prawne nie jest tak ogólne, że mogłoby nieumyślnie zakazać MIRV, sprawdzonej technologii, która od dziesięcioleci stanowi rdzeń amerykańskiej obrony nuklearnej.

Podsumowanie

Z każdą kolejną dekadą strach przed bombą przeplatał się ze strachem przed tranzystorem, mikroprocesorem i waflem krzemowym, co znajdowało odzwierciedlenie w naszej kulturze popularnej. Ci, którzy opracowali arsenał nuklearny, jego systemy kontroli i teorię odstraszania, doskonale zdawali sobie z tego sprawę i starannie rozważali właściwą rolę, jaką powinny odgrywać zautomatyzowane systemy. Choć dziś może się to wydawać bardziej skomplikowanym problemem, potencjalne ryzyko związane z połączeniem zautomatyzowanych systemów z bronią nuklearną z pewnością nie jest nowym problemem. Uzasadnione obawy dotyczące szybko rozwijającej się technologii są ważne, ale obawy dotyczące możliwości systemów AI muszą opierać się na rzeczywistej nauce o tych systemach, a nie tylko na ich odzwierciedleniu w popularnej fikcji.

Systemy sztucznej inteligencji oferują możliwość wzmocnienia odstraszania nuklearnego poprzez zapewnienie bardziej dostosowanej i sprawniejszej obrony nuklearnej. Celem zwiększenia dokładności i zdolności broni nuklearnej nie jest promowanie jej użycia. Przeciwnie, takie zdolności zapewniają bardziej wiarygodne odstraszanie przed wojną nuklearną i są zgodne z klasyczną doktryną nuklearną. Sztuczna inteligencja jest po prostu narzędziem strategicznym, podobnie jak sama broń jądrowa.

Obawy związane ze sztuczną inteligencją nie powinny wykluczać jej wykorzystania do wzmocnienia odstraszania nuklearnego. Jednak wdrażanie sztucznej inteligencji w tych systemach nie powinno być celem samym w sobie. Wykorzystanie sztucznej inteligencji powinno służyć celom strategicznym. Znalezienie właściwej równowagi będzie trudne, ponieważ nauka jest wciąż w powijakach. Należy wysłuchać opinii ekspertów ze środowisk związanych z obronnością i sztuczną inteligencją - nie tylko kierownictwa firm zajmujących się sztuczną inteligencją, ale także inżynierów, naukowców, oficerów wojskowych i doradców prawnych. W czasach poważnych globalnych obaw o bezpieczeństwo oraz szybko rozwijających się technologii nuklearnych i sztucznej inteligencji, ustawodawcy i przywódcy polityczni powinni ostrożnie podchodzić do wszelkich proponowanych rozwiązań prawnych.