2040. Aastaks Võib Tehisintellekt Muuta Tuumaohutuse Põhimõtteid Revolutsiooniks - Alternatiivne Vaade

2040. Aastaks Võib Tehisintellekt Muuta Tuumaohutuse Põhimõtteid Revolutsiooniks - Alternatiivne Vaade
2040. Aastaks Võib Tehisintellekt Muuta Tuumaohutuse Põhimõtteid Revolutsiooniks - Alternatiivne Vaade

Video: 2040. Aastaks Võib Tehisintellekt Muuta Tuumaohutuse Põhimõtteid Revolutsiooniks - Alternatiivne Vaade

Video: 2040. Aastaks Võib Tehisintellekt Muuta Tuumaohutuse Põhimõtteid Revolutsiooniks - Alternatiivne Vaade
Video: Ник Бостром: Что произойдёт, когда компьютеры станут умнее нас? 2024, Mai
Anonim

RAND Corporationi hiljuti avaldatud uuringus jõuti järeldusele, et 2040. aastaks võib tehisintellekt (AI) muuta tuumaheidutuse kontseptsiooni radikaalselt.

AI juhitav viimsepäeva masin näib ebatõenäoline, kuid AI tegelik oht tuumaohutusele seisneb AI võimes õhutada inimesi tegema põhjendamatuid, potentsiaalselt apokalüptilisi otsuseid.

Külma sõja ajal säilitas kindla vastastikuse hävitamise kontseptsioon suurriikide vahel raputatud rahu, väites, et iga rünnaku tulemuseks on laastav kättemaks. Selle tulemusel tagas kõrgetasemelise töörühma kontseptsioon strateegilise stabiilsuse, toimides mõlemale poolele kainestavalt, valmistades neid ette toiminguteks, mis võivad tegelikult areneda aatomisõjaks.

RANDi väljaanne väidab, et lähiaastakümnetel on AI üsna võimeline hävitama tagatud vastastikuse hävitamise kontseptsiooni ja kahjustama seeläbi meie maailma strateegilist stabiilsust. Keerukamate sensorite abil on tõenäoline, et "kättemaksurelvad" - näiteks tuumaallveelaevad ja liikuvad raketid - on tuvastatavad ja hävitatavad.

Rahvastel võib tekkida kiusatus otsida esimese löögi vara, justkui oleks see eelis nende konkurentide ees, isegi kui nad ei kavatse esimesena streigida. See õõnestab stabiilsust, sest isegi kui esmalt rünnata suudav pool ei kavatse seda võimalust kasutada, ei saa vastane selles kindel olla.

"Seos tuumasõja ja AI vahel pole uus, tegelikult on lood omavahel läbi põimunud," ütleb artikli kaasautor ja RANDi esindaja Edward Geist. "Algselt viidi suur osa AI teadusuuringutest sõjaväe toel oma eesmärkide saavutamiseks."

Näitena tõi ta 1980ndatel läbi viidud adaptiivse planeeritud ellujäämiskatse, mille eesmärk oli kasutada AI-d luure ühendamiseks tuumarelvade sihtimisega.

Ebaselguse korral võiks AI parandada strateegilise olukorra stabiilsust, parandades kogutud teabe ja selle analüüsi täpsust.

Reklaamvideo:

Teadlased usuvad, et AI on arendusprotsessis inimeste suhtes vähem altid vigu tegema, mis tähendab, et see on pikaajaliselt stabiilsuse tegur.

Vadim Tarabarko

Soovitatav: