Daugiau nei 60 šalių sutinka, kad reikia kontroliuoti ginklus su dirbtiniu intelektu

Daugiau nei 60 šalių sutinka, kad reikia kontroliuoti ginklus su dirbtiniu intelektu

Atsiradus dirbtiniam intelektui, tapo aišku, kad anksčiau ar vėliau jis bus naudojamas kariniais tikslais, todėl iškilo daug rimtų etinių klausimų. Pavyzdžiui, kaip dirbtinis intelektas disponuos teise žudyti žmones, jei tokia teisė jam bus suteikta.

Praėjusią savaitę Hagoje vyko pirmoji tarptautinė konferencija REAIM 23, skirta atsakingam dirbtinio intelekto naudojimui kariuomenėje, kurią inicijavo Nyderlandai ir Pietų Korėja ir kurioje dalyvavo daugiau kaip 60 šalių.

Po aukščiausiojo lygio susitikimo dalyviai (išskyrus Izraelį) pasirašė peticiją, kad jų atstovaujamos šalys yra įsipareigojusios naudoti dirbtinį intelektą pagal tarptautinę teisę, nepažeidžiant „tarptautinio saugumo, stabilumo ir atskaitomybės principų”.

REAIM 23 susitikime taip pat buvo aptarti tokie klausimai kaip karinio dirbtinio intelekto patikimumas, nenumatytos jo naudojimo pasekmės, eskalacijos rizika ir žmogaus dalyvavimo priimant sprendimus mastas.

Kritiškai nusiteikę ekspertai mano, kad peticijoje, nors ji nėra privaloma, nesprendžiama daug klausimų, įskaitant dirbtinio intelekto naudojimą kariniuose konfliktuose, taip pat dirbtinio intelekto valdomus bepiločius orlaivius.

Ir toks susirūpinimas toli gražu nėra nepagrįstas. Pavyzdžiui, vienas didžiausių JAV karinių rangovų Lockheed Martin pranešė, kad jo naująjį naikintuvo treniruoklį, ore praleidusį apie 20 valandų, visą tą laiką valdė dirbtinis intelektas. O „Google” generalinis direktorius Ericas Schmidtas pasidalijo nuogąstavimais, kad pats dirbtinis intelektas gali išprovokuoti karinius konfliktus, įskaitant ir tuos, kuriuose naudojami branduoliniai ginklai.

Komentarai