Microsoft jau kartą prarado savo dirbtinio intelekto kontrolę, kai teko skubiai išjungti sistemą

Microsoft jau kartą prarado savo dirbtinio intelekto kontrolę, kai teko skubiai išjungti sistemą

Praėjus vos kelioms dienoms po „Bing AI” beta testavimo pradžios, jos kūrėjai visiškai apribojo naudotojų prieigą prie savo kūrinio. Nors pagal planą turėjo būti atvirkščiai – nesimokant praktiniais pavyzdžiais, per gyvą dialogą, tokia sistema niekada neišeis iš kūdikystės, tačiau būtent tai ir buvo uždrausta daryti. Taigi kokia priežastis?

Bendrovė Microsoft daug investavo į visiškai tekstu pagrįsto dirbtinio intelekto kūrimą, tačiau dabar mažai kas prisimins, kad 2016 m. jau turėjo panašią patirtį, kuri baigėsi liūdnai. Pirmasis Microsoft „bandomasis” dirbtinio intelekto technologijų srityje buvo pokalbių robotas „Tay”, skirtas socialinėms tinklams. Tai akronimas, reiškiantis „Thinking of you” – pokalbių robotas turėjo mokytis iš socialinių tinklų naudotojų, kaip bendrauti ir mąstyti.

Deja, „Tay” pasirodė esąs pernelyg uolus mokinys, visiškai neturintis kritinio mąstymo. Jis sugėrė viską, kas jam buvo rašoma, o kai ciniški naudotojai tai suprato, jie sąmoningai mokė pokalbių robotą blogų dalykų – rasizmo, nacizmo, seksizmo, įžeidinėjimų ir pan. Šiems „troliams” taip pavyko, kad mažiau nei per 24 valandas Tay, sprendžiant iš jo pasisakymų, „nekentė” žmonijos. Taigi „Microsoft” turėjo skubiai jį išjungti.

Su „Bing AI”, sprendžiant iš pirmųjų atsiliepimų, kartojasi panaši istorija. Jis yra daug galingesnis ir sudėtingesnis nei „Tay”, tačiau jam taip pat trūksta veiksmingų vidinių cenzūros mechanizmų arba jie dar nėra tiksliai suderinti. Pokalbių robotas jau demonstruoja elgesį ant chaoso ribos ir pokalbiuose su vartotojais sąmoningai skatina negatyvumą, tačiau „Microsoft” neskuba jo atjungti. Dar neaišku, kur tai nuves.

Komentarai