Uzņēmums OpenAI, kura viens no dibinātājiem ir Elons Musks, paziņoja par uzlabota mākslīgā intelekta izveidi oriģinālu tekstu rakstīšanai par doto tēmu. Bija paredzēts tulkot tekstus citās valodās, atbildēt uz jautājumiem un veikt citus noderīgus uzdevumus, taču pētījumi parādīja, ka tas var būt ārkārtīgi bīstams un iebrucēji to var izmantot, lai masveidā maldinātu cilvēkus. Šajā sakarā uzņēmums nolēma parādīt sabiedrībai tikai ierobežotu versiju un saglabāt oriģinālu pēc iespējas stingrāk.
Datora modelis tika nosaukts par GPT-2, un tas tika apmācīts no 8 miljoniem tīmekļa lapu. Uz tiem rakstītie teksti veido pamatu jauniem materiāliem par kādas personas izvirzītu tēmu: piemēram, mākslīgais intelekts var sastādīt visu eseju par atkritumu pārstrādes pozitīvajiem aspektiem vai fantāzijas stāstu stilā “Gredzenu pavēlnieks”. Tomēr pētnieki arī atklāja, ka sistēma veic lielisku darbu, rakstot nepatiesas ziņas par slavenībām, katastrofām un pat kariem.
Pašlaik teksta ģenerēšanas rīka pilna versija ir pieejama tikai izstrādātājiem un dažiem MIT Technology Review līdzautoriem. Sakarā ar to, ka to var izmantot nekontrolētai viltotu ziņu un publikāciju izveidošanai sociālajos tīklos, tika nolemts to nepubliskot publiski un neturēt to noslēpumā.
ScienceAlert dalījās ar viltus ziņu piemēru:
Īsas esejas tekstu par atkritumu pārstrādes mīnusiem varat lasīt OpenAI emuārā.
Izstrādātāji atzīst, ka valodas modelis šobrīd nav ideāls: sistēma dažkārt ļauj atkārtot noteiktus teksta fragmentus, nedabisku tēmu maiņu un pasaules modelēšanas neveiksmes. Piemēram, vienā no pārbaudes posmiem sistēma rakstīja par ugunsgrēku, kas dega zem ūdens.
Reklāmas video:
Pēc atklātā AI politikas direktora Džeka Klarkes teiktā, pēc pāris gadiem šāds algoritms var pārvērsties par bīstamu cilvēku masveida maldināšanas ieroci. Daži kritiķi ir pārliecināti, ka tehnoloģija nekādā ziņā nav bīstama, un uzņēmums vienkārši pievērš uzmanību sev.