Postoje opasnosti
21

Šefovi OpenAI pozvali na regulaciju kako bi spriječili umjetnu inteligenciju da uništi čovječanstvo

F. H.
Foto: Shutterstock
Foto: Shutterstock
Čelnici OpenAI pozivaju na regulaciju kako bi se spriječilo da umjetna inteligencija uništi čovječanstvo Tim iza ChatGPT-a kaže da je potreban ekvivalent IAEA za zaštitu od rizika 'superinteligentnih' AI-ova

Šefovi OpenAI-ja, koji razvija ChatGPT, pozvali su na regulaciju "superinteligentnih" AI-jeva, tvrdeći da je potreban ekvivalent Međunarodnoj agenciji za atomsku energiju (IAEA) kako bi se čovječanstvo zaštitilo od rizika slučajnog stvaranja nečega s moći da ga uništi.

U kratkoj bilješci objavljenoj na web stranici komanije, suosnivači Greg Brockman i Ilya Sutskever te izvršni direktor Sam Altman pozivaju međunarodnog regulatora da počne raditi na tome kako "provjeravati sisteme, zahtijevati revizije, testirati usklađenost sa sigurnosnim standardima i postaviti ograničenja na stupnjeve implementacije i razine sigurnosti", kako bi se smanjio "egzistencijalni rizik" koji bi takvi sistemi mogli predstavljati.

"Moguće je da će unutar sljedećih 10 godina sistemiumjetne inteligencije premašiti razinu stručnih vještina u većini domena i obavljati onoliko produktivnih aktivnosti koliko i jedna od najvećih današnjih korporacija. U pogledu potencijalnih prednosti i nedostataka, superinteligencija će biti moćnija od drugih tehnologija s kojima se čovječanstvo moralo boriti u prošlosti. Možemo imati dramatično prosperitetniju budućnost; ali moramo upravljati rizikom da bismo stigli tamo. S obzirom na mogućnost egzistencijalnog rizika, ne možemo samo reagirati", upozorili su.

Kratkoročno gledano, trojac poziva na "određeni stepen koordinacije" među kompanijama koje rade na najnovijim istraživanjima umjetne inteligencije, kako bi se osiguralo da se razvoj sve moćnijih modela glatko integrira u društvo, dok je sigurnost prioritet. Ta bi koordinacija mogla doći kroz projekt koji bi vodila vlada, na primjer, ili kroz kolektivni ugovor za ograničavanje rasta sposobnosti umjetne inteligencije.

Istraživači već desetljećima upozoravaju na potencijalne rizike superinteligencije, ali kako je razvoj umjetne inteligencije ubrzan, ti su rizici postali konkretniji. Američki Centar za sigurnost umjetne inteligencije (CAIS), koji radi na "smanjenju rizika na društvenoj razini od umjetne inteligencije", opisuje osam kategorija "katastrofalnih" i "egzistencijalnih" rizika koje razvoj umjetne inteligencije može predstavljati.

Dok se neki brinu da će moćna umjetna inteligencija potpuno uništiti čovječanstvo, slučajno ili namjerno, CAIS opisuje druge pogubnije štete. Svijet u kojem se sistemima umjetne inteligencije dobrovoljno predaje sve više rada mogao bi dovesti do toga da čovječanstvo "izgubi sposobnost samoupravljanja i postane potpuno ovisno o strojevima", opisano kao "oslabljenost"; a mala grupa ljudi koja kontrolira moćne sustave mogla bi "učiniti AI centralizirajućom silom", što bi dovelo do "zaključavanja vrijednosti", vječnog kastinskog sustava između onih kojima se vlada i onih koji vladaju.

Čelnici OpenAI-ja kažu da ti rizici znače da bi "ljudi diljem svijeta trebali demokratski odlučiti o granicama i zadanim postavkama za AI sisteme", ali priznaju da još ne znaju kako dizajnirati takav mehanizam. Međutim, kažu da je nastavak razvoja moćnih sistema vrijedan rizika.

“Vjerujemo da će to dovesti do mnogo boljeg svijeta od onoga što danas možemo zamisliti (već vidimo prve primjere toga u područjima kao što su obrazovanje, kreativni rad i osobna produktivnost)”, napisali su šefovi OpenaAI-ja.

Upozoravaju da bi također moglo biti opasno pauzirati razvoj.

„Budući da su prednosti tako ogromne, trošak izgradnje svake godine se smanjuje, broj sudionika koji ga grade ubrzano raste, a to je inherentno dio tehnološkog puta na kojem se nalazimo. Njegovo zaustavljanje zahtijevalo bi nešto poput globalnog režima nadzora, a čak ni za to nije zajamčeno da će funkcionirati. Dakle, moramo to ispraviti", poručili su prenosi The Guardian.