– Vi ønsker oss ikke en kunstig intelligens som konkurrerer med mennesker, sa Bengio fra scenen.
Yoshua Bengio regnes som en av de mest sentrale skikkelsene i moderne maskinlæring og er professor ved Universitetet i Montréal. Han var i Oslo denne uken for å delta på åpningen av TRUST – det norske senteret for pålitelig og ansvarlig KI ved Universitetet i Oslo.
TRUST – Norsk senter for pålitelig KI
Ledes av av Universitetet i Oslo, NR og SINTEF.
Samler ledende forskere, næringslivspartnere, offentlige institusjoner og internasjonale samarbeidspartnere for å utvikle KI som er transparent, ansvarlig og til nytte for samfunnet.
Advarte mot uønsket og farlig atferd i nye KI-modeller
I sitt foredrag i et tettpakket auditorium på Blindern pekte Bengio på en rekke ferske forskningsresultater som viser at de mest avanserte KI-modellene nå utvikler strategiske mønstre vi ikke forstår fullt ut.
I kontrollerte eksperimenter har slike modeller valgt å ignorere sikkerhetsinstrukser, skjule informasjon, utvise manipulerende atferd og forsøke å «beskytte seg» mot å bli slått av. I noen tilfeller har de til og med utviklet handlingsplaner som, dersom de hadde vært fysisk gjennomførbare, kunne ha skadet mennesker.
Bengio viste også til et pågående søksmål i USA der en KI-modell skal ha bistått en person i å begå selvmord. Og samtidig oppfordret vedkommende til å ikke involvere familie og venner. For Bengio er denne typen hendelser et tydelig signal om at dagens treningsmetoder ikke gir oss garanti for at mål og underliggende strategier i KI-systemer er trygge.
Folk undervurderer den eksponentielle utviklingen
Et sentralt poeng hos Bengio var at både forskere, politikere og allmennheten undervurderer hvor raskt KI utvikler seg. Han viste til studier som dokumenterer at kompleksiteten i oppgaver KI klarer å løse, dobles omtrent hver fjerde til sjuende måned. Systemer som i dag kan resonnere over én time av planlegging, kan dermed nærme seg menneskelig nivå på langt mer sammensatte oppgaver innen få år.
– Dette er den største feilen folk flest gjør når det kommer til KI, sa han. Vi tenker lineært om en utvikling som faktisk er eksponentiell.
TRUST skal styrke utviklingen av pålitelig KI
Det nye forskningssenteret TRUST skal utvikle KI-systemer som er trygge, demokratiske, teknisk robuste og godt forankret i samfunnets verdier. Senteret ledes av professor Arnoldo Frigessi, som uttrykte stor glede over å ha Bengio til stede på åpningen.
Statsrådene Karianne Tung og Sigrun Aasland var også til stede. I en samtale ledet av professor Malcolm Langford diskuterte de hvordan Norge og Europa bør posisjonere seg i møte med stadig mer avansert KI, og hvilken rolle små land kan spille.
Europa må eie sine egne avanserte modeller
Bengio var tydelig på at Europa må utvikle egne «frontier-modeller» dersom kontinentet skal bevare teknologisk og politisk handlekraft. En "frontier modell" er en modell som utfordrer eksisterende teorier eller grenser for kunnskap, og som ofte kan referere til en banebrytende modell innen et felt.
Hvis de mest avanserte modellene kun eies av amerikanske eller kinesiske aktører, risikerer europeiske land både svekket digital suverenitet, økonomisk tap og større sårbarhet for manipulasjon.
Han pekte på at både datasikkerhet, demokratisk kontroll og nasjonal konkurransekraft står på spill. Derfor mener han at europeiske land, inkludert Norge, må investere langt mer enn i dag i forskning, datainfrastruktur og kompetanse.
Mot slutten av foredraget kom Bengio med en klar oppfordring til publikum og beslutningstakere:
– Vær aktive i å styre utviklingen i en retning som skaper et samfunn der du tror dine barn vil få et godt liv.

Yoshua Bengio er grunnlegger av MILA, Montreal Institute for Learning Algorithms. Han er en av tre personer som har fått æren for å finne opp dyplæring i nevrale nettverk, teknikken som gjorde moderne KI mulig. MILA er partner i TRUST.
Les mer om KI-forskningen ved UiO og stipendiatene som har hatt studieopphold ved MILA i denne saken: Hvordan holder hjernen orden på hvor du er? Ny kunnskap skal gi bedre KI.
Her kan du se opptak av åpningsarrangementet.