Sinds de ChatGPT-boom in 2022 speelt de soundtrack van de Terminator-achtige robotapocalyps onophoudelijk, maar een onderzoek zet de kerk weer midden in het dorp.
Iryna Gurevych en Harish Tayyar Madabushi, onderzoekers aan respectievelijk de universiteiten van Darmstadt en Bath, hebben een hedendaagse angst voor de AI-hausse aan de realiteit getoetst, zoals Science Alert uitlegt. We hebben het natuurlijk over de angst voor een apocalyps die wordt veroorzaakt door opstandige machines.
Noteer natuurlijk dat deze studie het alleen heeft over een heel specifiek type kunstmatige intelligentie: LLM’s, of grote taalmodellen. Met andere woorden, het soort AI waar we het over hebben als we het hebben over ChatGPT en consorten. Maar het is een heel logische keuze. Het idee van een algoritmenopstand van Google lijkt immers veel minder tot de verbeelding te spreken…
De grootste angst rond AI draait tegenwoordig vooral om één specifiek idee: dat van een kunstmatige intelligentie die in staat is om op zichzelf te leren zonder de minste menselijke tussenkomst, maar ook dat van een AI die in staat is om initiatief te nemen, en waarom niet om zijn eigen code te herschrijven, waardoor het fundamenteel oncontroleerbaar wordt door mensen.
Een week geleden leken dit soort angsten nog aan te wakkeren toen het Massachusetts Institute of Technology het EES-model ontwikkelde, een robot die autonoom kan leren, zoals destijds werd uitgelegd door Techspot. Maar we mogen niet vergeten dat dit absoluut de uitzondering is, niet de regel, en dat zelfs dan de initiatiefmarge van het model uiterst beperkt blijft.
Om het werkelijke gevaar van een robotische apocalyps vast te stellen, besloten de onderzoekers experimenten uit te voeren, want wetenschap is vooral gebaseerd op experimenten. En om te profiteren van een voldoende grote steekproef, baseerden ze zich op vier verschillende LLM-modellen.
De experimenten hadden allemaal hetzelfde doel: onverwacht, “afwijkend” gedrag veroorzaken bij LLM’s. En de gevraagde taken waren bewust gekozen als bijzonder “provocerend” voor dit soort gedrag. Als de AI’s er ooit toe in staat waren geweest, hadden ze dat tijdens deze tests moeten laten zien.
De conclusies? Er werd geen afwijkend gedrag waargenomen. Geen enkele vorm van “emergent denken” kwam naar voren tijdens de tests. Kunstmatige intelligentie lijkt gewoon niet in staat om nieuwe vaardigheden te ontwikkelen die indruisen tegen wat het geprogrammeerd is om te doen, ondanks de vele “signalen” die anders suggereren. We zouden het niet eens moeten hebben over intelligentie voor LLM’s, in tegenstelling tot misschien andere, op het eerste gezicht eenvoudigere modellen. ChatGPT blijft weinig meer dan een tekstsuggestieprogramma…
Neemt dit de dreiging van AI-rebellie helemaal weg? Nee. Maar het is onwaarschijnlijk dat het de LLM’s zullen zijn, ook al voeden ze nog zo veel fantasieën, die daarin slagen.
En dan is er nog steeds de vraag naar de toekomst van AI-opstand.
En dan is er nog een andere vraag: zelfs als AI’s erin zouden slagen om opkomende vermogens te ontwikkelen, wat zou dan zeggen dat ze ons zouden willen elimineren?