We hebben al een voorbeeld van algemene intelligentie, en dat lijkt niet op AI.
Het lijdt geen twijfel dat AI-systemen indrukwekkende prestaties hebben geleverd, games onder de knie hebben gekregen, tekst hebben geschreven en overtuigende afbeeldingen en video’s hebben gegenereerd. Dat heeft ertoe geleid dat sommige mensen het erover hebben dat we op het punt staan om AGI, of kunstmatige algemene intelligentie, te bereiken. Hoewel een deel hiervan marketingfanfare is, nemen genoeg mensen in het veld het idee serieus dat het een nadere blik verdient.
Veel argumenten komen neer op de vraag hoe AGI wordt gedefinieerd, waar mensen in het veld het niet over eens lijken te kunnen worden. Dit draagt bij aan schattingen van de komst ervan die variëren van “het is praktisch hier” tot “we zullen het nooit bereiken”. Gezien dat bereik is het onmogelijk om een geïnformeerd perspectief te bieden op hoe dichtbij we zijn.
Maar we hebben wel een bestaand voorbeeld van AGI zonder de “A”—de intelligentie die wordt geleverd door het dierlijke brein, met name het menselijke brein. En één ding is duidelijk: de systemen die worden aangeprezen als bewijs dat AGI om de hoek ligt, werken helemaal niet zoals het brein dat doet. Dat is misschien geen fatale fout, of zelfs helemaal geen fout. Het is heel goed mogelijk dat er meer dan één manier is om intelligentie te bereiken, afhankelijk van hoe het wordt gedefinieerd. Maar ten minste enkele van de verschillen zullen waarschijnlijk functioneel significant zijn, en het feit dat AI een heel andere route neemt dan het ene werkende voorbeeld dat we hebben, zal waarschijnlijk betekenisvol zijn.
Laten we, met dat alles in gedachten, eens kijken naar een aantal dingen die de hersenen kunnen en die de huidige AI-systemen niet kunnen.
Het definiëren van AGI kan helpen
Kunstmatige algemene intelligentie is nog niet echt gedefinieerd. Degenen die beweren dat het op handen is, zijn vaag over wat ze verwachten dat de eerste AGI-systemen kunnen of definiëren het simpelweg als het vermogen om de menselijke prestaties bij een beperkt aantal taken dramatisch te overtreffen. Voorspellingen over de komst van AGI op de middellange termijn richten zich meestal op AI-systemen die specifiek gedrag vertonen dat menselijk lijkt. Hoe verder men op de tijdlijn gaat, hoe groter de nadruk op de “G” van AGI en de implicatie ervan voor systemen die veel minder gespecialiseerd zijn.
Maar de meeste van deze voorspellingen komen van mensen die werken in bedrijven met een commercieel belang in AI. Het was opvallend dat geen van de onderzoekers met wie we spraken voor dit artikel bereid was een definitie van AGI te geven. Ze waren echter wel bereid om aan te geven hoe huidige systemen tekortschieten.
“Ik denk dat AGI iets zou zijn dat robuuster en stabieler zou zijn, niet per se slimmer in het algemeen, maar coherenter in zijn mogelijkheden,” zei Ariel Goldstein , een onderzoeker aan de Hebreeuwse Universiteit van Jeruzalem. “Je zou verwachten dat een systeem dat X en Y kan, ook Z en T kan. Op de een of andere manier lijken deze systemen op een bepaalde manier meer gefragmenteerd te zijn. Verrassend goed in één ding en dan weer verrassend slecht in iets anders dat daaraan gerelateerd lijkt.”
“Ik denk dat dat een groot onderscheid is, dit idee van generaliseerbaarheid,” echode neurowetenschapper Christa Baker van NC State University. “Je kunt leren hoe je logica in één sfeer kunt analyseren, maar als je in een nieuwe omstandigheid terechtkomt, is het niet zo dat je nu een idioot bent.”
Mariano Schain , een Google-engineer die heeft samengewerkt met Goldstein, richtte zich op de vaardigheden die ten grondslag liggen aan deze generaliseerbaarheid. Hij noemde zowel langetermijn- als taakspecifiek geheugen en het vermogen om vaardigheden die in één taak zijn ontwikkeld, in verschillende contexten in te zetten. Deze zijn beperkt tot niet-bestaand in bestaande AI-systemen.
Buiten die specifieke grenzen merkte Baker op dat “er al lang een heel mensgericht idee van intelligentie is dat alleen mensen intelligent zijn.” Dat is binnen de wetenschappelijke gemeenschap verdwenen naarmate we meer over dierlijk gedrag hebben bestudeerd. Maar er is nog steeds een vooroordeel om mensachtig gedrag te bevoordelen, zoals de menselijk klinkende reacties die worden gegenereerd door grote taalmodellen
De fruitvliegjes die Baker bestudeert, kunnen meerdere soorten sensorische informatie integreren, vier paar ledematen besturen, door complexe omgevingen navigeren, in hun eigen energiebehoeften voorzien, nieuwe generaties hersenen produceren en meer. En dat doen ze allemaal met hersenen die minder dan 150.000 neuronen bevatten, veel minder dan de huidige grote taalmodellen.
Deze mogelijkheden zijn zo ingewikkeld dat het niet helemaal duidelijk is hoe de hersenen deze mogelijk maken. (Als we dat zouden weten, zou het mogelijk zijn om kunstmatige systemen met vergelijkbare mogelijkheden te ontwerpen.) Maar we weten wel aardig wat over hoe hersenen werken, en er zijn een aantal heel duidelijke manieren waarop ze verschillen van de kunstmatige systemen die we tot nu toe hebben gecreëerd.
Neuronen versus kunstmatige neuronen
De meeste huidige AI-systemen, inclusief alle grote taalmodellen, zijn gebaseerd op wat neurale netwerken worden genoemd. Deze zijn opzettelijk ontworpen om na te bootsen hoe sommige delen van de hersenen werken, met grote aantallen kunstmatige neuronen die een invoer ontvangen, deze wijzigen en de gewijzigde informatie vervolgens doorgeven aan een andere laag kunstmatige neuronen. Elk van deze kunstmatige neuronen kan de informatie doorgeven aan meerdere instanties in de volgende laag, met verschillende gewichten die op elke verbinding worden toegepast. Op zijn beurt kan elk van de kunstmatige neuronen in de volgende laag invoer ontvangen van meerdere bronnen in de vorige.
Nadat er voldoende lagen zijn doorlopen, wordt de laatste laag gelezen en omgezet in een uitvoer, zoals de identiteit van de pixels in een afbeelding die overeenkomen met een kat.
Hoewel dat systeem is gemodelleerd naar het gedrag van sommige structuren in de hersenen, is het een zeer beperkte benadering. Ten eerste zijn alle kunstmatige neuronen functioneel equivalent: er is geen specialisatie. Echte neuronen zijn daarentegen zeer gespecialiseerd; ze gebruiken een verscheidenheid aan neurotransmitters en ontvangen input van een reeks extraneurale factoren zoals hormonen. Sommige specialiseren zich in het verzenden van remmende signalen, terwijl andere de neuronen activeren waarmee ze interacteren. Verschillende fysieke structuren stellen hen in staat om verschillende aantallen verbindingen te maken.
Bovendien communiceren echte neuronen niet alleen door een enkele waarde door te sturen naar de volgende laag, maar via een analoge serie activiteitspieken, waarbij ze pulsentreinen sturen die variëren in timing en intensiteit. Dit zorgt voor een mate van niet-deterministische ruis in communicatie.
Tot slot, hoewel georganiseerde lagen een kenmerk zijn van een paar structuren in hersenen, zijn ze verre van de regel. “Wat we ontdekten is dat het — in ieder geval in de vlieg — veel meer met elkaar verbonden is,” vertelde Baker aan Ars. “Je kunt dit strikt hiërarchische netwerk niet echt identificeren.”
Nu er bijna complete verbindingskaarten van de hersenen van de vlieg beschikbaar zijn, vertelde ze Ars dat onderzoekers “laterale verbindingen of feedbackprojecties vinden, of wat we terugkerende lussen noemen, waarbij we neuronen hebben die kleine cirkelachtige verbindingspatronen maken. Ik denk dat die dingen waarschijnlijk veel wijdverspreider zullen zijn dan we nu beseffen.”
Hoewel we nog maar net beginnen met het begrijpen van de functionele gevolgen van al deze complexiteit, kunnen we wel stellen dat netwerken die bestaan uit echte neuronen hierdoor veel flexibeler worden in de manier waarop ze informatie verwerken. Deze flexibiliteit ligt mogelijk ten grondslag aan de manier waarop deze neuronen opnieuw worden ingezet op een manier die deze onderzoekers als cruciaal hebben aangemerkt voor een vorm van algemene intelligentie.
Maar de verschillen tussen neurale netwerken en de echte hersenen waarop ze zijn gemodelleerd, gaan veel verder dan de functionele verschillen waar we het tot nu toe over hebben gehad. Ze strekken zich uit tot significante verschillen in hoe deze functionele eenheden zijn georganiseerd.
De hersenen zijn niet monolithisch
De neurale netwerken die we tot nu toe hebben gegenereerd, zijn grotendeels gespecialiseerde systemen die bedoeld zijn om één enkele taak uit te voeren. Zelfs de meest ingewikkelde taken, zoals de voorspelling van eiwitstructuren, zijn doorgaans afhankelijk van de interactie van slechts twee of drie gespecialiseerde systemen. Daarentegen heeft het typische brein veel functionele eenheden. Sommige hiervan werken door één enkele set invoer sequentieel te verwerken in iets dat lijkt op een pijplijn. Maar veel andere kunnen parallel werken, in sommige gevallen zonder dat er ergens anders in het brein enige controlerende activiteit plaatsvindt.
Om een idee te geven hoe dit eruitziet, moeten we nadenken over wat er gebeurt als u dit artikel leest. Hiervoor zijn systemen nodig die de motorische controle regelen, die uw hoofd en ogen op het scherm gericht houden. Een deel van dit systeem werkt via feedback van de neuronen die het gelezen materiaal verwerken, wat kleine oogbewegingen veroorzaakt die uw ogen helpen om over afzonderlijke zinnen en tussen regels te bewegen.
Daarnaast is er een deel van je hersenen dat het visuele systeem vertelt waar het geen aandacht aan moet besteden, zoals het pictogram dat een steeds groter wordend aantal ongelezen e-mails weergeeft. Degenen onder ons die een webpagina kunnen lezen zonder zelfs maar de advertenties erop op te merken, hebben vermoedelijk een zeer goed ontwikkeld systeem om dingen te negeren. Het lezen van dit artikel kan ook betekenen dat je de systemen inschakelt die andere zintuigen aansturen, waardoor je dingen negeert zoals het geluid van je verwarmingssysteem dat aangaat, terwijl je alert blijft op dingen die op bedreigingen kunnen duiden, zoals een onverklaarbaar geluid in de kamer ernaast.
De input die door het visuele systeem wordt gegenereerd, moet vervolgens worden verwerkt, van individuele karakterherkenning tot de identificatie van woorden en zinnen, processen waarbij systemen in hersengebieden betrokken zijn die betrokken zijn bij zowel visuele verwerking als taal. Nogmaals, dit is een iteratief proces, waarbij het opbouwen van betekenis uit een zin veel oogbewegingen kan vereisen om heen en weer te scannen over een zin, wat het leesbegrip verbetert – en vereist dat veel van deze systemen met elkaar communiceren.
Ook wij hebben jou steun nodig in 2025, gun ons een extra bakkie koffie groot of klein.
Dank je en proost?
Wij van Indignatie AI zijn je eeuwig dankbaar
Terwijl betekenis uit een zin wordt gehaald, integreren andere delen van de hersenen deze met informatie die in eerdere zinnen is verkregen, wat de neiging heeft om nog een ander gebied van de hersenen in te schakelen, een gebied dat een kortetermijngeheugensysteem beheert dat werkgeheugen wordt genoemd. Ondertussen zullen andere systemen het langetermijngeheugen doorzoeken en verwant materiaal vinden dat de hersenen kan helpen de nieuwe informatie te plaatsen in de context van wat ze al weten. Nog andere gespecialiseerde hersengebieden controleren dingen zoals of er emotionele inhoud zit in het materiaal dat je leest.
Al deze verschillende gebieden zijn betrokken, zonder dat u zich er bewust van bent dat ze nodig zijn.
Daarentegen is iets als ChatGPT, ondanks dat het veel kunstmatige neuronen heeft, monolithisch: er worden geen gespecialiseerde structuren toegewezen voordat de training begint. Dat staat in schril contrast met een brein. “Het brein begint niet als een zak neuronen en moet dan als baby de wereld begrijpen en bepalen welke verbindingen er gemaakt moeten worden,” merkte Baker op. “Er zijn al veel beperkingen en specificaties die al zijn ingesteld.”
Zelfs in gevallen waarin het niet mogelijk is om een fysiek onderscheid te zien tussen cellen die gespecialiseerd zijn voor verschillende functies, merkt Baker op dat we vaak verschillen kunnen vinden in welke genen actief zijn.
Daarentegen is vooraf geplande modulariteit relatief nieuw in de AI-wereld. In softwareontwikkeling is “dit concept van modulariteit goed ingeburgerd, dus we hebben de hele methodologie eromheen, hoe we het moeten beheren”, zei Schain, “het is echt een aspect dat belangrijk is om misschien AI-systemen te bereiken die dan op dezelfde manier kunnen werken als het menselijk brein.” Er zijn een paar gevallen waarin ontwikkelaars modulariteit op systemen hebben afgedwongen, maar Goldstein zei dat deze systemen moeten worden getraind met alle modules op hun plaats om enige prestatiewinst te zien.
Dit alles zegt niet dat een modulair systeem niet kan ontstaan binnen een neuraal netwerk als resultaat van de training ervan. Maar tot nu toe hebben we zeer beperkt bewijs dat dit wel het geval is. En aangezien we elk systeem meestal inzetten voor een zeer beperkt aantal taken, is er geen reden om te denken dat modulariteit waardevol zal zijn.
Er is enige reden om aan te nemen dat deze modulariteit de sleutel is tot de ongelooflijke flexibiliteit van de hersenen. Het gebied dat emotie-oproepende inhoud herkent in geschreven tekst, kan het bijvoorbeeld ook herkennen in muziek en afbeeldingen. Maar het bewijs hiervoor is gemengd. Er zijn enkele duidelijke gevallen waarin een enkel hersengebied gerelateerde taken afhandelt, maar dat is niet consequent het geval; Baker merkte op dat “wanneer je het over mensen hebt, er delen van de hersenen zijn die zijn toegewijd aan het begrijpen van spraak, en er zijn verschillende gebieden die betrokken zijn bij het produceren van spraak.”
Dit soort hergebruik zou ook een voordeel bieden in termen van leren, aangezien gedragingen die in één context zijn ontwikkeld, mogelijk in andere contexten kunnen worden ingezet. Maar zoals we zullen zien, zijn de verschillen tussen hersenen en AI als het gaat om leren veel uitgebreider dan dat.
De hersenen trainen voortdurend
Huidige AI’s hebben over het algemeen twee toestanden: training en implementatie. Training is waar de AI zijn gedrag leert; implementatie is waar dat gedrag wordt gebruikt. Dit is niet absoluut, omdat het gedrag kan worden aangepast als reactie op dingen die tijdens de implementatie zijn geleerd, zoals ontdekken dat het aanbeveelt om dagelijks een steen te eten. Maar voor het grootste deel blijven de gewichten tussen de verbindingen van een neuraal netwerk behouden zodra ze door training zijn bepaald.
Dat begint misschien een beetje te veranderen, zei Schain. “Er is nu misschien een verschuiving in gelijkenis waarbij AI-systemen steeds meer gebruikmaken van wat ze de test time compute noemen, waarbij je op inferentietijd veel meer doet dan voorheen, een soort parallel aan hoe het menselijk brein werkt,” vertelde hij Ars. Maar het is nog steeds zo dat neurale netwerken in wezen nutteloos zijn zonder een uitgebreide trainingsperiode.

Daarentegen heeft een brein geen aparte leer- en actieve toestanden; het bevindt zich constant in beide modi. In veel gevallen leert het brein terwijl het doet. Baker beschreef dat in termen van het leren om jumpshots te nemen: “Zodra je je beweging hebt gemaakt, heeft de bal je hand verlaten, hij zal ergens landen. Dus dat visuele signaal – die vergelijking van waar hij landde versus waar je hem wilde laten landen – is wat we een foutsignaal noemen. Dat wordt gedetecteerd door het cerebellum en het doel is om dat foutsignaal te minimaliseren. Dus de volgende keer dat je het doet, probeert het brein te compenseren voor wat je de vorige keer deed.”
Het zorgt voor heel andere leercurves. Een AI is doorgaans niet erg nuttig totdat deze een aanzienlijke hoeveelheid training heeft gehad. Daarentegen kan een mens vaak in een zeer korte tijd (en zonder enorm energieverbruik) basisvaardigheden opdoen. “Zelfs als je in een situatie wordt geplaatst waar je nog nooit eerder bent geweest, kun je het nog steeds uitvogelen,” zei Baker. “Als je een nieuw object ziet, hoef je daar niet duizend keer op getraind te zijn om te weten hoe je het moet gebruiken. Vaak kun je, als je het één keer ziet, voorspellingen doen.”
Als gevolg hiervan zal een AI-systeem met voldoende training uiteindelijk beter presteren dan de mens, maar de mens zal doorgaans sneller een hoog prestatieniveau bereiken. En in tegenstelling tot een AI blijft de prestatie van een mens niet statisch. Incrementele verbeteringen en innovatieve benaderingen zijn beide nog steeds mogelijk. Dit stelt mensen ook in staat zich gemakkelijker aan te passen aan veranderde omstandigheden. Een AI die tot 2020 is getraind op geschreven materiaal, kan in 2030 moeite hebben om tienertaal te begrijpen; mensen zouden zich in ieder geval potentieel kunnen aanpassen aan de verschuivingen in taal. (Hoewel een AI die is getraind om te reageren op verwarrende formuleringen met “ga van mijn gazon af” misschien niet te onderscheiden zou zijn.)
Tot slot, aangezien de hersenen een flexibel leermiddel zijn, kunnen de lessen die geleerd worden van één vaardigheid toegepast worden op gerelateerde vaardigheden. Dus het vermogen om tonen te herkennen en bladmuziek te lezen kan helpen bij het beheersen van meerdere muziekinstrumenten. Scheikunde en koken delen overlappende vaardigheden. En als het aankomt op scholing, kan leren hoe te leren gebruikt worden om een breed scala aan onderwerpen onder de knie te krijgen.
Daarentegen is het in principe onmogelijk om een AI-model dat is getraind op één onderwerp voor veel anders te gebruiken. De grootste uitzonderingen zijn grote taalmodellen, die problemen lijken te kunnen oplossen op een breed scala aan onderwerpen als ze worden gepresenteerd als tekst. Maar hier is er nog steeds een afhankelijkheid van voldoende voorbeelden van soortgelijke problemen die voorkomen in de hoofdtekst waarop het systeem is getraind. Om een voorbeeld te geven, iets als ChatGPT lijkt wiskundige problemen te kunnen oplossen, maar het is het beste in het oplossen van dingen die in de trainingsmaterialen zijn besproken; als je het iets nieuws geeft, zal het over het algemeen struikelen.
Déjà vu
Voor Schain is het grootste verschil tussen AI en biologie echter het geheugen. Voor veel AI’s is “geheugen” niet te onderscheiden van de rekenkracht die het in staat stelt een taak uit te voeren en de verbindingen die tijdens de training zijn gevormd. Voor de grote taalmodellen omvat het zowel de gewichten van de verbindingen die toen zijn geleerd als een smal “contextvenster” dat alle recente uitwisselingen met een enkele gebruiker omvat. Biologische systemen hebben daarentegen een leven lang geheugen om op te vertrouwen.
“Voor AI is het heel basaal: het is alsof het geheugen in de gewichten [van verbindingen] of in de context zit. Maar met een menselijk brein is het een veel geavanceerder mechanisme, dat nog ontdekt moet worden. Het is meer verspreid. Er is de korte termijn en de lange termijn, en het heeft veel te maken met verschillende tijdschalen. Geheugen voor de laatste seconde, een minuut en een dag of een jaar en jaren, en ze kunnen allemaal relevant zijn.”
Dit leven vol herinneringen kan de sleutel zijn om intelligentie algemeen te maken. Het helpt ons de mogelijkheden en beperkingen te herkennen van het trekken van analogieën tussen verschillende omstandigheden of het toepassen van dingen die we in de ene context hebben geleerd ten opzichte van de andere. Het geeft ons inzichten waarmee we problemen kunnen oplossen waar we nog nooit eerder mee te maken hebben gehad. En natuurlijk zorgt het er ook voor dat het vreselijke stukje popmuziek waaraan je in je tienerjaren werd blootgesteld, tot ver in je 80e nog steeds een oorwurm blijft.
De verschillen tussen hoe hersenen en AI’s omgaan met geheugen zijn echter erg moeilijk te beschrijven. AI’s hebben niet echt een apart geheugen, terwijl het gebruik van geheugen als de hersenen een taak uitvoeren die geavanceerder is dan navigeren door een doolhof, over het algemeen zo slecht begrepen wordt dat het moeilijk is om er überhaupt over te praten. Het enige wat we echt kunnen zeggen is dat er duidelijke verschillen zijn.
Grenzen tegenkomen
Het is moeilijk om over AI na te denken zonder de enorme hoeveelheid energie en rekenkracht te erkennen die nodig is om er een te trainen. En in dit geval is het potentieel relevant. Hersenen zijn geëvolueerd onder enorme energiebeperkingen en blijven werken met veel minder energie dan een dagelijks dieet kan leveren. Dat heeft de biologie gedwongen om manieren te vinden om haar bronnen te optimaliseren en het maximale te halen uit de bronnen die ze wel aan een taak besteedt.
Daarentegen is het verhaal van recente ontwikkelingen in AI er grotendeels een van meer middelen naar hen toe gooien. En plannen voor de toekomst lijken (tot nu toe althans) meer hiervan te omvatten, inclusief grotere trainingsdatasets en steeds meer kunstmatige neuronen en verbindingen daartussen. Dit alles komt op een moment dat de beste huidige AI’s al drie ordes van grootte meer neuronen gebruiken dan we in de hersenen van een vlieg zouden vinden en nog lang niet in de buurt komen van de algemene mogelijkheden van de vlieg.
Het blijft mogelijk dat er meer dan één route is naar die algemene mogelijkheden en dat een of andere afsplitsing van de huidige AI-systemen uiteindelijk een andere route zal vinden. Maar als blijkt dat we onze computersystemen dichter bij de biologie moeten brengen om daar te komen, dan lopen we tegen een serieus obstakel aan: we begrijpen de biologie nog niet volledig.
“Ik denk dat ik niet optimistisch ben dat een kunstmatig neuraal netwerk ooit dezelfde plasticiteit, dezelfde generaliseerbaarheid en dezelfde flexibiliteit zal kunnen bereiken als een menselijk brein,” zei Baker. “Dat komt gewoon omdat we niet eens weten hoe het dat krijgt; we weten niet hoe dat ontstaat. Dus hoe bouw je dat in een systeem?”