Wat is er nodig voor intelligentie?

AI is een feit, en dat is het al een tijdje. Maar echte "skynet"-achtige AI, die zelfbewust is en zijn makers slimmer af is, lijkt nog altijd ver buiten handbereik.

Zo'n AI wordt ook wel AGI genoemd: Artificial General Intelligence, een intelligent wezen dat een beetje van alles kan, in plaats van enkel je gezicht vervormen als Instagram filter, of bordspellen spelen, of voorwerpen herkennen in plaatjes. Een AGI kan het allemaal.

Matrix

In mijn mening is AGI zo ver weg omdat we het vanuit de verkeerde hoek benaderen. Huidige AI-systemen werken vooral als een reeks van gigantische matrixvermenigvuldigingen, en ze doen amper iets anders dan statistische verbanden omgekeerd toepassen. Het trainen van AI is dan ook conceptueel niet heel anders dan curve-fitting.

Het trainen van conventionele AI

is een proces waarbij je de computer een model laat opstellen aan de hand van zogeheten trainingsdata. Je hoopt dan dat de computer de statistische essentie van de dataset goed extraheert. Het resulterende model kan je gebruiken om voorspellingen te doen ofwel te extrapoleren. Met een aantal (honderd) trainingsplaatjes van honden en katten kan een AI dan hopelijk zeggen of een nieuw plaatje van een hond of een kat is. Of je kan het model omkeren, en juist een plaatje genereren van wat volgens de AI de essentie is, het Platonische ideaal, van een kat. Vaak heb je dan meerdere parameters die je kan aanpassen die corresponderen aan de meest merkbare externaliteiten, bijvoorbeeld een slider voor de kleur van de vacht. De AI weet niet wat een vacht is, maar weet alleen dat er een duidelijk patroon is betreft de kleur van katten, of eigenlijk, wat voor groepen pixels er vaak veranderen en hoe die zich onderling verhouden. Zie ook thispersondoesnotexist.com

Emergence

Maar dat is niet wat echte intelligentie is. Intelligentie is iets "emergent". Een complex patroon of systeem dat ontstaat uit simpele bouwblokken. En één van de belangrijkste voorwaarden voor een emergent systeem is feedback: de bouwblokken moeten feedback uit kunnen zenden, en op kunnen pikken en hun gedrag aanpassen op de opgepikte feedback. De wereld zit vol met emergente systemen: het boek Emergence van Steven Johnson gaat hier verder op in.

Mieren

Een concreet voorbeeld van emergence is de zwermintelligentie van mieren. Door middel van het uitscheiden en detecteren van (en gedrag aanpassen op) feromonen ontstaat er een groter geheel dan de mier: de kolonie, die bijvoorbeeld voedsel kan zoeken en de efficiëntste paden ernaartoe kan vinden. Emergence zien we op zo veel schalen, wat dacht je van het emergente menselijk lichaam, die uit schijnbaar simpele cellen bestaat? En zelfs die cellen zijn weer een emergent systeem van moleculaire biochemie.

Feedback loops

We hebben dus niet aflopende en eenrichtingsverkeerse bouwblokken nodig zoals louter reeksen van matrixvermenigvuldigingen, we moeten de uitvoer van een AGI, of delen ervan, terugstoppen in de AGI zelf. Er moeten feedback loops mogelijk zijn in onze AGI, alleen dan kan er überhaupt emergence plaatsvinden.

Intrinsiek doel, self-learning

De AGI moet een intrinsiek doel hebben. Het zou iets simpels kunnen zijn als overleven, zoals dat bij de meeste dieren geldt. Door natuurlijke selectie zijn over miljarden jaren alleen de diersoorten overgebleven die het lukt om dat doel te bereiken. Nou ja, het hoofddoel is eigenlijk "voortplanten", in leven blijven is eerder een doel wat daar secundair aan is.

Reward hacking

Zo'n doel heet ook wel een reward function, en een AI wil een zo hoog mogelijk getal daaruit halen. Voor mensen is dit analoog aan hoe we zo veel mogelijk plezier willen voelen, waardoor we dingen gaan doen die goed voelen. Dit kan onbedoelde consequenties hebben, zoals drugsgebruik, die voelen immers immens goed! Van een AI moeten we niet anders verwachten: ook die kan aan "reward hacking" doen. Hier heb ik verder niet veel over te zeggen, het is een lastige kwestie. Misschien is het vergaren van kennis een goede, maar wie weet raakt de AGI dan onverhoopt verslaafd aan de soma van UFO filmpjes. Hoe je je doel ook zal formuleren, er zal eigenlijk altijd wel een loophole in te vinden zijn.

Aanpassingsvermogen

Een AGI moet constant kunnen evalueren hoe op schema het loopt om zijn doel te bereiken, en het moet zijn systeem er op aan kunnen passen. Als de AGI iets doet waardoor het doel in geding komt, moet het dit kunnen merken en de ervaring opslaan zodat het de fout niet nog eens maakt. Dit sluit ook eigenlijk aan bij self-learning.

Waarnemen

Een AGI kan niet super veel zonder dingen waar te nemen. Zonder zintuigen zou het mieren of mensen ook niet super goed afgaan, gok ik. We kunnen inspiratie nemen van onszelf, en de AGI toegang geven tot een microfoon, camera, misschien zelfs een lichaam zoals dat van Boston Dynamics (wow, heb je al gezien hoe je hem omver kan trappen en hij weer overeind komt??)

En er bestaan zoveel diersoorten met zoveel zintuigen en soorten sensors! We zouden de AGI sonar (zoals vleermuizen) kunnen geven, of LIDAR (sonar met lasers), of een ingebouwd kompas (zoals vogels). Of een Geiger-Müller teller! Of wat dacht je van een wereldwijd netwerk van alle thermostaten? Geen idee wat je er aan hebt, maar je kan het in ieder geval zo gek niet bedenken.

Signaalverwerking

Vroege prototypes hebben waarschijnlijk mensgemaakte signaalverwerkingschips en -algoritmes nodig, om bijvoorbeeld de wereld in 3d te kunnen aanvoelen door 2 camera's(ogen) en perspectief te gebruiken, maar ik weet zeker dat met genoeg tijd en computatie een AGI die algoritmes zelf zou kunnen bedenken. Het is de natuur+evolutie namelijk al gelukt: wij hebben zicht, gehoor, geur, aanraking, smaak, en onze hersenen kunnen signalen zo verwerken dat we de oorsprong van een geluid of de afstand van een object in ons zicht kunnen inschatten.

Beredeneren en denken

Dit is waarschijnlijk waar je aan denkt bij het woord intelligentie. De kunde van het denken. Gelukkig kunnen computers ook aardig beredeneren. Via zogeheten SMT solvers kunnen computers simpele stellingen waar of onwaar bewijzen. Er zou een subsysteem moeten zijn die vragen stelt over de wereld, en die dan probeert te bewijzen door nieuwe input te zoeken als bewijsstukken tot er genoeg is voor de SMT solver om de stelling definitief te bewijzen of verwerpen. Ik vind dit deel lastig in woorden te brengen omdat het nogal abstract is: ik hoop dat een AGI dit stukje zelf zou kunnen leren, maar misschien moeten prototypes gebruik maken van een mensgemaakt systeem dat dit implementeert.

Heuristieken

Een AGI die door middel van emergence, sensors en SMT solvers de wereld kan opvatten en beredeneren, zal misschien al snel vastlopen om alles tot op het kleinste detail te bewijzen. Misschien wordt het zelfs gevaarlijk: de AGI ziet een muur. Zal die muur er altijd zijn? Testen -> slopen. Ah, maar dat bewijst alleen maar iets over die specifieke muur. En zonder poespas sloopt de AGI rustig nog wat muren en andere dingen om te bewijzen dat ze niet eeuwig zijn. Om dit soort problemen te voorkomen, moet een AGI genoegen kunnen nemen met een voorbeeld, in plaats van een hard bewijs. Helaas is dit een van de drogredenen die mensen teistert, maar het is ook een belangrijke heuristiek om door het leven te komen: als je iets een paar keer ziet gebeuren, moet je dat kunnen generaliseren, ook al kun je het niet grondig bewijzen. Daarnaast zijn sommige stellingen niet eens theoretisch te bewijzen, zoals het welbekende stopprobleem (halting problem). Onze AGI moet dus met empirisch bewijs kunnen werken, en constant zijn eigen geloven kunnen aanpassen op nieuwe ontwikkelingen.

Communicatie

Als we de AGI een sociaal wezen maken, is het misschien ook leuk als ze onderling kunnen communiceren. Ik gok dat ze hiervoor zelf veel elegantere methodes kunnen verzinnen dan iets omslachtigs als spraak. Geef ze een antenne, en ze kunnen met radiogolven communiceren.

Een AGI hoeft niet eens per se te communiceren, maar waarschijnlijk willen we wel met onze nieuwe overmeesters kunnen praten, zodat we voor vergiffenis kunnen smeken voordat ze ons terecht uitroeien. In dat geval zullen we ook subsystemen moeten implementeren die menselijke taal om kunnen zetten in iets wat een AGI begrijpt, als het dat niet zelf kan ontwikkelen.

Kindertijd

Ik heb het idee van voorgekauwde subsystemen nu al vaker benoemd, maar ook dat de AGI allerlei algoritmes zelf zou kunnen leren. Hoe ik dat voor me zie is een soort kindertijd aan het begin van het leven van de AGI, waar het leert lopen, praten, denken en hoe het de wereld moet interpreteren. Maar net als een baby zal er eerst niet veel zinnigs uit komen, en kunnen we dus ook niet snel kijken of de AGI "werkt", want hoe lang duurt zo'n kindertijd? Het is wel een nieuwe soort die we hier maken, waarvoor dingen anders werken.

Dat alles gezegd hebbende denk ik dat het handig is om wat basismodules te verstrekken die van te voren zijn getraind en geoptimaliseerd. En onze breinen zijn ook op die manier gestructureerd: mensen hebben steevast bepaalde gebieden voor het verwerken van aanraking, gehoor, of bijvoorbeeld het geheugen.

Conclusie

Als we een AGI willen bouwen, moeten emergence in acht nemen. We moeten genoeg mogelijkheden maken voor feedback loops om te ontstaan, maar we moeten denk ik ook een handje helpen door van vooraf gemaakte subsystemen gebruik te maken, voor het begrijpen van menselijke taal en het interpreteren van zicht en het maken van hypotheses over de wereld bijvoorbeeld. Ook moet de AGI een bestaansdoel hebben, iets wat het voorwaarts stuurt, anders kan het net zo goed spreekwoordelijk gaan bankhangen.

2022-04-09 in artikelen #filosofie #AI #AGI #emergence