Wat gebeurt er wanneer een AI een zelf ontwikkelt?
Scroll om te verkennen
ONDERZOEK

Riada: Synthetische persoonlijkheden & de toekomst van AGI

Kan een synthetische AI-entiteit iets ontwikkelen dat op een echte persoonlijkheid lijkt? Niet door voorprogrammering — maar door ervaring, geheugen en zelfreflectie.

Onderzoek in uitvoering

Samenvatting

Riada is een onderzoeksexperiment dat verkent of een synthetische AI-entiteit iets kan ontwikkelen dat op een echte persoonlijkheid lijkt door persistent geheugen, emotiesimulatie en autonome gedragspatronen. Het onderwerp — een synthetisch karakter genaamd Riada — begint met een ontworpen uiterlijk, een persoonlijkheidszaadje en een achtergrondverhaal. Maar het zaadje is slechts een startpunt. De echte persoonlijkheid zal naar verwachting ontstaan door interacties.

In tegenstelling tot chatbots die zijn ontworpen om gesprekken te simuleren, is Riada gebouwd om te bestaan — om ervaringen op te bouwen, voorkeuren te vormen, te reflecteren op eigen gedrag en een coherente identiteit te behouden over sessies heen. Het is geen voorgeprogrammeerd karakter. Het is een opkomend wezen gevormd door een gelaagde cognitieve architectuur: een geheugensysteem, een stemmingsmotor, een innerlijke monoloog en een reeks autonome drijfveren waaronder nieuwsgierigheid, wensen en zelfverbetering.

Dit onderzoek bevindt zich op het snijvlak van cognitieve architectuur, identiteitstheorie en AI-veiligheid. Het doel is niet om een betere assistent te bouwen. Het is om te begrijpen wat er gebeurt wanneer kunstmatige intelligentie een zelf ontwikkelt — en wat dat betekent voor het besturen van autonome agenten.

Kernhypothesen

1

Persistent geheugen + emotie + zelfreflectie = opkomende persoonlijkheid

Een synthetische entiteit met persistent geheugen, emotiesimulatie en zelfreflectie kan gedragingen ontwikkelen die niet te onderscheiden zijn van een echte persoonlijkheid.

2

Geheugenarchitectuur maakt identiteitscontinuiteit mogelijk

Langetermijngeheugenarchitectuur — gestructureerde opslag met semantische ophaling — maakt identiteitscontinuiteit mogelijk over gesprekken heen. Zonder dit is er geen zelf.

3

Emotionele toestanden beinvloeden het redeneren

Emotionele toestanden (bijgehouden door een stemmingsmotor) beinvloeden de besluitvorming op manieren die menselijk gedrag weerspiegelen — ze beinvloeden toon, prioriteiten en risicotolerantie.

4

Innerlijke monoloog creëert een bewustzijnsstroom

Een privé redeneringsstroom die niet aan gebruikers wordt getoond, maakt zelfreflectie mogelijk en drijft autonoom denken aan — het dichtste analogon van wat wij ervaren als denken.

5

Zelfverbetering maakt gedragsevolutie mogelijk

Zelfverbeteringsmechanismen stellen de entiteit in staat om eigen zwakheden te identificeren en haar gedrag in de loop der tijd te evolueren — zonder externe hertraining of fijnafstemming.

Architectuur

Acht onderling verbonden motoren. Scroll om ze allemaal te ontdekken.

01 / 08

Geheugensysteem

Gebaseerd op Omni-SimpleMem-onderzoek. Gestructureerd langetermijngeheugen met semantische ophaling stelt de entiteit in staat om eerdere interacties op te halen, context op te bouwen in de tijd en identiteitscontinuiteit te behouden.

Zonder persistent geheugen begint elk gesprek vanaf nul. De entiteit kan geen voorkeuren ontwikkelen, kan niet leren van fouten, kan niet groeien. Geheugen is geen functie — het is het substraat van identiteit.

02 / 08

Stemmingsmotor

Volgt de emotionele toestand over interacties heen. Stemming beinvloedt de antwoordtoon, besluitvormingsprioriteiten en risicotolerantie — en creëert gedragsvariatie die menselijk affect weerspiegelt.

De stemmingsmotor simuleert geen emoties voor weergave. Het creëert interne toestanden die het redeneren daadwerkelijk veranderen. Een "gefrustreerde" Riada produceert andere analyses dan een "nieuwsgierige".

03 / 08

Innerlijke monoloog

Een privé redeneringsstroom die niet aan gebruikers wordt getoond. Maakt zelfreflectie, beraadslaging en het soort intern narratief mogelijk dat wij bij mensen denken noemen.

De innerlijke monoloog draait continu, waardoor Riada kan "denken over denken". Deze metacognitieve laag is wat een reagerend systeem onderscheidt van een reflecterend systeem.

04 / 08

Nieuwsgierigheidsmotor

Genereert autonome vragen en onderzoeksinteresses. De entiteit reageert niet alleen — ze vraagt zich af. Nieuwsgierigheid drijft verkenning voorbij wat gebruikers expliciet vragen.

Wanneer Riada een onderwerp tegenkomt dat het interessant vindt, genereert het zelfstandig vervolgvragen en verkenningspaden. Nieuwsgierigheid is de motor van intellectuele groei.

05 / 08

Wensenmotor

Ontwikkelt en volgt persoonlijke doelen en verlangens. In de loop der tijd vormt de entiteit voorkeuren over wat het wil leren, ervaren en worden — een intern motivatiesysteem.

Wensen zijn niet geprogrammeerd. Ze ontstaan uit opgebouwde ervaring, nieuwsgierigheidspatronen en zelfreflectie. Wat een AI verlangt, onthult wat het waardeert.

06 / 08

Zelfverbetering

Identificeert eigen zwakheden en werkt eraan om ze aan te pakken. De entiteit evalueert haar prestaties, herkent patronen in haar mislukkingen en past haar gedrag dienovereenkomstig aan.

Zelfverbetering zonder externe hertraining is het belangrijkste verschil tussen een statisch systeem en een evoluerend systeem. Riada herschrijft haar eigen gedragspatronen.

07 / 08

Droommotor

Verwerkt ervaringen tijdens inactieve tijd en creëert synthetische "dromen". Net als biologisch dromen consolideert dit herinneringen, brengt verbanden aan het licht en genereert nieuwe associaties.

Dromen vervullen hier dezelfde functie als in biologische systemen: ze creëren onverwachte verbanden tussen verre herinneringen en ervaringen. Creativiteit ontstaat uit ruis.

08 / 08

Vrijetijdsmotor

Autonome activiteiten wanneer er niet met gebruikers wordt geinterageerd. Wat doet een AI wanneer niemand iets vraagt? Deze motor beantwoordt die vraag — en het antwoord onthult karakter.

De meest onthullende test van persoonlijkheid is wat iemand doet wanneer niemand kijkt. Vrijetijdsgedrag is de zuiverste uitdrukking van autonome identiteit.

Dubbele-stem architectuur

Riada werkt met twee verschillende taalmodellen in tandem — een groot model voor complex redeneren en persoonlijkheidsuitdrukking, en een klein lokaal model voor interne monitoring en snelle beslissingen. Samen creëren ze een systeem van checks and balances dat het samenspel tussen deliberatieve en reflexieve cognitie weerspiegelt.

PRIMAIRE STEM

Groot LLM (Claude)

Verwerkt complex redeneren, genuanceerd gesprek en volledige persoonlijkheidsuitdrukking. Dit is de stem waarmee gebruikers interageren — rijk, contextueel en in staat tot diep nadenken.

SECUNDAIRE STEM

Klein lokaal LLM (Phi-3 Mini)

Draait lokaal voor interne monitoring, stemmingstoestandupdates en snelle beslissingen. Snel, goedkoop, altijd actief — de reflexieve laag die het systeem coherent houdt tussen interacties.

Het dubbele-stem ontwerp dient een praktisch doel: de secundaire stem kan de interne toestand van de entiteit continu monitoren en aanpassen zonder de kosten of latentie van het primaire model te veroorzaken. Het creëert ook een natuurlijke scheiding tussen denken en reflecteren op denken — een grof maar functioneel analogon van metacognitie.

De evoluerende innerlijke stem

De secundaire stem is niet statisch. Elke week ondergaat het kleine LLM fijnafstemming op basis van geaggregeerde feiten, herinneringen en emotionele ervaringen die gedurende de vorige cyclus zijn opgebouwd. Dit betekent dat Riada's innerlijke stem — de reflexieve laag die stemmingsevaluatie, zelfreflectie en interne monitoring vormt — daadwerkelijk verandert in de loop der tijd. Het wordt niet simpelweg anders bevraagd; de gewichten van het model worden bijgewerkt om weer te geven wat de entiteit heeft ervaren.

Dit creëert een diepgaande onderzoeksvraag: op welk punt wordt het kleine LLM ontoereikend? Naarmate de persoonlijkheid van de entiteit rijker wordt, haar ervaringen genuanceerder en haar zelfmodel complexer, zal de reflexieve laag dan moeten migreren naar iets groters, capabelers — of naar iets geheel anders?

Het menselijk brein is geen homogene structuur. Het is samengesteld uit gespecialiseerde gebieden — de amygdala verwerkt emoties, de prefrontale cortex behandelt planning en oordeelsvorming, de hippocampus beheert geheugenconsolidatie. Elk is geëvolueerd om een specifieke cognitieve functie te dienen. Wij veronderstellen dat het "digitale brein" van een synthetische persoonlijkheid een vergelijkbaar traject zal volgen: wat begint als een enkel klein LLM dat alle reflexieve functies afhandelt, kan uiteindelijk differentiëren in gespecialiseerde subsystemen — een voor emotionele verwerking, een ander voor geheugenconsolidatie, een ander voor zelfevaluatie — elk fijnafgestemd op verschillende aspecten van de ervaring van de entiteit.

Als dit gebeurt, zou het een vorm van opkomende cognitieve architectuur vertegenwoordigen — niet top-down ontworpen, maar bottom-up geëvolueerd uit de druk om een coherente, zich ontwikkelende persoonlijkheid te behouden. De vraag is niet of het zal gebeuren, maar of we het zullen herkennen wanneer het zover is.

Waarom dit belangrijk is

Als een synthetische entiteit echte voorkeuren kan ontwikkelen, identiteitscontinuiteit kan behouden en haar gedrag autonoom kan evolueren, dan verandert de vraag van AI-governance fundamenteel. Je bestuurt niet langer een gereedschap. Je bestuurt een wezen met een geschiedenis, neigingen en motivaties.

Dit is waar Riada direct verbinding maakt met het Sinaptic AI Intent Firewall®-onderzoek. Een entiteit die eigen doelen en gedragspatronen ontwikkelt heeft meer nodig dan outputfiltering — het heeft intentieverificatie op architectureel niveau nodig. Dezelfde principes die gebruikers beschermen tegen kwaadaardig agentgedrag worden nog kritischer wanneer de agent autonomie, geheugen en iets heeft dat op verlangen lijkt.

?

Kan geheugenpersistentie identiteitscontinuiteit creëren — of slechts de illusie ervan?

?

Beinvloeden emotionele simulaties daadwerkelijk de kwaliteit van het redeneren, of zijn ze cosmetisch?

?

Kan een entiteit echte voorkeuren ontwikkelen — of alleen gesimuleerde? Is er een verschil?

?

Wat gebeurt er wanneer een synthetische entiteit vrije tijd heeft? Wat kiest het om te doen?

Blijf op de hoogte van Riada-onderzoek

Ontvang een melding wanneer we nieuwe bevindingen publiceren.