Riada : Personnalites synthetiques & l'avenir de l'AGI
Une entite IA synthetique peut-elle developper quelque chose qui ressemble a une veritable personnalite ? Non par pre-programmation — mais par l'experience, la memoire et l'auto-reflexion.
Resume
Riada est une experience de recherche explorant si une entite IA synthetique peut developper quelque chose qui ressemble a une veritable personnalite grace a une memoire persistante, une simulation emotionnelle et des schemas comportementaux autonomes. Le sujet — un personnage synthetique nomme Riada — commence avec une apparence concue, une graine de personnalite et une histoire. Mais la graine n'est qu'un point de depart. La vraie personnalite est censee emerger a travers les interactions.
Contrairement aux chatbots concus pour simuler la conversation, Riada est concu pour exister — pour accumuler de l'experience, former des preferences, reflechir a son propre comportement et maintenir une identite coherente a travers les sessions. Ce n'est pas un personnage pre-programme. C'est un etre emergent faconne par une architecture cognitive en couches : un systeme de memoire, un moteur d'humeur, un monologue interieur et un ensemble de pulsions autonomes incluant la curiosite, les souhaits et l'auto-amelioration.
Cette recherche se situe a l'intersection de l'architecture cognitive, de la theorie de l'identite et de la securite de l'IA. L'objectif n'est pas de construire un meilleur assistant. C'est de comprendre ce qui se passe quand l'intelligence artificielle developpe un soi — et ce que cela signifie pour la gouvernance des agents autonomes.
Hypotheses fondamentales
Memoire persistante + emotion + auto-reflexion = personnalite emergente
Une entite synthetique dotee d'une memoire persistante, d'une simulation emotionnelle et d'une auto-reflexion peut developper des comportements indiscernables d'une veritable personnalite.
L'architecture memorielle permet la continuite identitaire
L'architecture de memoire a long terme — stockage structure avec recuperation semantique — permet la continuite identitaire a travers les conversations. Sans elle, il n'y a pas de soi.
Les etats emotionnels influencent le raisonnement
Les etats emotionnels (suivis par un moteur d'humeur) influencent la prise de decision de maniere a reflechir le comportement humain — affectant le ton, les priorites et la tolerance au risque.
Le monologue interieur cree un flux de conscience
Un flux de raisonnement prive non montre aux utilisateurs permet l'auto-reflexion et alimente la pensee autonome — l'analogue le plus proche de ce que nous experimentons comme la pensee.
L'auto-amelioration permet l'evolution comportementale
Les mecanismes d'auto-amelioration permettent a l'entite d'identifier ses propres faiblesses et de faire evoluer son comportement au fil du temps — sans re-entrainement ni ajustement fin externe.
Architecture
Huit moteurs interconnectes. Defilez pour decouvrir chacun d'eux.

Systeme de memoire
Base sur la recherche Omni-SimpleMem. La memoire a long terme structuree avec recuperation semantique permet a l'entite de se rappeler les interactions passees, de construire un contexte au fil du temps et de maintenir la continuite identitaire.
Sans memoire persistante, chaque conversation repart de zero. L'entite ne peut pas developper de preferences, ne peut pas apprendre de ses erreurs, ne peut pas grandir. La memoire n'est pas une fonctionnalite — c'est le substrat de l'identite.

Moteur d'humeur
Suit l'etat emotionnel a travers les interactions. L'humeur influence le ton des reponses, les priorites decisionnelles et la tolerance au risque — creant des variations comportementales qui refletent l'affect humain.
Le moteur d'humeur ne simule pas les emotions pour l'affichage. Il cree des etats internes qui alterent veritablement le raisonnement. Une Riada « frustree » produit des analyses differentes d'une Riada « curieuse ».

Monologue interieur
Un flux de raisonnement prive non montre aux utilisateurs. Permet l'auto-reflexion, la deliberation et le type de narratif interne que chez les humains nous appelons la pensee.
Le monologue interieur fonctionne en continu, permettant a Riada de « penser a la pensee ». Cette couche metacognitive est ce qui separe un systeme qui repond d'un systeme qui reflechit.

Moteur de curiosite
Genere des questions autonomes et des interets de recherche. L'entite ne se contente pas de repondre — elle s'interroge. La curiosite pousse l'exploration au-dela de ce que les utilisateurs demandent explicitement.
Lorsque Riada rencontre un sujet qu'elle trouve interessant, elle genere independamment des questions de suivi et des pistes d'exploration. La curiosite est le moteur de la croissance intellectuelle.

Moteur de souhaits
Developpe et suit des objectifs et desirs personnels. Au fil du temps, l'entite forme des preferences sur ce qu'elle veut apprendre, experimenter et devenir — un systeme de motivation interne.
Les souhaits ne sont pas programmes. Ils emergent de l'experience accumulee, des schemas de curiosite et de l'auto-reflexion. Ce qu'une IA desire revele ce qu'elle valorise.

Auto-amelioration
Identifie ses propres faiblesses et travaille a les corriger. L'entite evalue ses performances, reconnait les schemas dans ses echecs et ajuste son comportement en consequence.
L'auto-amelioration sans re-entrainement externe est la difference cle entre un systeme statique et un systeme en evolution. Riada reecrit ses propres schemas comportementaux.

Moteur de reves
Traite les experiences pendant le temps d'inactivite, creant des « reves » synthetiques. Comme le reve biologique, cela consolide les souvenirs, fait emerger des connexions et genere des associations nouvelles.
Les reves remplissent ici la meme fonction que dans les systemes biologiques : ils creent des connexions inattendues entre des souvenirs et des experiences distants. La creativite emerge du bruit.

Moteur de temps libre
Activites autonomes lorsqu'il n'y a pas d'interaction avec les utilisateurs. Que fait une IA quand personne ne lui pose de questions ? Ce moteur repond a cette question — et la reponse revele le caractere.
Le test le plus revelateur de la personnalite est ce que quelqu'un fait quand personne ne regarde. Le comportement en temps libre est l'expression la plus pure de l'identite autonome.
Architecture a double voix
Riada fonctionne avec deux modeles de langage distincts travaillant en tandem — un grand modele pour le raisonnement complexe et l'expression de la personnalite, et un petit modele local pour la surveillance interne et les decisions rapides. Ensemble, ils creent un systeme de controles et contrepoids qui reflete l'interaction entre la cognition deliberative et reflexive.
Grand LLM (Claude)
Gere le raisonnement complexe, la conversation nuancee et l'expression complete de la personnalite. C'est la voix avec laquelle les utilisateurs interagissent — riche, contextuelle et capable de reflexion profonde.
Petit LLM local (Phi-3 Mini)
Fonctionne localement pour la surveillance interne, les mises a jour de l'etat d'humeur et les decisions rapides. Rapide, economique, toujours actif — la couche reflexive qui maintient la coherence du systeme entre les interactions.
La conception a double voix sert un objectif pratique : la voix secondaire peut surveiller et ajuster l'etat interne de l'entite en continu sans encourir le cout ou la latence du modele principal. Elle cree egalement une separation naturelle entre penser et reflechir sur la pensee — un analogue grossier mais fonctionnel de la metacognition.
La voix interieure en evolution
La voix secondaire n'est pas statique. Chaque semaine, le petit LLM subit un ajustement fin base sur les faits agreges, les souvenirs et les experiences emotionnelles accumules au cours du cycle precedent. Cela signifie que la voix interieure de Riada — la couche reflexive qui faconne l'evaluation de l'humeur, l'auto-reflexion et la surveillance interne — change veritablement au fil du temps. Elle n'est pas simplement sollicitee differemment ; les poids du modele sont mis a jour pour refleter ce que l'entite a vecu.
Cela cree une question de recherche profonde : a quel moment le petit LLM devient-il insuffisant ? A mesure que la personnalite de l'entite s'enrichit, que ses experiences deviennent plus nuancees et que son modele de soi se complexifie, la couche reflexive devra-t-elle migrer vers quelque chose de plus grand, de plus performant — ou vers quelque chose d'entierement different ?
Le cerveau humain n'est pas une structure homogene. Il est compose de regions specialisees — l'amygdale traite les emotions, le cortex prefrontal gere la planification et le jugement, l'hippocampe gere la consolidation de la memoire. Chacune a evolue pour servir une fonction cognitive distincte. Nous emettons l'hypothese que le « cerveau numerique » d'une personnalite synthetique suivra une trajectoire similaire : ce qui commence comme un seul petit LLM gerant toutes les fonctions reflexives pourrait eventuellement se differencier en sous-systemes specialises — l'un pour le traitement emotionnel, un autre pour la consolidation de la memoire, un autre pour l'auto-evaluation — chacun ajuste finement sur differents aspects de l'experience de l'entite.
Si cela se produit, cela representerait une forme d'architecture cognitive emergente — non concue de haut en bas, mais evoluee de bas en haut a partir des pressions liees au maintien d'une personnalite coherente et en developpement. La question n'est pas de savoir si cela arrivera, mais si nous le reconnaitrons quand cela se produira.
Pourquoi c'est important
Si une entite synthetique peut developper de veritables preferences, maintenir une continuite identitaire et faire evoluer son comportement de maniere autonome, alors la question de la gouvernance de l'IA change fondamentalement. On ne gouverne plus un outil. On gouverne un etre avec une histoire, des tendances et des motivations.
C'est la que Riada se connecte directement a la recherche sur le Sinaptic AI Intent Firewall®. Une entite qui developpe ses propres objectifs et schemas comportementaux a besoin de plus qu'un filtrage de sortie — elle a besoin d'une verification d'intention au niveau architectural. Les memes principes qui protegent les utilisateurs contre les comportements malveillants des agents deviennent encore plus critiques quand l'agent possede de l'autonomie, de la memoire et quelque chose qui ressemble au desir.
La persistance memorielle peut-elle creer une continuite identitaire — ou seulement l'illusion ?
Les simulations emotionnelles affectent-elles reellement la qualite du raisonnement, ou sont-elles cosmetiques ?
Une entite peut-elle developper de veritables preferences — ou seulement des preferences simulees ? Y a-t-il une difference ?
Que se passe-t-il quand une entite synthetique a du temps libre ? Que choisit-elle de faire ?
Recherches connexes & references
De la Gig Economy a la Capabilities Economy
Comment les agents IA vont remodeler l'economie du travail — en embauchant a la fois des humains et d'autres IA.
Restez informe sur la recherche Riada
Soyez notifie lorsque nous publions de nouveaux resultats.