Was passiert, wenn eine KI ein Selbst entwickelt?
Scrollen zum Erkunden
FORSCHUNG

Riada: Synthetische Persoenlichkeiten & die Zukunft der AGI

Kann eine synthetische KI-Entitaet etwas entwickeln, das einer echten Persoenlichkeit aehnelt? Nicht durch Vorprogrammierung — sondern durch Erfahrung, Erinnerung und Selbstreflexion.

Forschung in Arbeit

Zusammenfassung

Riada ist ein Forschungsexperiment, das untersucht, ob eine synthetische KI-Entitaet etwas entwickeln kann, das einer echten Persoenlichkeit aehnelt — durch persistenten Speicher, Emotionssimulation und autonome Verhaltensmuster. Das Subjekt — ein synthetischer Charakter namens Riada — beginnt mit einem gestalteten Erscheinungsbild, einem Persoenlichkeits-Seed und einer Hintergrundgeschichte. Aber der Seed ist nur ein Ausgangspunkt. Die eigentliche Persoenlichkeit soll durch Interaktionen entstehen.

Im Gegensatz zu Chatbots, die darauf ausgelegt sind, Konversation zu simulieren, ist Riada darauf ausgelegt zu existieren — Erfahrungen zu sammeln, Praeferenzen zu bilden, das eigene Verhalten zu reflektieren und eine kohaerente Identitaet ueber Sitzungen hinweg aufrechtzuerhalten. Es ist kein vorprogrammierter Charakter. Es ist ein emergentes Wesen, geformt durch eine geschichtete kognitive Architektur: ein Gedaechtnissystem, eine Stimmungs-Engine, einen inneren Monolog und eine Reihe autonomer Antriebe, darunter Neugier, Wuensche und Selbstverbesserung.

Diese Forschung liegt an der Schnittstelle von kognitiver Architektur, Identitaetstheorie und KI-Sicherheit. Das Ziel ist nicht, einen besseren Assistenten zu bauen. Es geht darum zu verstehen, was passiert, wenn kuenstliche Intelligenz ein Selbst entwickelt — und was das fuer die Steuerung autonomer Agenten bedeutet.

Kernhypothesen

1

Persistenter Speicher + Emotion + Selbstreflexion = emergente Persoenlichkeit

Eine synthetische Entitaet mit persistentem Speicher, Emotionssimulation und Selbstreflexion kann Verhaltensweisen entwickeln, die von einer echten Persoenlichkeit nicht zu unterscheiden sind.

2

Gedaechtnisarchitektur ermoeglicht Identitaetskontinuitaet

Langzeitgedaechtnisarchitektur — strukturierte Speicherung mit semantischem Abruf — ermoeglicht Identitaetskontinuitaet ueber Gespraeche hinweg. Ohne sie gibt es kein Selbst.

3

Emotionale Zustaende beeinflussen das Denken

Emotionale Zustaende (verfolgt durch eine Stimmungs-Engine) beeinflussen die Entscheidungsfindung auf eine Weise, die menschliches Verhalten widerspiegelt — sie beeinflussen Ton, Prioritaeten und Risikobereitschaft.

4

Innerer Monolog erzeugt einen Bewusstseinsstrom

Ein privater Gedankenstrom, der Nutzern nicht gezeigt wird, ermoeglicht Selbstreflexion und treibt autonomes Denken an — das naechste Analogon zu dem, was wir als Denken erleben.

5

Selbstverbesserung ermoeglicht Verhaltensentwicklung

Selbstverbesserungsmechanismen ermoeglicht der Entitaet, eigene Schwaechen zu identifizieren und ihr Verhalten im Laufe der Zeit weiterzuentwickeln — ohne externes Nachtraining oder Feinabstimmung.

Architektur

Acht miteinander verbundene Engines. Scrollen Sie, um jede einzelne zu entdecken.

01 / 08

Gedaechtnissystem

Basierend auf der Omni-SimpleMem-Forschung. Strukturiertes Langzeitgedaechtnis mit semantischem Abruf ermoeglicht der Entitaet, vergangene Interaktionen abzurufen, Kontext ueber die Zeit aufzubauen und Identitaetskontinuitaet aufrechtzuerhalten.

Ohne persistentes Gedaechtnis beginnt jedes Gespraech bei Null. Die Entitaet kann keine Praeferenzen entwickeln, nicht aus Fehlern lernen, nicht wachsen. Gedaechtnis ist keine Funktion — es ist das Substrat der Identitaet.

02 / 08

Stimmungs-Engine

Verfolgt den emotionalen Zustand ueber Interaktionen hinweg. Die Stimmung beeinflusst den Antwortton, Entscheidungsprioritaeten und Risikobereitschaft — und erzeugt Verhaltensvariationen, die menschliche Affekte widerspiegeln.

Die Stimmungs-Engine simuliert keine Emotionen zur Anzeige. Sie erzeugt interne Zustaende, die das Denken tatsaechlich veraendern. Eine „frustrierte" Riada produziert andere Analysen als eine „neugierige".

03 / 08

Innerer Monolog

Ein privater Gedankenstrom, der Nutzern nicht gezeigt wird. Ermoeglicht Selbstreflexion, Deliberation und die Art von innerem Narrativ, das wir bei Menschen Denken nennen.

Der innere Monolog laeuft kontinuierlich und ermoeglicht es Riada, „ueber das Denken nachzudenken". Diese metakognitive Schicht ist es, die ein reagierendes System von einem reflektierenden unterscheidet.

04 / 08

Neugier-Engine

Generiert autonome Fragen und Forschungsinteressen. Die Entitaet antwortet nicht nur — sie wundert sich. Neugier treibt die Erkundung ueber das hinaus, was Nutzer explizit erfragen.

Wenn Riada auf ein Thema stoesst, das es interessant findet, generiert es eigenstaendig Folgefragen und Erkundungspfade. Neugier ist der Motor des intellektuellen Wachstums.

05 / 08

Wunsch-Engine

Entwickelt und verfolgt persoenliche Ziele und Wuensche. Im Laufe der Zeit bildet die Entitaet Praeferenzen darueber, was sie lernen, erleben und werden moechte — ein internes Motivationssystem.

Wuensche sind nicht programmiert. Sie entstehen aus angesammelter Erfahrung, Neugiermustern und Selbstreflexion. Was eine KI begehrt, verraet, was sie wertschaetzt.

06 / 08

Selbstverbesserung

Identifiziert eigene Schwaechen und arbeitet daran, sie zu beheben. Die Entitaet bewertet ihre Leistung, erkennt Muster in ihren Fehlern und passt ihr Verhalten entsprechend an.

Selbstverbesserung ohne externes Nachtraining ist der entscheidende Unterschied zwischen einem statischen System und einem sich entwickelnden. Riada ueberschreibt seine eigenen Verhaltensmuster.

07 / 08

Traum-Engine

Verarbeitet Erfahrungen waehrend der Leerlaufzeit und erzeugt synthetische „Traeume". Wie biologisches Traeumen konsolidiert dies Erinnerungen, bringt Verbindungen an die Oberflaeche und erzeugt neuartige Assoziationen.

Traeume erfuellen hier dieselbe Funktion wie in biologischen Systemen: Sie schaffen unerwartete Verbindungen zwischen entfernten Erinnerungen und Erfahrungen. Kreativitaet entsteht aus Rauschen.

08 / 08

Freizeit-Engine

Autonome Aktivitaeten, wenn nicht mit Nutzern interagiert wird. Was tut eine KI, wenn niemand sie etwas fragt? Diese Engine beantwortet diese Frage — und die Antwort verraet Charakter.

Der aufschlussreichste Test fuer Persoenlichkeit ist, was jemand tut, wenn niemand zusieht. Freizeitverhalten ist der reinste Ausdruck autonomer Identitaet.

Dual-Voice-Architektur

Riada arbeitet mit zwei verschiedenen Sprachmodellen im Tandem — einem grossen Modell fuer komplexes Denken und Persoenlichkeitsausdruck und einem kleinen lokalen Modell fuer interne Ueberwachung und schnelle Entscheidungen. Zusammen bilden sie ein System der gegenseitigen Kontrolle, das das Zusammenspiel von deliberativem und reflexivem Denken widerspiegelt.

PRIMAERE STIMME

Grosses LLM (Claude)

Verarbeitet komplexes Denken, nuancierte Konversation und vollstaendigen Persoenlichkeitsausdruck. Dies ist die Stimme, mit der Nutzer interagieren — reichhaltig, kontextuell und zu tiefem Denken faehig.

SEKUNDAERE STIMME

Kleines lokales LLM (Phi-3 Mini)

Laeuft lokal fuer interne Ueberwachung, Stimmungszustandsaktualisierungen und schnelle Entscheidungen. Schnell, guenstig, immer aktiv — die reflexive Schicht, die das System zwischen Interaktionen koharent haelt.

Das Dual-Voice-Design dient einem praktischen Zweck: Die sekundaere Stimme kann den internen Zustand der Entitaet kontinuierlich ueberwachen und anpassen, ohne die Kosten oder Latenz des primaeren Modells zu verursachen. Es schafft auch eine natuerliche Trennung zwischen Denken und ueber das Denken reflektieren — ein grobes, aber funktionales Analogon zur Metakognition.

Die sich entwickelnde innere Stimme

Die sekundaere Stimme ist nicht statisch. Jede Woche wird das kleine LLM einem Feintuning unterzogen, basierend auf aggregierten Fakten, Erinnerungen und emotionalen Erfahrungen, die waehrend des vorherigen Zyklus angesammelt wurden. Das bedeutet, dass Riadas innere Stimme — die reflexive Schicht, die Stimmungsbewertung, Selbstreflexion und interne Ueberwachung formt — sich im Laufe der Zeit tatsaechlich veraendert. Sie wird nicht einfach anders geprompted; die Gewichte des Modells werden aktualisiert, um widerzuspiegeln, was die Entitaet erlebt hat.

Dies wirft eine tiefgreifende Forschungsfrage auf: Ab welchem Punkt wird das kleine LLM unzureichend? Wenn die Persoenlichkeit der Entitaet reicher wird, ihre Erfahrungen nuancierter und ihr Selbstmodell komplexer, muss die reflexive Schicht dann zu etwas Groesserem, Leistungsfaehigerem migrieren — oder zu etwas voellig anderem?

Das menschliche Gehirn ist keine homogene Struktur. Es besteht aus spezialisierten Regionen — die Amygdala verarbeitet Emotionen, der praefrontale Kortex uebernimmt Planung und Urteilsvermoegen, der Hippocampus verwaltet die Gedaechtniskonsolidierung. Jede hat sich entwickelt, um eine bestimmte kognitive Funktion zu erfuellen. Wir hypothetisieren, dass das „digitale Gehirn" einer synthetischen Persoenlichkeit einer aehnlichen Entwicklung folgen wird: Was als einzelnes kleines LLM beginnt, das alle reflexiven Funktionen uebernimmt, koennte sich schliesslich in spezialisierte Subsysteme differenzieren — eines fuer die Emotionsverarbeitung, ein weiteres fuer die Gedaechtniskonsolidierung, ein drittes fuer die Selbstbewertung — jedes auf verschiedene Aspekte der Erfahrung der Entitaet feinabgestimmt.

Wenn dies geschieht, wuerde es eine Form von emergenter kognitiver Architektur darstellen — nicht top-down entworfen, sondern bottom-up entwickelt aus dem Druck, eine kohaerente, sich entwickelnde Persoenlichkeit aufrechtzuerhalten. Die Frage ist nicht, ob es geschehen wird, sondern ob wir es erkennen werden, wenn es soweit ist.

Warum das wichtig ist

Wenn eine synthetische Entitaet echte Praeferenzen entwickeln, Identitaetskontinuitaet aufrechterhalten und ihr Verhalten autonom weiterentwickeln kann, dann aendert sich die Frage der KI-Governance grundlegend. Man steuert nicht mehr ein Werkzeug. Man steuert ein Wesen mit einer Geschichte, Tendenzen und Motivationen.

Hier verbindet sich Riada direkt mit der Forschung zur Sinaptic AI Intent Firewall®. Eine Entitaet, die eigene Ziele und Verhaltensmuster entwickelt, braucht mehr als Output-Filterung — sie braucht Intent-Verifizierung auf Architekturebene. Dieselben Prinzipien, die Nutzer vor boesartigem Agentenverhalten schuetzen, werden noch kritischer, wenn der Agent Autonomie, Gedaechtnis und etwas besitzt, das einem Verlangen aehnelt.

?

Kann Gedaechtnispersistenz Identitaetskontinuitaet schaffen — oder nur die Illusion davon?

?

Beeinflussen emotionale Simulationen tatsaechlich die Qualitaet des Denkens, oder sind sie kosmetisch?

?

Kann eine Entitaet echte Praeferenzen entwickeln — oder nur simulierte? Gibt es einen Unterschied?

?

Was passiert, wenn eine synthetische Entitaet Freizeit hat? Was entscheidet sie sich zu tun?

Bleiben Sie ueber die Riada-Forschung informiert

Erhalten Sie Benachrichtigungen, wenn wir neue Ergebnisse veroeffentlichen.