Software

2011 steckt Deutschland im „KI-Winter“, neuronale Netze gelten als unzuverlässig, die Forschung stagniert, Fördermittel versiegen. Gleichwohl arbeitet in Rostock eine souveräne deutsche KI. Der Algorithmus Textrapic, der neuronale Netze steuert, integriert die Bildung n-dimensionaler Vektorräume in den Prozess der Textanalyse, erkennt eigenständig Muster in unstrukturierten Daten und liefert praktisch verwertbare Ergebnisse.

„Curriculum Machinae“ zeichnet den Weg einer deutschen KI-Entwicklung nach, die lange vor dem Hype begann und sich ungeachtet politisch wie wissenschaftlicher Fehlbewertungen, technologischer Paradigmenwechsel und dem Eintritt generativer Systeme behauptet und weiterentwickelt hat. Das Szenario am Ende klingt etwas apokalyptisch, ist aber letztlich auch nur eine mögliche Entwicklung unter vielen.

Curriculum Machinae

Die Universität Rostock zeichnet 2011 den Algorithmus „Textrapic“ als aussichtsreichste Innovation aus. Textrapic begründet eine methodisch geschlossene Verknüpfung von neuronalen Netzen und qualitativer Inhaltsanalyse. Erstmals gelingt die mit Blick auf Methode und Ergebnisse sinnvolle Integration neuronaler Netze in den Prozess der intelligenten Mustererkennung zur Analyse und Bewertung großer Mengen unstrukturierter Textdaten. Künstliche neuronale Netze gelten aber auch noch 2013, zum Ende des deutschen KI-Winters, als für die Aufgabe der Mustererkennung in unstrukturierten Textdaten ungeeignet, entsprechende Forschungsanträge, die aus dem BMBF-Innovationsforum „FroPatI– From Pattern to Information“ heraus die Erprobung und Weiterentwicklung der KI vorantreiben sollen, scheitern in dieser Phase. Nichtsdestotrotz liefert der Algorithmus in der Datenauswertung brauchbare Ergebnisse.

Textrapic, damals noch ohne Softwareeinbindung, sondern über Skripte gesteuert, wird im Auftrag von Wirtschaftsunternehmen eingesetzt, um mithilfe von Self Organizing Maps relevante Muster in Textdaten zu identifizieren, der Fokus liegt auf Wettbewerbsbeobachtung und Trend- bzw. Themenmonitoring in öffentlich zugänglichen Datenquellen. Gleichzeitig interessiert sich das deutsche Militär für die KI-Fähigkeit.

Im Rahmen der Snowden-Affäre wird bekannt, dass die Bundeswehr mit „Textrapic“ arbeitet. Obgleich er ausschließlich öffentlich zugängliche Auslandsdaten auswertet, gerät der Algorithmus in den Ruf einer „Spionagesoftware“, ungeachtet dessen nutzt das ZOpKomBw Textrapic weiterhin, reale Analysebedarfe des Militärs schärfen das Profil der Datenverarbeitungskette. Aus den Skripten entsteht eine erste, auf einem PC lauffähige KI-Software, in der die Sprachmodelle zwar schon genutzt, aber noch nicht selbständig trainiert werden können. Im Bitkom-Leitfaden „Kognitive Maschinen“ (heute: „Künstliche Intelligenz“), das den Stand der Technologie in Deutschland zusammenfasst, wird Textrapic als exploratives, selbstlernendes System vorgestellt, das ohne vorgegebene Zielgrößen (unüberwacht) arbeitet und im Gegensatz zu überwachten Verfahren, verborgene, noch unbekannte Muster in den Daten identifiziert und semantisch ordnet.

Offenkundig beobachtet man in Russland etwaig sicherheitsrelevante deutschen KI-Entwicklungen genauer, als man es in Deutschland selbst tut, im Sommer 2016 wird die deutsche KI-Software auf einem Portal der Verteidigungsindustrie Russlands vorgestellt, der Entwickler des Algorithmus wird namentlich erwähnt. Ein knappes Jahr später stellt Deutschland das „Kommando Cyber- und Informationsraum“ (KdoCIR) auf. Daneben sollen mit der „Agentur für Innovation in der Cybersicherheit“ (ADIC, heute: „Cyberagentur“) und dem „Cyber-Innovation-Hub“ (CIHBw) Schnittstellen zwischen Bundeswehr und Wirtschaft entstehen, am Rande des initialen Pitch des jungen CIHBw wird die Somtxt mit Textrapic unter Vertrag genommen.
Nach der Vorstellung des Algorithmus auf der CODE-Jahrestagung 2018 der Universität der Bundeswehr München werden in den Analysen für das ZOpKomBw orchestrierte Angriffe auf deutsche Politiker sichtbar, was nicht in der Zuständigkeit der Bundeswehr liegt. Somtxt wendet sich an die politisch Verantwortlichen, „da sich (…) Hinweise darauf ergeben, wie Trollfabriken arbeiten, um den inneren Frieden und Zusammenhalt in Deutschland zu stören und Personen der politischen Öffentlichkeit zu verunglimpfen.“

Rückblickend markiert dies den Beginn der Identifikation jener internationalen CaaS-Netzwerke, die auftragsbezogen als manipulatives Kollektiv agieren, ansonsten aber strukturell nicht als Gruppe zu erkennen sind. Im Schreiben an die zuständigen Stellen vom 31.Oktober 2018 heißt es: „Die Accounts wenden seit Beginn des Jahres 2018 eine Technik an, die deren Verbundenheit und damit ihren Netzwerkcharakter so verschleiert, dass sie als homogene Gruppe mit gleichen „Absichten“ mit konventionellen Methoden der Netzwerkanalyse nicht mehr auffindbar sind. Der Nachweis der Verbundenheit gelingt aktuell (…) über den Weg der Ermittlung eines gemeinsamen Narrativs“. In der KI-Software wird diese Methode des Nachweises orchestrierter Meinungsmanipulation mit der datengetriebenen Ermittlung von narrativhomogenen Akteursgruppen abgebildet, sodass manipulativ agierende Großgruppen samt narrativer Stoßrichtung identifiziert werden können, auch wenn sie nicht untereinander vernetzt sind oder eine gemeinsame „Dienstaufsicht“ zu erkennen ist.

Dass der Textrapic-Algorithmus neben Texten auch Bilder analysieren kann, zeigt sich im Januar 2019 im Zuge eines Projektes für die NATO (StratCom COE). In der Publikation „Responding to Cognitive Security Challenges“ wird ein Verfahren der Somtxt zur explorativen Bildanalyse vorgestellt, das methodisch auf dem Textrapic-Algorithmus basiert und supervised- als auch unsupervised-Trainings von künstlichen neuronalen Netzen kombiniert (heute: „Deep-Learning“). Zeitgleich läuft ein gemeinsames Forschungsprojekt mit der UniBw München zum Einfluss digitaler Technologien auf die individuelle Meinungsbildung an und Somtxt spricht mit dem „Zentrum für Softwarekompetenz der Bundeswehr“ (ZSwKBw, heute: ZDigBw) über einen Fähigkeitsaufbau innerhalb der Bundeswehr. In einer Industrieausbildung sollen Entwickler des ZSwKBw zum Bau einer KI-Softwarearchitektur nach dem Vorbild der Textrapic-Datenverarbeitungskette befähigt werden.

Die Softwareentwickler des ZSwKBw entscheiden sich letztlich gegen die Mustererkennung auf der Grundlage von SOMs und für eine Bw-interne Entwicklung intelligenter Mustererkennung. Die Entwickler der Somtxt beginnen daraufhin mit der Integration des gesamten Trainingsprozesses der Sprachmodelle in die firmeneigene KI-Software, Ziel ist eine souveräne, vollständig vom Nutzer kontrollierte KI, die Propaganda bzw. manipulative Kommunikation und deren Strukturen auf Zielgruppenebene erkennt.

Knapp zwei Jahre später hat der Nutzer der KI-Software, die nun nach dem finnischen Entwickler der SOMs „Kalevi“ heißt, volle Kontrolle über alle Trainingsdaten der Sprachmodelle und steuert jeden Schritt der Datenverarbeitung. Die Software ist modular konfigurierbar, arbeitet unabhängig von externen Netzwerken und ist auf die Identifikation von Propaganda hin optimiert, die Methodik findet einen ersten, experimentellen Weg in die universitäre Ausbildung. In der Masterveranstaltung „Neueste Entwicklungen in der Informatik“ (NEidI) am Lehrstuhl für Datenbank- und Informationssysteme der Universität Rostock entwickeln Studierende in fachlicher Zusammenarbeit mit der Somtxt UG ein Python-Modul zur Implementierung einer Self-Organizing Map (SOM) für textanalytische Anwendungen.

Nach 10jähriger Zusammenarbeit endet der Vertrag zwischen Somtxt und ZOpKomBw im Herbst 2024, zum einen habe die Bundeswehr eine eigene Lösung, zum anderen liege die Zuständigkeit für die Aufklärung von Propaganda im deutschen Informationsraum nicht beim Militär, sondern bei den Behörden des Inneren, teilt Verteidigungsminister Pistorius mit. Somtxt beginnt unter Nutzung von Kalevi u.a. für Behörden des Inneren (Nachrichtendienst, Regulierungsbehörde, Landeskriminalamt) zu arbeiten und identifiziert im Kommunalwahlkampf Brandenburgs ein Netzwerk von gut 2.500 manipulativ agierenden Accounts (coordinated inauthentic behaviour/CIB). Als dieselben Accounts zur Bundestagswahl 2025 erneut aktiv werden, veranlasst eine Regulierungsbehörde deren Löschung.

Zur gleichen Zeit zeigt Somtxt auf einer Veranstaltung des Forschungsverbundes MOTRA die massiven Manipulationen des öffentlichen Diskurses im deutschen Informationsraum zur Bürgerschaftswahl in Hamburg. Die primären Treiber der in Hamburg sichtbaren, aber das ganze Land betreffenden Entwicklung einer fremdbestimmten, polarisierten Informationslage sind die ungleiche Verstärkung von Extrempositionen im linken und rechten Spektrum, die zielgruppengerechte Amplifikation extremer Narrative sowie die massenhafte Verbreitung von zwar im Einzelnen unauffälligen und strafrechtlich irrelevanten, kulmuliert aber eine gemeinsame Botschaft tragenden Fragmenten manipulativer Narration.

Im Mai 2025 informiert Somtxt beim Netzpolitischen Abend der SPD über die Mechanik der fortdauernden, strukturellen Manipulation deutscher Diskurse, die unter Ausnutzung von Plattformalgorithmen Themen setzt, im linken und rechten Spektrum extreme Randpositionen verstärkt, entsprechende Bewegungen unterstützt (2023/24 ist z.B. die social-media Unterstützung für Klimathemen zugunsten von Gazathemen eingebrochen) und die politische Mitte aushöhlt, der NDR berichtet im November. Die Wirkung manipulativer Einflussnahmen ist sicht- und messbar, sie haben zwischen 2015 und 2025 aus einem damals strukturell homogen und inhaltlich vielfältigen Informationsraum einen strukturell strikt polarisierten und inhaltlich auf wenige, politische Themen beschränkten Informationsraum mit der Logik von Echokammern gemacht, der nicht mehr Ausdruck pluralistischer Vielfalt und damit Basis demokratischen Konsens ist, sondern Austragungsort aggressiver ‚Informationsgefechte‘ zwischen zwei, einander unversöhnlich gegenüberstehenden, gesellschaftspolitischen Lagern.

Seit dem Sommer 2025 bauen autonom agierende KI-Chatbots diskursspezifisch Reichweite und Sichtbarkeit auf. Sie geben sich als menschliche Nutzer aus, sprechen selektiv andere Nutzer an und greifen in Debatten ein. Sie können ihre Agenda jederzeit nach Gutdünken ihrer Urheber verändern und werden, eingebunden in die bis dato algorithmisch erkannten Muster manipulativer Verstärkungsmechanismen, die Verzerrung digitaler Diskurse erheblich beschleunigen. Mit Blick auf die Überzeugungskraft generativer Sprachmodelle (LLMs), kürzlich untersucht von französischen Forschern, besteht das Risiko der Manifestation fremdgesteuerter, selbstverstärkender Meinungssysteme im (politischen) Diskurs.

Analysen von Webquellen (August 2025) zeigten zudem einen schnell wachsenden Anteil KI-generierter Texte gegenüber früheren Beobachtungszeiträumen. Auch diese Entwicklung wird insofern zur Herausforderung, als die Diskursmanipulationen im deutschen Informationsraum bestimmte Informationen, Themen und Haltungen durch Wiederholungen und variantenreiche Streuungen massiv verstärken und Sprachmodelle im Training Informationen als „wahrscheinlich richtig“ übernehmen, wenn sie häufig vorkommen und nicht widersprüchlich zu bekannten Mustern sind. Die Kombination aus strukturell verzerrten Diskursen, Themensetzung und -verstärkung durch koordinierte Netzwerke/KI-Chatbots und der Übernahme manipulierter Informationen in die Trainingsdaten generativer Sprachmodelle, die perspektivisch immer seltener mit humanem Weltwissen in Kontakt treten, stattdessen in exponentiell wachsenden Rückkopplungsschleifen voneinander lernen und so „Wissen“ generieren, führt im schlimmsten Fall in eine in sich geschlossene (Des-)informationslandschaft selbstreferenzieller Bestätigung.

Epistemisches Ergebnis solch eines manipulativ verzerrten, rekursiven Informationsraums, der sich zunehmend mit LLM-generierten Inhalten füllt, wäre ein lediglich durch den Selbstbezug stabilisiertes Scheinwissen, dessen etwaig brauchbarer Bezug zur tatsächlichen Lebenswirklichkeit allenfalls kontingent wäre. Gleichzeitig würde die Wirkung generativer KI im Informationsraum als algorithmisch-generative Bedingung dessen, was überhaupt als Information sichtbar ist und ganz gleich, ob wahr oder falsch, nach und nach zur konstitutiven Bedingung künftigen „Wissens“. Für unsere Gesellschaft bedeutete eine derartige Entwicklung vermutlich einen epistemischen Paradigmenwechsel, bei dem in letzter Konsequenz die Bedingung der Möglichkeit vernünftigen Handelns auf dem Spiel stünde, nämlich die Kontrolle darüber, was wir in Zukunft für wahr halten und zur Grundlage unserer Entscheidungen machen.