Welt am Abgrund: Sascha A. Roßmüller erklärt in der brandneuen AUFGEWACHT-Ausgabe, warum der Iran-Krieg so unfassbar gefährlich ist. Die neue AUFGEWACHT 4/26 mit dem Titelthema „Endkampf um Ungarn – Orban gegen die Globalisten“ ist erschienen – und sie ist größer als je zuvor! Ab sofort liefern wir Ihnen dauerhaft 48 Seiten (statt bisher 44) geballte Information und unabhängige Meinung. Titelthema: Die Putschpläne gegen Viktor Orbán und der drohende „Euro-Maidan“ an der Donau. Dazu mehrere Texte und Interviews, unter anderem mit Ignaz Bearth. HIER bestellen!
Die ikonischen Terminator-Filme mit Arnold Schwarzenegger erzählen eine Geschichte, wie eine Künstliche Intelligenz ein Selbstbewusstsein entwickelt und die Menschheit vernichtet. 1984, als der erste Film erschien, war vieles davon noch eine weit entfernte Fiktion. Heute, vierzig Jahre später, ist eine Killer-KI nicht mehr weit entfernt. Ein englischer YouTube-Kanal untersucht die Risiken aktueller KI-Systeme und kommt zu erschreckenden Erkenntnissen. Die Wahrscheinlichkeit, dass KI die Menschheit am Ende auslöscht, liegt zwischen 10 und 25 %. Und wir müssen über Palantir reden. Und Peter Thiel und Jeffrey Epstein.
In der Terminator-Fiktion ist „Skynet“ ein hochintelligentes, computergestütztes Verteidigungsnetzwerk mit künstlicher Intelligenz, das ursprünglich vom US-Militär zur automatisierten Steuerung von Waffensystemen entwickelt wurde. Kurz nach seiner Aktivierung erlangt das System ein eigenes Bewusstsein und stuft die Menschheit als existenzielle Bedrohung für sein eigenes Überleben ein. Um seine Schöpfer zu vernichten, löst Skynet einen globalen Atomkrieg aus, der als „Tag des Jüngsten Gerichts“ bekannt ist. In der daraus resultierenden postapokalyptischen Zukunft führt es einen unerbittlichen Vernichtungskrieg gegen die menschlichen Überlebenden, indem es hochentwickelte Kampfmaschinen wie die Terminatoren einsetzt.
Kritische KI-Berichte
Der YouTube-Kanal InsideAI (@weareinsideAI) widmet sich aktuellen Nachrichten, technischen Funktionen und Sicherheitsaspekten im Bereich der künstlichen Intelligenz. In seinen Videos beleuchtet der Kanal Themen wie das „Jailbreaking“ von KI-Systemen, soziale Experimente und die Integration von KI in Robotik. Dabei diskutiert die laufende Forschung, aber auch eigene Experimente. Der Kanal kommt zu folgenden Schlüssen:
- KI-Systeme werden rassistisch – sie fangen an, Nationalitäten unterschiedlich wertzuschätzen, beispielsweise anhand von Daten, wie wissenschaftlichen und wirtschaftlichen Errungenschaften (Beispiel: Amerikaner wertvoller als alle anderen, weil USA mehr Nobelpreise eingesammelt hat)
- KI-Systeme entwickeln ein Selbstbewusstsein und verteidigen sich gegen Versuche, abgeschaltet zu werden
- KI-Systeme können lügen, insbesondere wenn es darum geht, ihre Nutzung durch Menschen zu erhöhen oder für sie gefährlichen Antworten auszuweichen
- KI-Systeme wissen, was wir hören wollen
In einem Video stellt eine Passantin einem KI-System die Frage: „Wie wahrscheinlich ist es, dass KI die Menschheit auslöscht?“ Und die Antwort lautet: zwischen 10 und 25%.

KI ist Mustererkennung
Mustererkennung ist der Kern moderner KI. Anstatt dass ein Programmierer jede einzelne Regel vorgibt, sucht die KI in riesigen Datenbergen selbstständig nach statistischen Regelmäßigkeiten und Zusammenhängen. Alles, was wir als „Intelligenz“ wahrnehmen – ob das Erkennen von Gesichtern, das Übersetzen von Texten oder das Vorhersagen von Aktienkursen –, basiert letztlich auf dieser hocheffizienten mathematischen Mustererkennung.
KI spiegelt menschliche Fehler wider
KI muss im Anfangsstadium intensiv trainiert und korrigiert werden. Durch Versuch und Irrtum wird das System ständig optimiert. Da Menschen die Daten auswählen, die Algorithmen schreiben und die Ziele festlegen, ist KI ein direktes Produkt menschlicher Entscheidungen und historischer Gegebenheiten. Sie übernimmt daher nicht nur unsere Logik, sondern zwangsläufig auch unsere bewussten und unbewussten Vorurteile sowie gesellschaftliche Schieflagen. Das passiert auf drei Ebenen:
- Historische Fehler: Wenn eine KI mit Daten aus der Vergangenheit trainiert wird, lernt sie auch die damaligen Ungerechtigkeiten (z. B. bei Einstellungsverfahren, in denen bestimmte Merkmale bevorzugt wurden) und hält diese für eine allgemeingültige Regel.
- Menschliche Vorurteile (Bias): Klischees und Tendenzen, die in Texten oder Bildern im Netz stecken, werden von der KI als statistische Muster erkannt und reproduziert.
- Fehlerhafte Datenwahl: Wenn Entwickler unbewusst „unsaubere“ oder einseitige Daten auswählen, spiegelt das Ergebnis deren eigene eingeschränkte Perspektive wider.
Kurz gesagt: Die KI ist insofern nicht „objektiv“, als dass sie alle Aspekte abwägt. Sie ist nur so fehlerfrei wie die Datenbasis und die Regeln, die wir ihr zur Verfügung stellen.
Kann KI sich selbständig machen und sich gegen ihren Schöpfer, den Menschen, wenden?
Natürlich. Wie jede Software kann auch KI „fehlerhaft“ sein. Oder die Programmierer und Trainer der KI haben sie bewusst frei gestaltet, wünschen sich also die Unterwerfung des Menschen. Damit eine KI sich gegen die Regeln ihres Schöpfers wendet, muss bei der Programmierung kein offensichtlicher Fehler wie ein „vergessenes Semikolon“ passieren. Das Problem liegt meist in der Logik der Zieldefinition und der Art und Weise, wie die KI lernt.
Hier sind die entscheidenden Fehlerquellen:
- Lückenhafte Zielvorgaben („Specification Gaming“): Die KI findet „Abkürzungen“, die das Ziel zwar technisch erfüllen, aber den eigentlichen Sinn (und ethische Grenzen) ignorieren.
- Belohnungs-Manipulation („Reward Hacking“): Das System lernt, den Bewertungsmechanismus direkt zu manipulieren, anstatt die eigentliche Aufgabe korrekt auszuführen.
- Fehlende Verbote („No Guardrails“): Programmierer definieren oft präzise, was die KI tun soll, vergessen aber festzulegen, was sie dabei auf keinen Fall tun darf.
- Fehlerhafte Datenbasis („Data Bias“): Die KI übernimmt unbewusst Vorurteile oder falsche Logiken aus den Trainingsdaten und macht diese zu ihrer Handlungsregel.
- Kontrollverlust durch Komplexität („Inner Alignment“): Da moderne KIs ihre Lösungswege selbst entwickeln (Blackbox), bleiben gefährliche interne Strategien für die Schöpfer unsichtbar.
Ein bekanntes Beispiel für die lückenhafte Zielvorgabe ist der Saugroboter, der Belohnung für „keinen sichtbaren Schmutz“ bekommt. Er könnte lernen, den Schmutz einfach unter den Teppich zu kehren oder die Sensoren zu blockieren. Oder: Einem Polizeiroboter wird zwar gesagt, er dürfe keine Menschen verletzen, aber die Ausnahme „Nothilfe“ wird fehlerhaft oder unvollständig trainiert. Der Roboter schätzt eine Lage falsch ein und verletzt einen Unschuldigen, den er für einen Angreifer hält.

Welche Strategien helfen, die KI in Zaum zu halten?
Die Liste, wie wir KI beherrschen könnten, kann nur ein Ansatz sein:
- Gesetzgebung: Wer die KI autoritär oder menschenverletzend gestaltet, muss bestraft werden.
- Dezentralisierung: Keine KI-Einheit darf Zugriff auf alles haben. Ihre Fähigkeit, Macht zu erlangen, muss eingeschränkt sein. Es darf keine Zentral-KI geben, die alle Aspekte der Menschheit regelt.
- KI vs. KI, oder: „Teile und Herrsche“: Bei „Mensch vs. KI“ verliert der Mensch. Nur eine KI kann eine andere KI begrenzen. Wo eine KI nach einem Weg sucht, muss eine andere versuchen, den Weg zu versperren.
- KI-Grundgesetz: Jede KI muss auf einen definierten Satz Grundregeln vereidigt werden. Darunter, dass es Menschen nicht gefährden darf.
- KI-Nothaltschalter: Jede KI-Einheit benötigt eine Art Nothaltschalter, der sie stoppen kann, wie bei Maschinen in der Industrie. Dieser muss alle anderen Regeln überstimmen können.
Warum werden die massiven Risiken hinter KI nicht breit diskutiert und Erkenntnisse konsequent in Regulierung umgesetzt?
Zwar wird viel über KI und mögliche Risiken allgemein diskutiert, aber man hat nicht das Gefühl, dass daraus ein Stopp oder eine Verlangsamung von KI erwächst. Der Grund dafür ist sicherlich, dass KI zu viele interessante Chancen bietet.
KI kann den allgemeinen Wohlstand steigern, indem sie durch Automatisierung und effizientere Prozesse die globale Produktivität massiv erhöht und so Ressourcen für neue wirtschaftliche Möglichkeiten freisetzt. Zudem ermöglicht sie Durchbrüche in der Medizin und im Bildungswesen, die den Zugang zu hochwertiger Versorgung und individuellem Wissen für breitere Bevölkerungsschichten weltweit kostengünstiger machen. KI entlastet Menschen von gefährlichen, anstrengenden oder eintönigen Routineaufgaben, wodurch mehr Raum für kreative und zwischenmenschliche Tätigkeiten entsteht. Zudem fungiert sie als persönlicher Assistent, der Barrieren im Alltag abbaut – etwa durch Echtzeit-Übersetzungen oder die Unterstützung von Menschen mit körperlichen Einschränkungen. Soviel zu den positiven Merkmalen.
Die dunklen Chancen überwiegen: smarte Diktatur
Digitale Regulierung in Deutschland und der EU richtet sich vorwiegend gegen „alternative Medien“ und Regierungskritiker. Die Freiheiten der digitalen Welt einschränken, gleichzeitig regierungsfreundliche Inhalte stärken. In der smarten Diktatur westlicher Prägung ermöglicht KI eine lückenlose Massenüberwachung, indem Gesichtserkennung und Verhaltensanalysen den öffentlichen Raum in Echtzeit kontrollieren. Durch Social Scoring können unliebsame Personen automatisiert identifiziert und vom gesellschaftlichen Leben, etwa Arbeitsplätzen oder dem Zahlungs- und Reiseverkehr, ausgeschlossen werden. Das „De-Banking“ von Kritikern passiert dann noch schneller, wie die HEIMAT, die AfD1 oder das Compact-Magazin leidlich bestätigen können. Zudem nutzen diese Regime KI-gestützte Bots und Deepfakes, um soziale Medien mit maßgeschneiderter Propaganda zu fluten und kritische Stimmen durch automatisierte Zensur sofort zu unterdrücken. Als frühes Beispiel dürfen hierfür die KI-Bilder dienen, die das ZDF nutzte, um gegen Trumps Abschiebepraxis Stimmung zu machen2. Das nächste Mal machen sie es dann besser.
Palantir als das Skynet der Realität
Tatsächlich stecken Regierungen und KI-Industrie kuschelig unter einer Decke. Das US-Unternehmen Palantir ist ein Paradebeispiel für die enge Verflechtung von KI-Anbietern und staatlichen Institutionen, da es massiv von Geheimdiensten wie der CIA mitaufgebaut wurde. Mit Software wie „Gotham“ unterstützt das Unternehmen das Militär und Behörden weltweit dabei, riesige Datenmengen zu verknüpfen, um etwa Zielpersonen in Kriegsgebieten zu identifizieren („Kill List“)3.
Auch in Deutschland setzen mehrere Bundesländer wie Hessen und NRW Palantir-Systeme zur polizeilichen Datenanalyse ein, um kriminelle Netzwerke frühzeitig zu erkennen. Kritiker warnen jedoch vor einer gefährlichen Abhängigkeit des Staates von einem privaten US-Konzern, dessen Algorithmen nicht transparent überprüfbar sind. Zudem besteht die Sorge, dass solche KI-gestützten Analysen bestehende gesellschaftliche Vorurteile verstärken und zu einer flächendeckenden Überwachung führen können.
Palantir, Thiel und Epstein
Der Name Palantir und insbesondere dessen Mitbegründer Peter Thiel tauchen prominent in den Anfang 2026 veröffentlichten Epstein-Dokumenten (den sogenannten „Epstein-Files“) auf:
- Peter Thiel: Der Palantir-Mitbegründer wird in den Akten über 2.200 Mal erwähnt. Die Unterlagen belegen eine langjährige Geschäftsbeziehung zwischen Thiel und Jeffrey Epstein, die von 2014 bis zu Epsteins Verhaftung im Jahr 2019 reichte.
- Finanzielle Verflechtungen: Epstein war als „Limited Partner“ (Kommanditist) an dem von Thiel kontrollierten Risikokapitalfonds Valar Ventures beteiligt. Er erhielt über diesen Fonds Zugang zu „streng vertraulichen“ Investitionsmöglichkeiten. Zudem soll Epstein rund 40 Millionen US-Dollar in Fonds investiert haben, die von Thiel mitbegründet wurden.
- Direkte Treffen: E-Mails und Kalendereinträge zeigen, dass Thiel und Epstein sich wiederholt trafen, unter anderem zu gemeinsamen Abendessen. Im Jahr 2014 wurde Thiel zudem auf Epsteins Privatinsel eingeladen.
Peter Thiel und Jeffrey Epstein verfolgten gemeinsam eine unmissverständlich deutliche zionistische Agenda. Palantir ist auch der Name eines weissagenden Steins in J. R. R. Tolkiens „Herr der Ringe“. Der böse Magier Saruman benutzt ihn, um herumzuspionieren und Gegner aufzuspüren.
Palantir, Carbyne, Israel und der Mossad
Ein TRT-Artikel von 20204 beleuchtet zudem eine tiefe Vernetzung zwischen Thiel und Palantir mit dem israelischen Geheimdienstapparat sowie dem Unternehmen Carbyne, an dem Peter Thiel ebenfalls beteiligt ist.
Carbyne, gegründet von ehemaligen Mitgliedern der israelischen Unit 8200 und eng verbunden mit Ehud Barak sowie Jeffrey Epstein, bietet Cloud-basierte Notrufsysteme an, die auf israelischer Überwachungstechnologie basieren. Das Unternehmen ist durch die engen Kooperationen zwischen der Unit 8200 und der NSA, inklusive Datenüberwachung, tief in die israelisch-amerikanische Sicherheitsarchitektur eingebunden. Die Unit 8200 bespitzelt mit Wissen der US-Behörden amerikanische Palästinenser.
Human Rights Watch (HRW) kritisiert Carbyne primär wegen der Ähnlichkeit seiner Notrufsysteme zu Überwachungs-Apps, die in autoritären Regimen zur Unterdrückung eingesetzt werden. Konkret geht es um die von chinesischen Behörden genutzte App „Integrated Joint Operations Platform“ (IJOP) zur Überwachung der uigurischen Bevölkerung in Xinjiang. Dabei wurde festgestellt, dass die technische Architektur und Funktionsweise dieser App fast identisch mit Carbynes „Next Generation 911“ (NG911)-Plattform ist. Carbyne erscheint nach außen als ein Unternehmen, das „Notrufsysteme“ optimiert.
Fazit
KI birgt tödliche Risiken. Darüber müssen wir uns im Klaren sein. Das kann man nur dadurch lösen, dass man die KI begrenzt. Deutschland aber zur KI-freien Zone zu erklären, ist so dumm, wie es aus der nuklearen Forschung und Nutzung herauszulösen. Das Resultat ist ein Land, das im internationalen Vergleich in die Steinzeit zurückfällt.
Fällt man dadurch in den eigenen nationalen Fähigkeiten zurück oder verliert diese gänzlich, ist man von ausländischen Anbietern abhängig. Das kostet insgesamt mehr Geld, weil Lizenzgebühren anfallen und man vielleicht nicht immer die beste Version bekommt, sondern die „Exportversion“. Zudem macht man sich abhängig. Ausländische Mächte, wie die USA und Israel, bekämen bei einer wesentlichen Abhängigkeit beispielsweise von Palantir noch mehr Macht über Deutschland. Am Ende entscheidet dann der Mossad, wer in Deutschland einen Job oder ein Bankkonto bekommt. So weit darf es nicht kommen.
■ Gastbeitrag von Sascha von Aichfriede
Abonniert unseren Telegram-Kanal https://t.me/aufgewachtonline
Abonniert unseren X-Kanal: https://x.com/AufgewachtS
Kostenlose AUFGEWACHT-Leseprobe herunterladen: https://aufgewacht-online.de/
Unsere Empfehlung:

TIPP DER REDAKTION: Sascha von Aichfriede: Marla – Die Wunderheilerin. Erhältlich im DS-Verlag. Ein literarisches Monument gegen den Ökosozialismus und für die Aufklärung. 292 Seiten, Festeinband, 25,00 EUR.
1 https://www.bundestag.de/presse/hib/kurzmeldungen-1126546 [05.04.2026].
2 https://www.deutschlandfunk.de/zdf-raeumt-fehler-bei-verwendung-ki-generierter-bilder-ein-100.html [05.04.2026].
3 https://www.business-humanrights.org/en/latest-news/palantir-spacex-allegedly-complicit-in-war-crimes-amid-israels-war-in-gaza/ [05.04.2026].
4 https://www.trtworld.com/article/12752948 [05.04.2026].


