Von Michael Springer
Ende März hat bereits Tech-Milliardär Elon Musk eine sechsmonatige Pause bei der Entwicklung von künstlicher Intelligenz gefordert. Aktuell legen nun selbst führende Experten mit einer dramatischen Warnung nach, die sogar von OpenAI-Chef Sam Altmann unterzeichnet wurde.
Die Warnung besteht aus einem einzigen Satz:
„Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.“
„Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg.“
Das Center for AI Safety (Zentrum für KI-Sicherheit) in San Francisco ist eine führende Non-Profit-Organisation, die sich mit Risiken von Künstlicher Intelligenz befasst.
Zu den bisher erkannten 8 AI–Risiken zählen etwa Fähigkeiten wie „Bewaffnung“, „Fehlinformationen“,
„Proxy-Gaming“, „Entmündigung“, „Wertbindung, „Aufstrebende Ziele“, „Täuschung“ und „Machtbewusstes Verhalten.“
Zivilisationsrisiken der Interaktion von Mensch-AI-Maschinen
Mit der massenhaften Interaktion von „Menschen“ und „AI-Systemen“ entstehen völlig neuartige Zivilisationsrisiken, für die es bisher keine methodischen wissenschaftlichen Gefährdungsanalysen gibt.
Die Gefahr der „Selbstauslöschung der Zivilisation“ wird plötzlich greifbar:
- Verhaltensveränderungen und Zusammenbruch von systemrelevanten Arbeitsteilungen.
- Verlust der Nachvollziehbarkeit und Uneinsehbarkeit von Sinn und Kontext.
- Verlust und Eradikation von geistigen Schlüsselkompetenzen.
- Degradation und Radikalisierung des Werte- und Rechtssystems.
- Überforderung und Verlust von systemerhaltenden Instanzen und Institutionen.
- Verlust der sozioökonomischen Grundlagen für Wertschöpfung und soziale Synergien.
- Überforderung der natürlichen Grundlagen und Existenzbedingungen.
- Überraschende, singuläre und performative Risiken und „Schwarze Schwäne.“
- Paradigmatische Disruptionen und Revolutionen.
Im Journalismus öffnen sich ganz neue Grenzen für die Informationsarbeit und Recherche. Die Quellen AI-Information setzen sich generativ in externen Datenzentren zusammen. Sie nicht absolut verifizierbar, sondern nur durch „deduktives Befragen“ zu erschließen (#Prompts). — Wahrheitsfindung wird damit ggf. auch zu einem „technischen Problem.“
Schon jetzt ist erkennbar: Redaktionsarbeit wird durch externe generative AI-Systeme zum Teil vereinfacht, zum anderen Teil aber auch ungeheuer aufwändig und erschwert. Das notwendige Lektorat und die aufwändige Programmierung und Automatisierung von Informationsinhalten verteuern dabei die Redaktionprozesse. — Ein Zivilisationsrisiko hat sich so bereits manifestiert: Lokaljournalismus ist nicht mehr systemisch über Klickwerbung finanzierbar!
Generative Künstliche Intelligenz wird zum kostengünstigen Produktionsfaktor in redaktionellen Prozessen der Textproduktion und Bildverarbeitung. — Diese redaktionellen Prozesse können aber nur noch durch teure und rare Fachkräfte in der Redaktion in Gang gehalten werden. Im Journalismus, in Redaktionen, Lektoraten und im Content-Publishing wächst ein sehr spezielles Fachkräfteproblem heran:
Gesucht werden Fachkräfte, die die Wahrheit von Antworten von ChatGPT zuverlässig überprüfen können!