Die Auftritte zweier Männer, am gleichen Tag (es handelte sich um Montag, den 16. Februar 2026), legt unserer Gesellschaft nahe, dringend hinzuschauen und rechtzeitig zu handeln.
Der eine, 27 Jahre jung, Ziviltechniker, hatte sich in Linz (Oberösterreich) vor Gericht zu verantworten. Er hatte mit ChatGPT ein Abschlussdokument eines Medizinstudiums an der Universität Wien gefälscht, dies um 200 Euro in Schweden (!) notariell beglaubigen lassen und es dann bei der Ärztekammer Oberösterreich zur Anerkennung seines Berufs als Arzt eingereicht. Er flog auf. Zur Verhandlung wegen Fälschung besonders geschützter Urkunden erschien der Mann ohne anwaltlichen Beistand, er gab alles zu, Imponiergehabe gegenüber einer entschwundenen Liebe möge das Motiv gewesen sein. Urteil: fünf Monate bedingt. Und: Der 27-Jährige meinte, er wolle sich nun der Ärztekammer als Berater zu vorgelegten KI-Fakes anbieten. Na, die werden ihn unbedingt haben wollen, auf keinen anderen haben sie gewartet.
Der zweite tritt in der Öffentlichkeit auf, Peter Steinberger, ein IT-Entwickler aus Oberösterreich, der einen „KI-Agent“ (OpenClaw, auch ein Name eines Produkts sagt über es etwas aus!) programmiert hat, der alle Handlungen eines Computers nachvollziehen kann, die dessen User dort vollzogen hat, z.B. eine Reise buchen. Nun ist OpenAI auf den Mann aufmerksam geworden und holt ihn bei sich an Bord. Herr Steinberger saß darum an diesem Montagabend bei Armin Wolf im Zeit im Bild 2-Studio und wusste nicht, wie ihm geschieht, er nun hier am Tisch, Herr Wolf mit seinen Fragen; Fragen, die er sich selbst noch nie gestellt hat, so der Eindruck. Denn er staunte und suchte nach Antworten, entzog sich dem Nachdenken („so weit sind wir noch nicht“), blieb in schablonenhaften Begriffen der Leere. So klingt also Schulterzucken. Was schon ist Datenschutz? Bei Fehlbuchungen der mit Kreditkartenzugriff ermächtigten KI rette ohnedies der (österreichische) Konsumentenschutz im Internet. Verantwortung für Programmierung (und Fehler) übernehmen will Herr Steinberger sehr offensichtlich nicht. Ich holte mir über Fachjournalismus Expertenwissen. Daniel Koller in derstandard.at vom 19.2.2026 erklärt, warum große Unternehmen nicht KI-Agenten à la OpenClaw bauen, die auf KI-Sprachmodell basieren und KI-generierten Code ausführen: Da geht es eben um Haftung, wenn es unkontrollierbar wird. Die nehmen die big player nicht. Herr Steinberger erscheint hier komplett unbeirrt und spielt also mit allerhöchstem Risiko.
An alle! Hüten wir uns vor diesen Zeitgenossen, die ohne auch nur ein Quäntchen von Nachdenken oder Reflexionswillen (von -kraft will ich noch gar nicht schreiben!) die elektronischen Werkzeuge einfach bespielen und weiter ausbauen. Sie vermögen nur das. Darin sind sie gefährlich. Denn ungehindert laufen sie, nur weil es die Codes können und weil mit dem Coding herrlich viel Geld zu verdienen ist, blind, taub, stur in ihre Richtung. Diese Leute spielen durch ihre eingeschränkten Sicht- und Handlungsweisen mit der gesellschaftlichen Stabilität. Die regulierenden demokratischen Institutionen (z.B. Gerichtsverhandlung nach Delikt) nehmen sie in Kauf, quasi als Kollateralschaden auf ihrem messianischen Weg, der Menschheit durch unbegrenzte KI einen Segen zu schenken. Diesen Segen sehen sie durch ihre Bedienung von Faulheit als anscheinend der Spezies Mensch immanenter Grundeigenschaft legitimiert.
An diesem Tag im Februar zeigten sich zwei davon. Wir müssen unseren Blick für solche Zeitgenossen schärfen und sie genau unter Beobachtung halten.
Foto: Pexels/Free Photo Library
Kategorien:Soziales Handeln
