Laborunfall, Tatortreinigung

Lesehinweis für Ludditen wie Muskoviten:

Karafillidis, A. (2026, April). Containment eines Laborunfalls. Merkur, (923), 36–47. https://www.merkur-zeitschrift.de/artikel/containment-eines-laborunfalls-a-mr-80-4-36/

Athanasios Karafillidis ist KI-Manager der Stadt Dortmund und Soziologe, was zweifellos kompetenter ist als nur eines der beiden zu sein. Er pointiert in seinem Essay, die Resultate des einwandfreien Funktionierens von genAI seien maschinenhaft systematisch wie kumulativ sowie in ihrer Kausalität unzuverlässig. LLMs seien weder Automaten noch könnten sie welche werden, da die Technologie das nicht vorsähe. Schneller seien sie wohl, »aber im Gegensatz zu Menschen können sie ihre manchmal eklatanten, manchmal äußerst subtilen, kaum erkennbaren systematischen Fehler immerhin massenhaft in verschiedensten Varianten produzieren, sie global überzeugend und vielsprachig verbreiten und auf diese Weise dann verstetigen.« Da LLMs nicht automatisch lernen, was sie falsch machen, bahne sich ein soziales Problem an.

Diese Proliferation, das Verstetigen von Unschärfen und Fehlern wird um Größenordnungen hartnäckiger zu lösen sein als die nicht gerade kleinen technischen Probleme. Ist, was hängenbleibt, slop oder wahr, enshittification oder korrekt?

(selbst gelesen, halbwegs verstanden und ohne AI auch geschrieben)