In diesem Beitrag möchte ich einen Blick darauf werfen, was KI, seine Fähigkeiten (oder Nicht-Fähigkeiten) auf der einen, und unsere menschlichen Reflexe, Bedürfnisse und Entscheidungen auf der anderen Seite für einen Einfluss auf unseren Anspruch haben. Unseren Anspruch an Prozesse, Produkte, Services, die wir erbringen oder deren Nutzende und Kund*innen wir sind. Mein Eindruck ist, dass durch KI einige Verlockungen entstanden sind, nicht immer mit der geforderten Redlichkeit, der nötigen Sorgfalt oder auch ausreichendem Wissen wichtige Entscheidungen zu treffen.
Willkommen im „Gut-genug“-Zeitalter
Du kennst bestimmt das Gefühl. Ein Artikel, der klingt wie hundert andere. Eine Hotline, die dich mit synthetischer, menschlich-klingend wollender Stimme in die Bedeutungslosigkeit schleift. Eine Mail, bei der du nicht weißt, ob sie von einer Kollegin oder einem Bot stammt. Willkommen in der Gegenwart.
Was wie Komfort erscheint, erscheint mir in der Realität eher wie Mittelmaß als System. Automatisierter Content, generische Antworten, Services, die nicht berühren, sondern nur abwickeln. Und das mehr schlecht als recht. Und das Schlimmste: Wir sind dabei, uns daran zu gewöhnen.
Jetzt hat auch der lokale Handwerksbetrieb einen kaum funktionierenden Voicebot am Telefon. Und der Chef der kleinen Mietrechtskanzlei beschließt, dass ChatGPT – 2025 zum ersten Mal ausprobiert, immer noch beeindruckt – doch „fast alle Büroprozesse“ übernehmen könne. Zehn Mitarbeitende und ihre Klient*innen landen daraufhin in einer Welt aus mittelmäßiger Automatisierung und maximaler Verunsicherung. Wahrscheinlich nicht aus bösem Willen, sondern im aufrichtigen Versuch, digital mitzuhalten. Der Irrtum: zu glauben, dass moderne Tools automatisch moderne und gute Qualität erzeugen. Und dass Geschwindigkeit mit Verlässlichkeit gleichzusetzen ist. Es ist ein Beispiel dafür, wie schnell unbewusste Überforderung zu Vereinfachung führt. Und Vereinfachung zu einem neuen Standard, der eigentlich keiner sein sollte.
Meine Wahrnehmung ist: Das „Gut-genug-Gespenst“ geht um. Es spukt durch Redaktionen, Geschäftsführungen und selbst offensichtlich auch durch die Büroräume von Farben Fischer, Baustoff Winter oder Eisen Karl um die Ecke 😉. Viele KI-Systeme liefern Content oder Service, der billig, schnell aber nur halbwegs brauchbar ist. Dennoch wird er genommen. Vielleicht weil niemand mehr nach mehr fragt? Vielleicht wird das zumindest gehofft.
Wenn ich dieser Art der KI-Anwendung entgegenblicke, dann denke dann oft an einen Satz, den tante 2023 schon auf der re:publica gesagt hat:

Das war weise vorausgesehen, was wohl kommen würde. Und was dann auch kam.
Wenn wir mittlerweile zunehmend solche „gut genug“-Kompromisse sehen, ist das kein Zufall. Er ist das Ergebnis ökonomischer Rationalität: Wenn ein System Marge verspricht, obwohl der Standard sinkt, dann wird es genutzt. Homo Oeconomicus. Da muss die KI gar nicht perfekt sein. Hauptsache: Kund*innen laufen nicht sofort weg, und die KPI stimmen. Zumindest vorerst.
- Beispiel: Sports Illustrated veröffentlichte KI-generierte Artikel unter Fake-Namen. Inklusive ausgedachtem Porträtfoto. Der Verlag schob die Schuld auf einen Dienstleister. Das wahre Signal: Expertise ist optional, solange der Affiliate-Link klickt.
- CNET testete KI-Artikel, heimlich. Das Ergebnis: gravierende Fehler und massenhafte Korrekturen. Die Redaktion zeigte sich erstaunlich gleichgültig gegenüber der Frage, ob man so mit Leser*innen umgehen darf.
- Die Chicago Sun-Times veröffentlichte eine Sommerleseliste – voller Empfehlungen für Bücher, die gar nicht existieren. Halluzinierter KI-Content, unredigiert übernommen.
- Und es bleibt nicht bei Medien. Air Canada musste sich verantworten, weil der firmeneigene Chatbot einem Kunden falsche Informationen gab. Das Unternehmen versuchte, sich aus der Pflicht zu ziehen. Denn der Bot sei ja eine „eigene Einheit“. Das Gericht widersprach: KI und Automatisierung entbinden nicht von Verantwortung.
- Selbst dort, wo KI als richtiger, offen kommunizierter Fortschritt gefeiert wird, zeigt sich die Ambivalenz. Der Pay-Later Finanzdienstleister Klarna wollte mit einem KI-Assistenten 700 Mitarbeitende im Kundenservice ersetzen. Und rudert ein gutes Jahr später zurück. Nutzer*innen wollen eben doch mit Menschen sprechen. Der CommonwealthBank aus Australien geht es genauso.
Der hässliche Bruder von „gut genug“ ist übrigens „scheiß‘ drauf“. Er wütet gerade im Internet und erodiert dessen Fundament. Der Schriftsteller Erik Hoel spricht von der „semantic apocalypse“: Ein langsamer Verfall von Sinn durch Inhalte, die nichts mehr bedeuten, sondern nur simulieren. Der Feed wird zur Müllhalde. Quantität schlägt Bedeutung. RIP WWW.
Auch Netz-Autor*in Eevee beschreibt das neue Internet treffend: ein „Whatever“–Betriebssystem. Oberflächlich vernetzt, halbherzig angepasst, selten inspirierend. Die Magie sei weg. Übrig bleibe Gleichförmigkeit. Mittelmäßigkeit ist jetzt kostenlos, sagte treffend Nick Law von Accenture Song.
Der Begriff dazu: AI Slop. Content, der rein quantitativ entsteht. Belanglose Texte, nichtssagende Bilder, Spam in Hochgeschwindigkeit. Keine Fehler der Maschinen. Auch hier Entscheidungen von Menschen. Entscheidungen, die unsere Standards senken.
Cory Doctorow nennt das Prinzip dahinter „Enshittification“: den systematischen Verfall digitaler Qualität. Erst kommen die Nutzer*innen, dann die Werbekunden, dann die Margen. Dann der Niedergang. KI beschleunigt diesen Zyklus: Automatisiert wird, was sich automatisieren lässt. Nicht weil es besser ist. Sondern weil es geht. Für mich gilt das insbesondere in der Massen-Contentproduktion im redaktionellen Bereich.
Und nicht zuletzt hat OpenAI selbst gezeigt, wie schnell Anspruch in Mittelmaß kippen kann. Der Launch von GPT-5 – groß angekündigt, als nächster Meilenstein in Richtung AGI – entpuppte sich als große Enttäuschung. An manchen Stellen minimaler Fortschritt, an einigen gar Rückschritt und eine Reihe von Limitierungen, Downgrades und technischen Brüchen. Die Erwartungen wurden nicht nur enttäuscht, sie wurden unterboten. Es war ein eindrucksvolles Beispiel dafür, wie man mit viel Brimborium eine leere Bühne beleuchtet. Und wie leicht selbst die vermeintliche Quelle von Innovation das „gut genug“ zum Standard erhebt. Es muss jetzt einfach raus. Einfach, weil die Nachfrage ohnehin da ist.
Die Erosion des Anspruchs: Was wir verlieren, wenn wir mit zu wenig zufrieden sind
Die Abwägung für „gut genug“ ist dann keine technische, es ist auch eine ethische und politische. Eine Wahl darüber, wie viel Respekt und Verbindlichkeit wir einander noch zugestehen. „Gut genug“ ist somit sowohl Kompromiss, als auch ein schleichender Verrat an dem, was einmal als Mindeststandard galt. Denn in der Praxis bedeutet „gut genug“ oft: Hoffentlich reicht’s. Für die, die es betrifft – Leser*innen, Patient*dinnen, Kund*innen – bleibt nur noch Resignation oder Rückzug. Oder gar keine Wahl.
Ich erkenne mindestens vier Prinzipien, die erodieren:
- Würde: Wer Zuwendung und Handwerkskunst an Maschinen delegiert, vermittelt: Das Gegenüber ist Aufwand, kein Adressat. Nicht wirklich würdig um sich anzustrengen.
- Wahrhaftigkeit: Sprachmodelle klingen überzeugend, selbst wenn sie irren. Wer sie unkontrolliert sprechen lässt, institutionalisiert Sorglosigkeit im Umgang mit Wahrheit.
- Verantwortung: Intransparente Systeme entscheiden längst über Wohnung, Bewerbung oder Kredit. Menschen verlieren die Ansprechbarkeit und niemand ist verantwortlich.
- Kulturelle Eigenart, bzw. Selbstachtung: KI-generierte Texte sind „verschwommene JPEGs des Internets“ (Ted Chiang). Sie ähneln sich mehr, weil sie aus denselben Datensätzen schöpfen. Sie werden im Zeitverlauf durch inzestuöses Lernen anhand immer mehr Inhalten, die selbst wiederum aus ihnen stammen, immer schlechter. Sie sind fast immer Kompromiss. Originalität und „Seele“ gehen verloren wenn kein menschliches Gefühl mehr eine größere Rolle im Entstehungsprozess spielt. Was dabei verloren geht, ist nicht nur Originalität, sondern das Unverwechselbare. Die Handschrift einer Marke, die Reibung in einem Team oder die Sprache eines Kontextes.
Wer profitiert… und wer verliert?
„Gut genug“ ist selten ein Gewinn für Konsument*innen oder Mitarbeitende. Es nützt vor allem denen, die bereit sind, den Unterschied zwischen Anspruch und Imitation in Rendite zu übersetzen:
- Plattformbetreiber, die Content maschinell skalieren.
- Führungskräfte, die Kennzahlen über Beziehungen stellen.
- Eigentümer, die Technologie und ihre Möglichkeiten überschätzen, und mit der Qualitätskontrolle schludern… solange der Profit stimmt.
Und natürlich auch viele, die nicht aus Zynismus handeln, sondern aus Unwissenheit. Gerade im Mittelmanagement oder unter Selbstständigen fehlt oft die Zeit oder das Wissen, KI richtig einzuschätzen. Umso wichtiger ist in Richtung dieser Adressaten ehrliches Feedback und Aufklärung, nicht nur harsche Kritik.
Die Technik ist nicht das Problem. Es ist die Wahl, sie so einzusetzen, dass sie Standards unterläuft. Aber auch auf Seite der Konsumierenden sollten wir eine Verpflichtung spüren und annehmen: Für uns die Frage zu beantworten, ob wir bereit sind, schlechtere Maßstäbe zu akzeptieren, damit Organisationen ausgedünnt werden und Margen stimmen?
Was jetzt? Klare Maßstäbe statt Slop
Wenn Technologie uns Menschen dienen soll (und das ist mein Verständnis und Überzeugung), dann brauchen wir klare Maßstäbe. Gerade dort, wo der Druck am höchsten ist, einfach nur durchzuautomatisieren. Oder da, wo aus Unwissenheit gedacht wird, dass „das doch eine gute Idee sein könnte“.
Ein Vorschlag für fünf Leitfragen, die helfen können, Verantwortung nicht zu verschieben, sondern bewusst zu übernehmen:
- Was ist das Ziel? Automatisierung braucht einen nachvollziehbaren Zweck. Und der sollte über reine Effizienz hinausgehen. Geht es darum, Komplexität zu reduzieren? Zugang zu erleichtern? Entscheidungsprozesse zu unterstützen? Oder schlicht Kosten zu senken? Wer das Ziel nicht benennt, kann nicht bewerten, ob die Maßnahme sinnvoll ist. Oder nur bequem.
- Wer trägt Verantwortung… und wie sichtbar ist das?
Wenn Systeme zunehmend Arbeit übernehmen, muss die Verantwortung eindeutig bei Menschen bleiben. Es braucht klare Strukturen, wer im Fall von Fehlern, Verwirrung oder Eskalation ansprechbar ist. Systeme, in denen niemand mehr „einspringen“ kann oder will, wirken nicht nur dystopisch. Sie sind es. Und für Nutzer*innen wird das schnell existenziell. Zum Beispiel beim Bewerben, beim Beraten, beim Entscheiden. - Wie transparent ist der technologische Anteil?
Es sollte immer erkennbar sein, ob und wo Automatisierungstechnologien – insbesondere KI-Systeme – im Einsatz sind. Wer redet hier gerade mit mir? Ein Mensch? Ein Bot? Ein hybrides System? Wenn Inhalte, Entscheidungen oder Interaktionen automatisiert entstanden sind, muss das offengelegt werden. Und wenn ein Mix aus Mensch und Maschine vorliegt, muss nachvollziehbar sein, wer was beigetragen hat. - Was erwartet die menschliche Gegenseite…und was wird ihr geboten?
Jede Interaktion, jedes Angebot, jede Information steht in einem Erwartungskontext. Nutzer*innen haben – je nach Situation – unterschiedliche Mindestansprüche: Geschwindigkeit oder Gründlichkeit? Empathie oder Neutralität? Tiefe oder Übersichtlichkeit? Unterhaltung oder Information? Wer automatisiert, muss einschätzen (und prüfen), was als Basisniveau erwartet wird. Und ob die Lösung es leisten kann. Sonst wird Effizienz zur Enttäuschung. - Wer profitiert… und wer zahlt den Preis?
Wird KI in Systeme oder Prozesse integriert, sollte deutlich gemacht werden, wer davon konkret profitiert. Und wer möglicherweise etwas aufgibt. Geht es um Zeitersparnis, Einsparungen oder strategische Vorteile? Und auf wessen Kosten geschieht das? Verlieren Menschen Einfluss, Transparenz oder Sicherheit? Tragen sie mehr Frust, Unsicherheit oder Aufwand? Auch immaterielle Verluste zählen. Besonders dann, wenn der Gewinn einseitig bleibt und verteilt wird.
Diese Fragen sollen keine Ethik-PR sein. Sie sind als Kompass gedacht für all jene, die gestalten, anwenden oder evaluieren. Unabhängig davon, ob im Großkonzern, der Redaktion oder dem Handwerksbetrieb.
Haltung beginnt im Kleinen, braucht unser Bewusstsein und zur Not unsere Entschlossenheit
Nicht jede*r entscheidet über KI-Strategien. Aber jede*r lebt mit ihren Folgen. Deshalb ist „gut genug“ auch vielmehr kultureller Zustand oder gesellschaftliche Normverhandlung als technische Kategorie. Wie hoch das Niveau bleibt, hängt auch von uns ab. Der Anspruch kann da am einfachsten bröckeln, wo viele bisher nicht so genau hingeschaut haben (weil es nicht nötig war). Aber das muss und sollte nicht so sein oder bleiben. KI sickert gerade überall rein. Wenn auch nur einige der genannten Prinzipien dabei auf der Strecke bleiben, müssen und sollten wir das nicht hinnehmen, nicht mitmachen. Wir können ansprechen, was schiefläuft. Nicht besserwisserisch, sondern mit Blick auf das, was möglich wäre. Und wenn es nicht anders geht, können wir auch mit unseren Füßen abstimmen.
Stell dir stattdessen mal vor, wir würden KI nicht nur nutzen, um billiger zu werden. Sondern um besser zu werden. Besser zu arbeiten. Besser abzuliefern. Um mehr Nähe zu schaffen, nicht weniger. Um Prozesse menschlicher zu machen, nicht nur effizienter. Stell dir einen Service vor, der nicht simuliert, sondern versteht. Einen Text, der nicht blumig runterrattert, sondern inspiriert. Eine Organisation, die Technologie einsetzt, um Zeit zu schaffen: für Beratung, für Nachdenken, für echten Dialog. Das ist kein Wunschtraum. Die Werkzeuge sind da. Die Frage ist nur, wofür wir sie einsetzen.
Was, wenn wir den Mut hätten, Standards zu setzen, die uns nicht kleinrechnen, sondern wachsen lassen? Wenn wir Technologie an unseren höchsten Maßstäben ausrichten, nicht an den niedrigsten Erwartungen? Was, wenn wir die Möglichkeiten der KI dafür nutzen, unseren Anspruch zu erhöhen, statt ihn aufzugeben? Mensch, was wäre das für eine Welt!
Technologie kann ein Spiegel sein. Wenn wir aufmerksam sind, kann sie uns zeigen, was wir wichtig nehmen und was nicht. LLMs sind beeindruckende Instrumente. Sie können uns inspirieren, fokussieren, entlasten. Aber sie treffen keine Wertentscheidungen. Das tun wir.
„Gut genug“ reicht nicht, wenn wir Qualität, Respekt und Verbindlichkeit erhalten wollen. Wer Anspruch zeigt, verteidigt nicht nur alte Standards. Er oder sie hilft dabei, die Gestaltung von neuen und besseren zu ermöglichen. Aber wo Anspruch endet, beginnt der Abstieg.
Umso wichtiger ist es, dass wir – insbesondere jene von uns, die mit KI-Tools, Tech-Infrastruktur oder Entscheidungsprozessen zu tun haben und vertraut sind – nicht nur Standards fordern, sondern sie gemeinsam nachvollziehbar machen. Fragen ernst nehmen. Und Wege aufzeigen.
Viele sind Teil des Problems, ohne es zu wollen. Weil ihnen Wissen fehlt, Zeit, Orientierung. Deshalb sollten wir nicht nur mahnen. Auch helfen. Denn jede souveräne, aufgeklärte Entscheidung für Qualität wirkt wie ein Gegengewicht. Es geht nicht darum, mit dem Finger zu zeigen. Es geht darum, gemeinsam besser zu werden. Menschlicher. Klarer. Und mutiger, den Unterschied zu machen. Lasst uns hier positiv einwirken, wo auch immer wir eine Chance dazu sehen.


Du muss angemeldet sein, um einen Kommentar zu veröffentlichen.