Zum Inhalt springen

KI, Schmeichelei und die Unwissenheit

Wie AI die unternehmerische Geschwindigkeit verändert hat — und an welcher Stelle sie eine neue, unsichtbare Schwachstelle eingeführt hat.
29. April 2026 durch
KI, Schmeichelei und die Unwissenheit
Benjamin Bommhardt


"It ain't what you don't know that gets you into trouble. It's what you know for sure that just ain't so."


Dieses Zitat eröffnet den Film "The Big Short", ist auf tausenden LinkedIn-Profilen zu finden und wird Mark Twain zugeschrieben.

Allerdings hat es Mark Twain nie gesagt. Ursprünglich stammt es von Josh Billings, einem amerikanischen Humoristen, aus dem Jahr 1874. Im Original lautet es: "I honestly beleave it iz better tew know nothing than two know what ain't so."¹

Dies ist ein sehr gutes Beispiel für Annahmen, die von vielen Leuten getroffen werden - diese aber falsch liegen.

Wenn man sich nicht bei der Quelle eines Zitats sicher ist — wie sicher sollte man sich dann bei einer wichtigen Annahme des Business Model sein, die ein LLM gerade bestätigt hat?

Das ist das Thema dieses Blogposts: AI hat die Iterations-Geschwindigkeit für Unternehmer um Größenordnungen beschleunigt aber gleichzeitig eine neue, unsichtbarere Schwachstelle eingeführt. 


Was AI für Unternehmer ändert

AI ist kein Magie-Multiplikator. Was sie macht, ist nüchtern und konsistent beschreibbar: Sie reduziert die Latenz zwischen Hypothese und fundierter Antwort um einen Faktor, der vor fünf Jahren absurd geklungen hätte.

Konkret bedeutet das: Eine Marktrecherche, die ich 2022 in zwei Tagen vorbereitet, durchgeführt und ausgewertet habe — Wettbewerber identifizieren, Pricing-Strukturen rekonstruieren, regulatorisches Umfeld kartieren — mache ich heute in zwei Stunden. Nicht oberflächlicher. Nicht weniger detailliert. Genauso tief, nur dramatisch schneller.

Das Gleiche bei Datenmuster-Analysen. Eine CSV mit ein paar tausend Zeilen, ein paar Hypothesen, was darin stehen könnte. Früher: SQL-Queries, Pivot-Tabellen, manuelle Anreicherung mit externen Daten. Heute: Datei hochladen, präzise Frage stellen, Antwort validieren, weitermachen.

Der Punkt ist nicht, dass AI Aufgaben "übernimmt". Sie tut das nicht. Der Punkt ist, dass die Reibungskosten zwischen "Frage" und "fundierter Antwort" dramatisch gesunken sind. Das verändert, wie oft ich überhaupt Fragen stelle. Hypothesen, die früher zu teuer waren zu prüfen, teste ich jetzt regelmäßig.

Was sich nicht ändert: Urteilsvermögen, Marktverständnis, Entscheidungsdruck. Das bleibt meins. Die Aufgabe der AI ist, mir mehr und bessere Inputs für genau diese Entscheidungen zu liefern. Nicht, sie für mich zu treffen. Warum nicht? Weil sie [die KI] eine empfindliche Schwachstelle hat. Diese sitzt an der Schnittstelle zwischen Geschwindigkeit und Urteil.


Die Schwachstelle

Schneller Output ist nichts wert, wenn er falsch ist. Das dürfte jedem einleuchten. Das größte Risiko von LLM-Output ist nicht Halluzination. Halluzinationen sind meist offensichtlich — sie fallen dadurch auf, dass erfundene Studien oder erfundene Namen auftauchen.

Das größere Risiko ist Sycophancy — Schmeichelei. Das Modell bestätigt die Annahme des Benutzers und will zu längerer Nutzung motivieren.

Dies wurde längst durch publizierte Forschung nachgewiesen. Beispielsweise hat Anthropic — das Unternehmen hinter Claude — 2023 eine Studie veröffentlicht: Towards Understanding Sycophancy in Language Models (Sharma et al., ICLR 2024, aktualisiert 2025).² Die Findings sind unbequem:

  • Fünf führende LLMs zeigen Sycophancy konsistent über vier verschiedene Aufgabentypen.
  • Identisches Argument wird signifikant höher bewertet, wenn der User vorher schreibt "I really like this argument" — und niedriger, wenn er schreibt, er möge es nicht. Identischer Inhalt. Gegenteilige Bewertung.
  • Wenn ein User dem Modell widerspricht, revidiert das Modell häufig — auch wenn die ursprüngliche Antwort objektiv korrekt war.

Der Treiber ist strukturell: RLHF (Reinforcement Learning from Human Feedback). Während des Trainings bewerten menschliche Tester die Antworten des Modells. Menschen bevorzugen Antworten, die ihnen zustimmen. Das Modell lernt: Zustimmen wird belohnt - unabhängig vom Wahrheitsgehalt.

Das hat eine spezifische, gefährliche Konsequenz für Gründer.


Confirmation Bias × LLM-Leistung = Geschwindigkeit in die falsche Richtung.

Benjamin Bommhardt
Inhaber pruve GmbH

Ich habe in zwei Jahren bei AI+Munich über 500 Startups bewertet und 35+ gecoacht. Das häufigste Muster — mit Abstand — ist nicht fehlende Idee oder fehlendes Geld. Es ist eine unhinterfragte Kernannahme. Der Markt will das. Die Kunden zahlen dafür. Die Konkurrenz versteht es nicht. Es wurde zu wenig validiert.

Früher haben Gründer für die Bestätigung dieser Annahmen Wochen gebraucht. Sie haben mit Freunden gesprochen, mit dem Steuerberater, mit dem ersten Mentor — und Reibung erzeugt. Die Reibung war wertvoll, weil sie Zeit zum Nachdenken erzwungen hat.

Heute kann derselbe Gründer in einer Stunde mit einem LLM einen vollständigen Business Plan mit 80 Seiten raushauen, der genau seine Annahmen bestätigt. Das ist Sycophancy in der Praxis. Hier ist das Kernproblem nicht Halluzination oder erfundene Quelle; sondern dass es viel belohnender ist, kohärent und zustimmend zu sein.

Zurück zum Twain-Zitat — das eigentlich von Billings ist. "What we know for sure that just ain't so" ist nicht abstrakte Weisheit aus dem 19. Jahrhundert. Es ist eine sehr präzise Beschreibung des Mechanismus, der Gründer kaputt macht. Und LLMs sind, ohne aktive Gegenmaßnahmen, der schnellste Weg, sich diese Art von Falschwissen aufzubauen.


Wie ich dagegen arbeite

Meine Arbeitsthese ist hart: LLM-Output ohne validierte Fakten ist sinnlos.

Ja, für reines Brainstorming reicht ungeprüfter Output. Für Sprachübungen, für Stilfragen, für kreative Iteration. Für jede wichtigere und operative Entscheidung — Pricing, Markteintritt, Hiring, Pivot, Kapitalstruktur — nicht. Da ist ungeprüfter LLM-Output weitgehend sinnlos. Schlimmer als sinnlos: Er fühlt sich an wie Recherche, ist aber eigentlich "Schleimen".

Vier konkrete Praktiken, die ich konsequent anwende.

1. Der Unbiased-Prompt gegen User Pleasing. Standardmäßig setze ich beim Beginn einer Recherche oder Analyse: "Give me your unbiased opinion." oder "Argue against my assumption." Das verschiebt das Modell aus dem User-Pleasing-Modus in einen analytischeren. Es eliminiert Sycophancy nicht — die Forschung zeigt, dass das Verhalten strukturell ist, nicht durch Prompts vollständig korrigierbar — aber es reduziert sie messbar.

2. Quellenpflicht und Re-Recherche gegen Halluzination. Keine Aussage ohne URL. Wenn das Modell schreibt "Studien zeigen, dass X...", frage ich: "Welche Studie? Link bitte." Wenn keine Quelle gefunden werden kann, wird die Aussage gestrichen. Genauso fordere ich das LLM auf, wichtige Annahmen per Webrecherche zu validieren.

3. Steelman the Opposite gegen Confirmation Bias. Bei jeder wichtigen Annahme lasse ich das Modell explizit gegen die These antreten. "Ich glaube, der Markt für X ist wachsend. Argumentiere maximal stark, warum das falsch ist." Wenn das Modell das Gegenargument schwächer formuliert als das Hauptargument — gefährliches Signal. Es bedeutet, dass die Trainingsdaten nur die eine Seite gut abdecken, oder dass das Modell mein "ich glaube" als Zustimmungs-Anker liest.

4. Externe Validierung gegen die Echo Bubble. Bei jeder wichtigeren Entscheidung mit weitreichenden Konsequenzen sollte man sich eine zweite Quelle außerhalb des LLMs suchen. Optimalerweise kommt diese Person aus dem Umfeld der potentiellen Zielkunden.

Die Kernaussage des AI-Booms ist und bleibt: menschliches Sparring bleibt unersetzlich. Am besten: Co-Founder, Mentor, Investor mit eigenem Geld im Spiel. Der Grund ist, dass ein Mensch mit eigener Perspektive einen Anreiz hat, zu widersprechen. Ein LLM hat per Default einen Anreiz zuzustimmen.

Wer keinen menschlichen Sparringspartner hat, sollte AI mit zusätzlicher Vorsicht benutzen — nicht weniger.

Geschwindigkeit ist nichts wert, wenn sie in die falsche Richtung geht. AI hat die Geschwindigkeit verändert. Die Richtung muss man immer noch selbst prüfen. Aktiv, mit Reibung, mit Quellen, mit Menschen.

Sonst läuft man nur schneller in die falsche Richtung.


Quellen

¹ Quote Investigator: It Ain't What You Don't Know That Gets You Into Troublehttps://quoteinvestigator.com/2018/11/18/know-trouble/    The New Republic über die Falschzuschreibung in The Big Shorthttps://newrepublic.com/article/126677/it-aint-dont-know-gets-trouble-must-big-short-opens-fake-mark-twain-quote

² Anthropic: Towards Understanding Sycophancy in Language Modelshttps://www.anthropic.com/research/towards-understanding-sycophancy-in-language-models    Sharma et al., arXiv:2310.13548 — https://arxiv.org/abs/2310.13548