Podcast und Interview mit Norbert Barnikel

In dieser Podcast-Folge sprechen wir mit Norbert Barnickel, Experte für generative KI, über falsche oder frei erfundene Inhalte, die Sprachmodelle wie ChatGPT produzieren können. Wir beleuchten, warum KI halluziniert, welche Folgen das für Unternehmen, Markenkommunikation und Online-Marketing hat – und wie Sie im Arbeitsalltag damit umgehen können.
Norbert macht deutlich: Ohne menschliches Korrektiv („Human in the Loop“) geht es nicht. „Wenn Sie in einem Thema sattelfest sind, dann erkennen Sie Halluzinationen“, sagt er.
Außerdem diskutieren wir, warum gutes Prompting allein nicht reicht, wie aufwendig die Kontrolle KI-generierter Inhalte ist und weshalb kontinuierliche Modellanpassungen mitgedacht werden müssen.
Worüber wir in dieser Podcast-Episode sprechen
- Was sind KI-Halluzinationen – und warum sind sie so schwer zu erkennen?
- Welche Folgen haben sie für meine Marke?
- Warum halluzinieren selbst die neuesten LLMs für Text, Bild, Video und Audio?
- Welche Inhalte sind besonders anfällig – und welche Beispiele gibt es?
- Wie kann ich mein KI-Marketing robuster gegen Halluzinationen machen?
- Welche technischen Möglichkeiten gibt es, Halluzinationen vor der Veröffentlichung zu erkennen?
- Wie plane ich Tools und Ressourcen, um KI-Ausgaben besser zu prüfen?
- Welche To-dos muss ich jetzt einplanen, um faktenbasiert und markenkonform zu kommunizieren?
Diese Episode auf YouTube anhören
Experteninterview mit Norbert Barnikel zum Thema: KI Halluzinationen – Wie schütze ich meine Marke vor KI-Fails?
KI liefert nicht immer Wahrheiten, sondern ist darauf trainiert, „krampfhaft Antworten zu geben“. Doch was, wenn diese Antworten fachlich falsch sind oder nicht der Identität unserer Marke entsprechen – und dennoch veröffentlicht werden? Norbert Barnikel, Senior Management Advisor bei Computacenter, Privatdozent, eMBIS-Trainer und Vordenker im Bereich Generative AI, erklärt im Gespräch, warum Halluzinationen in KI-Systemen ein reales Business-Risiko darstellen, welche Inhalte besonders anfällig sind und wie Unternehmen sich konkret schützen können.
eMBIS: Norbert, was genau sind Halluzinationen bei KI-Chatbots – und warum klingen sie oft so überzeugend?
Norbert: Eine Halluzination bei den Large Language Modellen ist schlicht eine erfundene Antwort, die trotzdem plausibel klingt. Das Problem ist: Generative KI ist darauf trainiert, immer zu antworten. Auch wenn keine verifizierten Daten vorliegen, wird etwas geliefert, das sich stimmig anhört. Die KI ist in dem Moment einfach eine „Schwätzerin“.
eMBIS: Woran liegt es, dass diese Falschinformationen so schwer zu entlarven sind?
Norbert: Ganz einfach: Wenn du dich mit einem Thema gut auskennst, merkst Du schnell, wenn etwas nicht stimmen kann. Aber viele nutzen KI um sich neues Wissen anzueignen oder um Inhalte zu generieren, obwohl sie im Thema nicht sattelfest sind. Und dann vertraut man auf das, was geliefert wird. Wie früher mit Wikipedia: Stand es dort, musste es stimmen. Das gleiche Phänomen tritt heute bei KI auf.
eMBIS: Was passiert, wenn solche Fehler ungeprüft in Unternehmen weiterverwendet werden?
Norbert: Dann wird’s heikel. Da geht es teilweise um juristische Folgen, aber auch um Reputationsverluste. Ich sehe das immer wieder: Da setzen Unternehmen Junioren oder wenig erfahrene Leute an die KI, ohne weiteren Faktencheck. Für gute Ergebnisse braucht man aber unbedingt einen „Human in the loop“, also eine Person, die das Ergebnis auf Fachlichkeit und Markenkonformität überprüft.
eMBIS: Warum halluzinieren KI-Modelle überhaupt?
Norbert: Vor allem lange Texte. Es gibt ein bekanntes Phänomen namens „Hole-in-the-Middle“: Die KI startet stark, wird am Ende wieder gut – aber in der Mitte wird’s oft unsauber. Die Modelle werden ja immer größer. Dadurch entsteht auch immer mehr Datensalat. Ein Trend den ich gerade beobachte sind Tiny Models, also kleine Modelle, die hochspezialisiert sind. Die werden wir demnächst verstärkt sehen.
eMBIS: Welche Inhalte sind aus Deiner Sicht besonders anfällig für Halluzinationen?
Norbert: Vor allem lange Texte. Es gibt ein bekanntes Phänomen namens „Hole-in-the-Middle“: Die KI startet stark, wird am Ende wieder gut – aber in der Mitte wird’s oft unsauber. Die Modelle werden ja immer größer. Dadurch entsteht auch immer mehr Datensalat. Ein Trend den ich gerade beobachte sind Tiny Models, also kleine Modelle, die hochspezialisiert sind. Die werden wir demnächst verstärkt sehen.
eMBIS: Wie können Unternehmen konkret Halluzinationen vermeiden?
Norbert: Drei Dinge: Erstens brauchst du ein Bewusstsein dafür – es reicht nicht, zu hoffen, dass schon alles passt. Viele verlassen sich auf die scheinbare Kompetenz der KI, weil der Output so professionell klingt. Aber genau das macht ihn gefährlich. Wer sich nicht klar macht, dass Halluzinationen Teil des Systems sind, wird blindlings Fehler übernehmen.
Zweitens solltest du Ergebnisse immer mit einem zweiten Modell gegenprüfen. Verschiedene KI-Modelle haben unterschiedliche Trainingsdaten und Prioritäten. Wenn zwei unabhängige Systeme zu ähnlichen Aussagen kommen, ist das ein gutes Zeichen – aber auch das ersetzt keine finale Prüfung. Gerade im Unternehmenskontext muss man sich absichern.
Und drittens: Verlass Dich nicht auf einen Anbieter. Die Modelle entwickeln sich schnell. Wer sich nur auf ein einziges System festlegt, baut womöglich seine Prozesse auf einer Basis auf, die morgen nicht mehr konkurrenzfähig ist.
eMBIS: Letzte Frage: Bist Du selbst schon mal auf eine Halluzination reingefallen?
Norbert: Ja, gerade erst. Ich war müde, habe schnell eine Frage zu einem Gesetz beantwortet und die KI hat das Jahr des Inkrafttretens auf 2025 statt 2026 datiert. Das wäre beinahe als offizieller LinkedIn-Post rausgegangen. Zum Glück habe ich nochmal draufgeschaut. Das zeigt, wie schnell ein Fehler passieren kann, der Wellen schlägt.
Fakten zu KI Halluzinationen
KI-Halluzinationen sind falsche oder erfundene Inhalte, die von Sprachmodellen wie ChatGPT erzeugt werden. Sie entstehen, weil KI-Modelle auf Wahrscheinlichkeiten und Kontextmustern basieren — nicht auf menschlichem Wissen. Für Marketing- und Markenverantwortliche sind solche Fehler besonders riskant: Vertrauen, Reputation und Markenkonsistenz können beschädigt werden.
Ursache in Wahrscheinlichkeitsmodellen
Sprachmodelle wie ChatGPT arbeiten nicht mit echtem Wissen, sondern mit Wahrscheinlichkeiten. Sie berechnen, welches Wort statistisch am besten passt. Dadurch können Texte entstehen, die logisch klingen, aber keinen echten Bezug zur Realität haben. Das macht Halluzinationen so schwer erkennbar.
Gefahr für Markenimage
Wenn KI falsche Aussagen über eine Marke, ein Produkt oder eine Dienstleistung erstellt, wirkt sich das direkt auf das Vertrauen der Kundinnen und Kunden aus. Fehlerhafte Inhalte können zu Missverständnissen führen, die Marke schwächen und im schlimmsten Fall dauerhaften Schaden am Image verursachen.
Menschliches Korrektiv ist essenziell
Auch die beste KI braucht Kontrolle durch Menschen. Fachleute können erkennen, ob Informationen stimmen oder nicht. Ohne dieses „Human in the Loop“ entstehen Risiken, weil falsche Inhalte unbemerkt bleiben. Nur durch menschliches Eingreifen bleibt die Qualität von Texten und Informationen verlässlich.
Prompting allein reicht nicht
Viele glauben, dass präzise Eingaben (Prompts) Halluzinationen verhindern. Das stimmt nur teilweise. Auch gute Prompts können keine falschen Antworten ausschließen, weil die Ursache im Modell selbst liegt. Wer KI sicher einsetzen möchte, muss also mehr tun als nur gute Fragen stellen.
Kontinuierliches Monitoring notwendig
KI-Modelle entwickeln sich ständig weiter. Neue Versionen verändern oft das Verhalten der Systeme. Deshalb reicht es nicht, einmal Regeln aufzustellen. Unternehmen müssen laufend prüfen, ob die erzeugten Inhalte korrekt sind, und die Systeme regelmäßig anpassen. Nur so lassen sich Risiken langfristig kontrollieren.












Seminare