Podcast und Interview mit Norbert Barnikel

In dieser Podcast-Folge sprechen wir mit Norbert Barnickel, Experte für generative KI, über falsche oder frei erfundene Inhalte, die Sprachmodelle wie ChatGPT produzieren können. Wir beleuchten, warum KI halluziniert, welche Folgen das für Unternehmen, Markenkommunikation und Online-Marketing hat – und wie Sie im Arbeitsalltag damit umgehen können.
Norbert macht deutlich: Ohne menschliches Korrektiv („Human in the Loop“) geht es nicht. „Wenn Sie in einem Thema sattelfest sind, dann erkennen Sie Halluzinationen“, sagt er.
Außerdem diskutieren wir, warum gutes Prompting allein nicht reicht, wie aufwendig die Kontrolle KI-generierter Inhalte ist und weshalb kontinuierliche Modellanpassungen mitgedacht werden müssen.
Worüber wir in dieser Podcast-Episode sprechen
- Was sind KI-Halluzinationen – und warum sind sie so schwer zu erkennen?
- Welche Folgen haben sie für meine Marke?
- Warum halluzinieren selbst die neuesten LLMs für Text, Bild, Video und Audio?
- Welche Inhalte sind besonders anfällig – und welche Beispiele gibt es?
- Wie kann ich mein KI-Marketing robuster gegen Halluzinationen machen?
- Welche technischen Möglichkeiten gibt es, Halluzinationen vor der Veröffentlichung zu erkennen?
- Wie plane ich Tools und Ressourcen, um KI-Ausgaben besser zu prüfen?
- Welche To-dos muss ich jetzt einplanen, um faktenbasiert und markenkonform zu kommunizieren?
Diese Episode auf YouTube anhören
KI Halluzinationen sind ein wichtiges Thema im Arbeitsalltag. Viele Teams nutzen KI Tools. Fehler von KI können Inhalte verfälschen. Das kann zu falschen Entscheidungen führen. Weiterbildung hilft, diese Risiken zu verstehen. Ein KI im Onlinemarketing Seminar zeigt, wie KI sinnvoll eingesetzt wird. In der Marketingplanung mit KI Schulung lernen Teams, Ergebnisse richtig zu prüfen. Der Social Media mit KI Workshop hilft bei sicheren Inhalten. Das Texten fürs Web mit und ohne KI Seminar stärkt die Qualität von Texten. Die ChatGPT Prompting und Prompt Engineering Schulung zeigt klare Anweisungen für bessere Antworten. So arbeiten Teams sicherer und verantwortungsvoll mit KI.
Experteninterview mit Norbert Barnikel zum Thema: KI Halluzinationen – Wie schütze ich meine Marke vor KI-Fails?
KI liefert nicht immer Wahrheiten, sondern ist darauf trainiert, „krampfhaft Antworten zu geben“. Genau hier setzt KI Weiterbildung an. Sie hilft Teams, Ergebnisse richtig einzuordnen. Doch was, wenn diese Antworten fachlich falsch sind oder nicht der Identität unserer Marke entsprechen – und dennoch veröffentlicht werden? Norbert Barnikel, Senior Management Advisor bei Computacenter, Privatdozent, eMBIS-Trainer und Vordenker im Bereich Generative AI, erklärt im Gespräch, warum Halluzinationen in KI-Systemen ein reales Business-Risiko darstellen, welche Inhalte besonders anfällig sind und wie Unternehmen sich konkret schützen können.
eMBIS: Norbert, was genau sind Halluzinationen bei KI-Chatbots – und warum klingen sie oft so überzeugend?
Norbert: Eine Halluzination bei den Large Language Modellen ist schlicht eine erfundene Antwort, die trotzdem plausibel klingt. Das Problem ist: Generative KI ist darauf trainiert, immer zu antworten. Auch wenn keine verifizierten Daten vorliegen, wird etwas geliefert, das sich stimmig anhört. Die KI ist in dem Moment einfach eine „Schwätzerin“.
eMBIS: Woran liegt es, dass diese Falschinformationen so schwer zu entlarven sind?
Norbert: Ganz einfach: Wenn du dich mit einem Thema gut auskennst, merkst Du schnell, wenn etwas nicht stimmen kann. Aber viele nutzen KI um sich neues Wissen anzueignen oder um Inhalte zu generieren, obwohl sie im Thema nicht sattelfest sind. Und dann vertraut man auf das, was geliefert wird. Wie früher mit Wikipedia: Stand es dort, musste es stimmen. Das gleiche Phänomen tritt heute bei KI auf.
eMBIS: Was passiert, wenn solche Fehler ungeprüft in Unternehmen weiterverwendet werden?
Norbert: Dann wird’s heikel. Da geht es teilweise um juristische Folgen, aber auch um Reputationsverluste. Ich sehe das immer wieder: Da setzen Unternehmen Junioren oder wenig erfahrene Leute an die KI, ohne weiteren Faktencheck. Für gute Ergebnisse braucht man aber unbedingt einen „Human in the loop“, also eine Person, die das Ergebnis auf Fachlichkeit und Markenkonformität überprüft.
eMBIS: Warum halluzinieren KI-Modelle überhaupt?
Norbert: Vor allem lange Texte. Es gibt ein bekanntes Phänomen namens „Hole-in-the-Middle“: Die KI startet stark, wird am Ende wieder gut – aber in der Mitte wird’s oft unsauber. Die Modelle werden ja immer größer. Dadurch entsteht auch immer mehr Datensalat. Ein Trend den ich gerade beobachte sind Tiny Models, also kleine Modelle, die hochspezialisiert sind. Die werden wir demnächst verstärkt sehen.
eMBIS: Welche Inhalte sind aus Deiner Sicht besonders anfällig für Halluzinationen?
Norbert: Vor allem lange Texte. Es gibt ein bekanntes Phänomen namens „Hole-in-the-Middle“: Die KI startet stark, wird am Ende wieder gut – aber in der Mitte wird’s oft unsauber. Die Modelle werden ja immer größer. Dadurch entsteht auch immer mehr Datensalat. Ein Trend den ich gerade beobachte sind Tiny Models, also kleine Modelle, die hochspezialisiert sind. Die werden wir demnächst verstärkt sehen.
eMBIS: Wie können Unternehmen konkret Halluzinationen vermeiden?
Norbert: Drei Dinge: Erstens brauchst du ein Bewusstsein dafür – es reicht nicht, zu hoffen, dass schon alles passt. Viele verlassen sich auf die scheinbare Kompetenz der KI, weil der Output so professionell klingt. Aber genau das macht ihn gefährlich. Wer sich nicht klar macht, dass Halluzinationen Teil des Systems sind, wird blindlings Fehler übernehmen.
Zweitens solltest du Ergebnisse immer mit einem zweiten Modell gegenprüfen. Verschiedene KI-Modelle haben unterschiedliche Trainingsdaten und Prioritäten. Wenn zwei unabhängige Systeme zu ähnlichen Aussagen kommen, ist das ein gutes Zeichen – aber auch das ersetzt keine finale Prüfung. Gerade im Unternehmenskontext muss man sich absichern.
Und drittens: Verlass Dich nicht auf einen Anbieter. Die Modelle entwickeln sich schnell. Wer sich nur auf ein einziges System festlegt, baut womöglich seine Prozesse auf einer Basis auf, die morgen nicht mehr konkurrenzfähig ist.
eMBIS: Letzte Frage: Bist Du selbst schon mal auf eine Halluzination reingefallen?
Norbert: Ja, gerade erst. Ich war müde, habe schnell eine Frage zu einem Gesetz beantwortet und die KI hat das Jahr des Inkrafttretens auf 2025 statt 2026 datiert. Das wäre beinahe als offizieller LinkedIn-Post rausgegangen. Zum Glück habe ich nochmal draufgeschaut. Das zeigt, wie schnell ein Fehler passieren kann, der Wellen schlägt.
Fakten zu KI Halluzinationen
KI Halluzinationen sind falsche oder erfundene Inhalte. Diese Inhalte entstehen durch Sprachmodelle wie ChatGPT. Sie arbeiten mit Wahrscheinlichkeiten und mit Textmustern. Sie arbeiten nicht mit menschlichem Wissen. Mehr dazu erklärt der Beitrag Halluzinationen von generativer KI. Für Marketing und Markenarbeit sind solche Fehler sehr riskant. Vertrauen kann verloren gehen. Die Reputation kann leiden. Auch die Markenlinie kann unscharf werden. Deshalb ist ein bewusster Umgang mit KI besonders wichtig.
Ursache in Wahrscheinlichkeitsmodellen
Sprachmodelle wie ChatGPT arbeiten nicht mit echtem Wissen, sondern mit Wahrscheinlichkeiten. Sie berechnen, welches Wort statistisch am besten passt. Dadurch können Texte entstehen, die logisch klingen, aber keinen echten Bezug zur Realität haben. Das macht Halluzinationen so schwer erkennbar.
Gefahr für Markenimage
Wenn KI falsche Aussagen über eine Marke, ein Produkt oder eine Dienstleistung erstellt, wirkt sich das direkt auf das Vertrauen der Kundinnen und Kunden aus. Fehlerhafte Inhalte können zu Missverständnissen führen, die Marke schwächen und im schlimmsten Fall dauerhaften Schaden am Image verursachen.
Menschliches Korrektiv ist essenziell
Auch die beste KI braucht Kontrolle durch Menschen. Fachleute können erkennen, ob Informationen stimmen oder nicht. Ohne dieses „Human in the Loop“ entstehen Risiken, weil falsche Inhalte unbemerkt bleiben. Nur durch menschliches Eingreifen bleibt die Qualität von Texten und Informationen verlässlich.
Prompting allein reicht nicht
Viele glauben, dass präzise Eingaben (Prompts) Halluzinationen verhindern. Das stimmt nur teilweise. Auch gute Prompts können keine falschen Antworten ausschließen, weil die Ursache im Modell selbst liegt. Wer KI sicher einsetzen möchte, muss also mehr tun als nur gute Fragen stellen.
Kontinuierliches Monitoring notwendig
KI-Modelle entwickeln sich ständig weiter. Neue Versionen verändern oft das Verhalten der Systeme. Deshalb reicht es nicht, einmal Regeln aufzustellen. Unternehmen müssen laufend prüfen, ob die erzeugten Inhalte korrekt sind, und die Systeme regelmäßig anpassen. Nur so lassen sich Risiken langfristig kontrollieren.
Weitere passende Podcast-Episoden
KI verändert das Marketing sehr schnell. Dabei entstehen viele neue Fragen. Die folgenden Podcast Folgen geben Orientierung. Sie zeigen praxisnahe Beispiele. Und sie liefern klare und verständliche Einblicke in den Einsatz von KI im Marketing:
- KI-Bilder im Onlinemarketing: Zahlt sich KI-Bildgenerierung wirklich aus? (Matthias Duschner)
- Wie verändert KI das Social Media Marketing? (Ellen Marx)
- Wie hilft mir KI perfekte Kundenerlebnisse zu schaffen? (Stefan Ponitz)
Seminare