Trustworthy AI: Nachvollziehbarkeit statt Halluzination

19.11.25 – IT Innovation Podcast

Warum halluziniert ChatGPT? Und wieso kann nicht einmal OpenAI genau erklären, wie ein Modell zu einer bestimmten Antwort kommt?

In dieser Folge von IT Innovation geht es um trustworthy AI – also Systeme, die nicht nur Ergebnisse liefern, sondern auch transparent machen, wie sie dorthin kommen.
 

Dafür hat Jules Pabst Roland Fleischhacker, CEO des Wiener KI-Unternehmens Deepsearch GmbH, eingeladen. Roland entwickelt mit deepassist eine neurosymbolische, erklärbare KI speziell für den Kundenservice.

Die Themen:

✨ Warum halluzinieren große Sprachmodelle so oft?

✨ Ist generative KI wirklich die Zukunft?

✨ Welche Alternativen gibt es?

✨ Wie funktioniert neurosymbolische KI?

✨ Wie setzt deepsearch diese Technologie heute schon in Unternehmen ein?

Schon gehört?

Nimm Kontakt mit uns auf

Oder vereinbare direkt einen Termin, der für Dich passt

Nutze einfach den Calendly-Link, um schnell und unkompliziert einen passenden Termin zu finden. Wir freuen uns darauf, Dich kennenzulernen!