No.
Parloa

KI-Transformation im Kundenservice: Wie KI-Agenten das Kundenerlebnis verbessern

Mit
Malte Kosub
Erfahre, wie Parloa mit KI-Agenten den Kundenservice revolutioniert. Malte Kosub teilt Einblicke in Use Cases, technologische Fortschritte und die Bedeutung von Simulationen und Evaluationen. Entdecke Strategien für effizientere Prozesse und bessere Kundenerlebnisse.

In dieser Folge des AI FIRST Podcasts spricht Felix mit Malte Kosub, dem Gründer von Parloa, über den Einsatz von KI-Sprachagenten im Kundenservice. Parloa, ein führendes Startup im Bereich generativer KI, entwickelt Lösungen für große Call-Center und Contact-Center weltweit.

Inhaltsübersicht

  • Parloas Entstehungsgeschichte und Vision
  • Definition und Funktionsweise von KI-Agenten
  • Anwendungsfälle für KI-Agenten
  • Implementierung und Skalierung von KI-Agenten
  • Mehrwerte und Transformation des Kundenservice
  • Die veränderte Rolle menschlicher Mitarbeiter

Detaillierte Inhaltszusammenfassung 

Die Entstehung von Parloa 

Malte Kosub gründete 2017 die Agentur "Future of Voice", als Spracherkennung erstmals menschliches Niveau erreichte. Während andere auf Chatbots setzten, fokussierte sich sein Team auf Voice-Interaktion, da die meisten Kundeninteraktionen noch telefonisch stattfanden. Aus den Projekten entstand Parloa, eine Plattform für KI im Kundenservice. Heute beschäftigt das Unternehmen 300 Mitarbeiter in Berlin, München und New York, hat 100 Millionen Dollar Funding erhalten und arbeitet mit großen Enterprise-Kunden zusammen.

Definition und Technologie von KI-Agenten 

Für Parloa sind KI-Agenten digitale Systeme, die Aufgaben für Kunden erledigen - von einfachen Gesprächen bis zu komplexen End-to-End-Prozessen mit CRM-Anbindung. Die Technologie hat sich stark entwickelt: Früher bestanden Voice-Bots aus drei getrennten Komponenten (Speech-to-Text, NLU, Text-to-Speech) mit starren Regelwerken. Der Durchbruch kam mit Large Language Models, die ein umfassenderes Weltverständnis mitbringen und natürlichere Gespräche ermöglichen. Der nächste Schritt sind End-to-End-Audio-Modelle, die auch auf Emotionen und Nuancen reagieren können.  


Anwendungsfälle für KI-Agenten 

Malte empfiehlt einen stufenweisen Einstieg:


1. Routing: Der Agent versteht das Kundenanliegen und leitet an die richtige Abteilung weiter
2. Authentifizierung: Automatisierung der Kundenidentifikation
3. Branchenspezifische Use Cases: z.B. Zählerstandsmeldungen, Bestellstatus, Schadensbearbeitung. 


Diese einfachen Anwendungsfälle machen oft einen Großteil des Anrufvolumens aus. Unternehmen sollten Woche für Woche neue Anwendungsfälle hinzufügen, statt alles auf einmal zu automatisieren.


Implementierungsprozess und Vertrauensbildung 

Die Implementierung beginnt mit der Definition der Agenten-Persona und dem Hinzufügen von "Skills". Für Qualitätssicherung setzt Parloa auf umfangreiche Simulationen mit zehntausenden Testfällen und anschließender Evaluation durch einen "AI Judge". Die Genauigkeitsanforderungen variieren je nach Anwendungsfall - bei Routing reichen niedrigere Standards als bei finanziellen Transaktionen. Generell werden KI-Agenten mit menschlicher Genauigkeit verglichen, nicht mit deterministischen Systemen. 


Mehrwerte und Transformation des Kundenservice 

KI-Agenten bringen sowohl Effizienzsteigerungen als auch bessere Kundenzufriedenheit. Bei manchen Kunden hatten 60% der Nutzer nach Gesprächen mit KI-Agenten ein besseres Markenverhältnis. Malte sieht eine umfassende Transformation: Künftig wird jeder Touchpoint konversationsbasiert sein. In drei Jahren werden führende Unternehmen jedem Kunden einen persönlichen KI-Agenten zuweisen, der 24/7 über alle Kanäle verfügbar ist und den kompletten Kundenkontext kennt.  


Die veränderte Rolle menschlicher Mitarbeiter 

Kundenservicemitarbeiter werden sich auf komplexere, emotionale Themen konzentrieren und zu Supervisoren für KI-Agenten werden. Wenn ein KI-Agent an Grenzen stößt, kann er einen menschlichen Supervisor hinzuziehen. Dies erfordert umfassendes Upskilling in den Organisationen - Mitarbeiter müssen lernen, mit KI zusammenzuarbeiten und KI-Agenten zu managen.


Kernaussagen

  • "Wir stehen vor einer der größten Customer Experience Transformationen der letzten 20 Jahre" 
  • "Fang mit einem AI-Agent einfach an und füge Woche für Woche neue Anwendungsfälle hinzu" 
  • "In drei Jahren werden führende Unternehmen einen persönlichen AI-Agent pro Kunden haben" 

Fazit und Takeaways

Die KI-Transformation des Kundenservice bietet Chancen zur Kostenoptimierung und Verbesserung des Kundenerlebnisses. Für erfolgreiche Implementierung:

  • Mit einfachen Anwendungsfällen beginnen und schrittweise skalieren
  • In gute APIs und Datenqualität investieren
  • Umfangreiche Simulationen vor Produktivschaltung durchführen
  • Mitarbeiter auf neue Rollen als KI-Supervisoren vorbereiten
  • Langfristige Vision für persönliche KI-Kundenbeziehungen entwickeln

Die Zukunft liegt in der intelligenten Kombination aus KI-Agenten für Standardanfragen und menschlichen Experten für komplexe Fälle. Frühzeitige Transformation schafft nicht nur Effizienzvorteile, sondern auch ein differenziertes Kundenerlebnis mit positiver Auswirkung auf die Markenwahrnehmung. 

Links:

Zum Gast: ⁠⁠⁠⁠Malte Kosub
Zum Host: ⁠⁠⁠⁠Felix Schlenther


[00:00:00] Herzlich Willkommen zum AI-First-Podcast. In dieser Folge geht es um den Einsatz von KI-Sprachagenten im Kundenservice, einem der relevantesten Anwendungsgebiete für generative KI. Und dafür habe ich mit Malte Kosub, dem Gründer von Paloa, gesprochen, auch eines der... Ganz heißen Startups im Gen-AI-Bereich aus Deutschland, haben dort eine spannende Lösung für die größten Call-Center, Contact-Center aus Deutschland und der Welt entwickelt, die immer mehr eingesetzt wird und Malte hat uns sehr, sehr geholfen Hands-on die einzelnen Abläufe erklärt, was die Anwendungsfälle für Agenten sind, wie die Technologie da drumherum aufgebaut ist, welche Herausforderungen es gibt, um Agenten in den Produktivbetrieb zu bekommen und wie man sie überwinden kann. [00:01:00] Sehr, sehr spannende Folge, gibt eine ganze Menge zu lernen über einen der größten Bereiche, die gerade von KI transformiert werden und ich wünsche dir ganz viel Spaß bei dieser Folge.  Felix: Malte, künstliche Intelligenz im Kundenservice ist ja jetzt mittlerweile... Klar identifiziert als einer der sehr werttreibenden Anwendungsfälle. Und da gibt es ja gerade super viele Companies, die genau in dieses Thema auch reingehen aus verschiedenen Winkeln da drauf blicken und Lösungen entwickeln und die Unternehmen bereitstellen. Und eure Story auch in dem Kontext ist ja doch schon etwas älter. Ihr beschäftigt euch ja schon relativ lange mit diesem oder ähnlichen Themen. Nehmen wir uns mal kurz mit auf eure Reise Wo seid ihr gestartet und wie seid ihr dann schlussendlich zu Palor gekommen?  Malte: Ja, gerne. Und erst mal danke für die Einladung, Felix. Ganze ging mittlerweile vor acht Jahren los. Im Jahr 2017 haben wir gestartet, [00:02:00] eine Agentur für Conversational AI zu gründen, namens Future of Voice. Damals haben wir schon gesehen, dass Spracherkennung sich deutlich verbessert hat und quasi auf menschlichem Niveau angekommen ist. Und unsere Vision damals schon war es, dass Voice-Interaktion die Art und Weise wie Menschen mit Unternehmen kommunizieren verändern wird und so haben wir angefangen mit Future of Voice großen Enterprise-Unternehmen zu helfen, AI in der Kundeninteraktion zu nutzen, damals als Agentur und dann aus allen unseren Projekten Als Resultat entstehend eine Plattform, die es diesen großen Unternehmen ermöglicht, AI in Skalierung in die Kundeninteraktion zu bringen. Also alles fing an mit einer Agentur für Conversational AI.  Felix: Auf einer Textebene kann ich das total gut nachvollziehen, weil ich habe damals auch im Unternehmen gearbeitet, wo wir Millionen von [00:03:00] Kundenfeedbacks ausgewertet haben. Damals nannte man das dann noch natürliche Sprachverarbeitung. Exakt. Aber ich glaube, Voice, also wirklich gesprochene Sprache, hatten damals noch gar nicht so viele auf dem Schirm seid ihr zu der Annahme gekommen, dass das Thema so groß wird? Malte: Ja, was eigentlich im Jahr 2016, 2017 passiert ist, dass Spracherkennungen ... einen Durchbruch erfahren haben und die Erkennung bei über 59 Prozent lag. Das heißt, von 100 Worten wurden 59 Prozent dieser Worte also 95, ähm übersetzt oder transkribiert. Und dadurch, mit Natural Language Understanding, konnten erste Auf Sprache interagierende Konversationen geführt werden. Und vielleicht erinnern sich die anderen auch noch an Alexa und Google Assistant, das war damals so das Hype-Thema, was im Grunde diese neue Technologien in die Wohnzimmer von Endverbraucher gebracht haben. Und Das war primär eine [00:04:00] Voice-Interaktion, das heißt, man hat mit so einem Gerät gesprochen und konnte dann sich über das Wetter unterhalten, über Musik, Timer und dann wurden sogenannte Skills und Actions damals bei Alexa und Google Assistant veröffentlicht wo Unternehmen eigene Apps bauen konnten sozusagen und eigentlich parallel passiert von den ganzen Boom, der in der gleichen Zeit angefangen hat. Und tatsächlich haben sich viele Unternehmen und Plattformen auf Chatbots konzentriert Und wir haben damals schon gesagt, wir glauben an das Medium Voice oder Telefonie, weil wir diese großen Unternehmen gesehen haben und auch die Customer Support Volumina gesehen haben. Und da war es halt relativ klar, die meisten Interaktionen finden halt noch in der Telefonie statt. Das heißt, eigentlich ... Müssen wir die Technologie nutzen, um das Problem auf dem relevanten Kanal zu lösen. Das war damals und ist in den meisten Unternehmen immer noch die Telefonie. Und so haben wir uns halt auf die Telefonie und Voice spezialisiert. Die Agentur hieß ja schon auch Future of Voice. [00:05:00] Und viele andere haben mit Chat angefangen, weil es natürlich auch ein Stück weit einfacher ist. Wir haben damals aber schon an Voice und die Telefonie geglaubt  Felix: Die Wette scheint ja aufzugehen. Ihr seid jetzt gut vorangekommen in den letzten Jahren. Kannst uns gerade mal so ein paar Zahlen, Metriken geben? Wie groß seid ihr gerade? Wie viele Mitarbeiter? Umsatzniveau ungefähr? Mit wie vielen Kunden arbeitet ihr, dass wir das mal so einordnen können? Malte: Ja, wir sind ein bisschen vorsichtig mit Zahlen, aber um dir ein bisschen Gefühl dafür zu geben. Wir haben relativ lang gebootstrapped, haben unsere erste richtige institutionelle Runde im Jahr 2022 gemacht, das war die Seed-Runde, in 23 unsere Series A, in 24 unsere Series B. Das heißt, alle zwölf Monate stand eine neue Finanzierungsrunde an. Wir haben insgesamt 100 Millionen in Funding in diesen drei Runden Wir sind mittlerweile 300 Leute in Büros in Berlin, München und New York und zählen einige der [00:06:00] größten Unternehmen unseren Kunden. Also wir konzentrieren uns auf Large-Enterprise-Kunden. heißt, wir fangen an ab Hunderttausenden von Telefonaten im Jahr. fangen wir an Unternehmen zu helfen, ihre Kundenservice-Prozesse  Felix: Okay, und dafür stellt ihr jetzt mittlerweile eine Plattform bereit, wo ihr Sprach-KI-Agenten drauf entwickelt und dann in die Prozesse implementieren könnt. Jetzt gibt es ja um den Begriff Agenten das ist ja auch wie überall im KI-Markt gerade ja so 100.000 unterschiedliche Definitionen wo keiner mehr so richtig Wie definiert ihr denn für euch Agenten  Malte: Ja, also früher Agenten Bots, jetzt heißt sie Agenten Bots ist auch irgendwie ein der keine superpositiven hat, weil es einfach nicht funktioniert hat. Wenn wir uns Agenten angucken, dann sind das für uns ... [00:07:00] Digitale Systeme die für einen Kunden umsetzen und erledigen. Das kann einfach eine Unterhaltung sein, das kann eine Beantwortung einer Frage, einer FAQ sein. Das kann aber auch ein End-to-End-Prozess sein. heißt eine Kommunikation mit einem CRM beispielsweise, einem Buchungssystem. Und...  Felix: Was sind jetzt die Top-Anwendungsfälle, wo eure Agenten dann zum Einsatz kommen? Du hattest jetzt schon gesagt, das sind die riesengroßen Customer-Support-Einheiten von großen Unternehmen. Ich nehme da mal an das sind Versicherungen, vielleicht E-Commerce ... and Utility, das kommt jetzt so als erstes bei mir aufgeploppt, wo wahrscheinlich sehr, sehr viel Call-Volumen durchgeht, wofür werden die Agenten dann eingesetzt? Man  Malte: guckt sich im Customer Support ja immer die Service Level an. Level 1 Customer Support, Level 2 Customer Support, Level 3 Customer Support. Und je höher das [00:08:00] Level, desto komplizierter im Grunde ein Use Case. Und wir sagen unseren Kunden immer, fangt mit Level an. Und wenn wir uns da mal ein bisschen reinzoomen, ist es relativ trivial, der einfachste und... Das simpelste Use Case ist das richtige Routing. im Moment kennt ihr das wahrscheinlich noch, drücken Sie die 1 für A, drücken Sie die 2 für B, drücken Sie die 3 für C. Oder wenn es ein bisschen moderner war dann kommt man wie ein oder zwei wörter sagen aber wenn er gesagt hat funktioniert das schon nicht mehr und das ist super relevant weil ein kunde muss mit dir mit der richtigen gruppe an agents sprechen um probleme zu lösen das heißt wir zu unseren kunden fangt doch erst mal mit dem einfachsten an und habe agents Die abnehmen und versuchen zu verstehen, was euer Kunde sagen möchte oder was für ein Problem vorhanden ist, damit ihr die richtigen Personen bei euch intern findet. So, das ist natürlich das simpelste, der simpelste Use Case. Wenn du dann noch einen Schritt weiter gehst und sagst, Wahrscheinlich müssen fast alle eurer Kunden authentifiziert werden, also macht die [00:09:00] Authentifizierung, das dauert auch jedes Mal 30 bis 60 Sekunden in jedem Telefonat. Also versucht die Authentifizierung zu automatisieren. Zweiter Schritt. Dritter Schritt sind dann, und da es dann schon vertikalisierte also Industrie-Welt Relevante Use Cases, das ist bei in der Utility-Industrie ist es eine Zählerstandsmeldung beispielsweise. Im E-Commerce ist es, wo ist denn meine Order? In der Versicherung ist es, wann kriege ich denn meinen ausgezahlt, den ich eingereicht habe? Also dann geht es im Grunde in relativ simple Use Cases, die, und das ist das Spannendste ziemlich viel Volumen treiben In den meisten Unternehmen, aber relativ simpel sind, also klassische Level-1-Anwendungsfälle. so hangelst du dich eigentlich Unternehmen durch Anwendungsfälle durch und sagst wir sagen immer, fang mit einem AI-Agent einfach an, ein AI-Agent geht ran und versucht, das Problem zu lösen und dann Woche für Woche kannst du Anwendungsfälle hinzufügen. Und eigentlich, du startest einmal und dann du eigentlich die nächsten drei Jahre [00:10:00] wahrscheinlich Woche, jeden Monat weitere Anwendungsfälle hinzufügen. Fang nicht an, direkt alles auf einmal zu erschlagen.  Felix: Ja, okay. gehen gleich nochmal ein bisschen tiefer in die Anwendungsfälle. Ich würde gerne noch mal verstehen, was sich technisch in den letzten Jahren verändert hat, um immer mehr von diesen Anwendungsfällen freizuschalten. Ich kenne es auch für meine Bank des Vertrauens. Da soll ich dann sagen, was mein Anrufanliegen ist. Also es wird halt einfach permanent falsch verstanden. Wir nutzen wahrscheinlich noch keinen Paloa-Agent. sich verändert? Ist es auf der Modellebene oder ... Technischen Ebene, was heute die Akkuranz von diesen Auswertungen so gut macht, dass ja, wie ich verstanden habe, der Mensch für immer mehr Anwendungsfälle aus dem Prozess rausgenommen werden kann. Malte: Ja. Also was eigentlich bis zum Jahr  23 und gäbe war du habtest eine speech to text als eine [00:11:00] spracherkennung du bist eine so sogenannte natural language understanding eine nl u und eine text to speech und das waren ohne die drei komponenten es ist sehr vereinfacht darzustellen die ein bot ein voice oder chatbot ausgemacht haben also und vor sport das in die speech to text text to speech beim chat was denn nur die nl u die natural language understanding Das Teil in der Mitte, die Natural Language Understanding, die hat ganz anders funktioniert. Du hast sogenannte Intents definiert Und zu den Intents Adgerence ist definiert. Also, beispielsweise hast du definiert, Der Intent heißt, where is my order? Und dann hast du da zwei, drei, vierhundert Adverences hinterlegt wie ein Kunde, es meine Bestellung sagen konnte.  Felix: Und  Malte: das hast du dann im Grunde hast du dann da hundert, zweihundert, dreihundert Intentionen definiert. Und hast dann, wenn diese Intention angesprochen wurde, also die Natural Language Understanding hat da gesagt, es ist wahrscheinlich, wo ist meine Order? Hast du einen sehr [00:12:00] deterministischen Flow definiert, also ein Regelwerk. Wenn jemand nach einer, wo ist mein Order, Intention fragt dann frag erst nach der Kundennummer, dann frag nach dem Geburtsdatum und dann Trigger folgende API. Das Problem ist, dass wenn wir uns jetzt hier unterhalten, Da gibt es kein Regelwerk der Welt, das eine Konversation händeln kann. Eine Konversation ist viel zu komplex. Und es gibt auch nicht 100 oder 200 Intentionen Es gibt ganz viele Nuancen Zwischenintentionen ist eigentlich ... Man versucht, die Komplexität einer Konversation in ein Schema zu packen. Kannst dir vorstellen, wie so eine Excel-Tabelle, wo dann ganz viele Intentionen stehen. Und wenn das passiert, dann ... Und was im Grunde ... passiert ist, das haben wir alle am eigenen Leibe miterlebt mit Chat-GBT, ist, dass Large-Language-Models ... viel, viel besser geworden sind. Und im Grunde die NLU ersetzt haben. Das heißt, wir hatten nicht mehr diese Intentionen und die [00:13:00] Advertenzen, sondern wir hatten Large-Language-Models Umfangreicheres Verständnis der Welt hat. Auf jeden Fall die Qualität an Large Language Models Tatsächlich waren bei vielen NLUs auch schon Large Language Models involviert, aber auf einer ganz anderen Qualität. So das heißt, wir haben Qualität von Large Language Models erreicht, die Deutlich umfangreicheres der Welt haben und dadurch ermöglicht haben, dass man nicht mehr superrigide Regelwerke definieren muss. wenn das passiert, dann das. Und wenn dann irgendwie ein Chatbot ... Kein der drei Regeln definiert ist, dann ... Ich hab's leider nicht verstanden, fang von vorne noch mal an. Das kennen wir alle. Passierte nicht mehr, weil das Large-Language-Modul ein viel größeres Verständnis der Welt hatte. Das war eigentlich der größte Switch von einem sehr deterministischen ähm Bot zu einem, ähm nennen es jetzt agentic system, das ein viel besseres Verständnis der Welt hat, ein viel besseres Verständnis von [00:14:00] einer Konversation hat. So das war jetzt der erste schritt das heißt wir haben jetzt eine speech to text wir haben large language model und wir eine text to speech der nächste schritt ist dass du im grunde die speech to text und text to speech auch noch abschaffst und eigentlich ein end to end audio modell hast das heißt du hast audio als input und audio als output und alles andere passiert in einem modell es sind nicht mehr mehrere modelle die miteinander reden das ist ein modell was dazu führt dass du Nicht nur auf Text reagieren, kannst du dann vielmehr auch auf Emotionen, auf Pausen auf Hintergrundgeräusche. Das heißt, du hast nicht nur noch die textuelle Konversation, sondern du hast eine audio-gesteuerte Konversation was nochmal der nächste Entwicklungsschritt ist und uns noch einen Schritt weiter zu einer sehr natürlichen menschlichen Kommunikation bringt.  Felix: Entwickelt ihr solche Modelle auch? Selbst oder seid ihr auf dem Application Layer unterwegs und arbeitet dann mit einem [00:15:00] 11 Labs, OpenAI, Anthropic und Co. zusammen und ihr baut praktisch die Infrastruktur Architektur wo diese Modelle dann richtig genutzt werden können?  Malte: Ja, wir eng mit den großen Labs zusammen. wenn wir uns über das End-to-End-Audio-Modell unterhalten, arbeiten wir eng mit OpenAI beispielsweise zusammen.  haben 11Labs enabled in Paloa und 11Labs hat auf unserer eigenen Konferenz gesprochen, also sie sind Partner von uns. Wir sind im Grunde die Application, die all diese Technologien zusammenbringt Und für ein Enterprise nutzbar macht. Weil am Ende gehört relativ viel dazu, als nur das Modell. Also wir sagen mal eine einfache Demo kriegst du in ein paar Stunden, tatsächlich sogar ein paar Minuten gebaut, ein hoch skaliertes System, das hoch reliable ist, hoch skalierbar ist, sehr sicher ist. Und global skalierbar ist halt andere geschichte wo  Felix: siehst du da euren [00:16:00] technologischen buch haben weil das hatte ich mich gefragt ob nicht ein open ai oder auch in eleven left sie sind jetzt mal so in den kopf gekommen nicht auch irgendwie business angreifen können weil sie den zugang zu diesen modellen und die nutzbarkeit immer einfacher machen man konsumiert Bisschen mal durchschauen mit einem Advanced Voice Mode. Auch das ist natürlich eher auf einem Consumer Level jetzt erstmal wieder ausgerollt aber wenn sie das in ihre Enterprise Produkte reinbringen, besser integrierbar machen mit Telefonanlage CRM-System und ähnlichem und dahinter noch eine Agent-Logik irgendwie bauen, dass ich mir den ... die Kommunikationsweise, Regelwerk, Wissensdatenbank da dran hänge, dann ist es für mich nicht so super weit weg, dass man sowas auch in die eigenen Prozesse bekommen könnte.  baut ihr da drum herum, was den Burggraben für euch darstellt, technologisch  Malte: Also erstmal dieser Advanced Voice Mode, das ist im Grunde das End-to-End-Audio-Modell [00:17:00] Profitieren von solchen entwicklungen weil wir auch unseren kunden deutlich bessere experiences das spannende ist dass man diese grundlage technologien großen enterprises ermöglichen brauchst du viel viel mehr als nur das modell an sich und mal ein paar beispiele Du brauchst sehr komplexe Design- und Iterationsmechanismen. Das heißt, du brauchst viele verschiedene Leute innerhalb eines Unternehmens, die Wissen einem Agent liefern, weil jeder Use Case hat vielleicht ein anderes Department, das für einen Use Case zuständig ist. Das heißt, man braucht einen Workflow, damit die richtigen Departments die richtigen Use Cases prompten feintunen Und trainieren können. Das heißt, du musst einen Workflow schaffen, wo die richtigen Nutzer zur richtigen Zeit die richtigen Use Cases bauen können und können. brauchst die richtigen [00:18:00] Simulationen und Evaluationen Das heißt, du willst ja nicht einen AI-Agent bauen und ihn direkt in Produktion schaffen, sondern du brauchst große Datensätze, um Agents zu simulieren, zu evaluieren und dann in Produktion senden. Du brauchst sehr, ähm, Experience, Customer Support, ähm zugeschnittene Analytics-Lösungen um auch das, was die AI-Agents In millionenfacher Ausführung machen, dem Enterprise richtig zugänglich zu machen. Du brauchst die richtigen Guardrails Use Cases in den verschiedenen Industrien. Du baust die Integration in die verschiedenen C-Cast-Player wie eine Genesis, wie eine Nice, wie eine Avaya, Connect und so weiter. C-Cast sind die  Felix: Telefon Die Telefonanlagen, genau.  Malte: Du brauchst die globale Verfügbarkeit, hoch skaliert auch mit Fallback-Mechanismen in verschiedenen Kanälen, Phone, Chat, wir machen ja nicht nur Phone, wir machen auch Chat und [00:19:00] andere Messenger und so. Wir glauben an Omnichannel-Konversation, auch wenn wir glauben, Phone ist der immer noch relevanteste Kanal für große Enterprises. Das heißt, du musst den Agent zugänglich machen auf den verschiedenen Kanälen. Also ich könnte jetzt noch weiterreden. Es gibt ganz viele Komponenten die du für unseren Use Case providen musst, um am Ende das Modell...  Ins Modell zu nutzen, um Mehrwert zu Und man kann natürlich immer sagen, OpenAI macht alles oder Anthropic macht alles. Ende machen sie es dann doch nicht, weil es die Application Companies auf Basis dieser Model Companies gibt, die sich um Customer Support kümmern, die sich um Legal kümmern, die sich um Coding kümmern und so weiter. Genau, und devil is in the detail.  Felix: Okay, ich merke schon, den Pitch hast du drauf, Malte. Ist gekauft verstanden wo da die Unterschiede liegen. Dann lass uns mal von hier, wenn wir jetzt mal so euer Produkt verstanden [00:20:00] haben, Anwendungsfall reingehen. Und was ich gerne mal mit dir machen würde, ist so eine typische Customer Journey von euch mal beleuchten Ab wann fängt einer von euren Kunden sich dieses Thema anzuschauen Was brauchen wir eigentlich für Voraussetzungen? Mit Anwendungsfall, das hast du schon mal jetzt angeschnitten, wird dann gestartet und wie der dann auch skaliert und in den Produktivbetrieb überführt? Was verändert sich in der Zwischenzeit in der Organisation und der Anwendung Art und Weise, wie über Mensch-KI-Zusammenarbeit nachgedacht wird und wie entwickelt so Thema sich dann über Jahre innerhalb des Unternehmens und genau, da ich gerne einfach mal mit dir durchgehen. Ich glaube, das hilft total besser zu verstehen, wie dann Voice Agents Wirkungen entfalten können in einem Unternehmen und was es auch für Pitfalls auf diesem Weg gibt. Ja.  Malte: Ja. Und lasst mich mal über zwei potenzielle Wege reden. Der erste Weg ist, dass ein Customer Support Department, also im Grunde [00:21:00] bottom-up, Selber sagt, wir wollen Agents integrieren, wir finden nicht genug Customer-Support-Agenten wir haben 15 Minuten Wartezeit wir haben einen schlechten CSAT-Score, das heißt, wir wollen irgendwas tun. dann ein Head of Customer-Support, ein VP Customer-Support auf uns zukommt und sagt, hey, lass uns mal über Use-Cases sprechen, wir die einfachen Use-Cases lösen können. Wie wir dann in den News-Case sage ich gleich. Die zweite Option ist, dass wir top-down ein CEO oder COO-Thema werden. Und der Vorstand sagt, wir müssen Gentic AI integrieren. Und das ist jetzt Prio 1 Thema. Und wir haben hier von Paloa gehört, könnt ihr euch das mal angucken. Das  Felix: ist das Thema, da will ich einmal kurz reingehen. Ist das Thema, wir wollen Agentic AI weil wir hören gerade, dass dieses Thema groß wird und wir müssen da jetzt mitmachen? Oder ist es tatsächlich auch auf Top-Management-Ebene wo [00:22:00] sich angeschaut wird, wie können wir eigentlich... ... Kosten optimieren, Kundenerlebnis verbessern, ... wo sind unsere Hebel im Business. Und dann auf dieses Thema stoßen und eine Lösung dafür finden.  Malte: Ja, also deutlich nuancierter, als ich initial gesagt habe, also das Zweite, das ist tatsächlich Top-Management ... und meist waren das dann Strategieprojekte. Und das Schöne für uns ist, dass meist ... ... aus diesen Strategieprojekten als Resultat kommt, ... ... dass Customer Support einer der ... Fokus-Bereiche ist, in die investiert wird, um Adjantic AI in zu bringen. in den meisten Unternehmen, mit denen wir sprechen, ist Customer Support ein sehr relevanter Kostentreiber. Und Customer Support ist einer der relevantsten Adjantic AI-Use Cases. Und dann ist es halt einer der Top 3 oder 5 Anwendungsfälle für ein Und das Spannende ist, was wir schon in den letzten zwölf Monaten gesehen haben, ist, dass unser Thema zu [00:23:00] einem Top-Management-Thema geworden ist. Fast bei allen Kunden. Das war's vorher nicht. Vorher war Customer Support ein Thema, das bitte einfach funktioniert und nervt uns nicht mit Customer Support, weil es soll einfach nur funktionieren. Und es hat sich jetzt radikal geändert. Und sprech wöchentlich mit CEOs, die das Thema als, Top-Priorität in 25 für sich definiert haben. heißt, da hat sich schon in letzten zwölf Monaten viel geändert.  Felix: Naja man sieht einfach sehr selten wirklich guten Support. Also ich denke, Chance, nicht nur Kosten einzusparen sondern wirklich einen Unterschied zu machen. Und ich glaube, es ist halt ein Painpoint auf so vielen Seiten, also sowohl auf der Kostenseite Kostenseite, auf der Kundenseite auf der Mitarbeiterseite. nimmt jetzt gerne 100 Mal am Tag ... ... den gleichen Call an und spricht mit dem ... ... frustrierten Kunden, der 30 Minuten ... in der Warteschlange hing, die vorher ... ... dreimal abgebrochen ist, weil irgendwie ... das System ausgefangen ist. Richtig. Okay. Wenn ich jetzt diesen [00:24:00] Podcast gehört habe ... ... und sage, es war Mega, brauchen wir auch, kennen die Probleme, wollen wir uns anschauen. Was müssen wir denn für Grundlagen Voraussetzungen geschaffen haben, damit es überhaupt Sinn macht, sich jetzt mit so einer Lösung wie von euch zu beschäftigen?  Malte: Also das Spannende ist, man kann relativ schnell anfangen, auch wenn man noch eine alte Telefonanlage hat, wenn man noch relativ alte Backends hat, weil eine kleine Prozentzahl an Anwendungsfällen kann wahrscheinlich auch so schon entstehen ja gerne abnehmen, um wirklich Veränderungen zu treiben, sollte man mindestens gute Backend APIs haben, weil am Ende wollen wir Ende zu Ende Anwendungsfälle handeln mit unseren Agents und wenn unsere Agents nicht auf Backends zugreifen können, dann. Können diese Ende-zu-Ende-Anwendungsfälle gar nicht abgebildet werden. Das heißt, gute APIs zu Backend-Systemen die relevanteste  Felix: technische Voraussetzung. Datenqualität, also wenn ich meine Stammdaten da nicht im Griff habe, nicht weiß, was der Lieferstatus [00:25:00] ist, keine Kundenhistorie habe, wir jetzt mal in diese fortgeschritteneren Use Cases reingehen, das ist eine Ist dann wahrscheinlich auch ein Bottleneck oder? Malte: Ja, genau. Also natürlich bin ich auch bei dir wenn deine APIs da sind, aber keine relevanten Informationen von der API zurückkommen, dann kann man auch nichts machen. Wir reden auch immer von zwei Daten, das eine sind Wissensdaten, also wie kannst du eine FAQ beantworten? Und das Spannende ist, auch da hast du oftmals Wissensdatenbanken, wo sich Themen dann widersprechen. Das heißt, man muss eigentlich auch mit dem Kunden also mal anfangen, die richtigen Wissensdatenbank aufzubauen, um Fragen relevant zu beantworten. Das ist der erste Teil, da das kennen vielleicht viele von Retrieval Augmented Generation, wenn ich mir Pipeline aufbau auch die beste der welt wenn die daten dahinter widersprüchlich sind dann wirst du halt keine guten antworten von dem agent bekommen weil wie auch mensch würde auch keine guten antworten kriegen wenn er einfach mux in den [00:26:00] daten steht das heißt der erste schritt ist eigentlich sinnvolle daten zu haben die ich als basis für die einnehmen und die zweite das zweite ist Die zweite Art von Daten sind eigentlich die Daten, die aus den APIs kommen, wie du gesagt hast. Wenn ich nicht weiß, wann die Bestellung kommt, dann kann ich auch keine relevante Antwort geben. Was natürlich nicht das Idealszenario ist, aber wir haben auch schon Kunden gehabt, die meinten ist mir egal, weil im Moment kriegt der Kunde ja auch keine Antwort, ruft trotzdem an und ruft dann nicht mehr an. Das heißt, selbst wenn der AI-Agent sagt, sorry, ich hab die Daten nicht und auch wenn du mit Menschen sprichst, kriegst die Daten genauso nicht und es tut uns total leid wir haben sie aber leider nicht, hast du auch dem Kunden geholfen und zwar innerhalb einer Sekunde und nicht nach zehn Minuten warten sagt der Mensch, ja. Sorry, ich kann dir das nicht geben." Dann krieg ich die Antwort lieber nach 15 Sekunden vom AI-Agent, der dir sagt, sorry, ich kann dir damit nicht helfen, aber ein Mensch könnte es auch [00:27:00] nicht, es hilft trotzdem. Das sind so die fünf bis zehn Prozent, die du auch ohne relevante Backends abbilden kannst. Im besten Fall hast du aber gute Daten, du hast gute APIs  Felix: und  Malte: kannst natürlich Ende zu Ende diese  Felix: Probleme lösen. Okay, gut. Ich kenn das so meinen Projekten dass ... ... eh keiner so richtig gute Daten hat und alle mit irgendwelchen Legacy-Systemen zu kämpfen haben und wahrscheinlich kann ja dann oft auch so ein Projekt dabei helfen, da mal aufzuräumen und Dinge glatt zu ziehen, um Muse-Cases freizuschalten, wo dann auch ein Business-Case dahinter liegt. Malte: Was sicherlich auch ganz spannend ist, dass du ... Also ganz oft sind APIs das Problem und die werden es auch in Zukunft noch sein. Du wirst aber Zukunft zu Schnittstellen und da gibt es natürlich jetzt auch wahnsinnig viel Entwicklung, wo APIs an sich REST APIs nicht mehr die relevanten Schnittstellen sind. Was wir aber ebenfalls glauben ist, dass... Wenn du dir Customer Support [00:28:00] anguckst, dann hast du ganz oft menschliche Agents die arbeiten in Frontend-Systemen in einem SAP. Und das SAP hat beispielsweise keine API, aber im Frontend, auf dem Bildschirm, können die alle diese Sachen machen. Das heißt, wenn, vielleicht kennt der eine oder andere den Open-Air-Operator, das heißt, es sind ja im Grunde Systeme die auf einem... Frontend auf einer Homepage ausüben können. Das heißt woran wir glauben, ist, dass AI-Agents in Kombination mit Systemen die in Frontends arbeiten können, so viel einfacher mit Backends reden können, wenn die API nicht vorhanden ist. Das heißt, wirst Zukunft auch, wenn du keine API hast, Aber ein Frontend, wo im Moment ein menschlicher Agent im Grunde äh, arbeitet, werden AI-Agents in diesen Frontends arbeiten, um Probleme zu lösen. Es wird natürlich länger dauern weil dann sagt der AI-Genier, Moment, ich muss das kurz machen, und dann rum. es wird länger dauern als das, was ein Mensch vorher gemacht hat.  Felix Schlenther: Kurz in eigener Sache. Wenn dir [00:29:00] der AI First Podcast gefällt und du mehr spannende Inhalte und hochkarätige Gäste hören möchtest, dann freue ich mich über deine Unterstützung. Mit einer Fünf-Sterne-Bewertung und einem Abo für den Podcast hilfst du uns sichtbarer zu werden und AI First weiterzuentwickeln. Für dich und die gesamte Community. Ich danke dir. Felix: Lass uns mal in diesen ersten niedrigschwelligen Use Case reingehen, den du vorhin beschrieben hast. Und zwar, ich hab jetzt hier meine ... ich wollte schon sagen Info-Ad-Telefonnummer, meine Customer-Support-Hotline, das ist der richtige Begriff und bekomme dort jetzt sehr viele Anrufe und die müssen erstmal klassifiziert und dann weitergeleitet werden. Wie läuft das dann? Nehme ich mir dann den Paloa Customer Support, den Agent aus dem Regal und implementiere den oder was gibt es jetzt zu tun, um diesen Agent dann ready zu machen für den Produktivbetrieb  Malte: Ja, es ist fast genauso, wie du gesagt hast, also du hast, wir nennen [00:30:00] unsere Plattform die AI Agent Management Plattform, also du managst ja AI Agents, das heißt, was du da kreierst du kreierst erstmal einen AI Agent und den briefst du, wie du auch ein Männchen Agent briefen würdest, was ist deine Persona ähm Wie verhältst du dich mit dem Kunden? Das heißt, du briefst einen AI-Agent erst mal wie einen Menschen. Wenn du bei Firma XY ans Telefon gehst, bitte verhalte dich so. So das ist das erste, was du machst Das ist  Felix: so-Prompt Genau, das ist im Grunde wie es ist.  Malte: Ja, wir haben noch mal ein System-Prompt drumherum. Das ist aber ein Teil am Ende des Prompts, der genutzt wird, damit der Agent weiß, was zu tun ist. Und was du dann machst, ist, sogenannte Skills hinzuzufügen. Skills ist wie ... Ein Mensch, wir, du Felix hast Skills, ich habe Skills und ein AI-Gent hat auch Skills, ja du fügst dann ein Skill dazu, beispielsweise ein Routing-Skill, das ist ein vordefinierter Skill, den haben wir im Grunde gepromptet und er ist definiert und optimiert und dann kannst du [00:31:00] verschiedene Routing-Ziele definieren, also du schreibst dann, hey, wenn jemand... Adressänderung machen möchte route an das ziel und dann hast du so eine so genannte hast du entweder telefonnummer oder zip ziel ist ein telefon standards zu sagen sowie video wieder ohne telefonanlagen miteinander verbindet Und das kannst du dann 20, 30, 50, 100 definieren und dann ist die Aufgabe des AI-Agents rauszufinden, wo will der Kunde denn hin und dann führt der Agent ein Gespräch wenn das noch nicht ganz klar ist, wenn irgendwie zwei Ziele zugleich sind, was ist es denn jetzt wirklich und versucht hat in dem Gespräch rauszufinden, was ist denn jetzt das eigentliche Anliegen und Routet dann im Grunde an die Nummer weiter, wo dann wiederum 20, 100, 150 Agents hintersitzen und die richtige Person die dann irgendwie verfügbar ist rangeht und wir Kontext mitschicken. Worum ging es [00:32:00] überhaupt? Was ist das Sentiment des Kunden, damit der Agent abheben kann und direkt weiß, moin Felix, du hattest eine Frage zu deinem Vertrag, lass es direkt starten Ich sehe hier, im besten Fall ist dein Profil schon dem Screen des menschlichen Agenten und man kann direkt durchstarten. Felix: Das klingt jetzt so, als würde das immer perfekt funktionieren. Eine Stärke von Agenten ist ja der Autonomie-Grad, also sie können auf dieses Ziel hinarbeiten und den Weg dahin selbst bestimmen und sich auch selbst wieder kontrollieren und einen anderen Weg finden und deswegen sehr flexibel insbesondere für Edge Cases einsetzbar. Und das ist aber auch irgendwo wieder die Schwäche, weil sie sind halt sehr autonom und man hat weniger Leitplanken, die man im Verhältnis zu so einem regelbasierten System einstellt. Wie geht ihr denn damit um? Und dann zweite Frage, vielleicht gleich in dem Kontext, wie managt ihr, also ich kann mir vorstellen, dass doch [00:33:00] da extrem viel Vertrauen erstmal aufgebaut werden muss, damit auch so ein Head of Customer Support sagt, Ja, kein Thema. Wir nehmen jetzt hier unsere alte irgendwie raus Genau, wir nehmen das raus und das nimmt auch kein Mensch entgegen sondern wir vertrauen jetzt dem AI-Agent, der das im Hintergrund alles managt. Ja. Also,  Malte: ich 100 Prozent bei dir. Und ich glaub, das Erste das relevant ist, dass du Transparenz schaffen musst, wie ein AI-Agent funktioniert Und was am Anfang von dieser ganzen Entwicklung immer gemacht wurde, du hast irgendwie prompt geschrieben und dann hast du den AI-Agent live gestellt. Und wir haben immer gesagt, so funktioniert das ja nicht, das ist ja viel zu unsicher. Du weißt ja gar nicht ob das funktioniert, das ist ja kein Regelwerk. So, das heißt, eines der ersten sehr komplexen Funktionalitäten, die wir ausgerollt haben, ist sogenannte Simulation und Evaluation, was wir im Grunde [00:34:00] einer der relevantesten und zeitaufwendigsten Prozesse, um AI-Agents in Produktion zu bringen. Sind Tausende und Tausende von Simulationen laufen zu lassen. Das heißt, du baust deinen AI-Jet du baust all diese Routing-Ziele Erstmal du baust dann 100 Routing-Ziele, so. Dann hast du dann irgendwie definiert wo das hingeht. So, was du dann machst, ist, du baust Simulationen Du, ähm, wie ein Testcase, ähm, Unit-Tests beim Software-Engineering. Du baust dir wirklich Testcases. Ähm die kannst du auch beispielsweise aus vergangenen Unterhaltungen ... Du nimmst dir Transcripts von vergangenen Unterhaltungen, kannst die aber auch synthetisch erstellen. Und baust dann ganz viele Testcases.  Felix: Kannst mal Hausnummer nehmen? Was sind ganz viele? Sind das Tausende Zehntausende? Zehntausend  Malte: Zehntausend-Plus-Simulationen die man laufen lässt. Und die lassen wir dann, wir kreieren dann einen AI-Customer und einen AI-Kunden und die lässt du im Grunde miteinander sprechen und [00:35:00] kreierst diese ganzen Simulationen mal mit Kunden, mal mit glücklichen Kunden, mal mit folgenden Use Cases, ganz verrückte Sachen, du lässt im Grunde auch über synthetische Daten ganz verrückte Cases erstellen, die es noch nie gab. So und dann lässt du das durchlaufen das dauert halt auch, weil du hast ja wirklich, du hast wirklich mal LLM Calls und Konversationen die dann passieren und im zweiten Schritt machst du Evaluation, das heißt du versuchst mit einem AI Judge zu gucken, hat das denn alles auch so funktioniert, wie das hätte funktionieren sollen Und so kannst du dann im Grunde quantifizieren funktioniert mein AI-Agent überhaupt so, wie ich das möchte oder nicht? Und kannst dir dann im Grunde ein Measurement überlegen, ab wann bist du confident, das Ganze in Produktion zu bringen. Und das meine ich mit Transparenz schaffen. Du musst ja verstehen, wie dein AI-Agent und Scale funktioniert. Und das kannst du sehr stark über diese Simulationen Evaluationen treiben und iterierst im Grunde auf dieser Datenbasis auch die Prompts [00:36:00] hast aber halt eine Datenbasis weil einfach zehnmal anzurufen oder zu chatten ist halt nicht die Grundlage um wirklich zu testen ob AI-Agents funktionieren  Felix: Wo liegen denn diese Grenzwerte, um das Vertrauen zu haben? Ist das schon eigentlich geschwankt wahrscheinlich, aber jetzt stelle ich mir vor, also ich kriege jetzt Millionen von Calls selbst 99,9 Prozent, also 0,1 Prozent Abweichung vom geplanten Ziel ist ja dann immer noch ein relevantes N. Was das heißt, liegen diese Werte noch höher oder niedriger, oder? Das kommt total auf den Use Case an. Im  Malte: Routing ist es nicht so relevant, weil du weißt, das Schlimmste was passiert, ein falscher Agent geht ran und sagt, sorry, kann ich dir nicht helfen, ich leite dich mal kurz zu meiner Kollegin weiter. Das heißt, es ist immer eine Definition zwischen wie viel Risiko hast du, hast du eine finanzielle Transaktion Ist 100 Prozent das [00:37:00] Ziel, das du erreichst oder erreichen möchtest. Und dann kannst du irgendwann sagen, okay, wir glauben, das ist quasi 100 Prozent. Bei einem Routing muss der Kunde definieren und es ist immer ein Measurement zu dem, wo er gerade ist. Teilweise haben Kunden irgendwie 80 Prozent Routing-Genauigkeit. Da ist theoretisch 81 Prozent schon besser, kannst du direkt loslegen, weil was ist denn... Menschen sind ja auch nicht... Genau, Menschen sind auch nicht perfekt, Menschen machen auch Fehler, das ist immer im Grunde was wir unseren Kunden immer sagen, wir halt, wir müssen halt AI-Agents mit menschlicher Akkuratität vergleichen weil das ist die neue Bachelor, du kannst nicht mit einem Software-System vergleichen weil ein Software-System, das deterministisch ist, das macht immer das gleiche die Qualität ist aber halt auch nicht gut. AI-Agents haben eine viel, viel höhere Qualität, was Komplexität an Anwendungsfällen angeht. Du musst aber die Genauigkeit mit der Genauigkeit mit Menschen vergleichen. Mhm. Das heißt, um deine Frage zu beantworten, es kommt total auf den [00:38:00] Anwendungsfall an. Bei Routing kannst du mit viel geringeren Schwellenwerten arbeiten, als du es bei sehr, sehr relevanten finanziellen Transaktionen machen  Felix: kannst. Okay verstanden. So, dann werden da weitere Inbound-Use-Cases draufgeschaltet, wie zum Beispiel Paketstatusabfragen oder Adressänderungen in meinem Profil Dann habe ich wieder die gleiche Mechanik andere Schnittstellen mit anderen Datensätzen andere Skills, die ich dem Agent mitgebe. Aber der Rest funktioniert ähnlich. Ja  Malte: Genau, du kannst dann, was du im Grunde machst, du hast dann ein AI-Jet der läuft und dann erstellst du weitere Versionen und in dieser neuen Version, die im Staging läuft, fügst du dann einen neuen Use-Case hinzu, beispielsweise, wo ist meine Rechnung, ne, wo ist meine Bestellung, noch einfacher, verbinde dann irgendwie das ERP, teste das dann, baue wieder Simulationen baue wieder Evaluationen und sobald ich... [00:39:00] Sicher bin, dass das Ganze funktioniert. Und du lässt übrigens auch die Routing Simulation Evaluation nochmal laufen, weil sich ja dein gesamter Prompt verändert. Das heißt, du musst natürlich auch die vergangenen Use Cases wieder testen, weil der ganze AI-Gen ist jetzt ja ein bisschen anders. heißt, du lässt alles nochmal durchlaufen. Wenn du sagst Okay, Routing ist auf der gleichen Qualität und mein wo ist meine Bestellung Use Cases auf der richtigen Qualität, dann kannst du es live schalten und dann war es bevor du es live geschaltet hast, wenn der Kunde Eine Frage zu, wo die Bestellung ist, wurde vielleicht weitergeleitet zu einem Agenten und jetzt in der neuen Version wird das dann automatisch gemacht über den AI-Agent. Felix: Okay, und so baue ich mir Use Case für Use Case mein Team aus Agenten auf und habe praktisch immer mehr Logiken dahinter, wie diese Agenten miteinander arbeiten. Und  Malte: das ist übrigens auch spannend, du hast gerade Team of AI-Agents gesagt, da gibt es auch zwei Ebenen. Wir sagen unserem Kunden, im besten Fall hast du einen [00:40:00] AI-Agent, den Personal AI-Agent, der Felix AI-Agent, der ist immer das eine Stimme zum Kunden. Immer wenn ich anrufe, geht Felix ran und Oder dein persönlicher Agent von Felix geht ran mit der gleichen Stimme, dem gleichen Kontext. Im Hintergrund ist es aber ein Multi-Agent-System. Und für verschiedene Use Cases werden im Grunde verschiedene Agent orchestriert. Der Kunde merkt das aber gar nicht, weil es immer die gleiche Stimme die gleiche Persona ist. Aber natürlich, je komplexer die Use Cases werden, desto mehr Agents brauchst du im Hintergrund, die im Grunde verschiedenste Anwendungsfälle umsetzen.  Felix: Wie sieht das denn mit Outbound-Telefonie aus? Macht ihr sowas auch, also nicht ich rufe an und brauche etwas, sondern es ist irgendein Event eingetreten und ich muss den Kunden darüber informieren Upsell-Möglichkeit gibt es oder irgendeine Promotion oder so etwas, vielleicht hast du noch bessere Use Cases, ist das auch ein Thema, weil das stelle ich [00:41:00] mir dann nochmal ungleich komplexer vor. Gleichzeitig habe ich aber, vielleicht in dem Kontext, du kennst doch sicherlich auch diesen Body Agent, oder? Du kannst mal auf LinkedIn schauen, wenn du nach Bordy suchst kannst du ihm eine Nachricht schreiben und schickst ihm deine Telefonnummer, dann ruft er dich an und du kannst mit dem ein Megagespräch führen und der geht dann auf LinkedIn.  Malte: Hm? Wenn du gelangweilt bist, kannst du den anrufen? Nee, nee,  Felix: ich glaube, das kommt Board of Advisors oder so. Ah okay. Weil er geht dann auf LinkedIn los und schaut basierend auf dem, was du ihm erzählt hast, was du für Challenges hast, sucht er nach Leuten, die dich unterstützen können und macht auf LinkedIn Intros. Nein, aber nicht schlecht. Lustige Idee. Und der ruft dich halt outbound an. ... in no way würde das jemand erkennen, dass das eine AI ist. Also den Test mache ich auch immer gerne mit Leuten, ... sie denken, ja, aber das merkt man doch oder so, ... ... [00:42:00] dann probiere ich das immer aus, weil da merkt es wirklich fast niemand. Und genau, deswegen glaube ich also ich glaube, es ist schon irgendwie komplexer, ... ... aber müsste ja eigentlich auch gehen. Wie relevant ist das schon für eure Kunden? Ja, also technisch  Malte: funktioniert das ohne Probleme Da sind eigentlich zwei Herausforderungen. Das eine ist, darf das Unternehmen einen aktiven Outbound Call mit AI überhaupt ausführen? Das heißt, du hast ja im Grunde in der ersten Sekunde wo du rangehst hast du im Grunde AI, die die Speech-to-Text, also wo das Audio verarbeitet und so weiter das ist so die erste Legal-Herausforderung. Die zweite Herausforderung sind die Use Cases, es relevant ist. Und wir sehen das immer mehr, dass es relevant ist, dass beispielsweise, wenn ein relevanterer Komplex-Anwendungsfall ... äh, äh äh getriggert wird, dass AI-Agents auch mal Supplier anrufen für einen Kunden. Also tatsächlich mehrere [00:43:00] Schritte für das Unternehmen ausführen. Und dann den Kunden zurückrufen, wenn sie im Grunde ein Problem gelöst haben. Das heißt, ein Kunde hat ein Problem, ähm ... Der Agent triggert mehrere Anrufe zu Suppliern oder muss ein Taxi bestellen und ruft den Kunden dann zurück und sagt, ja habe ich alles gemacht, wird erledigt. Das heißt, ja, ich glaube fest daran, dass auch Outbound-Calls immer mehr auch bei großen Unternehmen relevant werden. Und technisch ist das schon möglich. Es ist am Ende ein Outbound ... Legal-Thema ist das Ganze schon umsetzbar, ... ... aber auf jeden Fall ein wahnsinniger Anwendungsfall, ja.  Felix: Was sind denn jetzt so die Mehrwerte, ... ... die eure Kunden dann erzielen? Was könnten wir da nehmen als Messwert, als Richtwert? Also geht es hauptsächlich um die Effizienzsteigerung? Was sind die anderen KPIs, wie zum Beispiel Customer Satisfaction Score, Uplift oder ähnliches Was messt ihr da und was erzielen [00:44:00] eure Kunden da im Durchschnitt für Ergebnisse  Malte: Ja, es ist am Ende beides. Also klar können Unternehmen Effizienzsteigerungen erreichen, auf der anderen Seite können sie aber auch klare Customer Satisfaction Steigerungen erwarten. Wir haben Kunden, die sagen, 60% der Kunden, die mit dem AI-Agent gesprochen haben, hatten danach ein besseres Verhältnis zur Brand als vorher. Es ist nicht nur Effizienzsteigerung es ist auch Customer Experience Improvement und was wir den Unternehmen versuchen mitzugeben ist, dass wir stehen vor wahrscheinlich einer der größten Customer Experience Transformationen die es in den letzten 20 Jahren gegeben hat. Jede Homepage, jede App, jeder Touchpoint wird in irgendeiner Weise ein Gespräch beinhalten. Es ist doch viel einfacher, wenn ich mit einer Homepage rede und mit einer App rede und nicht durch ein kompliziertes Menü Mich klicken muss das heißt wenn ich jetzt davon ausgehe dass jeder touchpoint irgendwie eine konversation beinhaltet dann wird doch mein [00:45:00] persönlicher agent der persönliche agent von felix der touchpoint sein der mich begleitet wo auch immer ich mich mit diesem unternehmen Beschäftigen möchte und das was Jedes unternehmen Jetzt starten kann es eine eine eine beziehung aufzubauen zwischen felix persönlichem agent und felix und jedes mal wenn du dann bei diesem unternehmen anruft und dein persönlicher agenten herangeht die gleiche stimme weiß exakt was die letzten male geschockt hast weiß dass du letztes mal einen anzug für die hochzeit eines besten freundes braucht es fragt sich wie war es denn und Dann baust du auf einmal eine relationship auf die du vorher nie aufbauen konntest weil du ganz viel kontext wenn du kein gespräch wirst gar nicht hast wenn du einfach durch den form auf einem e-commerce store gehst und sagst ich brauche einen anzug der soll irgendwie schwarz sein dann weißt du gar nicht dass es die [00:46:00] hochzeit von am besten freund ist du weißt nicht wo die ist wenn du gespräch wirst kannst du das alles herausfinden und die als felix am besten helfen das heißt wir sind eigentlich im Am Anfang der größten Transformation in der Customer Experience und Customer Support ist eigentlich der perfekte Startpunkt, diese Transformation zu starten. Das ist viel, viel mehr als jetzt irgendwie bisschen Automation zu starten.  Felix: Drei Jahre von heute gedacht, wie sieht da eine State-of-the-Art-Customer-Support-Organisation aus und welche Rolle spielt der Mensch darin noch?  Malte: Also in drei Jahren die führenden Enterprise-Unternehmen einen persönlichen AI-Agent pro Kunden haben. Der hat den ganzen Kontext des Kunden, der ist 24-7 erreichbar, Weiß alles vom Unternehmen, das relevant ist für den Kunden. Dieser AI-Agent ist am Telefon [00:47:00] erreichbar, über WhatsApp für den Kunden, auf der Homepage, in der App, also ist überall erreichbar. Die Interaktion mit dem AI-Agent ist quasi so natürlich wie mit einem Menschen zu sprechen. Du wirst keinen Unterschied mehr spüren ob es ein Mensch ist oder ein AI-Agent, weil es so natürlich ist. Und eine Customer Support Organisation wird dahingehend sich verändern, dass Menschen viel mehr in Level 2 und Level 3 Relevant werden, das heißt, die viel komplexeren, emotionaleren Themen bedienen und menschliche Agenten zu Supervisern werden. Also es wird auch in drei Jahren noch sehr oft vorkommen, dass ein AI-Agent nicht weiter weiß. Weil das vielleicht ein Latch-Case ist oder das in Backend nicht relevant ist oder Compliance-technisch nicht komplett automatisiert werden kann. Und dann kommt im Grunde ein Mensch der dem AI-Agent hilft, diesen Prozess umzusetzen. Das heißt, dann sagt dein AI-Agent, hey Felix, gib mir mal ganz kurz, ich muss das ganz kurz mit einem Supervisor [00:48:00] klären. Während ich das mache, übrigens, hast du schon gehört, wir haben eine super starke neue Kollektion für den Sommer, was auch immer das Gespräch dann, oder soll ich dich in drei Minuten zurückrufen, sobald ich das mit einem Supervisor geklärt habe. Was auch immer du dann möchtest. Und sobald dieses Gespräch mit dem menschlichen Supervisor erledigt ist, kann der AI-Gener im Grunde das Problem mit dir lösen. Das heißt, die Aufgaben werden sich signifikant verändern vor den menschlichen Agenten. Felix: Dann ist das ja auch wahrscheinlich ein riesen Upskilling, Reskilling-Thema in den Organisationen jetzt die Leute fit zu machen, zum einen mehr in andere, anders gelagerte Anwendungsfelder zu gehen und gleichzeitig auch Managern von Agents zu werden und den Umgang selbst mit KI und der Zusammenarbeit mit KI zu lernen. Genau. Also  Malte: es ist beides. Wenn mehr Level und Third Level relevant ist, dann [00:49:00] musst ausbilden Aber natürlich, um ein Supervisor von einem Agent zu sein, du ebenfalls andere Skills lernen. Das heißt, ja, Customer Support werden sich ändern die nächsten drei Jahre.  Felix: Malte super, super inspirierend echt spannend, was da so, was da passiert in dem Markt, was heute schon möglich ist und der Ausblick, fand ich, ist bei mir gerade auch nochmal der Kopf aufgegangen es ist ja ein wirklich hoch skaliertes System, also ich habe dann praktisch genauso viele Agents wie Kunden, bei Millionen von Kunden hätte ich dann potenziell Millionen von Agents und das ist ja auch nur eine Anwendung Bereich in einem Unternehmen. Das Ähnliches wird ja dann wahrscheinlich im Sales passieren, in internen Prozessen. Also wir werden ein x-faches von Agents auf der Welt haben als Menschen. Abschließend noch eine letzte Frage. KI-Welt dreht sich schneller, als wir irgendwie alle hinterherkommen. Deswegen mag ich es immer gern von Leuten, die sich [00:50:00] nur damit beschäftigen, so den Blick zu bekommen, was du dir gerade anschaust. Was sind so die Entwicklungen in den nächsten zwölf Jahren, die du ganz genau im Auge hast, neben Voice AI? In den nächsten zwölf Jahren oder zwölf Monaten? Oh, zwölf Monaten. Zwölf Jahre, das passiert viel. In den nächsten zwölf Monaten.  Malte: Ja, was den nächsten ... Also, neben ... Voice, AI oder allgemein Agendic AI und Customer Support finde ich die Entwicklung von Robotics super spannend. Es gibt ja verschiedenste Unternehmen, die gerade an relativ günstigen Robotern arbeiten, die einem im Haushalt helfen. Das heißt, ich glaube, wir werden viel, viel mehr relativ smarte Roboter sehen, die uns den Alltag zu Hause sehr viel einfacher machen und ich glaube, da werden wir ganz viele Situationen haben, die sich vor zehn oder fünf Jahren noch nach Science Fiction angefühlt haben und jetzt tatsächlich Realität werden. Ich [00:51:00] glaube, da wir noch einige Überraschungen  Felix: Malte vielen, vielen Dank. Tolles Gespräch. Danke, was du geteilt hast und euch weiterhin viel Erfolg. Danke Felix.
This is a success message.
This is an error message.