Felix: [00:00:00] Herzlich willkommen zum AI-First-Podcast. Heute zu Gast ist Jonas Dietzuhn, der Gründer und CEO von BEAM, einer KI-Agenten-Plattform, die selbstlernende Agenten für Unternehmen bereitstellt. Wahrscheinlich das größte Thema in der KI-Welt aktuell und deswegen freue ich mich, Jonas, dass du hier bist und wir heute darüber sprechen können, wie ihr das umsetzt und was ihr in den letzten Jahren darüber gelernt habt.
Jonas: Freue mich da zu sein, Felix Bin gespannt
Felix: Jonas, ihr seid ja schon ein bisschen, ihr wart ein bisschen vor der Zeit unterwegs, als ihr Beam gegründet habt, 2022. Und ich weiß noch, was du mir damals so von euren Thesen erzählt hast. Und da dachte ich damals schon so, okay, alle waren noch dabei irgendwie zu lernen, wie man mit KI-Chatbots arbeitet.
Und ihr habt schon ein bisschen weiter gedacht. Erzähl noch mal kurz so, was ist eure Gründungsstory? Welche Hypothesen habt ihr damals aufgestellt über Agents?
Jonas: Ja, gerne. Also es war ein
Felix: ZDF
Jonas: [00:01:00] Ich habe ja davor Gemacht und dann waren wir am überlegen, okay, was bauen wir jetzt als nächstes und welche Firma wollen wir bauen und ich hatte in 2015, 16 damals Konux mit aufgebaut, wo wir eigentlich AI genutzt haben und Predictive Analytics zu machen und das war damals auch noch sehr neu und da haben wir Neural Networks verwendet und wir haben damals aber schon so ein Verständnis entwickelt, dass AI sich exponentiell weiter entwickelt und war das super rudimentär aber wir haben das genutzt um bestimmte Analytics besser zu machen.
Und dann haben wir 2022 gesagt, naja gut, wenn AI sich exponentiell entwickelt und damals gab es irgendwie
Felix: Dank.
Jonas: Wird irgendwann AI alles können, was Menschen auch können. Und wenn das der Fall ist, dann sollten wir das vielleicht einfach bauen, auch wenn das jetzt ein bisschen dauert, weil das wahrscheinlich ein ganz guter Markt sein wird.
Und dann haben wir angefangen damals mit GPT-3 rumzuspielen. Dann
Felix: [00:02:00] Dank.
Jonas: irgendwie so kleine Aufgaben zu geben und hey, plan mal irgendwie ein paar Schritte. Und das hat so funktioniert in Ansätzen. Wir hatten Demos, die Prototypen die waren echt cool. Die haben dann halt nicht in Produktion oder auch nicht dann sehr repeatable irgendwie funktioniert, aber es war schon abzusehen dass das cool sein kann. Und dann kam
Felix: Untertitelung
Jonas: Paper raus, Human Simulacra und dann haben alle über Agents oder dann ging es so los mit Agents haben wir gesagt, okay, wir machen jetzt einfach nur noch Agents so nennen wir das jetzt, Vollgas da drauf, mal schauen, wie lange das dauert
Felix: des ZDF
Jonas: angefangen.
Und dann war ich auch im Silicon Valley, habe irgendwie mit Investoren und Leuten geredet und alle so... Macht euch keinen Stress, das dauert noch zwei bis fünf Jahre, das ist noch nicht relevant, Turnout ging dann doch ein bisschen schneller aber seitdem bauen wir dran
Felix: Und du hattest damals glaube ich erzählt, dass es eigentlich so, dass die letzte [00:03:00] Firma, die man überhaupt noch bauen muss, weil mit dem was man dann darauf aufbauen kann, kann man wiederum alles andere bauen. Würdest du es heute immer noch so sagen?
Jonas: Hundertprozentig Noch viel stärker sogar. Vor zwei, drei Jahren war das so eine Idee und wir haben
Felix: Vielen
Jonas: Mittlerweile bin ich wirklich felsenfest davon überzeugt und wir zeigen das jetzt auch in dem, was wir
Felix: Dank.
Jonas: gebaut, wo ich alle meine Prozesse automatisiere und alles um mich herum baue.
Und das ist jetzt nicht nur das ... ich mich selbst irgendwie versuche, in eine AI zu gießen, ... ... sondern ich versuche quasi eine verbesserte Version ... von mir selbst in eine AI zu gießen. Ja, und dann habe ich so ein Sounding Board, ... habe Frank Sloteman, ich habe ganz viele Leute ... ... AI Personas die mir auf alles, was ich mache,
ein Feedback gebe. Wenn ich jetzt danach diesen Podcast da reingebe, ... dann heißt es wieder, Jonas, das war eine gute Antwort, ... das war nicht so eine geile Antwort, ... ... nächstes Mal bitte das besser machen. Und jetzt ist es natürlich von da nicht mehr wahnsinnig weit weg, ... dass ich eigentlich nur noch der [00:04:00] Executor der AI bin.
Und wenn das der Fall ist, dann braucht man mich ja irgendwann nicht mehr, außer vielleicht um noch ein paar Hände zu schütteln. Insofern bin ich heute noch viel stärker davon überzeugt dass das eigentlich die letzte Firma ist, die wir bauen. Vielleicht machen wir danach nochmal irgendwas anderes, aber zumindest können wir das, was wir jetzt bauen, dann auch nutzen, um alles, was wir in Zukunft bauen wollen, zu bauen.
Felix: Um Credible zu sein bei euren Kunden, müsst ihr ja auch eure beste Case Study sein. Würde ich mal sagen. Das ist zumindest das, was wir hier immer bei uns versuchen und sage, wir müssen das halt selbst irgendwie radikal bei uns einsetzen und mit gutem Beispiel vorangehen und alles, was wir nicht verstehen und zeigen können, woher sonst unsere Kunden wissen.
Jonas: Ja das stimmt. Ich würde da aber so ein bisschen die Einschränkung machen. Also vor ein, zwei Jahren war es alles so, du musstest Tech-mäßig extrem gut sein und alles verstehen und so sagen, hey, guck mal ich habe hier was Neues, das versteht ihr noch nicht, aber wir können euch das beibringen und wir können das gemeinsam machen. Jetzt ist die Tech sowieso schon so weit, dass du eigentlich fast alles lösen kannst. Das heißt, [00:05:00] technisch ist das gar nicht mehr so unfassbar interessant, sondern es geht jetzt vielmehr darum, wie bringe ich das in Produktion und welchen Value hebe ich tatsächlich beim Kunden und was brauche ich dafür, um diesen Value zu heben?
Und dieser Value ist dann halt nicht Am Ende, das Bottleneck ist nicht die Tech, sondern das Bottleneck ist Prozesswissen. Das sind die Leute, die sich nicht ändern wollen. Das sind irgendwelche alten Sachen oder Informationen, die man nicht hat. Das sind Systeme und so weiter und so fort. Und insofern hat sich das, glaube ich, ein bisschen verändert.
Also man muss, und machen wir auch, unser eigenes Produkt bis zum Exzess nutzen. Auf der anderen Seite muss man in 2026 wirklich produktiv gehen und zeigen können, welchen Value am Ende AI hebt, wie viel spare ich ein, wie viel schneller bin ich etc., Ansonsten kommt man da nicht mehr weiter. Ich glaube, das hat sich ein bisschen geändert.
Felix: Jetzt ist ja seit eurer Gründung, und du hast gerade schon so ein paar Meilensteine erzählt, also damals die Language Models, die Sprünge die es gemacht hat, die waren ja schon noch sehr, sehr groß. Die sind kleiner geworden und trotzdem stimme ich dir zu, dass die Fähigkeiten [00:06:00] von KI immer, immer besser geworden sind und immer mehr Dinge besser konnten als Menschen.
Und der Trend hält ja. Und jetzt in den letzten Wochen ... Geht es ja irgendwie gefühlt noch mal schneller weiter und ich würde sagen mit so dem echten Ankommen von Cloud Code in der Breite und dann allem, was um Moldbot und OpenClaw jetzt gerade passiert ist, passiert noch mal mehr, gerade was so in diesem Bereich KI-Agenten haben ein Gedächtnis, was sich fortlaufend aktualisiert und können wie auch proaktiver werden.
Wie ordnest du das ein?
Jonas: Ich glaube, das erste Wichtige ist zu verstehen, dass AI
Felix: Vielen Dank
Jonas: da bestimmte Plateaus gibt, ja, aber by large und wenn man rauszoomt entwickelt sich AI exponentiell. So, und jetzt wir als Menschen können das halt nicht wahnsinnig verstehen und vor zwei Jahren war das das erste Mal so, dass man das Gefühl hatte, okay, AI, wir [00:07:00] verstehen es, weil es auf einmal in diese Region kommt, wo Menschen auch sind, ja, so und jetzt zieht es halt extrem schnell an uns vorbei, ja, und kann auf einmal Sachen, die Menschen, also es kann Sachen so gut wie Menschen und es kann wahrscheinlich demnächst Sachen viel, viel viel besser, sodass wir das gar nicht mehr verstehen werden und
Felix: Ist das nicht heute schon so? In vielen Bereichen.
Jonas: In vielen Bereichen ist das auch heute schon
Felix: Also KI kann doch besser einen Text lesen als ich das kann und ganz viel oder ganz viele Daten besser verarbeiten als ich und generieren über Text, Bild, Audio, Video, Code. Video ist vielleicht noch die letzte Instanz die hält, aber das fällt doch jetzt alles.
Jonas: Absolut, fällt alles. ich glaube, es gibt noch so ein paar, wie strogiere ich, da hat man vielleicht noch manchmal Vorteile wie baue ich bestimmte Systeme zusammen, Systeme übergrafen, da hat man vielleicht als Mensch noch so ein bisschen Vorteile. Liegt aber auch daran, dass am Ende die AI ja jetzt nicht irgendwie auf dem Bildschirm lebt und kein physisches Wesen ist, sondern am Ende immer nur Access hat zu den Files die es gerade
Felix: Vielen [00:08:00] Dank
Jonas: klappe irgendwie, keine Ahnung, 30 PDF-Files da rein und... Und AI weiß alles und liest auch aus dem Transcript die Bedenken viel besser raus als ich. Absolut. Aber um das wieder einzuhalten, ich glaube, die Entwicklung geht weiter. Jetzt gerade sind wir beim Punkt, wo AI-Agenten eigentlich sehr gut sind. Oder besser als Menschen viele Aufgaben lösen können. Es dauert manchmal noch sehr lange, bis sie produktiv werden. Das ist jetzt das Nächste was viel, viel schneller gehen wird. Du hast es ein bisschen angesprochen, selbstlernende Systeme. Klar, am Anfang weißt du ja eigentlich alles, aber sie bringt sich das halt über Zeit bei.
Und am Anfang hast du Edge Cases, die nicht funktionieren. Aber du kannst ja viele Sachen dann doch vielleicht auch erraten oder über die Zeit aus den Traces lernen. Und dann brauchst du vielleicht den Menschen gar nicht mehr, um jetzt da noch irgendwas einzustellen.
Felix: Erklär das mal kurz. Wie? Weil ich glaube, das ist eine Ebene die aktuell vielen noch nicht zugänglich ist, dass die [00:09:00] KI... Mit der sie arbeiten, selbst dazu lernt. Was muss passieren, damit das funktioniert?
Jonas: Am Ende braucht die AI irgendeine Art von Feedback. Das kann einmal über sich selbst sein. Also du kannst eine AI haben, die executet was. Und dann habe ich eine andere AI oder kann auch das gleiche Modell sein mit einem anderen Prompt und beobachtet den Output und sagt halt, das war gut oder das war schlecht.
Das Interessante ist, dass man damit schon extrem viele Fehler lösen kann. Ich glaube, es gab jetzt ein Paper von OpenAI, dass man irgendwie 80 Prozent der Fehler so schon relativ einfach wieder ausbessern kann. Und dann kann man das noch ein bisschen aufdrehen, dann hat man verschiedene Persona die Feedback geben und schon ist es nochmal ein Tick besser
Felix: ZDF
Jonas: schon den Großteil der Fehler irgendwie rausgelöst, einfach in einem System in sich, was sich selbst beobachtet und was selbst Verbesserungen macht, aber ich kann natürlich dann im nächsten Schritt auch externe Validierung oder externe Meine Outputs nutzen, um mich zu verbessern.
Beispielsweise ich habe eine Order, [00:10:00] die wird in ein ERP-System gespielt. Ich merke aber irgendwann später, schaue ich mir an, was wirklich passiert ist und ich ziehe mir heraus, dass vielleicht ein, zwei, drei Werte falsch waren oder nochmal von Menschen was korrigiert wurde. Ich nehme die Differenz zwischen dem Input, schiebe die wieder zurück in mein System und sage, hey, pass mal auf, nächstes Mal macht das irgendwie besser. Relativ einfach. Das kann ich auf einer einzelnen Ebene machen, in einem Schritt beispielsweise Und sagen, okay, jetzt verbessere mal, vereinfacht gesagt, das Prompt in diesem Schritt. Ich kann das aber mittlerweile auch schon in agentischen Systemen machen, dass man halt sagt, naja, pass mal auf, ich habe tausendmal die Order bearbeitet, 950 mal wusste ich wie ich lösen muss, aber ich habe hier irgendwie 50 Fälle, die passen einfach nicht.
Muss ich jetzt meinen Graph ändern? Muss ich mir jetzt eine neue Route finden,
Felix: Dank.
Jonas: kann? Oder passt das in die anderen rein? Und dann baut sich das System über Zeit Und an und bei das kann zum Beispiel sein, na gut, dann sollte ich vielleicht doch nochmal ein anderes System checken muss es halt irgendwie wissen.
Aber da kann ich ja zum Menschen gehen und sagen, pass mal auf, ich habe das Gefühl, ich habe hier bestimmte Systeme, habe ich gar keinen [00:11:00] Zugriff drauf und kann dann so wieder lernen und besser werden.
Felix: Das ist aber ein Produktthema und kein KI-Thema. Also die KI-Modelle müssen nicht besser werden, um das zu tun, sondern wir brauchen Produkte um die Modelle herumgebaut, die diesen Feedback-Loop möglich machen.
Jonas: Richtig, ja. Also man kann, mittlerweile wird natürlich schon viel in den LLMs selber oder in einzelnen Prompt abgefangen, aber man muss relativ viel drumherum bauen und das sehen wir auch. Es ist extrem wichtig, wie mache ich die Evaluations, wie baue ich das, welche Systeme bin ich an, welche Möglichkeiten gebe ich, wie viele Retries mache ich etc.
Und eigentlich geht es darum, dieses Konstrukt da drum zu bauen, ist mittlerweile wichtiger als das LLM selbst auch ein konkretes Beispiel, also du kannst natürlich jetzt Opus 4.5
Felix: Vielen Dank.
Jonas: mich am Ende einen Bruchteil, ist viel schneller und am Ende ein besseres Ergebnis als ein Opus 4.5 Modell [00:12:00] und so kann man jetzt auch in dem Produkt halt, Anders bauen, indem man halt vielleicht einfach andere Wege probiert und nicht einfach immer nur das teuerste Modell nimmt.
Auch wenn es beim ersten Versuch das beste Ergebnis hätte, du kommst aber zum noch besseren Ergebnis zu geringeren Kosten in einer anderen Konstellation oder einem anderen Setup.
Felix: Um diesen Wo-stehen-AI-Agents-heute-Blog noch abzuschließen. Wo würdest du sagen, stoßen Agents heute immer noch an Grenzen? Was geht noch nicht?
Jonas: Die größten Probleme, die wir sehen, sind einfach Systeme und Zugriff auf Informationen. Das ist immer das größte Problem. Ja, haben keine Schnittstelle wissen wir nicht, etc. Und das zweite große Problem ist Prozesswissen in Organisationen Wenn wir jetzt eine große Versicherung haben und da muss was ausgeführt werden, die haben halt sehr genaue Regeln wie jetzt über verschiedene Länder die Invoice gestellt werden muss.
So, jetzt [00:13:00] Und funktioniert das auch in den meisten Fällen und sie haben das mal irgendwo niedergeschrieben, aber es gibt jetzt halt leider diese eine Ausnahme für Spanien, warum auch immer, weiß eigentlich auch keiner mehr, der noch da ist, aber diese Ausnahme gibt es.
Felix: Vielen
Jonas: und einmal lernen, ansonsten kommt halt, na gut, da ist jetzt aber eine 10 Cent Abweichung und dann… Reicht es halt nicht.
Das sind die Probleme, die wir am häufigsten sehen und es dauert für Unternehmen extrem lange, dieses ganze Wissen. Viele sind überhaupt nicht AI-ready eigentlich. Unternehmen denken, okay, wir machen jetzt AI, aber viele sind eigentlich noch nicht da, weil die ganzen Daten nicht aufbereitet sind, weil die ganzen Systeme nicht aufgearbeitet sind.
Das sind die größten Probleme.
Felix: Okay, also immer wieder, ich höre das hier, glaube ich, in jeder Podcast-Folge
Jonas: genau
Felix: und Zugang zu Systemen wenn du das gelöst hast, also... Daten sind sauber, sind zugänglich, widersprechen sich nicht. Du hast Systeme auf die KI-Agenten zugreifen können und du hast die Prozesse abgebildet und dokumentiert sodass du sie Agents beibringen [00:14:00] kannst.
Wo würdest du sagen, wo gibt es dann trotzdem noch Grenzen?
Jonas: Technisch gibt es keine Grenzen mehr wir hatten jetzt ein Case mit einer Firma da haben wir den Agent in 4 Stunden fertig gebaut weil alles vorbereitet war Und dann war gut. Und dann hat das auch funktioniert. Das ist
Felix: komplett Ja was ist mit so komplexen Aufgaben? Also komplexe Aufgaben wie so, weiß ich nicht, umfangreiche Reports bauen aus verschiedensten Datenquellen die zusammenführen oder auch alles, was so in Richtung... Coding-Produktentwicklung geht, ist es dann so, dass es einfach dann immer nur darum geht, dass du nicht eine riesen Aufgabe an den Agent gibst der 250 Schritte machen muss, sondern du brichst das halt dann wieder runter.
Habe ich das richtig verstanden?
Jonas: Genau, und du kombinierst dann Code Execution mit [00:15:00] LLMs und musst halt überlegen, in welchem Schritt mache ich was und was ist auch besser. Also konkret, wir haben eine Anwendung das Fall bei einem Kunden, das sind 60 Schritte. Das ist sauer komplex. Das ist eine Mischung aus LLM-Calls,
Felix: Vielen
Jonas: die repetitiv oder nicht repetitiv der Code muss erst geschrieben werden, jedes Mal neu ausgeführt wird. Das ist
Felix: Dank.
Jonas: drum herum gebaut hättest, no chance. Vor zwei Jahren oder selbst vor einem Jahr, no chance. Und jetzt hast du E-Weltstrom unter jedem einzelnen Schritt, du packst das ein, du bist sicher, dass das da gut funktioniert, dann baust du es im Großen und Ganzen, machst nochmal x Schritte und x Überprüfungen darum und dann geht das.
Aber es ist auch nichts, was jetzt innerhalb von vier Stunden funktioniert, sondern dann ist es das, was länger braucht und funktioniert. Generell man kann fast jedes Problem heute lösen. Es ist nur eine Frage des Aufwandes und wie lange sitzt jetzt vielleicht dann doch noch ein Solution Engineer da und baut das am Ende mit dem Kunden versus es [00:16:00] baut sich von selbst.
Und eigentlich muss ich nur noch einmal sagen, was zu tun ist. Das funktioniert nur bei ein bisschen weniger komplexen Use Cases.
Felix: Ich nutze jetzt mal die Chance ganz eigennützig, um hier noch mehr zu lernen. Und zwar hast du gesagt, du hast ja ein CEO-Office Office gebaut. Und ich will ja auch so ein bisschen verstehen, eine Company, die eine Plattform für Agents baut, wie nutzt ihr das eigentlich selbst? Erzähl mal, dein CEO Office, wie sieht das aus und wie hast du da Agents integriert?
Jonas: Also der Hintergrund und...
Felix: Vielen Dank.
Jonas: ist, dass Ich mir ein Projekt gebaut habe und überlegt habe, okay, was mache ich eigentlich die ganze Zeit und was sind die verschiedenen Aspekte meiner Arbeit? So, und dann haben wir Stück für Stück angefangen durchzugehen okay, A, was sind die Aufgaben die ich mache, also welche Aktivitäten mache ich?
Ich Bin in einem Call, ich erzähle was, ich bereite was dafür vor, danach [00:17:00] habe ich danach Action-Item und mache wieder irgendwas anderes. So ist ja meistens mein Tag. Ich habe irgendwie zwölf bis sechzehn Meetings am Tag, das mache ich eigentlich die ganze Zeit. Und dann muss ich zwischendurch nochmal ein bisschen nachdenken, dann habe ich irgendwie mal einen längeren Block, um Strategie durchzudenken, dann habe ich bestimmte E-Mails, die ich beantworten muss, dann muss ich mit Mitarbeitern sprechen und so weiter und so fort. Und dann nächste Frage war, welche Tools benutze ich von irgendwie natürlich Gmail, von Notion, von irgendwelchen Präsentationen die ich halten muss und machen muss, bis hin zu irgendwelchen Research-Sachen und so weiter und so fort. Und dann haben wir angefangen quasi uns all diese Sachen erstmal zu connecten und dann einzelne Skills oder einzelne Bausteine quasi zu bauen, um die Aufgaben die ich da mache, zu präsentieren Und dann hat man erstmal bestimmte Sachen, die man halt repetitiv macht, kann man dann relativ schnell irgendwie abhaken.
Ob das jetzt E-Mails sind, ob das irgendwelche Follow-Ups sind, ob das Präsentationen sind, ob das Outlines von Präsentationen sind, kann [00:18:00] man alles relativ schnell abhaken.
Felix: Lass mal einmal einen konkret machen. Du hast ein Meeting und das Transkript wird dann an einen Agent übergeben, der dir einen Follow-up dazu formuliert. So was.
Jonas: Genau, sowas Der Agent entscheidet erstmal, okay, welche Art von Meeting ist das? Für welche verschiedenen Projekte die ich jetzt habe, ist das relevant? Also kann ja auch immer sein, dass jetzt in dem Fall jetzt ein Podcast, dann kann ich erstmal nur selber irgendwie Feedback drauf lernen, aber ich kann natürlich jetzt auch überlegen, was habe ich gesagt, wie nutze ich das für mein Social Media?
Was poste jetzt davon an LinkedIn? Welche Aussagen sind cool, welche sind quotable? heißt, ich nehme eigentlich das Transcript und überlege erstmal, wo kann das relevant sein? Und wenn ich dann sage, okay, das ist jetzt relevant für A oder für B, dann schicke ich es da hin und dann wird das da verwertet.
Felix: Und das, wofür ist es relevant, ist wiederum eine Dokumentation deiner aktuellen Projekte auf die der Agent Zugriff hat?
Jonas: das ist quasi ein Orchestration Layer, also ein Orchestrator, der drüber sitzt, an den das erstmal alles geschickt wurde, der hat quasi Wissen über meine verschiedenen Projekte [00:19:00] und über meine verschiedenen Workspace, Files etc., am Ende ein Filesystem einfach und dann kann er sagen, guck mal, hier ist gerade irgendwie dieses Projekt offen, da haben wir das letzte Mal vor drei Tagen dran gearbeitet,
Felix: Vielen
Jonas: es dafür relevant. Bis zu einem
Felix: Dank
Jonas: mal, es ist doch nochmal hier relevant, weil es natürlich jetzt kein perfektes System zu diesem Zeitpunkt ist. Ich arbeite irgendwie an zwölf Sachen gleichzeitig mit irgendwie ein paar Prio. Da schaue ich dann schon auch selber rein und sage, guck mal hier, jetzt ist nochmal was und
Felix: Dank.
Jonas: Und das Interessante aber
Felix: Vielen Dank.
Jonas: das, was ich selber mache und baue das erstmal in AI. Und dann habe ich irgendwann so eine Detour gemacht und dachte mir, naja, okay, Jonas, du bist ja jetzt vielleicht in manchen Sachen nicht ganz so verkehrt unterwegs, aber man kann das immer besser machen.
Und dann habe ich mir erstmal angefangen, eigentlich so einen Beirat so einen [00:20:00] virtuellen Persona-Feedback zu bauen. Das heißt, ich habe jetzt... Je nachdem, was irgendwie gerade passiert, habe ich verschiedene Personas, die dann Feedback auf die Sachen geben können, die ich mache. Entweder Feedback geben oder ich habe so einen Feedback-Iterative-Loop.
Das heißt beispielsweise, ich mache jetzt, nächste Woche muss ich nach New York fliegen und eine Präsentation für so ein Fintech-Ding halten. dann gehe ich hin und sage diesen Experten, hey, bau mir mal die Präsentation und iteriere so lange, bis ihr halt irgendwie einen Score 8 von 10 vergebt. Und dann iteriert das, dann kann ich auch ab und zu nochmal wieder editieren und sagen, vielleicht habe ich nochmal hier eine neue Story.
Okay Aber die Krux jetzt ist, ich baue nicht nur das nach, was ich mache, sondern ich nutze auch AI sehr viel, um mich eigentlich zu enhancen und eine bessere Version von mir selbst zu bauen. das ist das, was jetzt so in den letzten Monaten eigentlich am meisten Spaß gemacht hat, weil ich merke, wie mich das selber wieder besser macht.
Felix Schlenther: Kurz in eigener Sache. Wenn dir der AI First Podcast gefällt und du mehr spannende Inhalte und hochkarätige Gäste hören möchtest, dann freue ich mich über deine [00:21:00] Unterstützung. Mit einer Fünf-Sterne-Bewertung und einem Abo für den Podcast hilfst du uns sichtbarer zu werden und AI First weiterzuentwickeln.
Für dich und die gesamte Community. Ich danke dir.
Felix: Können wir da noch ein bisschen, ich würde da gerne noch ein bisschen mehr reingehen um das noch besser zu verstehen. Also du hast jetzt so einen Beirat, das sind dann quasi, du hast dann irgendwie für jedes Beiratsmitglied einen Agent aufgesetzt?
Jonas: Genau ja, jetzt ist ja auch schon wieder, sorry um jetzt die Definition, jetzt ist ja schon wieder Agent so ein bisschen blurry. Am Ende sind das jetzt Markdown-Files und ja, du könntest sagen, das ist ein einzelner Agent, aber am Ende gibt es einen Orchestrator, der sagt, pass mal auf, jetzt wird dieser Skill gecallt dann gibt es 8.
Mittlerweile, ich glaube, 60 oder 80 Subagents die je nach Bedarf angerufen werden können. Und dann wird halt gesagt, hey pass mal auf, Frank Slotman war mal ein krasser CEO, vielleicht sollten wir den mal fragen, oder ist ein krasser CEO immer gewesen, oder wir fragen halt irgendwelche Investoren nach ihrem Feedback.
Und dann wird halt basierend darauf so die beste [00:22:00] Persona ausgewählt.
Felix: Wie baust du dir diese Personas oder Markdown-Files?
Jonas: Selber mit dem Orchestrator, dem ich der AI sage. Am Anfang, also eigentlich war es wirklich nicht so schwer sich zu bauen. Ich kann das mal auch veröffentlichen beziehungsweise ist das jetzt auch bald ein Beam drin. Das ist jetzt am Ende gar nicht so komplex das zu bauen, weil am Ende ist es Du nutzt Cloud-Code oder Cursor und baust dir das und dann
Felix: Mhm.
Jonas: habe am Ende keine einzige Zeile davon, vielleicht ein paar Zeilen geschrieben. De facto, nein, ich habe wahrscheinlich von den, lass es mal sagen, das sind vielleicht 10.000 Zeilen insgesamt, ich vielleicht drei editiert.
Und den Rest hat die AI geschrieben.
Felix: Okay. Und was ist dein Interface da rein? Wie kommunizierst du damit?
Jonas: Ich nutze meistens Cursor wir bauen das auch gerade in Beam jetzt rein, aber
Felix: Du hast es erstmal selbst coden lassen mit einem [00:23:00] Coding-Agent quasi und hast gesagt, pass auf, ich will mir hier meinen digitalen Beirat bauen, da ist ein Orchestrator, ich will die und diese Personas haben, so und so will ich damit interagieren, das kommt da von mir rein, das will ich zurückhaben dann hast du es getestet hast wieder Feedback gemacht und der hat die ganzen Kontext-Files, Systemanweisungen für die Sub-Agents die Orchestrationslogik dahinter Hat dann der Coding Agent nach deinem Feedback weiter optimiert.
Jonas: Genau. Und dann mein Job ist jetzt noch zu abstrahieren oder war damals zu abstrahieren und zu sagen, okay, es gibt die Möglichkeit, ich will Feedback haben auf ein Dokument oder ich bin vielleicht ein bisschen fauler und sage, Lieber
Felix: Vielen
Jonas: das mal selber. Hier ist das Dokument, erstellt mir eine neue
Felix: Dank
Jonas: es noch eine Funktion, erstellt mir eine Persona die dafür relevant sein kann. Und dann gibt es halt einen langen Backlog und bei Bedarf kann das dann erstellt werden.
Blödes Beispiel, ich habe jetzt irgendwie beschlossen, mal einen Hyrox zu machen. Also habe ich mir halt [00:24:00] Hunter McIntyre oder wie der heißt, erstellt und der coacht mich jetzt.
Felix: Ja, geil. Wie so Pokémons sammeln, da klingt das.
Jonas: genau. Aber am Ende ist es eigentlich nicht so schwer, sich das zu bauen, wenn man ein bisschen abstrakt denkt. Aber
Felix: Ja, aber du brauchst dieses Systemdenken. Ja, also ich glaube, das ist halt dieses... Ja, du... Also dieses Systemdenken, also dieses Denken nicht ich mache die Arbeit, sondern ich, auch nicht, ich baue mir jetzt einen Agent, der die Arbeit macht, sondern ich baue mir ein System, das dann die Agents baut die dann die Arbeit machen oder mir das rückbringen, was ich haben will.
So? Oder denke ich da auch noch zu kurz?
Jonas: Nee, das ist genau das und das verändert natürlich jetzt auch das Profil an Leuten, die du einstellen musst, weil eigentlich, du brauchst viel mehr Systemarchitekten und Orchestrator, weil eigentlich muss ich nur noch denken, wie baue ich was,
Felix: Untertitelung ZDF
Jonas: mehr als die Arbeit selber zu [00:25:00] machen und ab und zu kann es nochmal hilfreich sein, die Arbeit zu machen, um zu testen, aber eigentlich musst du dann wieder nur das Feedback nehmen und wieder zurück ins System spielen, sodass du es nächstes Mal nicht machst. musst dein System halt relativ flexibel halten, sodass du gut und schnell tarieren kannst.
Felix: Ja und ich muss wissen, was wirklich gut ist oder wie gut etwas sein kann.
Oder, ja gut, ich könnte natürlich dann auch wieder KI fragen, wenn du jetzt die Keynote hältst und du brauchst halt eine mega Keynote-Storyline mit starken Messages und guten Visuals und so, könntest du aber natürlich auch wieder über KI dir die Persona von dem TEDx-Mega-Coach da reinbauen lassen, der das wahrscheinlich besser kann als du.
Jonas: Guter Punkt, den sollte ich wahrscheinlich reinbauen und richtig. Ich glaube, was schon viele Leute mittlerweile auch festgestellt haben, warum sie nicht mehr ChatGPT nutzen, ist halt, it's very agreeable. [00:26:00] Immer, das war eine tolle Frage, das ist super, du bist ja irgendwie,, und machen wir toll und so weiter.
Und für Leute wie mich ist es halt, mich nervt das geisteskrank. Also es ist einfach nicht cool und nicht hilfreich. Und ich glaube, da ist es wichtiger, wenn du so ein System hast, das dir verschiedene Perspektiven bildet Ja, oder gibt. Und dann kommt halt, ich zum Beispiel habe das neulich im Interview genutzt und ich hatte selber das Gefühl, das Interview war nicht gut.
Und dann hat irgendwie Keith gesagt, du Jonas, das war wirklich ein total langweiliges Interview. Also das hättest du ja auch sparen können. Ja, und ich so, okay gut, danke. Eine Stunde später habe ich es besser gemacht.
Felix: All right, okay, verstanden. CEO-Office verstanden Gute Nachricht. Food for thought für mich. Lass uns nochmal in eure Firma jetzt reinschauen. Ich glaube, sich selbst hebeln ist das eine, eine ganze Firma hebeln ist ja das andere und noch mit anderer Komplexität verbunden. Wenn ich jetzt so einen Tag Praktikum machen würde bei Beam und mal [00:27:00] gucken würde, wie ihr da so arbeitet und was da so passiert, wo würden mir dann überall Agents begegnen und was machen die bei euch?
Untertitelung ZDF
Jonas: Die Frage ist eher, wo würden dir keine Agents begegnen und wo würdest du nicht in irgendwelchen AI-Systemen arbeiten? Ich reagiere mittlerweile allergisch wenn irgendwelche Sachen so gemacht werden. Alles kann transkribiert werden, alles kann Teil eines Projektes sein, alles kann irgendein Markdown-File sein, alles kann irgendwo gespeichert sein.
Wir müssen
Felix: Vielen Dank.
Jonas: In Agents haben Feedbacken nutzen und nicht ohne Arbeiten. Ich wüsste gar nicht, wo wir ohne arbeiten, ehrlicherweise. Also beispielsweise, es gibt bestimmte Kunden in Deutschland, da dürfen wir nicht recorden In den USA können wir jedes oder bei anderen Kunden können wir jede Sache recorden Das heißt, einfach automatisch Follow-ups, Action-Items Dann fließt das aber wieder in ein Projekt von uns rein und updatet den Projektplan [00:28:00] zum Beispiel Was ist der kritische Pfad in diesem Projekt und was sind die Dinge die unbedingt gelöst werden müssen.
Das heißt, wenn wir dann einmal in der Woche ein Review dieses Projektes machen, steht natürlich ganz oben, guck mal, das haben wir letztes Mal besprochen, das ist gerade der kritische Pfad. Dann wird das wieder recordet und aufgezeichnet, ob wir das jetzt gelöst haben oder nicht gelöst haben. Der Kunde kommt und sagt, ich brauche dieses Feature, weil das ist relevant für x% der Cases, ohne das kann ich das nicht machen.
Okay, gut, kommt aus dem Transcript raus, wird bei uns in linear geschoben, wird als Ticket kreiert, wird geflaggt dass das von dem Kunden ist, wird geflaggt dass das kritisch ist, dann haben wir eine bestimmte Deadline drauf, in wie vielen Stunden das irgendwie gelöst werden muss. Dann muss das nochmal jemand anschauen ob das jetzt irgendwie komplett mit der AI gelöst wird oder ob da jetzt der Developer sitzt.
Am Ende schaut natürlich jemand drüber und dann fließt das wieder zurück. Hey, Ticket ist jetzt gelöst. Das heißt, wir können im nächsten Meeting wieder hingehen und zum Kunden sagen, hey pass auf, das wurde jetzt gelöst im Zeitrahmen im SLA.
Felix: Und das ist dann wieder [00:29:00] ein Orchestrator, der alle Meeting Transkripte bekommt oder habt ihr dann spezialisierte Agents die nur Auf den Projektmeetings zum Beispiel arbeiten und daraus die wichtigsten Infos ziehen und das in euer CRM zurückspielen oder Projektmanagement-Tool zurückspielen.
Jonas: Also nicht alles ist immer nur Meeting-Agents und Transkripts, das ist natürlich, wo der Mensch jetzt irgendwie noch die Schnittstelle ist, aber wir haben dann auch Agents oder, ich bin ja, obwohl wir eigentlich die ganze Zeit Agents machen, rede ich mittlerweile mehr so von AI-Systemen eigentlich, die halt Sub-Agents haben,
Felix: Aber das will ich einmal verstehen. Also du denkst immer in dieser Orchestrator und Subagent Logik.
Jonas: Ja.
Felix: Okay.
Jonas: Also es gibt ja auch viele unterschiedliche Definitionen oder je nachdem wie weit du einen Agent fasst. Für mich ist es ein Operating System und wir haben Product Operating System und wir haben Marketing Operating System, was unterschiedliche Agents sind. Der eine [00:30:00] schreibt Blogposts, der andere reviewt die, der dritte schreibt die Hooks und so weiter und so fort.
Aber am Ende muss ich das in ein System zusammenpacken was geshareden Kontext hat oder aber auch weiß, was sonst in der Firma passiert. Und da ist es jetzt so, zum Beispiel zwischen Product und Marketing ist jetzt so semi-integriert. Da muss ich am Ende dann wieder Markdown falls rüberschieben gerade noch.
In der Zukunft werden wir das dann auch integrieren. Und das ist quasi ein großes Orchestration-System, wo es wieder verschiedene Sub-Orchestrator gibt, die verschiedene Systeme Agents oder Specialized Agents dann benutzen.
Eigentlich baust du am Ende Organisationen nach, wie Organisationen aufgebaut sind, mit verschiedenen Leuten, die dann wieder einen Teamleiter haben, die dann wieder einen, keine Ahnung, bei BMW haben wir einen Gruppenleiter, haben und das baut man eigentlich nach.
Felix: So, aber jetzt baust du das ja so nach, dass das nicht für Menschen gebaut ist, die da drin arbeiten und Zeugs machen, Arbeit erledigen, sondern es müsste KI machen.
Jonas: Vielen
Felix: Wie Muss ich denn meine Firma bauen? [00:31:00] Also beispielsweise, um diesen ganzen Kontext bereitstellen zu können, damit das möglichst, nennen wir sie jetzt mal Agents, damit Agents dort möglichst produktiv arbeiten können und nicht die ganze Zeit Fehler machen, weil das Anfällige ist doch in diesem System mit so vielen Subagents dass wenn der Erste vorne irgendwas Falsch verstanden hat oder dem irgendwas fehlt, dass sich der Fehler dann durchmultipliziert durch die gesamte Kette an Agents die auf dem Anfang aufsetzen.
Jonas: Es war ein Problem und man hat ja eigentlich diese Chain, dass du sagst, okay, wenn ich jetzt in jedem Schritt einen 95% Fehler oder Korrektnisquote habe, dann bin ich am Ende bei x Schritten bin ich nur noch bei 40%. Das ist ist nicht mehr so ein Problem, weil du die einzelnen Schritte dann irgendwie dann doch wieder abgeschlossen bewertest oder eskalierst, wenn sie nicht sicher genug sind. Und so multiplizieren sich die Fehler eigentlich nicht, [00:32:00] weil wir jetzt also nehmen wir einfach das Beispiel, du machst irgendwie eine Extraktion von irgendwelchen Daten, ja, wenn die einmal falsch sind und aber im dritten Schritt du eigentlich die Product ID brauchst um die ins
Felix: Vielen Dank
Jonas: dann merkst du, wenn die falsch ist.
Wenn du wieder zusätzliche Checks hast. Weil ich sage dann ja, pass mal auf, die muss jetzt 16 Digit haben, muss irgendwie in der 5. Stelle das haben und so weiter und so fort. Das hast du ja vorher gelernt. Dann fällt das spätestens da auf, dann kannst du wieder zurück zum ersten Schritt gehen und sagen, pass mal auf, das hat jetzt nicht funktioniert. Und um jetzt wieder auf deine Frage zu kommen, genau deswegen muss ich eigentlich Agents bauen, die nicht nur irgendwie sub-sub-1-Agents einen Schritt machen. Weil wenn ich nur einen Schritt mache und dann da einen Fehler habe, der aber in Schritt Nummer 1, Eins passiert ist, dann kann ich ihn nicht korrigieren.
Das heißt, die beiden müssen miteinander kommunizieren können beziehungsweise müssen auch zurückgehen, um den Fehler
Felix: Untertitelung
Jonas: Context ist extrem wichtig oder deswegen sind wir jetzt von Prompt Engineering zu Context Engineering gekommen. Ich
Felix: ZDF
Jonas: meiner Chain eigentlich die richtigen Informationen zum richtigen [00:33:00] Zeitpunkt haben und auch nicht zu viele, weil dann overloade ich meine LLM-Calls. Das ist mittlerweile eines der wichtigsten Projekte Um diese Agents über verschiedene Längeprozesse dann auch laufen zu haben.
Felix: Wo setzt ihr das um? Also wo liegt der Kontext
Jonas: Der liegt bei uns im Agent. ist das, was wir bauen. Also wir bauen ja am Ende eine Agent-Plattform, die hochkomplexe Prozesse zu irgendwie 99 Prozent entwickelt Ausfüllen kann. Also wir haben regulierte Prozesse, die wir machen und wir können halt irgendwie sagen, pass mal auf, das machen wir jetzt halt x-tausend Mal und wir können euch zeigen, das machen wir halt irgendwie zu 99,5 Prozent richtig. Und wir bauen die Plattform, die das ermöglicht das zu tun und das heißt unter anderem dass wir zum Beispiel verschiedenste Funktionen haben, um Kontext von A nach B zu schieben, zu extrahieren und sicherzustellen, dass an der richtigen Stelle der richtige Kontext ankommt.
Felix: Okay, machen wir es noch ein bisschen greifbarer. Also die [00:34:00] meisten Unternehmen, die haben jetzt SharePoint- Irgendeinen Drive und irgendwie ein ERP-System und vielleicht noch ein Projektmanagement-Tool und da liegen überall Informationen drin, die relevant sind, die irgendwie zusammenkommen müssen, damit der Agent das damit machen kann.
Und die Herausforderung ist, wie schaffe ich es jetzt genau in diesem Kontext, der ja nicht schön an einem Ort perfekt immer aktuell ist, wie schaffe ich es, den irgendwie zusammenzubringen und dem Agent aber zu erklären, was von wo wann, wie, wo wichtig ist. Und dann muss ich das Ding ja noch irgendwie aktualisieren.
Jonas: Korrekt Und das ist das, warum es Firmen wie uns gibt, die das
Felix: Okay.
Jonas: du dich eigentlich damit nicht mehr so wahnsinnig viel beschäftigen musst, weil du sagst einfach nur Mach diese Aufgabe und das System führt das aus und weiß zum Beispiel, okay, ich muss in SharePoint nachschauen, ziehe bestimmte Informationen, ich weiß, dass ich in Jira nachschauen muss, weil da ist das Ticket, weiß aber auch, dass ich die Informationen halt speichern muss, aber jetzt zum Beispiel nicht alles direkt einfach nur immer in den Kontext laden kann und jedes Mal alles mitschicke. Konkret [00:35:00] wenn ich jetzt 30 Seiten PDF habe und ich habe nochmal mein Jira-Ticket und
Felix: Untertitelung ZDF
Jonas: ganzen Informationen sind und schiebe das in mein Kontext-Window Dann werden es relativ viele Tokens für die Aufgabe, die ich lösen muss und dann wird es zum Beispiel sehr teuer weil dann schiebe ich auf einmal die ganzen Informationen in jedem Schritt mit und auf einmal bin ich bei Kosten, haben wir jetzt neulich mal in so einem Case gehabt, wenn wir das nicht optimieren von 23 Euro pro Execution. funktioniert dann halt nicht mehr, weil da kann ich dann auch den Menschen
Felix: Ja.
Jonas: So, dann optimiert man das und dann kommst du halt irgendwie auf ein, zwei Euro oder vielleicht waren es drei pro Execution. Aber das ist genau die Optimierung, die wir dann machen müssen, beziehungsweise wo das System in der Rente dann so intelligent mittlerweile ist, dass es sich das hin und her schieben kann, trotz Constraints.
Felix: Wenn du jetzt über die weitere Entwicklung von Beam nachdenkst für welche Rollen stellst du denn noch Menschen ein?
Jonas: [00:36:00] Sales, immer, du musst am Ende mit den Leuten reden. Und sie auch überzeugen mit dir zu arbeiten. Und Sales bei uns ist sehr technisch. Die müssen sehr gut verstehen, was die Probleme des Kunden sind und wo dann auch der Wert ist. Also es ist nicht,
Felix: Vielen
Jonas: sondern bei dem, was wir machen, geht es darum, guck mal, das ist ein Prozess der kostet eine Million Euro im Jahr.
Felix: Dank.
Jonas: Oder wie können wir den Prozess schneller machen? Wie können wir es euch ermöglichen zum Beispiel schneller Leute einzustellen? Also wie können wir unsere Time-to-Hire-Routes Verkürzen, indem wir Agents einsetzen ... halt Screening machen, die Validierung machen etc. Das heißt, Sales
Felix: Vielen
Jonas: value getrieben.
Das zweite sind Solution Engineers, ... ... die dann im nächsten Schritt mit dem Kunden arbeiten ... ... und mit dem Kunden gemeinsam sicherstellen, ... ... dass dieser Agent jetzt nicht nur eine Demo ist, ... sondern am Ende in Produktion geht. Und das war vor zwei Jahren ein Problem ... ... und es ist immer noch teilweise eine Challenge,
[00:37:00] Nicht schöne Demos zu bauen, weil das ist nett, sondern du musst diese
Felix: Dank
Jonas: bringen.
Felix: Da ist viel Coding auch einfach noch wichtig. Custom Coding, weil
Jonas: hat sich geändert. Also vor zwei, drei Jahren war der Solution Engineer typisch war sehr gut im Prompt Engineering und auch bis zu einem gewissen Grad im Coden. Jetzt ist es so, dass wir wieder fast klassische Berater einstellen können, die eher so Prozessdenken haben und Fragen stellen, als dass sie jetzt noch viel coden müssen.
Das übernimmt
Felix: das macht KI.
Jonas: Engineering.
Felix: Oder euer Entschuldigung.
Jonas: Team. Aber es hat sich ein bisschen geändert. Genau. Und was wir vorhin schon besprochen haben, Leute, die Systeme bauen können, die skalieren. Und das ändert sich jetzt auch so ein bisschen bei uns im Team. Also selbst unser HR-Team oder unser Marketing-Team wird halt erwartet, dass sie Systeme bauen und Agents bauen, die eigentlich ihren Job schneller, effizienter und besser machen, als nur die [00:38:00] Aufgaben auszuführen.
Felix: Der Benedikt Böhringer, das ist der Gründer von Jamie, so ein Meeting-Assistenten die die gebaut hat Haben. Der hat hier im Podcast gesagt, dass er glaubt dass er mit 50 Leuten auf 100 Millionen ARR wachsen kann. Würde es da mitgehen für Beam?
Jonas: Ja würde ich auch sagen. Also ich glaube, so, ja, ja, also relativ klar, ja.
Wir sehen schon, wir machen halt Enterprise-Geschäft
Felix: Vielen Dank.
Jonas: was uns extrem hilft und natürlich das sehr hochschraubt, also insofern gehe ich auf jeden Fall mit, dass du mittlerweile mit teilweise wahrscheinlich 25 bis 50 Leuten, ich glaube du kannst es auch mit 25 machen, auf 100 Millionen kommen kannst.
Felix: Nochmal ein kurzer Blick auf eure Kunden. Ich will nochmal so eine kleine Checkliste von dir haben. [00:39:00] Was sind die Kunden? Die mit euch beziehungsweise Agents am erfolgreichsten sind und echten Wert daraus generieren, was machen die anders als die anderen, die irgendwie in diesen ewigen Pilotphasen hängenbleiben und nicht so richtig Dinge ausprobieren, aber das nicht in den Produktivbetrieb bekommen?
Jonas: Die Agents die am meisten Value bringen, sind gar nicht so unfassbar fancy, sondern Ich würde fast sagen, einfache Sachen, die klar definiert sind. Wir machen viel so outgesourcete Arbeit. Also es liegt vielleicht beim BPO und da arbeiten vielleicht 600 Leute irgendwo, die momentan das machen und das bauen wir in die AI-Agents rein. Verhältnismäßig straightforward, massive impact und aber auch klar definiert. Und da das gut dokumentiert ist, normalerweise können wir die Agents sehr
Felix: Untertitelung ZDF
Jonas: in Produktion bringen. gibt es andere, die [00:40:00] so eher Projekte machen, die vielleicht mehr ambiguous sind. Es ist vielleicht doch nicht ganz klar.
Ich will eigentlich das, ich will zum Beispiel gerade, ich habe die Mitarbeiter nicht mehr und ich will eigentlich diese Informationen irgendwie absaugen bzw. diese nachbauen. Viel komplexer dauert viel länger. Und Der größte Punkt ist aber, du musst von Anfang an eigentlich wissen, was ist mein Value in diesem Projekt und wenn da halt ein paar hunderttausend stehen oder wenn da steht, ich kann halt meine Time-to-Hire um 60 Prozent verkürzen und das heißt in meinem Business x Millionen aufs Jahr gerechnet, dann hast du einen anderen Drive da drin, als wenn ich sage, das wäre wirklich cool, jetzt mal so einen Agent zu bauen, damit ich hier intern was rumschicken kann und alle freuen sich, dass ich jetzt diesen Agent, dem ich dann Namen gegeben habe, dass der da ist.
Das ist nett, aber Aber es treibt halt am Ende nicht wahnsinnig den Wert des Unternehmens.
Felix: Was sind die Voraussetzungen, die sie geschaffen haben? Also ist das Datenprozesse Zugang zu Systemen oder kannst du das noch konkretisieren [00:41:00] oder andere ergänzen?
Jonas: Erst mal wissen, Über den Prozess klar zusammenziehen und haben. Das ist das Wichtigste. Systeme anschließen, es ist ein Bottleneck und es dauert aber am Ende kann man es lösen. Es dauert halt vielleicht nochmal ein Security Audit mehr, um das zu tun aber es ist eigentlich am Ende kein Hindernis um das live zu bekommen. Das Thema ist, wenn man es nicht live bekommt, ist entweder, es hat keiner den Drive, das zu machen, weil am Ende doesn't really matter. Ob ich jetzt irgendwie drei Stunden irgendwo
Felix: Untertitelung ZDF
Jonas: Euro hier einspare, who cares? Und dann mache ich das halt irgendwie am Ende auch nicht. Und dann stirbt es in irgendeinem Gremium, weil irgendjemand immer Angst hat und immer sagt, ach, dann machen wir das jetzt lieber mal nicht. ist, glaube ich, wo viel stirbt. Das andere ist, Vertrauen muss man aufbauen und auch AI-Agents müssen Vertrauen aufbauen. Und wenn der Agent... konstant Fehler macht ... Geht es nicht in Produktion. Und man kennt das von autonomen Autos [00:42:00] der Anspruch an Agents oder AI ist deutlich höher als bei Menschen.
Wir haben Cases wo wir Probleme hatten oder uns gesagt wurde, der Agent macht die Aufgabe nicht so gut. Und dann haben wir gesagt, okay gut, aber kann irgendwie auch nicht so ganz sein, weil wir haben ja von euch Testdaten bekommen und da sind wir extrem gut drauf. Und dann stellen wir fest, als wir dann nochmal alles angeschaut haben und quasi mit den Senior-Leuten nochmal durchgesprochen haben, dass die Menschen einfach noch viel schlechter waren.
Aber normalerweise hast du keinen Benchmark, wie gut die Menschen diese Aufgabe lösen. Aber trotzdem, oh, der AI-Agent hat hier einen Fehler gemacht, deswegen nehmen wir das nicht
Felix: Vielen Dank
Jonas: Keiner geht hin und sagt, pass mal auf, ich nehme jetzt mal von den fünf Mitarbeitern, die ihr da habt, nehmen alle Proben, wo ihr halt einen Fehler gemacht habt.
Deswegen darfst du jetzt nicht mehr weiter. Das sagst du nicht, aber der Anspruch an AI-Agents ist extrem hoch und dementsprechend muss man diese Accuracy hochbekommen. Das bekommst du aber nur, wenn du gutes Prozesswissen hast und ganz genau weißt was die Edge-Cases sind und auch ein Team auf der anderen Seite hast, was bereit ist, diese Informationen zu geben.[00:43:00]
Felix: Gerade der letzte Punkt kann ich nur bestätigen Abschließend wenn wir mal in die Zukunft schauen so die nächsten 12 Monate ist ja ein Blick in die Glaskugel, der unheimlich schwer, aber du bist nah dran am Markt, beschäftigst dich jetzt seit Jahren mit diesem Thema. Was glaubst du wo wir in einem Jahr von heute stehen in diesem ganzen Gentic AI Thema?
Was wird möglich werden, was heute noch nicht möglich ist oder was sind auch so Entwicklungen, die du dir gerade genau anschaust? Untertitelung ZDF,
Jonas: wir werden weniger über diese ganzen Demos reden, sondern wirklich einfach nur noch, what's the impact?
Was bringt mir das in meinem Business? Wie hat das meine [00:44:00] Bottomline verändert? Wie hat das meine Kundenzufriedenheit verändert? Und nicht mehr, okay, das ist jetzt ein ganz cooles technisches Konstrukt und das ist ein AI-Agent. Ganz ehrlich, und ich arbeite da drin, ist es auch egal, ob es ein AI-Agent ist oder ob es einfach nur irgendwie ein Prompt ist oder ob es ein Workflow ist oder irgendwas anderes.
Am Ende muss halt was bei rumkommen, was mir in der Firma hilft. Das ist das Wichtige. Und das sehen wir jetzt schon, dass sich
Felix: Vielen Dank.
Jonas: Ende von 26 wird es halt nicht mehr so technisch alles so cool sein, sondern es wird einfach darum gehen, okay, wie hilft mir das jetzt? Wie können wir das deployen? Das Dritte was sehr wichtig ist, und da haben wir schon ... Ein extremer Fortschritt gesehen ist Time-to-Value, also wie lange brauche ich jetzt eigentlich, um den Value, den wir gerade besprochen haben, zu heben? Da war es halt so, bisher war immer, ich baue eine Demo der erste Value irgendwie in der Demo, ich kann es mir jetzt mal vorstellen und dann nach der Demo kam halt häufig mal gar nichts, weil ich habe es halt nicht in Produktion bekommen und jetzt geht es eigentlich nur darum, von ich weiß eigentlich worum es geht bis hin zu ich habe [00:45:00] das System oder den Agent in Produktion und ich sehe einen Value, wie lange ist diese Zeit? Und historisch ich glaube wir haben unseren ersten Agent, haben wir knapp sechs Monate gebraucht bis der wirklich mal irgendwie so die Bar dann gepasst hat. War auch schon vorher ganz okay, aber bis der dann wirklich so ohne Beschwerden dass da keine E-Mails mehr kamen das hat wirklich lange gedauert.
Mittlerweile sind es halt zwei Wochen wirklich in komplexen Cases und in guten Cases sind es halt irgendwie zwei Tage. Und jetzt wird das in Zukunft noch schwieriger Weiter runter gehen, dass eigentlich der menschliche Aufwand wirklich minimal ist, dass ich diese Agents extrem schnell deployen kann, extrem schnell in Produktion bekomme und mein Time-to-Value halt nicht mehr irgendwie Wochen oder Monate ist, sondern deutlich schneller.
Und das wird 2026 der Fokus sein.
Felix: Müssen Language Models noch irgendwie besser werden? Würde das noch einen Impact haben? Vielen
Jonas: Wir freuen uns immer über weitere Verbesserungen. Gerade ist es eigentlich [00:46:00] Qualität, wie schnell sind die Modelle und was sind die Kosten. Da hast du wieder typisch BWL-Vorlesungen, was du
Felix: Dank
Jonas: Und ich glaube, worauf wir uns freuen, dass wir bessere Modelle haben geringere Kosten, die auch schneller sind sehen, weil wir immer momentan schon noch für eine oder die andere Sache optimieren, also dann nimmst du am Anfang die teureren Modelle, dann ist aber der Prozess teurer und es ist vielleicht auch gar nicht so ein Riesenvorteil, dann bist du auch noch relativ langsam und dann hast du auf einmal irgendwie eine Zeit von irgendwie 45 Minuten, bis das durchgelaufen ist, was dann auch nicht geil ist
Und dann genau, dann kostet irgendwie viel. Und ich glaube, da werden wir einfach noch insgesamt eine Progression sehen, sodass du halt die günstigeren oder günstigere Modelle, die auch schneller sind, nehmen kannst und auf den gleichen Output kommst. Kann man jetzt schon ein bisschen drum spielen, aber es wird sich auf jeden Fall nochmal verbessern.
Felix: Jonas, vielen, vielen Dank Hat Spaß gemacht. Ich wünsche euch weiterhin ganz viel Erfolg [00:47:00] und ich melde mich nochmal wegen des CEO-Office.
Jonas: Ja gerne, können wir mal zusammen durchgehen spart mir viel Zeit und macht einen auch besser Hat
Felix: Mach's gut.