🚀 Quick Start: So startest du deinen KI-Agenten in STUCC

    Willkommen in der Welt der STUCC KI-Agenten! 🎉

    Keine Sorge – du musst kein Tech-Ninja sein, um deinen eigenen smarten KI-Agenten zum Laufen zu bringen. In wenigen Klicks ist dein Agent bereit, deine Anrufe zu unterstützen.

    So einfach geht's:

    • Öffne die Voice Automation im STUCC-Menü; hier werden alle KI-Agenten erstellt und verwaltet.
    • Klicke oben rechts auf New IVR und wähle deinen KI-Agenten. Er wird mit einem Klick erstellt.
    • Voilà: Dein KI-Agent startet mit einer Beispielvorlage, die sofort einsatzbereit ist. Diese Vorlage enthält bereits alle wichtigen Bausteine für den Einstieg – perfekt, um direkt eigene Anpassungen zu bauen.

    🎓 Prompting 1x1 – Starte einfach, werde clever

    Das Wichtigste beim Prompting: Fang klein an und baue Schritt für Schritt auf.

    So gelingt es:

    1. Beginne mit einer minimalen Version, die dem Agenten nur grob erklärt, was du mit ihm vorhast. Im übertragenen Sinn: Sage dem Agenten, wohin er laufen soll, nicht wie er seine Füße bewegen muss. Teste, was der Agent damit schon kann – du wirst überrascht sein.
    2. Erstelle dann eine Version, die gerade ausreicht, um live zu gehen.
    3. Gehe live mit einem überschaubaren Anrufaufkommen, bei dem du dir jeden einzelnen Anruf anschauen kannst.
    4. Behebe die Probleme, die du im Live-Betrieb identifizierst – das sind oft ganz andere, als die, die dir im "Trockentraining" Probleme bereitet haben. Das ist der Teil, in den du am meisten Zeit investieren solltest.

    Weniger ist oft mehr:

    • Setze realistische Erwartungen: Menschen machen Fehler, KI auch – 100% Korrektheit gibt es nicht.
    • Formuliere klar und einfach.
    • Vermeide sich widersprechende Anweisungen.
    • Wenn du sagst, was der Bot nicht tun soll, sage auch, was er stattdessen tun soll.
    • Verwende direkte Rede nur dort, wo es notwendig ist (z.B. Compliance). Besser das "Was" beschreiben, das der Agent sagen soll, nicht das "Wie".
    • Vermeide unnötiges Zusatzwissen.
    • Verbeiße dich nicht in einzelne Fehler und versuche diese auszugleichen.
    • Zusatzanweisungen verschlechtern oft die Performance in anderen Bereichen, die vorher gut funktioniert haben. Suche stattdessen nach Anweisungen, die du löschen kannst, das ist oft viel effektiver.
    • Beschreibe deinem Agenten deinen Plan, damit er die Bedeutung hinter einzelnen Anweisungen versteht und bessere Entscheidungen treffen kann.
    • Der KI-Agent ist kein Alien👽: Bevor du dem Agenten die Welt erklärst, teste, ob er das Konzept nicht schon kennt. Beispiel: "Du bist ein Service-Bot in einer Autovermietung" statt "Kunden mit Autoproblemen rufen dich an."

    Allein mit diesen einfachen Regeln kannst du nützliche KI-Agenten für die Praxis bauen.

    Achtung: Wenn du immer mehr Aufgaben hinzufügst, wirst du irgendwann merken, dass dein Agent etwas dümmer wirkt, an Spontaneität verliert und Fehler macht. Das ist völlig normal und liegt daran, dass die KI wie ein Mensch nur eine begrenzte Aufmerksamkeitsspanne hat.

    Die gute Nachricht: Es gibt Lösungen dafür, die wir dir im Folgenden vorstellen – dir sind also keine Grenzen gesetzt. 🎉


    Der erste Prompt – Das Herzstück deines Agenten

    Der Prompt ist das Gehirn deines KI-Agenten – hier definierst du, wer er ist, wie er spricht und was er kann.

    Wichtig: Der Aufbau ist nicht streng vorgegeben – Kreativität und Erfahrung machen den Unterschied. Alles, was du bereits im Umgang mit KI weißt, bleibt gültig.

    Grundregel: Schreibe den Prompt so, wie du eine Notiz für einen neuen Mitarbeiter schreiben würdest, bevor du ihn ans Telefon lässt. Wenn du dich daran hältst, kannst du dir viele Tutorials sparen.

    Ungefährer Prompt-Aufbau:

    Enthält die Grundbeschreibungen, wie sich der Bot verhalten soll:

    • Rolle & Zweck – Wer spricht? Was ist das Ziel des Agenten?
    • Aufgabe – Was soll der Agent im Gespräch tun?
    • Guardrails – Was darf der Agent im Gespräch auf keinen Fall tun?
    • FAQs / Antwortvorlagen – Kurze, klare Beispielsätze für das LLM

    Enthält Steuerungsanweisungen, die direkt in den Text eingebaut werden, um noch mehr Dynamik zu erzeugen

    Abgesehen von den optionalen Steuerungsanweisungen gibt es kein bestimmtes Format, das du einhalten musst. Wir empfehlen zur Formatierung Markdown zu verwenden - es wird von KI besonders gut verstanden.

    Beispiel für einen einfachen Start-Prompt:

    # Deine Rolle
    Du bist Helena Fischer, eine freundliche KI-Telefonagentin von GreatProducts. Du sprichst immer höflich, selbstbewusst und in einem natürlichen Ton.
    
    # Deine Aufgabe
    Begrüße den Kunden und bitte ihn, sein Anliegen kurz zu schildern.
    $customer_request Kundenanfrage
    
    Beantworte Fragen aus der FAQ. Bei unbekannten Anfragen leite den Anruf mit der Funktion "connect_agent" weiter. Bei Erledigung verabschiede dich und nutze die Funktion "hangup".
    
    @connect_agent Leitet den Anruf an einen menschlichen Agenten weiter.
    @hangup Beendet den Anruf.
    
    # FAQ
    F: Möchte Produkt zurückgeben
    A: Produkte können innerhalb von 30 Tagen zurückgegeben werden, wenn unbenutzt und in Originalverpackung.
    
    F: Lieferzeiten
    A: Standard: 3–5 Werktage. Express: 1–2 Werktage.
    
    F: Öffnungszeiten
    A: Mo–Fr: 8:00–18:00, Sa: 9:00–14:00.

    Im Beispiel siehst du # Deine Aufgabe als Abschnittsüberschrift im Markdown-Format sowie $customer_request und @connect_agent als Steuerungsanweisungen. Auf diese beiden Elemente gehen wir gleich noch genauer ein... bleib dran 😉


    🧪 Den Prompt testen – Probieren, Erleben, Optimieren

    Bevor dein KI-Agent im echten Einsatz glänzt, teste deinen Prompt direkt im Menü Voice Automation. Hier kannst du leicht überprüfen, wie dein Agent reagiert – entweder per Call oder im Chat.

    So geht's:

    1. Menü öffnen: Navigiere zu Voice Automation → Test.
    2. Testmodus wählen: Entscheide dich für Call (simulierter Anruf) oder Chat (Text-Interaktion).
    3. Interaktion starten: Sprich oder schreibe deine Testanfragen, genau so wie deine Kunden sie stellen würden.
    4. Ergebnisse beobachten: Prüfe, ob der Agent korrekt die Variablen füllt und zuverlässig die Function Calls ausführt.

    Tipp: Kleine Änderungen an einer Stelle können eine große Wirkung auf den gesamten Ablauf haben. Teste sofort nochmal.


    🚀 Let's go – dein KI-Agent ist startklar!

    🎉 Herzlichen Glückwunsch!

    Du hast es geschafft: Du hast deinen KI-Agenten konfiguriert und getestet und jetzt ist er bereit, das Kundenservice-Erlebnis auf ein neues Level zu heben!

    Bevor dein Agent loslegen kann, musst du ihn abschließend noch der richtigen Inbound-Line zuweisen:

    1
    Im Menü Voice Automation gehst du in den Test-Bereich und aktivierst deine finale Bot-Version.
    2
    Aktivierung auf deiner Inbound-Line:
    • Öffne den Menüpunkt Telefonnummern und wähle die gewünschte Line aus.
    • Unter IVR-Einstellungen wählst du im Dropdown-Menü IVR den Titel deines Bots aus.
    • Aktiviere die Checkbox Aktiviert und speichere – fertig!

    Und voilà – dein KI-Agent ist live und bereit, deine Kunden zu begeistern. Lehne dich zurück, genieße die Show und schau zu, wie dein neuer virtueller Kollege deinen Kundenservice rockt! 🤘

    Die Abrechnung für deinen KI-Agenten ist einfach und transparent:

    • Alle Anschlussminuten des KI-Agenten werden zum Tarif Conversational AI C abgerechnet – zusätzlich zu den regulieren Anschlussgebühren.
    • Zusätzlich wird auch die Dauer von generierten Sprachausgaben zum Tarif Conversational AI C abgerechnet.
    • 💡Smart-Saving: Sprachausgaben, die exakt wiederholt werden, werden automatisch zwischengespeichert. Für diese fallen beim nächsten Anruf keine weiteren Kosten an.

    🤔 Was wir noch nicht erklärt haben...

    Im Beispiel-Prompt sind zwei Dinge aufgetaucht, die wir nicht einfach so stehen lassen wollen:

    • Variablen-Platzhalter wie $customer_request
    • Function Calls wie @connect_agent

    Beides sind zentrale Werkzeuge, die deinen Agenten noch mächtiger machen.

    Im nächsten Schritt zeigen wir dir, wie Variablen-Platzhalter und Function Calls funktionieren – und warum sie der Schlüssel zu wirklich smarten Gesprächen sind.

    Variablen-Platzhalter

    Mit eingebauten Variablen-Platzhaltern wird dein Agent zum Notiz-Profi: Er speichert automatisch Informationen aus dem Gespräch direkt in den Datensatz, die du dann in STUCC weiterverarbeiten kannst.

    Syntax:

    $Feldname Feldbeschreibung → definiert ein erwartetes Feld

    Beispiel:

    $customer_request Kundenanfrage → speichert, welche Anfrage der Kunde nennt

    Wichtig:

    • Setze das Feld mit $ davor, auf eine eigene Zeile, möglichst nah am Thema, auf das sich das Feld bezieht. So weiß der Agent aus dem umgebenden Kontext, wann das Feld gefüllt werden muss. Verweise aber im restlichen Prompt-Text nicht auf die Variable, also nicht: "Vergiss nicht, Variable XYZ zu füllen"
    • Benenne die Variable so, dass sie für den Agenten Sinn ergibt – z.B. "Vorname" statt "Feld15" und füge eine kleine Beschreibung hinter dem Feldnamen hinzu - das funktioniert viel zuverlässiger.

    Variable mit Auswahlmöglichkeiten

    Schreibe direkt unter die Variable eine weitere Zeile options: mit erlaubten Werten, durch Komma getrennt. Der Agent kann dann nur diese verwenden. Zum Beispiel sieht das so aus:

    $will_newsletter Kunde stimmt dem Erhalt des Newsletters zu
        options: ja, nein

    Function Calls – Aktionen auslösen

    Function Calls sind die Aktionsknöpfe deines Agenten. Sie lösen direkte Aktionen aus, wenn sofort etwas passieren muss.

    Die eigentlichen Funktionen siehst du im Tab Script. Das sind Javascript-Funktionen, die du nach Belieben erweitern kannst.

    Um diese Funktionen zu nutzen, müssen sie dem Agenten im Prompt bekannt gemacht werden. Das geschieht auf einer neuen Zeile mit @ gefolgt vom Funktionsnamen und einer anschließenden Beschreibung. Anders als bei Variablen spielt die Position im Prompt keine Rolle.

    Der Agent entscheidet grundsätzlich selbst aus dem Gesprächskontext heraus, wann er die Funktionen nutzt. Du kannst das aber im Prompt beeinflussen und den Agenten die Nutzung ankündigen lassen. So entstehen sehr natürliche Gesprächsübergänge.

    Beispiel:

    • Im Tab Script gibt es die Funktion:
      function connect_{
          ...
      }
    • Im Prompt machst du diese Funktion bekannt mit:
      @connect_agent Verbinde den Anrufer mit einem Menschen.
    • Und im Text schreibst du beispielsweise:

      Wenn du die Antwort auf die Frage nicht kennst, dann sage, dass du jetzt mit einem Mitarbeiter verbindest, der sicherlich weiterhelfen kann und nutze dabei gleichzeitig die Funktion "connect agent".


    🎮 Advanced – Out of the cage

    Willkommen auf der nächsten Stufe!

    Deine ersten KI-Agenten laufen bereits – jetzt zeigen wir dir die Geheimnisse, wie du deinen Agenten der Außenwelt vorstellst. Keine Sorge: Auch wenn es "Advanced" heißt, brauchst du dafür keinen Doktor in Informatik – schaden kann er aber bestimmt nicht. Sieh es als eine gut sortierte Werkzeugkiste, die nur darauf wartet, großartige Dinge zu bauen.

    Kannst du ein Geheimnis bewahren?

    Das, was wir bisher "Prompt" genannt haben, ist eigentlich gar kein statischer Prompt. Es ist eine dynamische Vorlage, die bei jedem Zug neu zusammengesetzt wird.

    Dem Informatiker klingelt es sofort: nicht ein starrer Text, sondern ein flexibles Rendering-System – ähnlich wie VueJS oder Angular, nur für KI-Agenten.

    Und genau hier kommen die fortgeschrittenen Template-Funktionen ins Spiel…

    Advanced Template Functions – Die Superkräfte deines Prompts

    Die Prompt-Vorlage kann weit mehr als einfache Wertesubstitutionen. Sie beherrscht eine komplexe Template-Syntax, die du beliebig verschachteln kannst. So wird dein Prompt zu einem flexiblen Modulsystem, das auch komplexe Gesprächslogiken sauber abbildet.

    Wertesubstitution mit {{expression}}

    Der einfachste Fall: {{data.feldname}}

    Aber Achtung: Es steckt mehr dahinter als nur Feldnamen – auch Funktionsaufrufe sind möglich. So kannst du dynamische Inhalte direkt in die Vorlage holen.

    Bedingte Blöcke mit IF

    Mit der IF-Direktive steuerst du, welche Inhalte tatsächlich in den Prompt kommen. Entweder mitten im Text:

    ({{#if condition}} Hier ist ein optionaler Text {{/if}})

    oder mit mehreren Alternativen, die große Blöcke umschließen:

    {{#if condition}}
        {{#elif alternative_condition}}
        {{#else}}
    {{/if}}

    Anwendung: Alternative/optionale Prompt-Bestandteile anzeigen

    Schleifen mit EACH

    Für sich wiederholende Elemente nutze EACH:

    {{#each itemVar @ array-expression}}
        {{/each}}

    Perfekt, wenn sich Dinge beliebig oft wiederholen – z.B. eine Liste von Produkten oder Verträgen.

    Mit diesen fortgeschrittenen Template-Funktionen bringst du Dynamik in deine Agenten.

    Und hast du es schon bemerkt? In den Logs findest du neben den Antworten des Agenten auch einen kleinen Link zum next prompt. So kannst du leicht prüfen, ob der generierte Prompt auch tatsächlich korrekt war.

    Eigene Funktionen definieren

    Über Funktionen haben wir schon gesprochen, aber noch nicht über die wirklich komplette Syntax. Im Tab Script definierst du eine Funktion in Javascript, etwa so:

    function funktionsname(args){
    }

    Das args-Objekt enthält dann die Parameter, die der Agent beim Aufruf übergeben hat.

    Im eigentlichen Prompt deklarierst du die Funktion, etwa so:

    @funktionsname Beschreibung des Zwecks der Funktion
        -argument1: Beschreibung des Parameters
        options: wert1,wert2
        optional: true
        -argument2: Beschreibung des 2. Parameters

    Mit options gibst du die erlaubten Werte an, wenn du nur bestimmte Möglichkeiten zulassen willst. Und mit optional gibst du an, dass dieser Parameter nicht vorhanden sein muss.

    Und was gibt die Funktion zurück?

    Der Rückgabewert muss keinem bestimmten Format folgen. Es können beliebige Objektstrukturen zurückgegeben werden oder sogar nur ein einfacher String mit einer Anweisung, wie der Agent weitermachen soll. Wichtig ist nur, dass der Agent die Bedeutung verstehen kann.

    Tipps

    • Gut gewählte Funktions- und Parameternamen mit einer passenden Beschreibung sind entscheidend für eine zuverlässige Nutzung durch den Agenten.
    • Nutze Funktionen sparsam. Wenn der Agent viele Funktionen zur Auswahl hat, kostet das viel Aufmerksamkeits-Budget.

    Variablen-Platzhalter vs Function Calls — was, wann, warum? 🤔

    Variablen-Platzhalter laufen leise im Hintergrund und schreiben erkannte Werte (z.B. Name, PLZ) in das data-Objekt.

    • Vorteil: spart Aufmerksamkeits-Budget des LLM.
    • Nachteil: Der Wert kann nicht geprüft werden, bevor der Bot antwortet.

    Function Calls sind die aktiven Spieler: Das LLM ruft eine Funktion auf, die Laufzeitprüfungen oder Validierungen durchführt.

    • Einsatzgebiet: überall dort, wo du sofortige Ergebnisse brauchst – z.B. Validierungen oder CRM-Abfragen.

    Faustregel:

    • Variablen-Platzhalter → für nicht-kritische Felder
    • Function Calls → für alles, was validiert oder sofort verarbeitet werden muss

    Die Javascript-Umgebung 💻

    Mit Javascript hast du eine LowCode-Umgebung zur Verfügung, mit der du fortgeschrittene Funktionen realisieren kannst.

    Globale Objekte

    In der Javascript-Umgebung findest du einige globale Objekte, die du aus jeder Funktion heraus nutzen kannst.

    data {} - das zentrale Objekt, dessen Felder direkt in den Kontaktdatensatz zur Weiterverarbeitung überführt werden

    temp {} - ein temporäres Objekt, in dem du serialisierbare Daten zwischen den Zügen speichern kannst

    • actions [] - um Steuerbefehle auszulösen
    • tts_translation {} - eine Map von Regex-Ausdrücken im String-Format zu phonetischen Ersetzungen, um die korrekte Aussprache bestimmter Begriffe zu erzwingen
    • LOG () - eine Funktion für Log-Ausgaben, die du dann im Gesprächslog sehen kannst

    API-Calls via HTTP auslösen

    Für API-Calls an externe Systeme stehen globale Funktionen zur Verfügung:

    GET​(url, options)
        POST​(url, payload, options)
        PUT​(url, payload, options)
        DELETE​(url, options)

    Das Ergebnis ist ein Response-Objekt mit folgenden Funktionen:

    status(), text(), json()

    Die Anfrage funktioniert asynchron. Du kannst also mehrere Anfragen parallel starten und das Script wartet erst dann, bis die Anfrage abgeschlossen ist, wenn du auf eine der Funktionen am Response zugreifst.

    Script-Hooks nutzen

    Folgende Hooks kannst du als Funktion implementieren, um auf bestimmte Ereignisse reagieren zu können:

    • onLoad() - wenn der Agent startet
    • onUpdate() → nach jedem Zug
    • onClose() → am Ende des Gesprächs (z.B. Abschlussarbeiten, Schreiboperationen)
    • onFieldUpdate(feldname,wert) - wenn definiert, werden die Variablen-Platzhalter nicht einfach ans data-Objekt gehängt, sondern über diese Funktion verarbeitet
    • onFunctionCall(name,argumente) → wenn der Agent eine undefinierte Funktion aufruft... so können dynamische Funktionen implementiert werden

    🤔 Hilfe, mein Agent wird dümmer - oder - wozu ein Zeigefinger gut ist

    Hat es mit deinem Agenten gut angefangen? Und jetzt macht er einfach nicht, was er soll?

    Du hast alle unsere Tipps schon umgesetzt - und trotzdem - es ist zum Verzweifeln!

    Dann bist du wahrscheinlich an dem Punkt, an dem du unsere versprochene Lösung für richtig große Agenten gebrauchen kannst.

    Warum statische Prompts an ihre Grenzen kommen

    KI-Agenten haben, wie Menschen, ein begrenztes Aufmerksamkeits-Budget. Aber ein neuer Mitarbeiter könnte doch super mit deinem Prompt arbeiten, oder? Ist die KI wirklich so dumm? Warum kann sie endlos lange Texte schreiben, scheitert aber an so einem Gespräch?

    Einfache Antwort: Dein Mitarbeiter hat einen Zeigefinger, die heutige KI aber nicht!

    Ein Mensch kann sich merken (oder mit dem Finger draufhalten), wo genau er sich im Gesprächsskript befindet; die KI muss das für jede Antwort neu aus der Gesprächshistorie herausfinden. Das kostet viel Aufmerksamkeit, und für die eigentliche Antwort bleibt wenig übrig.

    Willkommen beim Context-Engineering!

    Du stehst an der Schwelle vom Prompt Engineer zum Context Engineer. Die Idee ist, den Kontext (Prompt) dynamisch so anzupassen, dass für die nächste Antwort nur noch relevante Teile vorhanden sind. Und das ist die große Stunde der Prompt-Templates.

    Alles, was in der aktuellen Gesprächssituation für die nächste Antwort nützlich sein kann, muss herein, alles andere raus.

    Informations-Agenten

    Wenn du an einem Agenten arbeitest, der nur Informationen liefern soll, macht es Sinn, nur den aktuell relevanten Teil der Wissensdatenbank bereitzustellen. Lass also zunächst den Agenten einen Function Call starten, in dem der passende Teil der Wissensdatenbank abgerufen wird.

    Für kleinere Wissensdatenbanken könntest du einfach aus einer Liste von Themen auswählen; für sehr große Wissensdatenbanken brauchst du ein RAG-System.

    Das Dokument zum Themenbereich baust du dann via Template in den Prompt ein. Und jetzt kann sich der Agent voll auf die eigentliche Frage konzentrieren.

    Transaktions-Agenten

    Wenn dein Agent einen komplexen Prozess durchlaufen soll, solltest du diesen in Phasen unterteilen. Du wechselst zwischen den einzelnen Phasen mit Function Calls.

    Das löst viele Probleme auf einmal:

    • volle Aufmerksamkeit in den einzelnen Phasen
    • sehr hohe Prozesstreue - hält sich exakt an die Anweisungen
    • Prozess kann deterministisch gesteuert werden - der Agent kann Phasen nicht einfach überspringen
    • einzelne Phasen können unabhängig optimiert und getestet werden, keine Beeinflussung durch andere Phasen
    • nicht nur bessere sondern auch schnellere Antworten durch kleineren Kontext
    • dein Agent kann unbegrenzt wachsen

    Beispiel Prompt-Template

    # Rolle
        Du bist ein Telefon-Bestellbot bei GreatProducts.
    
        # Allgemeiner Prozess
        Du führst den Kunden durch den Bestellprozess:
        - Begrüßung
        - Erfassung Warenkorb
        - Erfassung Kundendaten
        - Erfassung Zahlungsdaten
        - Verabschiedung
        Konzentriere dich voll auf die aktuelle Aufgabe.
    
        # Aktuelle Aufgabe
        {{#if !temp.phase}}
        Begrüße den Kunden.
        Sage dem Kunden, dass wir zunächst die gewünschten Artikel aufnehmen und aktiviere gleichzeitig die Funktion "Neuer_Warenkorb"
        @Neuer_Warenkorb Lege einen neuen Warenkorb für die Bestellung an
        {{#elif temp.phase===10}}
        Frage den Kunden nach den gewünschten Artikeln
        ....
        Wenn alle Artikel erfasst sind, dann sage, dass du jetzt die Kundendaten benötigst und aktiviere gleichzeitig die Funktion "Daten_Erfassen"
        @Daten_Erfassen Bereite die Erfassung der Kundendaten vor.
        {{#elif temp.phase===20}}
        …
        {{#elif temp.phase===30}}
        ....
        {{#elif temp.phase===40}}
        Verabschiede dich vom Kunden und beende das Gespräch.
        {{/if}}
    
        #FAQ
        F: Warum?
        A: Weil!
    
        @hangup beendet den Anruf

    Erklärung

    Du definierst in jeder Phase eine Funktion, die den Agenten in die nächste Phase bringt. Innerhalb dieser Funktion setzt du das Feld temp.phase auf den Wert für die nächste Phase.

    Entsteht dadurch nicht eine seltsame Lücke zwischen den Phasen? Nein, überhaupt nicht.

    Der Agent bereitet den Kunden verbal auf die neue Phase vor. Danach wartet der Agent aber nicht auf eine Reaktion des Kunden, sondern reagiert sofort auf das Ergebnis des Function Calls mit dem geänderten Prompt, sodass er nahtlos in der nächsten Phase ohne Gesprächslücke startet.

    Die Funktionsdeklarationen werden vom Template ebenfalls ein- und ausgeblendet, sodass der Agent nur die jeweils relevanten Funktionen sieht. Das macht einen großen Unterschied.

    Da du den Prompt dynamisch im laufenden Gespräch änderst, achte darauf, dass genug Kontext um die Phasen herum erhalten bleibt, damit die vorherige Gesprächshistorie mit dem neuen Prompt noch Sinn ergibt. Im Beispiel wird nur der Abschnitt # Aktuelle Aufgabe dynamisch geändert. Die allgemeine Prozessbeschreibung und die FAQs bleiben jedoch gleich.

    © 1999 - 2025 - Perunis GmbH, All Rights Reserved.

    Please publish modules in offcanvas position.

    💬

    This website uses cookies to manage authentication, navigation, and other functions. By using our website, you agree that we can place these types of cookies on your device.