Wie optimiert Genesys große Sprachmodelle (LLMs)?
Halluzinationen werden durch die Feinabstimmung von Modellen mit Konversationsdatensätzen gemildert, die für Anwendungsfälle wie Kundenbetreuung und Branchen wie Gesundheitswesen, Finanzdienstleistungen und Einzelhandel ausgewählt werden. Dieser Prozess kann Halluzinationen erheblich reduzieren, indem die Modelle auf den Anwendungsfall neu gewichtet werden.
Die Best Practices für Eingabeaufforderungen sollen das Large Language Model (LLM) anweisen, erfundene Antworten zu vermeiden und „Ich weiß nicht“ zu sagen, wenn die Frage nicht relevant oder beantwortbar ist. Dieses Verhalten verleiht dem LLM ein hohes Maß an Vertrauen in die Antwort, indem es die Reaktion mit Beispielen korrekter Ausgaben einschränkt und die deterministische Temperatur so niedrig wie möglich einstellt.
Retrieval-Augmented Generation (RAG) schränkt die Antworten so ein, dass sie aus einem bekanntermaßen guten Datensatz des Unternehmens abgeleitet werden.