Skip to main content

Wie funktioniert Intenterkennung bei Chatbots?

Chatbot Labor Wie Funktioniert Intenterkennung Bei Chatbots Kauz

Damit ein Chatbot funktioniert, muss er die Absicht des Nutzers, auch “Intent” genannt, erkennen können. Doch wie funktioniert die Intenterkennung bei Chatbots? Im Blogartikel erfahren Sie, welchen Unterschied das verwendete KI-System für die Intenterkennung ausmacht.

Chatbots: Sprachlogik oder maschinelles Lernen?

In meinem letzten Beitrag habe ich den grundlegenden Unterschied zwischen regelbasierten und lernbasierten Verfahren für die maschinelle Sprachverarbeitung erläutert:

  • Sprachlogik: Ein regelbasierter Ansatz für die Sprachverarbeitung zielt darauf ab, eine minimale Anzahl an abstrakten Sprachregeln zu finden, aus denen die richtige Antwort für Fragen logisch abgeleitet werden können.
  • Statistische Ähnlichkeitsrelationen: Ein lernbasierter Ansatz für die Sprachverarbeitung zielt darauf ab, eine kompakte Darstellung von Ähnlichkeitsrelationen zu lernen, mit der Fragen im Hinblick auf die passende Antwort statistisch kategorisiert werden können.

Wir haben im letzten Beitrag auch gesehen, dass Systeme die Bedeutung von sprachlichen Einheiten mit maschinellem Lernen “verstehen”, indem sie Eingaben hinsichtlich ihrer Ähnlichkeit mit bestimmten Zielwerten überprüfen können (z.B. “Haus ist ähnlich zu Gebäude”). Das ist aber auch schon alles was solche Systeme “verstehen”.

In meinem heutigen Beitrag will ich nun im Detail die Konsequenzen für die Entwicklung von Chatbots untersuchen, die daraus resultieren, dass maschinelles Lernen “Ähnlichkeit” mit Bedeutung gleichsetzt und mit der logikbasierten Auffassung von Bedeutung in regelbasierter KI kontrastieren.

Wie funktioniert Intenterkennung durch maschinelles Lernen?

Im Kontext von maschinellem Lernen von Sprachbedeutung bedeutet “Intenterkennung“, zu verstehen was der Nutzer mit seiner Eingabe bezweckt. Bezogen auf maschinell gelernte Sprachbedeutung heißt das wiederum nichts anderes als die Suche nach dem “Intent” (z.B. Hausversicherung abschließen), der der Eingabe am “ähnlichsten” ist.

Für generelle Intents wie “Hilfe” kann ein auf großen Datenmengen vortrainiertes System oft schon die Ähnlichkeit zu Eingaben wie “Kannst du mir helfen?” ohne weitere Hilfe herstellen. Für speziellere Intents muss die Intent- bzw. Ähnlichkeitserkennung des Systems aber erst mit durch den Chatbotentwickler manuell erstellen Beispielen “angeleitet“ werden.

Thematische Ähnlichkeit ist alles, oder doch nicht?

Nehmen wir an, ihr Chatbot soll auf der Anwendungsdomäne “Überweisung” operieren. Dann könnte ihr Domänenmodell für “Überweisung” z.B. folgende “Intents” beinhalten:

  • ueberweisung (“Ich will Geld überweisen.”)
  • ueberweisung.kosten (“Was kostet eine Überweisung?”)
  • ueberweisung.ausland.kosten (“Was kostet eine Überweisung ins Ausland?)

Für jeden dieser Intents sind nun erstens genügend Trainingsfragen nötig, um das System auf die Erkennung und Unterscheidung der Nutzereingaben zu trainieren. Wenn pro Intent 20 Fragen notwendig sind, wären also schon für das kleine Beispiel hier eine Menge gut ausgedachter Trainingsfragen nötig. Eine solche Trainingsfrage deckt einen Intent breit ab, grenzt ihn aber von anderen Intents auch ab.

Zweitens ist die in die Definition von Intents und ihrem Training investierte Arbeit nicht nachhaltig, denn die “Struktur” von Intents lässt sich wegen der Themenabhängigkeit des Trainings für die Erkennung von Intents nicht auf verwandte Fälle übertragen oder wiederverwenden. Was bedeutet das konkret?

Sprache basiert auf Struktur und Regeln, nicht auf thematischer Ähnlichkeit

In unserem Beispiel zu Überweisungen kann die Definition und das Training von “überweisung.kosten” (“Was kostet eine Überweisung?”) nicht auf den Intent “konto.kosten” (“Was kostet ein Konto?”) übertragen werden, obwohl die Struktur der Eingabe (“Was kostet X?”) und wahrscheinlich auch die Trainingsfragen bis auf das Thema gleich sind. Es besteht also keine “abstrakte” – themenunabhängige – Beziehung zwischen sprachlicher Struktur einer Eingabe und ihrer Bedeutung (also der Struktur des Intents), sondern nur eine ganz konkrete eins-zu-eins Beziehung zwischen Eingaben zu einem Thema und einem Thema. Eine solche Strukturierung von Sprache anhand von Themen über die man spricht, ist genau das was man erwarten würde, wenn man Sprachbedeutung anhand von “Ähnlichkeit” lernt, sie hat aber gravierende Nachteile.

Themenähnlichkeit vs. Strukturgleichheit

Sprachbedeutung selbst und Sprache im Allgemeinen ist nicht anhand von “Themen” strukturiert, sondern auf der Basis abstrakter Prinzipien für die Kombination und Interpretation von Worten: der Grammatik. Für Anwendungsfälle wie Chatbots ist deswegen eine auf Ähnlichkeit basierende themenfixierte Herangehensweise wenig sinnvoll.

Die Ausdrucksmächtigkeit natürlicher Sprache resultiert nicht einfach nur daraus, dass man eine gigantisch große Menge von Textähnlichkeiten memoriert hat. Die Ausdrucksmächtigkeit von Sprache entsteht durch die regelgeleitete Kombination und Interpretation von Worten.

In einen Satz wie “Was kostet X?” können Sie anstelle des X jedes Nomen einsetzen, dass die Eigenschaft hat, etwas zu kosten, ohne dass sich an der abstrakten Struktur des Satzes etwas ändert (der Satz bleibt eine Frage nach den Kosten von etwas). Ein System für maschinelles Lernen kann mit einer solchen abstrakten Struktur nichts anfangen, denn es gibt keine statistische Regularität des Sprachgebrauchs, die “etwas” charakterisiert. Stattdessen ist das System darauf angewiesen, vordefinierte “Schlüsselwörter” (z.B. “Überweisung”) zu erkennen, anhand derer es Ähnlichkeiten beurteilen kann.

Der “Schlüsselwortansatz” für Chatbots generalisiert nicht

Nun ist ein “Schlüsselwortansatz” für kleine Chatbotprojekte sicher machbar und der Aufwand für die Definition der grammatischen Struktur (ueberweisung.kosten) einer Eingabe (“Was kostet eine Überweisung”) fällt vielleicht nicht ins Gewicht, aber solch ein Ansatz skaliert aus Prinzip nicht. Kunden von Kauz betreiben Chatbots mit mehreren Tausend Intents und Sie können sich vorstellen, dass händische Einzelfalldefinitionen für solche realistischen Anwendungen schnell an ihre Grenzen kommen.

intenterkennung chatbot erkennt richtigen intent kauz

Wie funktioniert Intenterkennung mit Sprachlogik und linguistischer Analyse?

Vor diesem Hintergrund können wir nun klar benennen, was den eigentlichen Sinn einer regelbasierten künstlichen Intelligenz für Chatbots ausmacht. Die regelbasierte künstliche Intelligenz der Kauz Chatbots ist dafür da, die sprachliche Form einer Nutzereingabe (“Was kostet eine Überweisung?”) mit ihrer Bedeutungsstruktur (“ueberweisung.kosten”) zu verbinden, um auf der Basis dieser Bedeutungsstruktur die richtige Antwort in der Anwendungsdomäne zu finden. Unsere KI ist deswegen mit dem Ziel definiert, die Entwicklung komplexer Chatbots einfach zu machen: Der Ersteller eines Chatbots muss nur sein Domänenmodell definieren, z.B. was die mit der Bedeutung “ueberweisung.kosten” assoziierte Information sein soll, während die künstliche Intelligenz von Kauz dem Anwender die Arbeit abnimmt, natürliche Sprache auf ihre Bedeutung (dem Intent) abzubilden und anhand dieser Bedeutung die richtige Antwort im Domänenmodell zu finden.

Generalisierung durch Sprachlogik

Wenn Sie mir bis hierher gefolgt sind, prima, denn jetzt kommt eine schöne Pointe 😊. In meinem letzten Blogbeitrag hatte ich erwähnt, dass gegen regelbasierte KI-Ansätze oft ins Feld geführt wird, dass sich die Regeln solcher Systeme nur auf konkrete Einzelfälle beziehen, also jeden Fall einzeln behandeln. Im Gegensatz dazu wird maschinelles Lernen oft so dargestellt, dass die Verfahren generalisieren, also ohne konkrete Einzelfallregeln auskommt. Diese Einschätzung dient dann häufig dazu, maschinelles Lernen per se gegenüber regelbasierten Verfahren zu bevorzugen. Ganz offensichtlich ist diese Einschätzung im Hinblick auf den konkreten Einsatz in der Intenterkennung falsch.

Ein regelbasierter Ansatz erlaubt die Übertragung und Generalisierung von Intents auf der Basis der logischen Struktur von Sprache. Ein Ansatz mit maschinellem Lernen ist auf Themen fixiert und dementsprechend müssen thematisch unabhängige Intents einzeln definiert und trainiert werden. Das Verhältnis von Einzelfallregel und Generalisierung ist in der Praxis also in der praktischen Anwendung genau umgekehrt wie oft kolportiert:

In der Praxis der Intenterkennung generalisieren regelbasierte Systeme über Einzelfälle, während maschinellem Lernen jeder Fall einzeln beigebracht werden muss.

Regelbasierte KI heißt also nicht einfach eine riesige Menge von ganz konkreten Einzelfallregeln zu definieren. Regelbasierte KI operiert auf der Ebene von Sprach- und Domänenlogik, also mit abstrakten Regeln, die so miteinander verbunden sind, dass Eingabetypen in einem Domänenmodell richtig beantwortet werden.

Kauz Chatbots = eingebaute Sprachlogik + intuitives Domänenmodell

Konkret heißt das für Anwender der Kauz KI für Chatbots: die zugrundeliegende Logik unserer KI sorgt für die richtigen Ergebnisse im Einzelfall, während der Anwender auf dem abstrakten Level unserer Sprach- und Domänenlogik (z.B. Dinge und ihre Eigenschaften, Prozesse und ihre Folgen) intuitiv über “Arten” von Eingaben und Antworten zu bestimmten Themen generalisieren kann. Wie genau das funktioniert, zeige ich Ihnen gerne in einem meiner nächsten Beiträge.

Übrigens schließen regelbasierte Methoden den Einsatz von Methoden des maschinellen Lernens für klar eingegrenzte und passende Anwendungsdomänen nicht aus, bei Kauz setzen wir maschinelles Lernen z.B. für die Korrektur fehlerhafter Eingaben oder die Generierung von Antworten ein.

Ich hoffe, sie verstehen jetzt besser, warum wir glauben, dass Chatbots von Kauz keine “nice-to-have”-Spielerei sind, sondern eine sinnvolle Erweiterung der Interaktion mit Kunden im virtuellen Raum darstellen. Wir sind davon überzeugt, dass es unsere regelbasierte KI ist, die es unseren Kunden erlaubt Chatbots für reale Anwendungsszenarien mit tausenden Intents und Entitäten in komplexen Domänenmodellen zu implementieren und dabei gleichzeitig eine Antwortquote von 80 Prozent zu erreichen.

Schön, dass sie auch bei meinem zweiten Überblicksartikel wieder dabei waren, Sie sind jetzt sicher neugierig auf die Technologie von Kauz geworden. Dann freue ich mich, wenn Sie mit mir gemeinsam in weiteren Blogbeiträgen in die Vielzahl von Herausforderungen eintauchen, die für uns Menschen in der täglichen Kommunikation gar nicht wahrgenommen werden, aber für Chatbots “harte Nüsse” sind.

Wenn Sie Fragen und Kommentare zu diesem Beitrag oder Vorschläge für zukünftige Themen haben: schreiben und kommentieren Sie gerne!

Abonnieren Sie unseren Newsletter und verpassen Sie keine Beiträge mehr!

 

Ähnliche Beiträge