Dagmar Schuller von audEERING über emotionale Künstliche Intelligenz

geschätzter Leseaufwand: 3 Minuten

Wie funktioniert die emotionale Künstliche Intelligenz? Das hat mir die Geschäftsführerin und Co-Gründering Dagmar Schuller in einem zweiteiligen Videointerview näher gebracht. Im heutigen ersten Teil spricht sie über ihre Vision in Sachen emotionale Künstliche Intelligenz, über die involvierten Branchen und über die zum Einsatz kommenden Geräte und Plattformen.

Die Vision: intelligente Technik „made in Bavaria“

Die grundlegende Vision von audEERING zum Thema emotionale Künstliche Intelligenz ist in der Annahme begründet, dass Maschinen sehr viel besser in der Lage sind, menschliche Regungen und Emotionen anhand des gesprochenen Worts zu bewerten als der Menschen selbst. Der maßgebliche Beitrag von audEERING in diesem Kontext ist ein besserer und schnellerer Austausch von Mensch und Maschine, wenn es um das analytische Bewerten von menschlichen Stimmungen geht.

Dabei spielt eine wesentliche Rolle, dass Rechner und andere Geräte viel eher dazu in der Lage sind, aus einer Vielzahl an Emotionen die richtigen „herauszuhören“ als wir selbst. Das hat oft damit zu tun, dass der Mensch in vielen Fällen Gefangener seiner Gefühle ist und damit gar nicht wahrnehmen kann, was der Gegenüber gerade sagt, und vor allem wie er es sagt.

Rein markttechnisch betrachtet sieht sich audEERING als B2B-Marke, mit deren Hilfe Firmen und Einrichtungen in der Lage sind, ihre Software auf Basis der Kerntechnologie openSMILE so zu gestalten, dass ein größtmöglicher Nutzen daraus entsteht. Aber natürlich sollen auch Anwender anhand der drei kleinen audEERING-Wellen erkennen, dass im Gerät oder in der jeweiligen Software eine intelligente Technik „made in Bavaria“ steckt.

[irp posts=“168685″ ]

Die Firma audEERING ermöglicht das Analysieren und Erfassen von Stimmungen in Stimmen

audEERING-Software kommt in fünf Kernbereichen zum Einsatz

audEERING spielt in aktuell fünf Branchen eine wichtige Rolle, wenn es um das stimmbasierte Erkennen von Emotionen geht. Konkret handelt es sich um die Branchen Automotive, Call Center, Marketing, Medizin und Personal Assistant.

Automotive: Hier lässt sich anhand der aktuellen Stimmung im Auto feststellen, wie es dem Fahrer oder den Beifahrern geht, um auf dieser Basis die richtigen Maßnahmen einzuleiten (Stichworte: Übel-/Müdigkeit, Stress, Aggressionen, etc.).

Call Center: Mitarbeiter werden unterstützt, besser auf den Anrufer und dessen Emotionen zu reagieren. Der Agent erhält in Echtzeit Informationen, um das Gespräch richtig zu leiten.

Marketing: Die Emotionen von Kunden werden durch Atem- und Stimmgeräusche analysiert, um Werbung in Echtzeit darauf einzustellen oder um auszuwerten, wie ein Proband emotional auf ein vorgestelltes Produkt reagiert.

Medizin: Kürzeste Sprachaufnahmen können zur Frühdiagnostik von Krankheiten wie Parkinson, Depressionen oder ADHS dienen. Hier findet ein reger Austausch mit Kliniken und im Kontext von medizinischen Studien statt.

Personal Assistant: Roboter werden in die Lage versetzt, Emotionen in feinen Abstufungen zu erkennen und sozial mit ihrem menschlichen Gegenüber zu interagieren.

Diese möglichen Kernbereiche mündeten bereits in zahlreichen Applikation wie Audiary, Callyser und sensAI-Music.

[irp posts=“32489″ ]

audEERING-Software kommt auf unterschiedlichsten Geräten zum Einsatz

Grundsätzlich ist die audEERING-Software openSMILE multi-plattforn-tauglich. Sie kann also Daten sowohl aus der Cloud als auch von Großrechnern beziehen, die für das intelligente Erkennen von Stimmungen in Stimmen erforderlich sind. Allerdings bevorzugt audEERING das lokale Speichern und Nutzen lokaler Daten, also auf dem Endgerät selbst. Das kann eine Smartwatch sein, ein Smartphone oder jedes andere Device, auf dem die zugrundeliegende Software installiert werden kann.

Die Vorteile dieses lokalen Ansatzes sind klar: Zum einen hat der Anwender seine Daten jederzeit unter Kontrolle, was für viele Leute gerade in Zeiten des verstärkten Datenschutzes einen unvergleichlichen Mehrwert darstellt. Darüber sollen und dürfen besonders sensitive Daten, wie sie zum Beispiel im Bereich Medizin anfallen, den lokalen Bereich möglichst gar nicht verlassen, sodass hier das Erfassen und Berechnen von Emotionen am besten direkt auf dem Gerät stattfindet.

Das komplette Interview mit Dagmar Schuller

Schreibe einen Kommentar