Zoom plant Emotionen aus den Gesichtern abzulesen
Zoom plant Emotionen aus den Gesichtern von Konferenzteilnehmern abzulesen
Zoom hat als weltweit beliebtes Programm nun vor, zukünftig auch die Emotionen der Konferenzteilnehmer zu scannen, damit die Gesichter entsprechend abgelesen werden können. Dabei schlagen Aktivisten für das Bürgerrecht Alarm. Vor diesem Emotionsscanner wird eingehend gewarnt. Es bleibt abzuwarten, inwiefern diese neue Funktion zu Missbrauch und Rechtsverstössen führen wird – so die Kritiker.
Damit soll zum Beispiel festgestellt werden, ob Studenten einen Vortrag überhaupt interessant finden oder sich langweilen, bzw. ob der Kollege noch richtig zuhört oder nicht. Wenn einem Kunden der Preis zu hoch ist, wird das anhand dieses Scanners über die Gesichtserkennung gezeigt. Die App namens Zoom ist ein US-amerikanisches Unternehmen. Hauptsächlich wird diese für Online-Videokonferenzen genutzt. Mittlerweile wird die künstliche Intelligenz aber in vielen Bereichen eingesetzt. Gemeint ist damit auch das Lesen der Körpersprache der Konferenzteilnehmer. Diese Körpersprache wird von der künstlichen Intelligenz analysiert, damit die Stimmung entsprechend interpretiert und gedeutet werden kann.
Es gibt viele Gegner
Gegen diese Pläne sprechen sich mittlerweile mehr als 30 Organisationen aus. Es ist nicht gewünscht, dass die Stimmungen ausgelesen werden. Damit werden zum Beispiel Fehleinschätzungen getätigt, weil die künstliche Intelligenz nicht verlässlich funktioniert. Ausserdem bedeutet das eine Verletzung der Privatsphäre und Menschenrechte zugleich. Diese Funktion sollte aus diesen Gründen nicht weiterentwickelt werden – so die Organisationen.
Strafen können die Konsequenz sein
Es wird gefürchtet, dass es zu entsprechenden Strafen kommt, wenn quasi falsche Gefühle geäussert und gezeigt werden. Deshalb ist diese Massnahme nicht nur rassistisch, sondern auch fehlerhaft und irreführend. Nicht jeder Mensch hat denselben Gesichtsausdruck, auch die Körpersprache und die Stimmlage unterscheiden sich. Bestimmte Menschen mit Behinderung oder Ethnien werden automatisch durch solche Massnahmen diskriminiert. Die Gesichtserkennung und die künstliche Intelligenz funktionieren bei Menschen asiatischem Aussehen oder dunkelhäutigen Menschen nicht. Ausserdem kann die Software missbräuchlich verwendet werden. Werden falsche Gefühle geäussert, könnten Universitäten oder Arbeitnehmer entsprechend mit Strafen reagieren. Durch die künstliche Intelligenz werden die Verkäufer unter Druck gesetzt. Es ist nichts Neues, dass die Daten der Software für das Marketing genutzt werden. Um Online-Dialoge zu optimieren wird von Zoom bereits ein ähnliches Tool eingesetzt. Im Nachhinein wird beispielsweise überprüft, wie viele Füllwörter verwendet wurden oder ob derjenige zu wenig Geduld gezeigt hat.
Ein Tool für die Bewertung der Mitarbeiter
Beworben wird die neue Software damit, dass die Leistung entsprechend bewertet werden kann. Manche Unternehmen setzen die künstliche Intelligenz bereits dafür ein, um Emotionen am Kamerabild ablesen zu können. Häufig werden Mitarbeiter in einem Callcenter mit solchen Softwarelösungen kontrolliert.