Gevoel en verstand: willen we dat AI emoties beheerst?

We onderzoeken de werking van emotieherkenningstechnologieën, het nut ervan en de privacy-overwegingen die ze met zich meebrengen.

Waarom AI leert om menselijke emoties te herkennen

Stelt u zich voor dat u op een dag met een slecht humeur thuiskomt, tegen de deur schreeuwt omdat die niet snel genoeg opengaat, tegen de lamp omdat die is opgebrand — en uw smart speaker begint onmiddellijk ontspannen muziek te spelen en het koffiezetapparaat zet een mokkakoffie voor u. Of dat, als u een winkel binnenloopt, de robot-assistent die op het punt stond u te benaderen, uw boze gezicht ziet, teruggaat en in plaats daarvan een andere klant helpt. Klinkt dat als een sciencefictionfilm?

Er worden echter al emotieherkenningstechnologieën gebruikt op verschillende terreinen, en in de nabije toekomst kan het goed zijn dat ons humeur in de gaten wordt gehouden door gadgets, huishoudelijke apparaten, auto’s: noem maar op. In deze post bekijken we hoe die technologieën werken, en hoe nuttig — en soms gevaarlijk — ze zouden kunnen zijn.

Kunstmatige EQ

De meeste bestaande emotieherkenningssystemen analyseren de gezichtsuitdrukking en stem van een individu, evenals de woorden die ze zeggen of schrijven. Als de mondhoeken van iemand bijvoorbeeld wat hoger staan, kan de machine oordelen dat die persoon een goed humeur heeft, en een gerimpelde neus zou kunnen wijzen op woede of walging. Een hoge, trillende stem en gehaaste spraak kan een indicatie van angst zijn, en als iemand het woord “proost!” roept, is diegene waarschijnlijk blij.

Complexere systemen analyseren ook gebaren en houden zelfs rekening met de omgeving in combinatie met gezichtsuitdrukkingen en spraak. Zo’n systeem herkent dat een persoon die onder bedreiging van een pistool gedwongen wordt te glimlachen waarschijnlijk niet echt dolblij is.

Emotieherkenningssystemen leren over het algemeen een verband te leggen tussen een emotie en de externe manifestatie daarvan van enorme reeksen met gelabelde data. Deze data kan audio- of video-opnames bevatten van tv-programma’s, interviews en experimenten met echte mensen, clips van theatervoorstellingen of films, en dialogen die zijn opgevoerd door professionele acteurs.

Eenvoudigere systemen kunnen worden getraind op basis van foto’s of teksten, afhankelijk van het doel ervan. Dit Microsoft-project probeert bijvoorbeeld de emoties, het geslacht en de geschatte leeftijd te raden op basis van foto’s.

Wat is het nut van emotieherkenning?

Gartner voorspelt dat tegen 2022 een op de tien gadgets uitgerust zal zijn met emotieherkenningstechnologieën. Maar sommige organisaties gebruiken die nu al. Als u bijvoorbeeld binnenloopt bij een kantoor, bank of restaurant, kan het zijn dat u wordt begroet door een vriendelijke robot. Hier volgen een aantal gebieden waarin zulke systemen wellicht voordelig kunnen zijn.

Beveiliging

Emotieherkenning kan worden gebruikt om geweld te voorkomen — zowel huiselijk als andersoortig geweld. Er zijn verschillende wetenschappelijke artikelen over dit onderwerp verschenen, en ondernemers verkopen zulke systemen al aan scholen en andere instellingen.

Personeelswerving

Sommige bedrijven maken gebruik van AI met emotieherkenning als HR-assistenten. Het systeem evalueert sleutelwoorden, intonatie en gezichtsuitdrukkingen van sollicitanten tijdens de eerste — en tevens meest tijdrovende — fase van het selectieproces, en stelt een rapport op voor menselijke recruiters waaruit blijkt of de kandidaat daadwerkelijk geïnteresseerd is in de functie, eerlijk is, en meer.

Klantgerichtheid

De Wegen- en Transportautoriteit in Dubai lanceerde dit jaar een interessant systeem in zijn centra voor klantenservice, met AI-uitgeruste camera’s die emoties van mensen vergelijken van het moment waarop ze het gebouw binnenkomen en weer verlaten, om zo hun tevredenheid te bepalen. Als de score onder een bepaalde waarde viel, adviseerde het systeem de werknemers van het centrum om maatregelen te nemen om de kwaliteit van de dienstverlening te verbeteren. (Foto’s van bezoekers worden niet opgeslagen in verband met privacy-overwegingen.)

Socialisatie van kinderen met een beperking

Een ander project heeft als doel om autistische kinderen te helpen om gevoelens te interpreteren van de mensen in hun omgeving. Het systeem draait op de Google Glass-bril. Als een kind met iemand anders communiceert, gebruikt de bril beelden en geluiden om aanwijzingen te geven over de emoties van de persoon die bekeken wordt. Tests hebben aangetoond dat deze kinderen sneller socialiseren met dit virtuele hulpje.

Hoe effectief zijn emotie-detectors?

Emotieherkenningstechnologieën zijn nog verre van perfect. Een goed voorbeeld hiervan is de agressie-detectietechnologie die op veel scholen in de V.S. wordt gebruikt. Het blijkt dat het systeem een hoest alarmerender vindt dan een bloedstollende gil.

Onderzoekers aan de University of Southern California hebben ontdekt dat gezichtsherkenningstechnologie het makkelijkst te misleiden is. De machine associeert bepaalde gezichtsuitdrukkingen automatisch met bepaalde emoties, maar slaagt er bijvoorbeeld niet in om kwaadaardige grijnzen te onderscheiden van een oprechte glimlach.

Daarom zijn emotieherkenningssystemen die rekening houden met de context nauwkeuriger. Maar die zijn dan ook complexer en er zijn er veel minder van.

Het is niet alleen relevant waar de machine naar kijkt, maar ook waar die op getraind is. Een systeem dat is getraind op geacteerde emoties kan bijvoorbeeld moeite hebben met échte emoties.

Emoties als persoonlijke gegevens

De verspreiding van emotieherkenningstechnologieën zorgt ook voor een ander belangrijk probleem. Ongeacht hoe effectief ze zijn, dringt dit soort systemen door in de persoonlijke ruimte van mensen. Stelt u zich bijvoorbeeld het volgende scenario voor: u vindt de outfit van een willekeurige voorbijganger leuk, en voor u het weet wordt u gebombardeerd met advertenties van kleren van hetzelfde merk. Of u fronst tijdens een vergadering een keer afkeurend, en wordt vervolgens overgeslagen voor een promotie.

Volgens Gartner wil de helft van alle Amerikaanse en Britse inwoners niet dat AI hun gevoelens en humeur interpreteert. Op sommige plekken zijn emotie- en gezichtsherkenningstechnologieën ondertussen zelfs bij de wet verboden. In oktober introduceerde California bijvoorbeeld een wetsvoorstel dat politieagenten verbood om biometrische informatie op te nemen, te verzamelen en te analyseren met gebruik van camera’s op het lichaam, inclusief gezichtsuitdrukkingen en gebaren.

Volgens de makers van de wet komt het gebruik van gezichtsherkenningstechnologie op hetzelfde neer als eisen dat willekeurige voorbijgangers elke seconde hun paspoort moeten laten zien. Het vormt een schending op de burgerrechten, en kan ervoor zorgen dat mensen die schuldig zijn aan kleine misdragingen, zoals het niet betaald hebben van een parkeerboete, wel twee keer nadenken voor ze serieuzere misdaden aan de politie melden.

Kunstmatige emotieloosheid

Het privacyprobleem is zo nijpend dat het misleiden van emotiedetectors zelfs onderwerp is van wetenschappelijk onderzoek. Wetenschappers aan het Imperial College London hebben bijvoorbeeld een privacybeschermende technologie ontwikkeld die emotie uit de menselijke stem verwijdert. Het resultaat is dat is een voice-assistent met emotieherkenningstechnologie de betekenis van wat er gezegd wordt begrijpt, maar het humeur van de spreker niet kan interpreteren.

Het stellen van beperkingen aan AI zal de ontwikkeling van empathie in AI-systemen ongetwijfeld vermoeilijken, die zelfs nu al gevoelig voor fouten is. Maar het is goed om bescherming te hebben voor het geval dat onze wereld in Black Mirror verandert machines te diep in ons onderbewustzijn beginnen door te dringen. We mogen er namelijk niet op rekenen dat emotieherkenning geschrapt wordt, zeker gezien de gebieden waarin deze technologie ook echt goed werk verricht.

Tips