5 dingen die we hebben geleerd bij Kaspersky NEXT

Het evenement Kaspersky NEXT draaide dit jaar om AI, gendergelijkheid en sociale robotica.

Bij het evenement Kaspersky NEXT vonden er dit jaar onderzoeken en discussies plaats van een aantal van de prominentste experts van Europa op het gebied van cybersecurity en kunstmatige intelligentie. Van machine learning en AI tot het beveiligen van het IoT: hier zijn vijf dingen die we hebben geleerd tijdens het evenement van dit jaar, dat op 14 oktober in Lissabon plaatsvond.

AI gebruiken om de wereld eerlijker te maken

Hebt u ooit nagedacht over het aantal beslissingen dat vandaag door machines is gemaakt? Of hoeveel van die beslissingen gebaseerd waren op geslacht, ras of achtergrond? De kans bestaat dat u niet eens beseft hoeveel beslissingen er worden gemaakt door kunstmatige intelligentie in plaats van door mensen. Kriti Sharma, oprichtster van AI for Good, legde uit dat er constant algoritmes worden gebruikt om beslissingen te maken over wie we zijn en wat we willen.

Kriti was ook van mening dat we, om kunstmatige intelligentie echt te verbeteren, mensen van allerlei soorten achtergronden, geslachten en etnische groepen samen moeten brengen. U kunt haar Ted Talk over waarom menselijke vooroordelen van invloed zijn op de beslissingen die door machines worden genomen bekijken.

De impact van het toewijzen van geslacht aan AI

Denk aan Alexa, Siri en Cortana. Wat hebben die allemaal met elkaar gemeen? Ze gebruiken vrouwelijke stemmen en zijn ontworpen om gehoorzame dienaren te zijn. Waarom is dat zo? Versterkt technologie zo bepaalde stereotypes? Twee paneldiscussies over gender en AI onderzochten dit. Digitale assistenten hebben vrouwelijke stemmen omdat, zo bleek uit verschillende onderzoeken, mensen zich meer op hun gemak voelen met vrouwelijke stemmen als digitale assistenten. Is dat ook een weerspiegeling van de samenleving?

Wat kan er dus worden gedaan om de genderongelijkheid in AI te bestrijden? Misschien een genderneutrale stem gebruiken, of misschien een geslacht voor robots en AI creëren. Behalve dit probleem aanpakken (en ook hierboven genoemd), is het ook belangrijk om meer diverse teams te hebben die AI creëren om zo de diversiteit van de gebruikers ervan te weerspiegelen.

Mensen vertrouwen robots meer dan mensen

Een sociale robot is een systeem met kunstmatige intelligentie dat communiceert met mensen en andere robots — en dat, in tegenstelling tot Siri of Cortana, ook een fysieke aanwezigheid heeft. Tony Balpaeme, hoogleraar robotica aan de Universiteit Gent, legde uit hoe er problemen zullen ontstaan omtrent de interactie tussen robot en mens terwijl de robots steeds wijder verspreid worden.

Balpaeme beschreef een aantal van de wetenschappelijke experimenten die hij en zijn team hebben gedaan. Ze testten bijvoorbeeld het vermogen van mensen versus robots om gevoelige informatie te verkrijgen (geboortedatum, straat of woonplaats als kind, favoriete kleur, etc.) die gebruikt kon worden om wachtwoorden te resetten. Het grappige is dat robots meer worden vertrouwd dan mensen, dus mensen geven ook eerder gevoelige informatie vrij aan robots.

Hij liet ook een experiment zien voor fysieke indringing. Een groep mensen die de opdracht had om een gebouw of gebied te beveiligen liet erg gemakkelijk een schattige robot toe in het gebied. Er is geen reden om aan te nemen dat de robot veilig is, maar mensen gaan ervanuit dat het onschuldig is — een tendens die erg gemakkelijk uitgebuit kan worden. U kunt meer lezen over sociale robotica en gerelateerde experimenten op Securelist.

AI zal zeer overtuigende deepfakes gaan creëren

David Jacoby, lid van Kaspersky’s GreAT, sprak over social engineering: chatbots, AI en geautomatiseerde dreigingen. In de loop van de tijd zouden gezichts- en stemherkennings-apps benut kunnen worden via social engineering of andere ouderwetsere methodes. Jacoby had het verder over deep fakes, die steeds lastiger te detecteren worden. Hoe deze van invloed kunnen zijn op toekomstige verkiezingen en nieuwsuitzendingen is een grote zorg.

De belangrijkste zorg is echter vertrouwen. Zodra deze technologie eenmaal geperfectioneerd is, wie kunt u dan nog vertrouwen? De oplossing is volgens hem beter bewustzijn: educatie en nieuwe technologie die gebruikers helpt om nepvideo’s te detecteren.

De staat van veiligheid in robotica

Dmitry Galov, een ander lid van Kaspersky’s GReAT, sprak over het ROS (Robot Operating System), een flexibel framework voor het schrijven van robot-software. Zoals bij vele andere systemen, werd er bij de creatie van ROS geen rekening gehouden met veiligheid, en daardoor bevat het natuurlijk een aantal significante beveiligingsproblemen. Voordat ROS-gebaseerde producten zoals sociale robots en autonome auto’s vanuit de collegezalen van universiteiten de armen van de consument invliegen, moeten de makers ervan iets aan deze problemen doen. Er wordt inderdaad hard gewerkt aan de ontwikkeling van een nieuwe versie van ROS. U leest hier meer over in het rapport van Galov.

Bonustip: Gebruik USB-condooms

Marco Preuss en Dan Demeter, ook leden van Kaspersky’s GreAT, spraken over hoe mensen zichzelf beschermen tegen hackers terwijl ze op zakenreis zijn. Hebt u zich wel eens bedacht dat er verborgen camera’s, bugs en tweezijdige spiegels in uw hotelkamer aanwezig kunnen zijn?

Voor de enigszins paranoïde mensen bespreekt deze post een aantal veiligheidstips op reis van Preuss en Demeter, die het tevens hadden over het belang van (als u echt paranoïde bent) het gebruik van een “USB-condoom” — ja, die bestaan echt, en het gebruik ervan kent hetzelfde principe als normale condooms: als u op het punt staat uw telefoon op te laden via een onbekende USB-poort, is het de wellicht de moeite waard om uw apparaat te beschermen met deze kleine gadget. Gelukkig zijn deze condooms, in tegenstelling tot de normale, wel herbruikbaar.

Om meer te weten te komen over alles wat er op deze dag gebeurde, kunt u een kijkje nemen op ons Twitter-account.

Tips