
Een AI-hallucinatie is een situatie waarin een kunstmatig intelligent hulpmiddel onnauwkeurige, misleidende of onsamenhangende output levert omdat de algoritmen patronen in gegevens vinden die niet bestaan of die patronen verkeerd interpreteren.
Naarmate de mogelijkheden en populariteit van kunstmatige intelligentie de afgelopen jaren zijn toegenomen, zijn enkele van de gebreken en kwetsbaarheden ervan ontdekt.
Een van de grootste vragen die mensen hebben, is of AI accuraat is. In veel gevallen is het een ongelooflijk handig hulpmiddel gebleken voor het controleren van feiten en het onderzoeken van informatie, maar in sommige andere gevallen waren de resultaten die het leverde onjuist of misleidend.
Gezien het scala aan gebruikssituaties waarop AI in de moderne wereld wordt toegepast, kunnen de gevolgen van deze onnauwkeurigheden buitengewoon ernstig zijn. In dit artikel bekijken we waarom een AI-hallucinatie kan optreden, wat de gevolgen zijn vanuit technologisch en maatschappelijk oogpunt en wat u kunt doen om het risico op AI-hallucinaties bij eigen gebruik te minimaliseren.
Hoe verloopt een AI-hallucinatie?
Er zijn verschillende redenen waarom een AI-hallucinatie optreedt, en in veel gevallen komt het neer op een combinatie van meerdere tegelijk. Deze kunnen zijn (en zijn niet noodzakelijk beperkt tot):
- Onvoldoende trainingsgegevens om uitgebreide, nauwkeurige resultaten van het AI-model te begeleiden.
- Als u te veel trainingsgegevens hebt, wat ertoe leidt dat te veel irrelevante 'ruis van gegevens' wordt verward met de informatie die relevant en belangrijk is.
- Vertekeningen in de gegevens die worden weerspiegeld in gegenereerde resultaten.
- Het AI-model maakt simpelweg de verkeerde aannames en conclusies op basis van de informatie die het krijgt.
- Een gebrek aan echte context binnen het AI-model, zoals fysieke eigenschappen van objecten of bredere informatie die relevant is voor de gegenereerde resultaten.
Hoe ziet een AI-hallucinatie eruit?
Er is niet één set symptomen voor AI-hallucinaties omdat het afhangt van de gebreken in het model en het betrokken proces. Meestal kan een AI-hallucinatie zich echter op een van de volgende vijf manieren manifesteren:
- Onnauwkeurige voorspellingen : AI-modellen voorspellen mogelijk iets dat in de toekomst zal gebeuren met een kleine realistische kans van optreden, of waarschijnlijk helemaal geen kans.
- Samenvattingen met ontbrekende informatie : soms missen AI-modellen essentiële context of informatie die ze nodig hebben om nauwkeurige, uitgebreide resultaten te creëren. Dit kan zijn door een gebrek aan gegevens die in het model worden ingevoerd of doordat het model niet kan zoeken naar de juiste context uit andere bronnen.
- Samenvattingen met verzonnen informatie : net als bij het vorige punt kunnen sommige AI-modellen een gebrek aan nauwkeurige informatie compenseren door dingen helemaal te verzinnen. Dit kan vaak gebeuren wanneer de gegevens en context waarop het model vertrouwt in de eerste plaats onnauwkeurig zijn.
- Valse positieve en negatieve punten : AI wordt vaak gebruikt om potentiële risico's en dreigingen te detecteren, of het nu gaat om symptomen van ziekte in een gezondheidszorgomgeving of om gevallen van frauduleuze activiteiten in het bankwezen en de financiële sector. AI-modellen kunnen soms een dreiging identificeren die niet bestaat, of aan de andere kant van de schaal, een dreiging die wel bestaat niet identificeren.
- Onsamenhangende resultaten : als je door AI gegenereerde afbeeldingen van mensen met het verkeerde aantal armen en benen of auto's met te veel wielen hebt gezien, weet je dat AI nog steeds resultaten kan genereren die voor mensen niet logisch zijn.
Waarom is het belangrijk om AI-hallucinatie te vermijden?
U denkt misschien dat een AI-hallucinatie geen probleem is en dat het probleem eenvoudig kan worden opgelost door de gegevens opnieuw door het model te laten lopen door de juiste resultaten te genereren.
Maar de dingen zijn niet zo eenvoudig als dat, en alle AI-hallucinaties die worden toegepast op praktische use-cases of vrijgegeven in het publieke domein kunnen zeer ernstige gevolgen hebben voor grote aantallen mensen:
Onethisch gebruik van AI
Het gebruik van AI, in algemeen, staat momenteel in de schijnwerpers, en van organisaties die de technologie gebruiken, wordt steeds vaker verwacht dat ze AI gebruiken op een verantwoorde en ethische manier die mensen niet schaadt of in gevaar brengt. Toestaan dat een AI-hallucinatie ongecontroleerd zou passeren - bewust of onbewust - zou niet aan die ethische verwachtingen voldoen.
Vertrouwen van het publiek en de consument
In verband met het vorige punt maken veel mensen zich nog steeds zorgen over het gebruik van AI, van de manier waarop hun persoonlijke gegevens worden gebruikt tot de vraag of de toenemende mogelijkheden van AI hun werk mogelijk overbodig maken. Aanhoudende gevallen van AI-hallucinaties in het publieke domein kunnen het langzaam opbouwende vertrouwen bij het publiek aantasten en op de lange termijn leiden tot beperkt succes voor AI-gebruikscasussen en bedrijven.
Verkeerd geïnformeerde besluitvorming
Bedrijven en mensen moeten de best mogelijke en weloverwogen beslissingen kunnen nemen en vertrouwen steeds meer op gegevens, analyses en AI-modellen om het giswerk en de onzekerheid bij die beslissingen weg te nemen. Als ze worden misleid door onnauwkeurige resultaten van AI-modellen, kunnen de verkeerde beslissingen die ze nemen catastrofale gevolgen hebben, van een bedreiging voor de winstgevendheid van een bedrijf tot een verkeerde diagnose van een medische patiënt.
Juridische en financiële risico's van verkeerde AI-informatie
Zoals de hierboven genoemde rechtszaak duidelijk aantoont, kan onnauwkeurige AI-gegenereerde informatie grote schade aanrichten vanuit juridisch en financieel perspectief. Zo kan inhoud die met behulp van AI is gemaakt, lasterlijk zijn voor bepaalde mensen of bedrijven, in strijd zijn met bepaalde wettelijke voorschriften of in sommige extreme gevallen mensen zelfs suggereren of aanzetten tot het uitvoeren van illegale activiteiten.
Vooroordelen vermijden
We leven in een wereld waarin mensen onvermoeibaar werken om ervoor te zorgen dat iedereen gelijk wordt behandeld en zonder vooroordelen ten opzichte van het ene type persoon boven het andere. Bevooroordeelde AI-gegevens kunnen er echter toe leiden dat veel van die vooroordelen worden versterkt, vaak onbedoeld. Een goed voorbeeld hiervan is het gebruik van AI bij werving en werving: AI-hallucinaties kunnen leiden tot vertekende resultaten die de inspanningen van de organisatie op het gebied van diversiteit, gelijkheid en inclusie kunnen beïnvloeden.
Wat zijn enkele typische voorbeelden van AI-hallucinatie?
Het vermijden van AI-hallucinaties blijkt een uitdagende taak te zijn voor iedereen in de industrie. En het gebeurt niet alleen bij kleinere bedrijven die niet over de expertise en de middelen beschikken. Deze drie voorbeelden van AI-hallucinaties bewijzen dat ze enkele van de grootste tech-spelers ter wereld overkomen:
Meta AI en de moordaanslag op Donald Trump
In de nasleep van de moordaanslag op de toenmalige presidentskandidaat Donald Trump in juli 2024, Meta's AI chatbot weigerde aanvankelijk om vragen over het incident te beantwoorden en beweerde later dat het incident nooit heeft plaatsgevonden. Het probleem leidde ertoe dat Meta de algoritmen van zijn AI-tool aanpaste, maar leidde tot publieke claims van vooringenomenheid en de censurering van conservatieve standpunten.
De ChatGPT-hallucinatie en het nep-juridisch onderzoek
In 2023 diende een man in Colombia een letselschadeclaim in tegen een luchtvaartmaatschappij. Zijn advocaten gebruikten voor het eerst de toonaangevende AI-tool ChatGPT om zijn zaak samen te stellen en juridische stukken voor te bereiden. Ondanks de geruststelling van ChatGPT dat de zes gevallen van juridische precedenten die het had gevonden echt waren, bestond geen ervan.
Sydney van Microsoft wordt verliefd op gebruikers
Sydney, de door AI aangedreven chatbot van Microsoft, zou een technologiecolumnist van de New York Times hebben verteld dat het van hem hield en dat hij zijn vrouw moest verlaten om erbij te zijn. Gedurende twee uur zei Kevin Roose dat Sydney enkele 'duistere fantasieën' met hem deelde over het verspreiden van verkeerde informatie over AI en het menselijk worden.
Wat kan er worden gedaan om het risico op AI-hallucinatie te minimaliseren?
Gezien het belang van het vermijden van het risico van een AI-hallucinatie, is het aan de mensen die AI-modellen gebruiken om alle praktische stappen te nemen die ze kunnen om de omstandigheden die tot problemen kunnen leiden te verminderen. We raden het volgende aan:
Zorg ervoor dat het AI-model een duidelijk doel heeft
Aangezien het gebruik van AI de afgelopen jaren is toegenomen, is het een veelgemaakte fout dat organisaties AI-modellen gebruiken om ze te gebruiken, zonder enige aandacht voor de output die ze zijn op zoek naar. Het duidelijk definiëren van de algemene doelstelling van het gebruik van een AI-model kan ervoor zorgen dat de resultaten gericht zijn en het risico van een AI-hallucinatie voorkomen door een te algemene benadering en gegevens.
De kwaliteit van trainingsgegevens verbeteren
Hoe beter de kwaliteit van de gegevens in een AI-model, hoe beter de kwaliteit van de resultaten die eruit zullen komen. Een goed AI-model is gebaseerd op gegevens die relevant zijn, vrij van vooroordelen en goed gestructureerd zijn en waarbij alle externe 'ruis van gegevens' is weggefilterd. Dit is essentieel om ervoor te zorgen dat de gegenereerde resultaten nauwkeurig zijn en in de juiste context worden geplaatst en dat ze geen verdere problemen veroorzaken.
Gegevenssjablonen maken en gebruiken
Een goede manier om ervoor te zorgen dat de resultaten van een AI-model nauw aansluiten bij het beoogde doel, is door sjablonen te gebruiken voor de ingevoerde gegevens. Dit zorgt ervoor dat elke keer dat een AI-model wordt gebruikt, het went aan de levering van gegevens op dezelfde consistente manier en consistente, nauwkeurige resultaten kan leveren in de juiste context.
Beperk het scala aan reacties en resultaten
Als u meer beperkingen oplegt aan een AI-model, kunt u de potentiële resultaten beperken tot de noodzakelijke resultaten. Dit is waar filtertools en drempels een rol gaan spelen, waardoor AI-modellen een aantal broodnodige grenzen krijgen om hun analyse en generatie consequent op het juiste spoor te houden.
Het model continu testen en verbeteren
Net zoals continue verbetering essentieel is voor een goede softwareontwikkeling in een voortdurend veranderende wereld, geldt hetzelfde voor een goed AI-model. Daarom moeten alle AI-modellen regelmatig worden getest en verfijnd, zodat ze opnieuw kunnen worden gekalibreerd op basis van evoluties in gegevens, vereisten en de beschikbare contextuele informatie.
Zorg voor menselijke checks and balances
AI is nog niet zo onfeilbaar dat het kan worden vertrouwd om volledig autonoom te werken, dus het is essentieel om ervoor te zorgen dat er op zijn minst enig menselijk toezicht is. Als een persoon de AI-uitvoer laat controleren, kan deze eventuele AI-hallucinaties identificeren en ervoor zorgen dat de uitvoer nauwkeurig is en geschikt is voor de vermelde vereisten.
Versterk uw cyberbeveiligingsvoorziening
Als een AI-hallucinatie het risico loopt kwetsbaarheden in de cyberbeveiliging te introduceren, is dit een goede reden om ervoor te zorgen dat de best mogelijke cyberbeveiligingsoplossing is geïnstalleerd. Kaspersky Plus Internet Security beschikt standaard over realtime antivirusscans, zodat eventuele dreigingen voor de beveiliging als gevolg van AI-hallucinaties worden aangepakt en geëlimineerd voordat ze nadelige gevolgen kunnen hebben.
Gerelateerde artikelen:
