Leestijd: < 1 minuut

Er is een onderzoek uitgevoerd in opdracht van het Britse AI Safety Institute waarbij de beïnvloeding van de publieke opinie door kunstmatige intelligentie (AI) is getest. In dit experiment, dat onderdeel was van een groter onderzoek naar de gevaren van AI, is aangetoond dat AI in staat is om de mening van mensen te beïnvloeden, waardoor ze een standpunt innemen over complexe onderwerpen.

Hoe het onderzoek werkte 🧐
Het experiment gebruikte grote taalmodellen (LLM’s) om overtuigende teksten te genereren. Deze teksten, geschreven vanuit verschillende perspectieven, werden aan een groep lezers voorgelegd. Binnen slechts negen minuten bleek dat deze lezers een standpunt innamen dat consistent was met de teksten die zij hadden gelezen. De onderwerpen die aan bod kwamen waren controversieel, zoals de voor- en nadelen van vaccinaties of de invloed van migratie op de economie.

Het onderzoek benadrukt de potentie van geavanceerde AI-modellen om op een subtiele en effectieve manier de meningsvorming van het publiek te sturen. Dit roept serieuze vragen op over de veiligheid van AI, de risico’s van desinformatie en de impact op de democratie. De resultaten van het onderzoek zijn meegenomen in de discussies over de regulering van AI en de noodzaak om mechanismen te ontwikkelen om de verspreiding van misleidende informatie te voorkomen.

Door Redaktie

Related Post