Laatste nieuws
ma. dec 8th, 2025
Leestijd: 4 minuten

AGI Kan Binnen 10 Jaar Catastrofale Gevolgen Hebben

De weg naar kunstmatige algemene intelligentie (AGI) brengt mogelijk “catastrofale gevolgen” met zich mee, waarschuwt Demis Hassabis, CEO van Google DeepMind. Van cyberaanvallen op kritieke infrastructuur tot existentiële bedreigingen – de AI-pionier schetst een zorgwekkend beeld van de nabije toekomst.

Hassabis’ Recente Waarschuwingen: Niet Langer Theoretisch

Tijdens de Axios AI+ Summit in San Francisco luidde Demis Hassabis, CEO van Google DeepMind, de noodklok over AI-risico’s die nu al werkelijkheid worden. Axios

“Sommige van de grootste gevaren van AI, zoals aanvallen op infrastructuur, zijn al reëel en moeten worden afgeweerd,” stelde Hassabis tijdens zijn interview met Axios’ Mike Allen.

De waarschuwing komt niet uit de lucht vallen. In mei 2024 voorspelde Hassabis al dat AGI – AI die menselijke capaciteiten evenaart of overtreft – mogelijk tegen 2030 zou kunnen arriveren. Nu, enkele maanden later, benadrukt hij dat bepaalde risico’s niet langer toekomstige zorgen zijn, maar actuele bedreigingen.

Concrete Dreiging: Cyberterrorisme op Energie- en Waterinfrastructuur

Hassabis identificeerde cyberaanvallen op kritieke infrastructuur als de meest directe bedreiging:

“Dat gebeurt waarschijnlijk nu al, zou ik zeggen, misschien nog niet met zeer geavanceerde AI, maar ik denk dat dat de meest voor de hand liggende kwetsbare vector is,” aldus Hassabis, specifiek verwijzend naar “energie- of watercyberterrorisme.”

Waarom Deze Zorg Gerechtvaardigd Is:

Huidige AI-capaciteiten worden al misbruikt:

  • Phishing-e-mails worden gegenereerd door AI-systemen
  • Malware wordt sneller ontwikkeld met AI-assistentie
  • Kwetsbaarheden in systemen worden automatisch gedetecteerd

AGI zou dit exponentieel verergeren:

  • Volledig autonome cyberoorlogvoering zonder menselijke tussenkomst
  • Geavanceerde tactieën om defensieve systemen te omzeilen
  • Grootschalige, gecoördineerde aanvallen op meerdere infrastructuurnetwerken tegelijk

Dit verklaart waarom Google zo zwaar investeert in cybersecurity – het is geen toekomstige voorbereiding, maar een actuele noodzaak.

P(Doom): De Kans op Catastrofe Volgens Experts

Hassabis introduceerde ook het concept “p(doom)” – de waarschijnlijkheid van catastrofale uitkomsten door AI-misbruik. Zijn eigen inschatting? “Non-zero” – oftewel: er is een reële kans.

“Het is de moeite waard om dit zeer serieus te overwegen en erop te anticiperen,” benadrukte hij.

Deze voorzichtige formulering krijgt context wanneer we kijken naar andere prominente AI-experts:

Recente Expert-Inschattingen (December 2024):

Geoffrey Hinton (“Godfather of AI”):

  • 10-20% kans op menselijke uitroeiing door AI binnen 30 jaar
  • Deze inschatting werd recent verhoogd van zijn eerdere 10% The Guardian

Brede Wetenschappelijke Consensus (2024):

  • Mediaanschatting van AI-onderzoekers: AGI tegen 2040-2050
  • 90% kans dat AGI er is tegen 2075
  • Echter: prognoses worden elk jaar dramatisch bijgesteld naar eerder AI Research

De Historische AI-Veiligheidsverklaring van 2023

Hassabis’ zorgen staan niet op zichzelf. In mei 2023 ondertekende hij, samen met andere AI-leiders, een historische verklaring die stelde:

“Het verminderen van het risico van uitsterving door AI zou een wereldwijde prioriteit moeten zijn, naast andere maatschappelijke risico’s zoals pandemieën en nucleaire oorlog.”

Belangrijke Ondertekenaars van deze Verklaring:

  • Sam Altman (CEO OpenAI)
  • Demis Hassabis (CEO Google DeepMind)
  • Dario Amodei (CEO Anthropic)
  • Geoffrey Hinton (Nobelprijswinnaar, “Godfather of AI”)
  • Yoshua Bengio (Turing Award winnaar)
  • Honderden andere vooraanstaande AI-onderzoekers en academici

Center for AI Safety

Deze verklaring was slechts één zin lang, maar droeg de steun van vrijwel de gehele top van de AI-wetenschappelijke gemeenschap – een ongekende eensgezindheid over een existentieel risico.

Waarom AGI Binnen 10 Jaar Zo Problematisch Is

De combinatie van snelheid en onvoorspelbaarheid maakt Hassabis’ tijdlijn bijzonder zorgwekkend:

1. Het Alignment Problem

AGI met “alle cognitieve vermogens” van mensen, inclusief creativiteit, betekent een intelligentie die:

  • Niet volledig te voorspellen is
  • Mogelijk doelen nastreeft die niet overeenkomen met menselijke waarden
  • Superieure intelligentie gebruikt om die doelen te bereiken

2. Extreme Tijdsdruk

Als AGI in het komende decennium arriveert, hebben we extreem weinig tijd voor:

  • Robuuste veiligheidsprotocollen
  • Mondiale regulering en ethische kaders
  • Democratische controle over deze technologie

3. Machtsconcentratie

AGI zou ongekende macht concentreren bij enkele bedrijven of regeringen, wat zorgt oproept over:

  • Misbruik van superintelligentie
  • Drastische maatschappelijke ongelijkheid
  • Verlies van democratische controle

Wat Kunnen We Doen? Lessen uit Nucleaire Wapenbeheersing

De AI-veiligheidsgemeenschap wijst vaak naar nucleaire wapenbeheersing als model. Na de atoombom realiseerde de wereld zich dat internationale coöperatie noodzakelijk was om uitroeiing te voorkomen.

Vergelijking Kernwapens vs. AGI:

KernwapensAGI Duidelijke fysieke grondstoffen nodig Kan ontwikkeld worden met computerkracht Beperkt aantal actoren Potentieel veel meer ontwikkelaars Effecten duidelijk zichtbaar Effecten kunnen subtiel en geleidelijk zijn Internationale verdragen bestaan Regulering loopt achter op ontwikkeling

Cruciale verschillen: AGI ontwikkelt zich veel sneller dan kernwapentechnologie ooit deed, terwijl internationale coördinatie veel langzamer verloopt.

De Rol van Big Tech: Verantwoordelijkheid vs. Concurrentie

Google’s zware focus op cybersecurity, zoals Hassabis benadrukt, illustreert hoe AI-bedrijven worden gedwongen defensief te denken. Maar er blijft een fundamentele spanning:

De AI-Race Dilemma:

  • Bedrijven kunnen niet stoppen met AGI-ontwikkeling (concurrentienadeel)
  • Wel stoppen betekent dat minder voorzichtige actoren de leiding nemen
  • Gecoördineerde pauze vereist mondiale afspraken die er nog niet zijn

Dit verklaart waarom zelfs de meest voorzichtige AI-leiders, zoals Hassabis, doorgaan met ontwikkeling terwijl ze waarschuwen voor de risico’s.

Conclusie: Een Kantelpunt in de Menselijke Geschiedenis

Demis Hassabis’ waarschuwingen markeren een crucial moment: AI-risico’s zijn niet langer hypothetisch. Van cyberaanvallen op kritieke infrastructuur tot de mogelijke komst van AGI binnen tien jaar – we bevinden ons in een periode waarin theoretische zorgen actuele bedreigingen worden.

De consensus onder AI-experts is duidelijk: dit vereist mondiale prioriteit. Net zoals we internationale samenwerking hebben ontwikkeld voor nucleaire veiligheid en pandemiebestrijding, hebben we nu dringende coöperatie nodig voor AI-veiligheid.

De vraag is niet meer óf AGI zal komen, maar wanneer – en of we er klaar voor zijn.


Voor meer informatie over AI-veiligheid en de laatste ontwikkelingen, zie:


Bronnen:

  • Axios AI+ Summit Interview, December 2024
  • Center for AI Safety, “Statement on AI Risk,” May 2023
  • The Guardian, “Godfather of AI shortens odds,” December 2024
  • AI Multiple Research, “AGI/Singularity Predictions,” 2024