Daniel Kokotajlo is een onderzoeker en filosoof op het gebied van kunstmatige intelligentie (AI), vooral bekend om zijn werk rond AI-veiligheid, voorspellingen en existentiële risico’s. Hij wordt vaak geassocieerd met de effectief altruïsme-beweging (EA). Dit zijn de belangrijkste aspecten van zijn werk en achtergrond:
- Onderzoeksfocus:
- AI-voorspellingen: Hij is een belangrijke figuur in het ontwikkelen en analyseren van methodes om AI-mogelijkheden en tijdlijnen te voorspellen (bijv. wanneer AI op menselijk niveau zou kunnen ontstaan).
- AI-bestuur & -strategie: Onderzoekt beleid en strategische aanpakken om risico’s van geavanceerde AI te verminderen.
- Existentieel risico: Richt zich op het voorkomen van catastrofale gevolgen van toekomstige AI-systemen.
- Kennisleer & rationaliteit: Geïnteresseerd in hoe overtuigingen ontstaan, veranderen en hoe groepen gezamenlijk redeneren, vooral over onzekere, hoogrisico-toekomstscenario’s.
- Belangrijke verbintenissen:
- Voorheen verbonden aan het Future of Humanity Institute (FHI), Universiteit van Oxford: Hij was onderzoeksfellow bij FHI, een toonaangevend centrum voor de studie van existentiële risico’s.
- Leider Voorspellingsproject bij het Alignment Research Center (ARC): Hij speelde een sleutelrol bij het opzetten en uitvoeren van ARC’s grootschalige voorspellingsproject, dat voorspellingen van vele deelnemers gebruikte om prioriteiten voor AI-veiligheidsonderzoek te bepalen. (Noot: Zijn actieve rol in dit project is afgerond).
- Effectief Altruïsme-gemeenschap: Zijn werk is sterk verankerd binnen de EA-beweging, die prioriteit geeft aan het gebruik van bewijs en rede om zoveel mogelijk goed te doen, met een grote focus op het verminderen van existentiële risico’s zoals die van AI.
- Belangrijke bijdragen:
- ARC’s Voorspellingsproject: Hij was cruciaal in het ontwerpen en lanceren van dit belangrijke project om voorspellingen van experts en niet-experts over AI-gerelateerde vragen samen te brengen.
- Publicaties en analyses: Publiceert gedetailleerde analyses en blogposts over AI-tijdlijnen, ontwikkelingssnelheden (“takeoff”), bestuursuitdagingen en de betrouwbaarheid van verschillende voorspellingsmethoden. Hij benadrukt vaak de moeilijkheid van voorspellingen en het potentieel voor onverwachte uitkomsten (zoals “foom”-scenario’s of discontinue vooruitgang).
- Discussies binnen de gemeenschap: Neemt actief deel aan discussies binnen de AI-veiligheids- en EA-gemeenschappen, waarbij hij vaak al te optimistische of pessimistische standpunten uitdaagt met genuanceerde, probabilistische redeneringen.
- Huidige status:
- Vanaf medio 2024 is hij een PhD in de Filosofie aan het behalen (vaak gericht op onderwerpen die verband houden met zijn onderzoeksinteresses).
- Hij blijft onafhankelijk en via gemeenschapsforums schrijven en discussiëren over AI-risico’s.
Kortom: Daniel Kokotajlo is een gerespecteerde onderzoeker en denker op het gebied van AI-veiligheid, vooral bekend om zijn werk over het voorspellen van AI-ontwikkelingen, zijn verbintenissen met FHI en ARC, en zijn kritische betrokkenheid binnen de effectief altruïsme-gemeenschap. Hij combineert filosofie met praktische analyse van AI-risico’s.
Let op: Organisatienamen zoals “Future of Humanity Institute (FHI)” en “Alignment Research Center (ARC)” worden in het Nederlands meestal in hun oorspronkelijke (Engelse) vorm gebruikt, eventueel met een vertaling erbij bij de eerste vermelding. Termen als “AI safety” en “effective altruism” zijn ook ingeburgerd, maar ik heb de gangbare Nederlandse vertalingen gebruikt voor duidelijkheid.