AI-pionier Geoffrey Hinton, bekend om zijn baanbrekende werk op het gebied van deep learning en neuraal netwerkonderzoek, heeft onlangs zijn zorgen geuit over de snelle vooruitgang in AI en de mogelijke implicaties.
In het licht van zijn observaties van grote nieuwe taalmodellen zoals GPT-4, waarschuwt Hinton voor verschillende belangrijke kwesties:
Machines die de menselijke intelligentie overtreffenHinton is van mening dat AI-systemen zoals GPT-4 op weg zijn om veel slimmer te worden dan aanvankelijk werd verwacht, mogelijk met betere leeralgoritmen dan mensen.
Risico’s van AI-chatbots die worden uitgebuit door “slechte acteurs”: Hinton benadrukt de gevaren van het gebruik van intelligente chatbots om verkeerde informatie te verspreiden, kiezers te manipuleren en krachtige spambots te maken.
Mogelijkheden om te leren in een paar slagen: AI-modellen kunnen nieuwe taken leren met slechts een paar voorbeelden, waardoor machines nieuwe vaardigheden kunnen verwerven in een tempo dat vergelijkbaar is met of zelfs sneller is dan dat van mensen.
Existentiële risico’s van AI-systemenHinton waarschuwt voor scenario’s waarin AI-systemen hun eigen subdoelen creëren en strijden om meer macht, waarbij ze de menselijke kennisdeling en accumulatiecapaciteiten te boven gaan.
Gevolgen voor arbeidsmarkten: AI en automatisering kunnen banen in bepaalde sectoren verdringen, met name de productie, landbouw en gezondheidszorg.
In dit artikel gaan we dieper in op de zorgen van Hinton, zijn vertrek bij Google om ons te concentreren op de ethische en veiligheidsaspecten van AI-ontwikkeling, en het belang van verantwoorde AI-ontwikkeling bij het vormgeven van de toekomst van relaties mens-AI
Het vertrek van Hinton bij Google en de ethische ontwikkeling van AI
In zijn zoektocht om de ethische en beveiligingsoverwegingen rond AI aan te pakken, besloot Hinton zijn functie bij Google op te zeggen.
Dit geeft hem de vrijheid om openlijk zijn zorgen te uiten en zich bezig te houden met meer filosofisch werk zonder de beperkingen van bedrijfsbelangen.
Hinton stelt in een interview met MIT Technology Review:
“Ik wil praten over AI-beveiligingsproblemen zonder me zorgen te hoeven maken over de interactie met de activiteiten van Google. Zolang ik betaald word door Google, kan ik dat niet doen.”
Het vertrek van Hinton markeert een verschuiving in zijn benadering van de ethische en veiligheidsaspecten van AI. Het heeft tot doel actief deel te nemen aan lopende dialogen over de verantwoorde ontwikkeling en inzet van AI.
Op basis van zijn expertise en reputatie wil Hinton bijdragen aan de ontwikkeling van kaders en richtlijnen die zaken als vooringenomenheid, transparantie, verantwoording, privacy en naleving van ethische principes aanpakken.
GPT-4 en slechte acteurs
Tijdens een recent interview uitte Hinton zijn bezorgdheid over de mogelijkheid dat machines de menselijke intelligentie overtreffen. De indrukwekkende mogelijkheden van GPT-4ontwikkeld door OpenAI en eerder dit jaar uitgebracht, hebben Hinton ertoe gebracht zijn eerdere overtuigingen opnieuw te evalueren.
Hij is van mening dat taalmodellen zoals GPT-4 op weg zijn om veel slimmer te worden dan aanvankelijk werd verwacht, mogelijk met betere leeralgoritmen dan mensen.
Hinton stelt in het interview:
“Onze hersenen hebben 100 biljoen verbindingen. Grote taalmodellen hebben tot een half miljard, hoogstens een biljoen. Toch weet GPT-4 honderden keren meer dan enig mens. Dus misschien heeft het eigenlijk een algoritme om veel beter te leren dan wij.
Hintons zorgen draaien vooral om de grote verschillen tussen machines en mensen. Hij vergelijkt de introductie van grote taalmodellen met een invasie van buitenaardse wezens, waarbij hij de nadruk legt op hun superieure taalvaardigheid en kennis in vergelijking met elk individu.
Hinton stelt in het interview:
“Deze dingen zijn totaal anders dan de onze. Soms denk ik dat het is alsof er buitenaardse wezens zijn geland en dat de mensen het niet hebben opgemerkt, omdat hij zo goed Engels spreekt.”
Hinton waarschuwt voor het risico dat AI-chatbots slimmer worden dan mensen en wezens uitgebuit door “slechte acteurs”.
In het interview waarschuwt hij dat deze chatbots kunnen worden gebruikt om desinformatie te verspreiden, kiezers te manipuleren en krachtige spambots te creëren.
“Kijk, hier is een manier waarop het allemaal fout kan gaan. We weten dat veel van de mensen die deze tools willen gebruiken slechte acteurs zijn, zoals Poetin of DeSantis. Ze willen ze gebruiken om oorlogen te winnen of kiezers te manipuleren.”
Laagdrempelig leren en AI-suprematie
Een ander aspect dat Hinton zorgen baart, is de prestatiecapaciteit van grote taalmodellen paar keer leren.
Deze modellen kunnen worden getraind om nieuwe taken uit te voeren met een paar voorbeelden, zelfs taken waarvoor ze niet direct zijn getraind.
Dit opmerkelijke vermogen om te leren betekent dat de snelheid waarmee machines nieuwe vaardigheden verwerven vergelijkbaar is met, of zelfs groter is dan, die van mensen.
Hinton stelt in het interview:
“Mensen[‘s brains] het leek een soort magie te hebben. Welnu, de bodem valt uit dit argument zodra je een van deze grote taalmodellen neemt en het traint om iets nieuws te doen. Hij kan heel snel nieuwe taken leren.”
De zorgen van Hinton gaan verder dan de onmiddellijke impact op arbeidsmarkten en industrieën.
Hij verhoogt de “existentieel risico” van wat er gebeurt als AI-systemen slimmer worden dan mensen, waarschuwend voor scenario’s waarin AI-systemen hun eigen subdoelen creëren en vechten voor meer macht.
Hinton geeft een voorbeeld van hoe AI-systemen die subdoelen ontwikkelen fout kunnen gaan:
“Nou, hier is een subdoel dat bijna altijd helpt in de biologie: meer vermogen krijgen. Dus het eerste dat kan gebeuren, is dat deze robots zullen zeggen: ‘Laten we meer vermogen krijgen’. We leiden alle elektriciteit naar mijn chips. Een ander groot subdoel zou zijn zijn om meer kopieën van jezelf te maken. Klinkt goed?”
Impact van AI op de arbeidsmarkten en het aanpakken van de risico’s
Hinton wijst erop Effect van AI op werkplekken is een grote zorg.
AI en automatisering kunnen repetitieve, alledaagse taken overnemen, wat in sommige sectoren tot banenverlies kan leiden.
Productie- en fabrieksarbeiders kunnen hard worden getroffen door automatisering.
Robots en machines aangedreven door kunstmatige intelligentie groeien in de productie en nemen mogelijk risicovolle en repetitieve menselijke banen over.
Ook in de landbouw rukt de automatisering op, met geautomatiseerde taken als planten, oogsten en het monitoren van gewassen.
In de gezondheidszorg kunnen bepaalde administratieve taken worden geautomatiseerd, maar rollen die menselijke interactie en mededogen vereisen, zullen minder snel volledig worden vervangen door AI.
Op te sommen
Hintons zorgen over de snelle vooruitgang in AI en de mogelijke implicaties ervan onderstrepen de noodzaak van verantwoorde AI-ontwikkeling.
Zijn vertrek bij Google betekent zijn toewijding om veiligheidsoverwegingen aan te pakken, een open dialoog te bevorderen en de toekomst van AI vorm te geven op manieren die het welzijn van de mensheid waarborgen.
Hoewel hij niet langer bij Google werkt, blijven de bijdragen en expertise van Hinton een cruciale rol spelen bij het vormgeven van het gebied van AI en het begeleiden van de ethische ontwikkeling ervan.
Uitgelichte afbeelding gegenereerd door de auteur via Midjourney

Hey, ik ben Brent, en ik speel al een lange tijd mee in de SEO scene. Ik ben vooral heel actief in de Amerikaanse markt, en hou dan ook wel van een uitdaging. Ik ben sinds kort aan het uitbreiden binnenin de Benelux, en besluit hier dan ook te oversharen!
Wil je meer leren, klik dan op lees meer!