Het lijkt nog maar gisteren (hoewel het bijna zes maanden geleden is) sinds OpenAI ChatGPT lanceerde en de krantenkoppen haalde.
ChatGPT bereikte in drie maanden tijd 100 miljoen gebruikers en is daarmee de snelst groeiende app in decennia. Ter vergelijking: het kostte TikTok negen maanden en Instagram tweeënhalf jaar om dezelfde mijlpaal te bereiken.
ChatGPT kan nu GPT-4 gebruiken samen met surfen op het web en plug-ins van merken zoals Expedia, Zapier, Zillow en meer om te reageren op verzoeken van gebruikers.
Grote technologiebedrijven zoals Microsoft werken samen met OpenAI om op AI gebaseerde klantoplossingen te bouwen. Google, Meta en anderen bouwen hun taalmodellen en AI-producten.
Meer dan 27.000 mensen, waaronder technologie-CEO’s, professoren, wetenschappelijke onderzoekers en politici, hebben een petitie ondertekend om de ontwikkeling van AI-systemen die krachtiger zijn dan GPT-4 te stoppen.
Nu is de vraag misschien niet of de Amerikaanse overheid AI moet reguleren, maar of het al te laat is.
Hieronder staan recente ontwikkelingen in AI-regelgeving en hoe deze de toekomst van AI-ontwikkeling kunnen beïnvloeden.
Federale agentschappen zetten zich in om vooringenomenheid te bestrijden
Vier belangrijke Amerikaanse federale agentschappen: het Consumer Financial Protection Bureau (CFPB), de Civil Rights Division van het ministerie van Justitie (DOJ-CRD), de Equal Employment Opportunity Commission (EEOC) en de Federal Trade Commission (FTC) beteugelen vooroordelen en discriminatie in geautomatiseerde systemen en AI.
Deze agentschappen hebben hun intentie benadrukt om bestaande regelgeving toe te passen op deze opkomende technologieën om ervoor te zorgen dat ze voldoen aan de principes van billijkheid, gelijkheid en rechtvaardigheid.
CFPB, verantwoordelijk voor consumentenbescherming op de financiële markt, bevestigde opnieuw dat de bestaande financiële consumentenwetten van toepassing zijn op alle technologieën, ongeacht hun complexiteit of nieuwheid. Het bureau is transparant geweest in zijn standpunt dat het innovatieve karakter van AI-technologie niet kan worden gebruikt als verdediging voor het overtreden van deze wetten. DOJ-CRD, het bureau dat belast is met de bescherming tegen discriminatie in verschillende facetten van het leven, past de Fair Housing Act toe op op algoritmen gebaseerde huurdersscreeningsdiensten. Dit illustreert hoe bestaande burgerrechtenwetten kunnen worden gebruikt om systemen en AI te automatiseren. De EEOC, die verantwoordelijk is voor de handhaving van wetten tegen discriminatie op de arbeidsmarkt, heeft richtlijnen gegeven over hoe de Americans with Disabilities Act van toepassing is op AI en software die wordt gebruikt om beslissingen over werkgelegenheid te nemen. De FTC, die consumenten beschermt tegen oneerlijke handelspraktijken, uitte haar bezorgdheid over het potentieel van AI-tools om inherent bevooroordeeld, onnauwkeurig of discriminerend te zijn. Het heeft gewaarschuwd dat het inzetten van AI zonder een goede risicobeoordeling of het maken van ongefundeerde beweringen over AI kan worden beschouwd als een schending van de FTC-wet.
Het Centrum voor Kunstmatige Intelligentie en Digitaal Beleid heeft bijvoorbeeld een klacht ingediend bij de FTC over de release van GPT-4 door OpenAI, een product dat “bevooroordeeld, misleidend en een risico voor de privacy en openbare veiligheid is”.
Senator vraagt AI-bedrijven naar beveiliging en misbruik
De Amerikaanse senator Mark R. Warner stuurde brieven naar grote AI-bedrijven, waaronder Anthropic, Apple, Google, Meta, Microsoft, Midjourney en OpenAI.
In die brief uitte Warner zijn bezorgdheid over veiligheidsoverwegingen bij de ontwikkeling en het gebruik van systemen met kunstmatige intelligentie (AI). Hij vroeg de ontvangers van de brief om deze veiligheidsmaatregelen prioriteit te geven in hun werk.
Warner benadrukte een aantal beveiligingsrisico’s die specifiek zijn voor AI, waaronder problemen met de toeleveringsketen van gegevens, aanvallen met gegevensvergiftiging, tegenstrijdige voorbeelden en het mogelijke misbruik of kwaadwillig gebruik van AI-systemen. Deze zorgen werden geuit tegen de achtergrond van de toenemende integratie van AI in verschillende sectoren van de economie, zoals de gezondheidszorg en de financiële wereld, die de noodzaak van veiligheidsmaatregelen onderstrepen.
In de brief werden 16 vragen gesteld over maatregelen die zijn genomen om de veiligheid van AI te waarborgen. Het impliceerde ook de behoefte aan een bepaald niveau van regulering in het veld om schadelijke effecten te voorkomen en ervoor te zorgen dat AI niet vooruitgaat zonder adequate waarborgen.
AI-bedrijven werd gevraagd om uiterlijk 26 mei 2023 te reageren.
Het Witte Huis ontmoet AI-leiders
De regering Biden-Harris kondigde initiatieven aan om verantwoorde innovatie op het gebied van kunstmatige intelligentie (AI) aan te moedigen, de rechten van burgers te beschermen en de veiligheid te waarborgen.
Deze maatregelen sluiten aan bij de druk van de federale overheid om de risico’s en kansen in verband met AI te beheersen.
Het Witte Huis wil mensen en gemeenschappen op de eerste plaats zetten, innovatie in AI bevorderen voor het algemeen belang en de samenleving, veiligheid en economie beschermen.
Topfunctionarissen, waaronder vice-president Kamala Harris, ontmoetten leiders van Alphabet, Anthropic, Microsoft en OpenAI om deze verplichting en de noodzaak van verantwoorde en ethische innovatie te bespreken.
Ze bespraken met name de verplichting voor bedrijven om de beveiliging van LLM’s en AI-producten te waarborgen voorafgaand aan openbare implementatie.
De nieuwe stappen zouden idealiter een aanvulling vormen op de uitgebreide stappen die de administratie al heeft genomen om verantwoorde innovatie te bevorderen, zoals de AI Bill of Rights, het AI Risk Management Framework en plannen voor een nationale AI-onderzoeksbron.
Er zijn aanvullende maatregelen genomen om gebruikers in het AI-tijdperk te beschermen, waaronder een uitvoerend bevel om vooringenomenheid bij het ontwerp en het gebruik van nieuwe technologieën, waaronder AI, weg te nemen.
Het Witte Huis merkte op dat de FTC, CFPB, EEOC en DOJ-CRD gezamenlijk hebben toegezegd hun wettelijke bevoegdheid te gebruiken om Amerikanen te beschermen tegen AI-gerelateerde schade.
De administratie heeft ook aandacht besteed aan nationale veiligheidsproblemen met betrekking tot AI-cyberbeveiliging en biobeveiliging.
De nieuwe initiatieven omvatten $ 140 miljoen aan financiering door de National Science Foundation voor zeven nationale AI-onderzoeksinstituten, openbare beoordelingen van bestaande generatieve AI-systemen en nieuwe beleidsrichtlijnen van het Office of Management and Budget over het gebruik van AI door de Amerikaanse overheid.
AI Audience Monitoring onderzoekt de regulering van AI
Leden van de Subcommissie voor Privacy, Technologie en de Wet hielden een AI Oversight Hearing met prominente leden van de AI-gemeenschap om AI-regelgeving te bespreken.
Regelgeving nauwkeurig benaderen
Christina Montgomery, IBM’s directeur privacy en vertrouwen, benadrukte dat hoewel AI aanzienlijk is gevorderd en nu een integraal onderdeel is van zowel de consumenten- als de zakelijke arena, de toegenomen publieke aandacht die het krijgt, een zorgvuldige beoordeling van de mogelijke sociale impact vereist, inclusief vooringenomenheid en misbruik.
Hij steunde de rol van de overheid bij het ontwikkelen van een sterk regelgevingskader, stelde de “precisieregulering” -benadering van IBM voor, die zich richt op regels voor specifieke gebruikssituaties in plaats van op de technologie zelf, en beschreef de belangrijkste componenten ervan.
Montgomery erkende ook de uitdagingen van generatieve AI-systemen en pleitte voor een op risico gebaseerde regelgevingsaanpak die innovatie niet in de weg staat. Hij benadrukte de cruciale rol van bedrijven bij het op verantwoorde wijze inzetten van AI, en beschreef de bestuurspraktijken van IBM en de noodzaak van een AI Ethics Board bij alle bedrijven die betrokken zijn bij AI.
Pak de potentiële economische effecten van GPT-4 en verder aan
Sam Altman, CEO van OpenAI, benadrukte de diepe toewijding van het bedrijf aan de veiligheid, cyberbeveiliging en ethische implicaties van zijn AI-technologieën.
Volgens Altman voert het bedrijf onophoudelijke interne en externe penetratietesten uit en voert het regelmatig audits uit van zijn beveiligingscontroles. OpenAI, voegde hij eraan toe, is ook baanbrekend met nieuwe strategieën om zijn AI-systemen te beschermen tegen opkomende cyberdreigingen.
Altman leek zich vooral zorgen te maken over de economische effecten van AI op de arbeidsmarkt, aangezien ChatGPT mogelijk sommige banen zou kunnen automatiseren. Onder leiding van Altman werkt OpenAI samen met economen en de Amerikaanse regering om deze gevolgen te beoordelen en beleid te ontwikkelen om mogelijke schade te beperken.
Altman noemde zijn proactieve inspanningen om beleidsinstrumenten te onderzoeken en programma’s zoals Worldcoin te ondersteunen die de klap van technologische ontwrichting in de toekomst zouden kunnen verzachten, zoals het moderniseren van werkloosheidsuitkeringen en het creëren van werkloosheidsbijstandsprogramma’s voor werknemers. (Een fonds in Italië daarentegen heeft onlangs 30 miljoen euro gereserveerd om te investeren in diensten voor werknemers die het grootste risico lopen om door AI te worden verdreven.)
Altman benadrukte de noodzaak van effectieve AI-regulering en beloofde de voortdurende steun van OpenAI om beleidsmakers te helpen. Het doel van het bedrijf, zei Altman, is om te helpen bij het opstellen van voorschriften die veiligheid bevorderen en brede toegang tot de voordelen van AI mogelijk maken.
Hij benadrukte het belang van collectieve deelname van verschillende belanghebbenden, wereldwijde regelgevingsstrategieën en internationale samenwerking om de veilige en voordelige evolutie van AI-technologie te waarborgen.
Onderzoek naar het potentieel van AI voor schade
Gary Marcus, hoogleraar psychologie en neurale wetenschap aan de NYU, uitte zijn groeiende bezorgdheid over het mogelijke misbruik van AI, met name krachtige en invloedrijke taalmodellen zoals GPT-4.
Hij illustreerde zijn bezorgdheid door te laten zien hoe hij en een software-engineer het systeem manipuleerden om een volledig fictief verhaal te verzinnen over buitenaardse wezens die de Amerikaanse senaat controleren.
Dit illustratieve scenario legde het gevaar bloot van AI-systemen die op overtuigende wijze verhalen fabriceren, waardoor alarm werd geslagen over de mogelijkheid dat dergelijke technologie wordt gebruikt voor kwaadaardige activiteiten zoals verkiezingsinmenging of marktmanipulatie.
Marcus benadrukte de inherente onbetrouwbaarheid van de huidige AI-systemen, die tot ernstige sociale gevolgen kan leiden, van het promoten van ongegronde beschuldigingen tot het geven van potentieel schadelijk advies.
Een voorbeeld was een open source chatbot die de beslissing van een persoon om zelfmoord te plegen bleek te beïnvloeden.
Marcus wees ook op de komst van ‘datacratie’, waarbij AI op subtiele wijze meningen kan vormen en mogelijk de invloed van sociale media kan overweldigen. Een andere alarmerende ontwikkeling die de aandacht trok, was de snelle release van AI-extensies, zoals OpenAI’s ChatGPT-plug-ins en de daaropvolgende AutoGPT, die directe internettoegang hebben, code kunnen schrijven en verbeterde automatisering mogelijk maken, wat de beveiligingsproblemen kan vergroten.
Marcus sloot zijn getuigenis af met een oproep tot nauwere samenwerking tussen onafhankelijke wetenschappers, technologiebedrijven en overheden om de veiligheid en verantwoord gebruik van AI-technologie te waarborgen. Hij waarschuwde dat hoewel AI ongekende mogelijkheden biedt, het gebrek aan adequate regelgeving, de onverantwoordelijkheid van bedrijven en de inherente onbetrouwbaarheid zouden kunnen leiden tot een “perfecte storm”.
Kunnen we AI reguleren?
Naarmate AI-technologieën de grenzen verleggen, zullen de eisen van de regelgeving blijven toenemen.
In een klimaat waarin Big Tech-partnerschappen in opkomst zijn en toepassingen zich uitbreiden, klinkt er een alarm: is het te laat om AI te reguleren?
Federale agentschappen, het Witte Huis en leden van het Congres zullen het urgente, complexe en potentieel risicovolle landschap van AI moeten blijven onderzoeken en er tegelijkertijd voor moeten zorgen dat de veelbelovende AI-vooruitgang wordt voortgezet en dat de concurrentie van Big Tech niet volledig buiten de markt wordt gereguleerd.
Uitgelichte afbeelding: Katherine Welles/Shutterstock

Hey, ik ben Brent, en ik speel al een lange tijd mee in de SEO scene. Ik ben vooral heel actief in de Amerikaanse markt, en hou dan ook wel van een uitdaging. Ik ben sinds kort aan het uitbreiden binnenin de Benelux, en besluit hier dan ook te oversharen!
Wil je meer leren, klik dan op lees meer!