fbpx

OpenAI, makers van ChatGPT, zetten zich in voor het ontwikkelen van veilige AI-systemen

OpenAI, makers van ChatGPT, zetten zich in voor het ontwikkelen van veilige AI-systemen

Share This Post


OpenAI heeft een nieuwe blogpost gepubliceerd die zich inzet voor de ontwikkeling van kunstmatige intelligentie (AI) die veilig is en over het algemeen voordelig is.

Aangedreven door het nieuwste model van OpenAI, GPT-4, kan ChatGPT de productiviteit en creativiteit verbeteren en op maat gemaakte leerervaringen bieden.

OpenAI erkent echter dat AI-tools inherente risico’s hebben die moeten worden aangepakt door middel van beveiligingsmaatregelen en verantwoorde implementatie.

Dit is wat het bedrijf doet om die risico’s te beperken.

Zorgen voor veiligheid in AI-systemen

OpenAI voert uitgebreide tests uit, zoekt externe begeleiding van experts en verfijnt zijn AI-modellen met menselijke feedback voordat nieuwe systemen worden vrijgegeven.

De lancering van GPT-4 werd bijvoorbeeld voorafgegaan door meer dan zes maanden testen om de veiligheid en afstemming op de gebruikersbehoeften te waarborgen.

OpenAI is van mening dat robuuste AI-systemen strenge beveiligingsbeoordelingen moeten ondergaan en ondersteunt de behoefte aan regelgeving.

Leren van gebruik in de echte wereld

Gebruik in de echte wereld is een essentieel onderdeel van het ontwikkelen van veilige AI-systemen. Door voorzichtig nieuwe modellen vrij te geven aan een geleidelijk groeiend gebruikersbestand, kan OpenAI verbeteringen aanbrengen die onvoorziene problemen aanpakken.

Door AI-modellen aan te bieden via zijn API en website, kan OpenAI misbruik monitoren, passende maatregelen nemen en genuanceerd beleid ontwikkelen om risico’s af te wegen.

Kinderen beschermen en privacy respecteren

OpenAI geeft prioriteit aan de bescherming van kinderen door leeftijdsverificatie te eisen en het gebruik van zijn technologie om schadelijke inhoud te genereren, te verbieden.

Privacy is een ander essentieel aspect van het werk van OpenAI. De organisatie gebruikt gegevens om haar modellen bruikbaarder te maken en tegelijkertijd gebruikers te beschermen.

Bovendien verwijdert OpenAI persoonlijke informatie uit trainingsdatasets en verfijnt het modellen om verzoeken om persoonlijke informatie af te wijzen.

OpenAI zal reageren op verzoeken om persoonlijke informatie van zijn systemen te verwijderen.

Verbeterde nauwkeurigheid van feiten

Feitelijke nauwkeurigheid is een belangrijk aandachtspunt voor OpenAI. GPT-4 produceert 40% meer accurate inhoud dan zijn voorganger, GPT-3.5.

De organisatie streeft ernaar gebruikers te informeren over de beperkingen van AI-tools en de mogelijkheid van onnauwkeurigheden.

Onderzoek en blijvende participatie

OpenAI gelooft in het besteden van tijd en middelen aan het onderzoeken van effectieve mitigatie- en afstemmingstechnieken.

Dit is echter niet iets wat hij alleen kan. Het aanpakken van beveiligingsproblemen vereist uitgebreide discussie, experimenten en betrokkenheid van belanghebbenden.

OpenAI blijft zich inzetten voor het bevorderen van samenwerking en open dialoog om een ​​veilig AI-ecosysteem te creëren.

Kritiek op existentiële risico’s

Ondanks de inzet van OpenAI om de veiligheid van zijn AI-systemen en de brede voordelen te waarborgen, heeft zijn blogpost kritiek gekregen op sociale media.

Twitter-gebruikers hebben hun teleurstelling geuit en beweerden dat OpenAI de existentiële risico’s die samenhangen met de ontwikkeling van AI niet aanpakt.

Een Twitter-gebruiker sprak zijn teleurstelling uit en beschuldigde OpenAI ervan zijn oorspronkelijke missie te verraden en zich te concentreren op roekeloze commercialisering.

De gebruiker suggereert dat OpenAI’s benadering van beveiliging oppervlakkig is en meer bezig is met het sussen van critici dan met het aanpakken van echte existentiële risico’s.

Dit is bitter teleurstellende, lege, PR-windowdressing.

Je hebt het nog niet eens over de existentiële risico’s van AI die de centrale zorg zijn van veel burgers, technologen, AI-onderzoekers en AI-industrieleiders, inclusief je eigen CEO. @mateix.@OpenAI hij verraadt zijn…

— Geoffrey Miller (@primalpoly) 5 april 2023

Een andere gebruiker uitte zijn ongenoegen over de advertentie en voerde aan dat deze de echte problemen negeert en vaag blijft. De gebruiker wijst er ook op dat het rapport kritieke ethische kwesties en risico’s met betrekking tot zelfbewustzijn van AI negeert, wat impliceert dat OpenAI’s benadering van beveiligingskwesties ontoereikend is.

Als fan van GPT-4 ben ik teleurgesteld over uw artikel.

Het verdoezelt echte problemen, blijft vaag en negeert cruciale ethische kwesties en risico’s in verband met AI-zelfbewustzijn.

Ik waardeer innovatie, maar dit is niet de juiste benadering om beveiligingsproblemen aan te pakken.

— FrankyLabs (@FrankyLabs) 5 april 2023

De kritiek onderstreept bredere zorgen en het voortdurende debat over de existentiële risico’s van de ontwikkeling van AI.

Hoewel de aankondiging van OpenAI zijn toewijding aan beveiliging, privacy en nauwkeurigheid schetst, is het essentieel om de noodzaak van verdere discussie te erkennen om de grotere zorgen aan te pakken.

Uitgelichte afbeelding: TY Lim/Shutterstock

bron: OpenAI





Source link

More To Explore

WACHT! VOORDAT JE GAAT...

Geef me jouw E-mail Address, en dan stuur ik je een GRATIS kopie van mijn boek, waarin ik je laat zien hoe je jouw inkomen kan verdubbelen in 90 dagen!