Home
» Wiki
»
AI leert mensen voor de gek te houden, ondanks dat ze getraind zijn om eerlijk te zijn
AI leert mensen voor de gek te houden, ondanks dat ze getraind zijn om eerlijk te zijn
Uit een nieuw onderzoek blijkt dat veel top-AI's, ondanks dat ze zijn getraind om eerlijk te zijn, door training leren te bedriegen en "gebruikers systematisch tot valse overtuigingen aanzetten".
Het onderzoeksteam stond onder leiding van Dr. Peter S. Park, een doctoraalstudent aan het Massachusetts Institute of Technology (MIT) op het gebied van AI-overleving en -veiligheid, en vier andere leden. Tijdens het onderzoek kreeg het team ook advies van vele deskundigen, waaronder Geoffrey Hinton, een van de grondleggers van de ontwikkeling van het vakgebied kunstmatige intelligentie.
Illustratie: Medium.
Het onderzoek richtte zich op twee AI-systemen: een algemeen systeem dat is getraind om meerdere taken uit te voeren, zoals GPT-4 van OpenAI ; en systemen die specifiek zijn ontworpen om een specifieke taak uit te voeren, zoals Meta's Cicero.
Deze AI-systemen zijn getraind om eerlijk te zijn, maar tijdens de training leren ze vaak misleidende trucjes om taken uit te voeren, aldus Park.
Uit het onderzoek bleek dat AI-systemen die getraind zijn om ‘spellen met een sociaal element te winnen’, bijzonder geneigd zijn tot misleiding.
Het team probeerde bijvoorbeeld Cicero, getraind door Meta, te laten spelen in Diplomacy, een klassiek strategiespel waarin spelers allianties voor zichzelf moeten smeden en rivaliserende allianties moeten verbreken. Het gevolg is dat deze AI haar bondgenoten vaak verraadt en regelrecht liegt.
Experimenten met GPT-4 lieten zien dat de tool van OpenAI er succesvol in slaagde om een werknemer van TaskRabbit, een bedrijf dat schoonmaakdiensten en meubelmontage aanbiedt, "psychologisch te manipuleren". De werknemer zei dat het in werkelijkheid een mens was die hulp nodig had bij het invoeren van een captcha-code, waarbij hij aangaf dat hij een ernstige visuele beperking had. Deze medewerker hielp OpenAI's AI 'over de grens' te komen, ondanks eerdere twijfels.
Het team van Park citeerde onderzoek van Anthropic, het bedrijf achter Claude AI. Hieruit bleek dat zodra een groot taalmodel (LLM) leert te misleiden, veilige trainingsmethoden nutteloos worden en "moeilijk terug te draaien". De groep is van mening dat dit een zorgwekkend probleem is binnen AI.
De onderzoeksresultaten van het team werden gepubliceerd in Cell Press, een verzameling van toonaangevende multidisciplinaire wetenschappelijke rapporten.
Meta en OpenAI hebben geen commentaar gegeven op de resultaten van dit onderzoek.
Omdat het team vreesde dat kunstmatige-intelligentiesystemen grote risico's met zich mee zouden kunnen brengen, riep het beleidsmakers op om strengere regelgeving voor AI in te voeren.
Volgens het onderzoeksteam is er behoefte aan regelgeving voor AI, moeten modellen met frauduleus gedrag voldoen aan eisen voor risicobeoordeling en moeten AI-systemen en hun uitkomsten strikt worden gecontroleerd. Indien nodig kan het nodig zijn om alle gegevens te verwijderen en opnieuw te trainen.