A.I. die nepnieuws bedenkt tóch uitgebracht

KIJK-redactie

02 september 2019 14:59

OpenAI

OpenAI ontwikkelde kunstmatige intelligentie die de start-up zo gevaarlijk vond dat het bedrijf besloten om het algoritme niet openbaar te maken. Dat weerhield twee Amerikanen  er niet van om toch eenzelfde soort programma uit te brengen.

Nepnieuws is een van de grote problemen van deze tijd. Veel nepverhalen zijn niet van echt te onderscheiden, waardoor burgers vaak hun mening baseren met nepinformatie in hun achterhoofd. En nu kunnen robots ook nepnieuws maken.

Lees ook:

GTP-2

OpenAI, een start-up die is opgericht in 2015 door miljardair Elon Musk en een paar andere tech-miljardairs, is gefocust op de ontwikkeling van kunstmatige intelligentie. Het doel van de organisatie is om A.I te ontwikkelen op een manier waar iedereen van profiteert. Daarom is  al het onderzoek dat ze hebben gedaan openbaar.

Maar in Februari bracht de non-profit organisatie GPT-2 uit, een algoritme dat tekst genereert. Het algoritme was zo goed in het maken van nepnieuws, dat OpenAI een zwakkere versie van het programma uitbracht, omdat ze niet wilden dat de code voor verkeerde doeleinden werd gebruikt.

Het OpenAI algoritme werkt namelijk op basis van een (door een mens bedachte) titel. Het algoritme is gebaseerd op 8 miljoen pagina’s content, voornamelijk nieuws over politiek en populaire cultuur. Voer je bijvoorbeeld het woord ‘vluchtelingen’ in, dan krijg je een artikel over illegale immigratie. Voer je “Dit jaar was het koudste van de afgelopen 122” in dan krijg je een behoorlijk geloofwaardig, klimaatsceptisch artikel. Daardoor wordt het erg makkelijk om geloofwaardig nepnieuws te fabriceren.

Goedkope namaak

Toch hebben twee Amerikanen, Aaron Gokaslan en Vanya Cohen, de originele versie van GPT-2  nagemaakt. Ze wilden laten zien dat je ook gewoon zonder een enorm team, een dure opleiding en miljoenen euro’s een vergelijkbaar programma kunt maken. Ook zei Cohen dat het beter is als het programma voor iedereen beschikbaar is. Dan weet iedereen waar ze mee te maken hebben en kunnen onderzoekers maatregelen tegen dat soort dreigingen bedenken.

Tekst: Jan Vos

Bronnen: Wired, IFLScience

Ben je geïnteresseerd in de wereld van wetenschap & technologie en wil je hier graag meer over lezen? Word dan lid van KIJK!



De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."








Meer Nieuws