december 23, 2024

Koninkrijksrelaties

Dagelijks meer nieuwsberichten dan enige andere Nederlandse nieuwsbron over Nederland.

OpenAI ontdekte dat Russische en Chinese propagandacampagnes gebruik maakten van zijn technologie

SAN FRANCISCO – OpenAI, de maker van ChatGBT, zei donderdag dat het groepen in Rusland, China, Iran en Israël heeft beschuldigd van het proberen het politieke discours over de hele wereld te beïnvloeden met behulp van zijn technologie, waarbij de bezorgdheid wordt benadrukt dat de creatie van kunstmatige intelligentie geheime propaganda voor statelijke actoren. Campagnes nu de presidentsverkiezingen van 2024 dichterbij komen.

OpenAI verwijderde accounts die verband hielden met bekende propagandaactiviteiten in Rusland, China en Iran; Israëlisch Agentschap voor Politieke Campagne; Een voorheen onbekende groep die in Rusland verscheen, noemden onderzoekers van het instituut “slechte grammatica”. Teams gebruiken de technologie van OpenAI om berichten te schrijven, deze in verschillende talen te vertalen en software te maken om automatisch op sociale media te posten.

Geen van deze groepen slaagde erin veel grip te krijgen; De bijbehorende sociale media-accounts bereikten enkele gebruikers Een paar volgers, zegt Ben Nimmo, hoofdanalist bij OpenAI’s Intelligence and Investigations Group. Uit het rapport van OpenAI blijkt echter dat campagnevoerders die al jaren actief zijn op sociale media AI-technologie gebruiken om hun campagnes een boost te geven.

“We hebben gezien dat ze tekst produceerden met een groter volume en minder fouten dan deze operaties traditioneel voor elkaar kregen”, zei Nimmo, die eerder werkte aan meta-tracking van influencer-operaties, in een briefing met verslaggevers. Nimmo zei dat andere groepen de tools van OpenAI kunnen gebruiken zonder medeweten van het bedrijf.

“Dit is geen tijd voor zelfgenoegzaamheid. De geschiedenis heeft aangetoond dat influencer-activiteiten die jarenlang nergens heen zijn gegaan, plotseling kunnen exploderen als niemand ernaar op zoek is”, zei hij.

Regeringen, politieke partijen en actiegroepen gebruiken sociale media al jaren om de politiek te beïnvloeden. Na zorgen over de Russische invloed bij de presidentsverkiezingen van 2016 begonnen sociale-mediaplatforms nader te onderzoeken hoe hun platforms werden gebruikt om kiezers te beïnvloeden. Bedrijven voorkomen doorgaans dat regeringen en politieke groeperingen gezamenlijke inspanningen om gebruikers te beïnvloeden verdoezelen, en eisen dat politieke advertenties bekendmaken wie ervoor heeft betaald.

Onderzoekers op het gebied van desinformatie hebben hun bezorgdheid geuit over het feit dat naarmate AI-tools die realistische tekst, afbeeldingen en video kunnen genereren op grotere schaal beschikbaar komen, het moeilijker zal worden om desinformatie of geheime beïnvloedingsactiviteiten online op te sporen en erop te reageren. Miljoenen mensen stemmen dit jaar bij verkiezingen over de hele wereld, en deepfakes op het gebied van AI hebben zich al verspreid.

OpenAI, Google en andere AI-bedrijven werken aan technologie om deep fakes te identificeren die met hun eigen tools zijn gemaakt, maar dergelijke technologie moet nog worden bewezen. Sommige AI-experts zijn van mening dat deepfake-detectoren niet helemaal effectief zijn.

Eerder dit jaar zou een groep verbonden aan de Chinese Communistische Partij naar verluidt AI-gegenereerde audio hebben onderschreven van de ene kandidaat die meedeed aan een Taiwanese verkiezing boven de andere. De politicus, Foxconn-eigenaar Terry Coe, steunde de andere politicus echter niet.

In januari ontvingen de kiezers bij de voorverkiezingen in New Hampshire een robocall die zogenaamd afkomstig was van president Biden, maar al snel werd geïdentificeerd als AI. Vorige week werd een democraat die zei dat hij een robocall had uitgevoerd, aangeklaagd op beschuldiging van onderdrukking van kiezers en het nabootsen van kandidaten.

Het rapport van OpenAI beschrijft hoe vijf groepen de technologie van het bedrijf gebruikten in hun pogingen om activiteiten te beïnvloeden. Spamouflage, een groep die voorheen uit China kwam, gebruikte de technologie van OpenAI om de activiteit op sociale media te analyseren en berichten te schrijven in het Chinees, Koreaans, Japans en Engels, aldus het bedrijf. Een Iraanse groep genaamd de International Union of Virtual Media gebruikte ook de technologie van OpenAI om artikelen te maken die op haar site werden gepubliceerd.

Een voorheen onbekende groep, Bad Grammar, gebruikte OpenAI-technologie om een ​​programma te maken dat automatisch berichten kan posten op de berichtenapp Telegram. Bad Grammar gebruikte vervolgens OpenAI-technologie om berichten te genereren en Volgens het rapport wordt in het Russisch en Engels betoogd dat de VS Oekraïne niet mogen steunen.

Uit het rapport blijkt dat een Israëlisch politiek campagnebureau, Stoic genaamd, OpenAI gebruikte om pro-Israëlische berichten te plaatsen over de oorlog in Gaza en zich te richten op mensen in Canada, de Verenigde Staten en Israël, aldus OpenAI. Woensdag prees Facebook-eigenaar Meta ook het werk van Stoick en zei dat het 510 Facebook- en 32 Instagram-accounts had verwijderd die door de groep werden gebruikt. Het bedrijf vertelde verslaggevers dat sommige accounts waren gehackt, terwijl andere accounts van fictieve mensen waren.

De accounts in kwestie geven vaak commentaar op de pagina’s van bekende individuen of mediakanalen waarop pro-Israëlische Amerikaanse studenten, Afro-Amerikanen en anderen te zien zijn. De commentaren steunden het Israëlische leger en waarschuwden de Canadezen dat de “radicale islam” de liberale waarden daar bedreigde, zei Meta.

De AI handelde op basis van de bewoordingen van sommige opmerkingen, wat echte Facebook-gebruikers als vreemd en uit hun context overkwam. De prestaties waren slecht, aldus het bedrijf, en trokken slechts ongeveer 2.600 legitieme volgers.

META opereert na het Digital Forensics Research Lab van de Atlantic Council was ontdekt Netwerk terwijl u soortgelijke activiteiten nastreeft die door andere onderzoekers en publicaties zijn geïdentificeerd.

Vorig jaar suggereerden desinformatieonderzoekers dat AI-chatbots lange, gedetailleerde gesprekken met specifieke mensen online zouden kunnen voeren, in een poging hen in een bepaalde richting te sturen. AI-tools kunnen grote hoeveelheden gegevens over individuen opnemen en rechtstreeks berichten naar hen sturen.

OpenAI heeft geen geavanceerde toepassingen van AI geïdentificeerd, zei Nimmo. ‘Het is meer een evolutie dan een revolutie’, zei hij. “Er is niets dat zegt dat we dat in de toekomst niet zullen zien.”

Joseph Menn heeft bijgedragen aan dit rapport.