Läser in...

EU-tjänstemän driver på för transparens i AI-genererat innehåll för att bekämpa desinformation

TL;DR

  • Europeiska unionens tjänstemän förespråkar transparens i AI-genererat innehåll för att bekämpa desinformation.
  • Företag som använder generativa AI-verktyg, som ChatGPT och Bard, bör märka sitt innehåll och implementera skydd mot spridning av desinformation.
  • Undertecknare av EU:s tekniska industri, inklusive Google och Microsoft, förväntas rapportera om sina skyddsåtgärder för AI-genererat innehåll, medan Twitters agerande kommer att stå inför ökad kontroll av lagstiftningen.

Europeiska unionens (EU) tjänstemän förespråkar ytterligare åtgärder för att främja transparens i verktyg för artificiell intelligens (AI), inklusive OpenAI:s ChatGPT, för att hantera spridningen av desinformation. Vera Jourova, vice dent för värderingar och transparens vid Europeiska kommissionen, betonade behovet av att företag som använder generativa AI-verktyg för att märka sitt innehåll och implementera skydd mot spridning av AI-genererad desinformation.

Jourova uppmanade undertecknarna, inklusive stora teknikföretag som Microsoft och Google, att inse potentialen hos generativ AI för att generera desinformation och vidta åtgärder för att tydligt märka sådant innehåll. Detta drag ger användarna möjlighet att skilja mellan äkta och potentiellt vilseledande information. EU:s befintliga "Code of Practice on Desinformation", etablerad 2018, fungerar som en självreglerande standard för teknikindustrin för att bekämpa desinformation. Flera framstående teknikföretag, inklusive Google, Microsoft och Meta Platforms, har skrivit på EU:s kod och kommer att förväntas rapportera om sina nya skyddsåtgärder för AI-genererat innehåll i juli.

Jourova påpekade Twitters senaste tillbakadragande från koden och varnade för att företagets agerande och efterlevnad av EU-lagstiftningen skulle granskas noggrant. Vicepresidenten betonade också vikten av att Twitter följer regulatoriska standarder och står inför en rigorös bedömning dent

Dessa diskussioner om transparens och märkning av AI-genererat innehåll är en del av EU:s bredare ansträngningar för att reglera användningen av AI-teknik. Den kommande EU-lagen om artificiell intelligens syftar till att fastställa omfattande riktlinjer för offentlig användning av AI och de företag som använder den. Även om de officiella lagarna förväntas implementeras under de kommande två till tre åren, har EU-tjänstemän uppmuntrat företag att anta en frivillig uppförandekod för generativa AI-utvecklare under tiden.

Att ta itu med oro och skydda mot AI-genererad desinformation

När populariteten för generativa AI-verktyg som ChatGPT och Bard fortsätter att öka, har oro över potentiellt missbruk och spridning av desinformation dykt upp. EU-kommissionens biträdande chef Vera Jourova betonade vikten av att företag märker AI-genererat innehåll för att bekämpa spridningen av falska nyheter.

Jourova lyfte fram Microsoft-stödda OpenAI:s ChatGPT och Googles Bard som generativa AI-verktyg som bör inkludera nödvändiga skyddsåtgärder för att förhindra illvilliga aktörer från att använda dem för att generera desinformation. Genom att implementera teknik för att känna igen och märka AI-genererat innehåll kan dessa företag öka transparensen och ge användare möjlighet att göra välgrundade bedömningar om den information de konsumerar.

I linje med EU:s uppförandekod för desinformation förväntas företag som har registrerat sig, inklusive Google, Microsoft och Meta Platforms, rapportera om de skyddsåtgärder de har infört för att bekämpa AI-genererad desinformation. Jourova varnade också Twitter, som nyligen drog sig ur koden, att förutse ökad kontroll av regelverket och betonade behovet av att företaget följer EU-lagstiftningen.

EU:s fokus på att ta itu med AI-genererad desinformation ligger i linje med dess bredare ansträngningar att fastställa riktlinjer för ansvarsfull användning av AI. Den kommande EU-lagen om artificiell intelligens kommer att ge omfattande riktlinjer för den offentliga användningen av AI och de företag som använder den. Under tiden uppmanar europeiska tjänstemän företag att vidta proaktiva åtgärder och anta en frivillig uppförandekod för att säkerställa en ansvarsfull utveckling och användning av generativ AI-teknik.

Varning. Informationen som tillhandahålls är inte handelsrådgivning. Cryptopolitan.com har inget ansvar för några investeringar som görs baserat på informationen på denna sida. Vi rekommenderar tron dent forskning och/eller konsultation med en kvalificerad expert innan du fattar några investeringsbeslut.

Dela länk:

Damilola Lawrence

Damilola är en kryptoentusiast, innehållsskribent och journalist. När han inte skriver ägnar han det mesta av sin tid åt att läsa och hålla koll på spännande projekt i blockkedjeområdet. Han studerar också konsekvenserna av Web3 och blockchain-utveckling för att ha en andel i den framtida ekonomin.

Mest lästa

Laddar mest lästa artiklar...

Håll dig uppdaterad om kryptonyheter, få dagliga uppdateringar i din inkorg

Relaterade nyheter

Pakistan
Cryptopolitan
Prenumerera på CryptoPolitan