Funcionários da União Europeia (UE) defendem medidas adicionais para promover a transparência nas ferramentas de inteligência artificial (IA), incluindo o ChatGPT da OpenAI, para combater a propagação da desinformação. Vera Jourova, vice- dent de valores e transparência da Comissão Europeia, enfatizou a necessidade de as empresas que implementam ferramentas generativas de IA rotularem o seu conteúdo e implementarem salvaguardas contra a disseminação de desinformação gerada pela IA.
Jourova apelou aos signatários, incluindo grandes empresas tecnológicas como a Microsoft e a Google, para que reconheçam o potencial da IA generativa para gerar desinformação e tomem medidas para rotular claramente esse conteúdo. Essa mudança permite que os usuários diferenciem entre informações genuínas e potencialmente enganosas. O atual “Código de Prática sobre Desinformação” da UE, estabelecido em 2018, serve como um padrão de autorregulação para a indústria tecnológica combater a desinformação. Várias empresas tecnológicas proeminentes, incluindo Google, Microsoft e Meta Platforms, assinaram o código da UE e deverão apresentar um relatório sobre as suas novas salvaguardas para conteúdos gerados por IA neste mês de julho.
No entanto, Jourova destacou a recente retirada do Twitter do código e alertou que as ações da empresa e o cumprimento da legislação da UE seriam examinados de perto. Além disso, o vice-presidente dent a importância de o Twitter aderir aos padrões regulatórios e enfrentar avaliações rigorosas.
Estas discussões sobre transparência e rotulagem de conteúdos gerados por IA fazem parte dos esforços mais amplos da UE para regular a utilização da tecnologia de IA. A próxima Lei da UE sobre Inteligência Artificial visa estabelecer diretrizes abrangentes para o uso público da IA e para as empresas que a utilizam. Embora se espere que as leis oficiais sejam implementadas nos próximos dois a três anos, as autoridades da UE incentivaram as empresas a adotar um código de conduta voluntário para desenvolvedores de IA generativa nesse ínterim.
Responder às preocupações e proteger contra a desinformação gerada pela IA
À medida que a popularidade de ferramentas generativas de IA, como ChatGPT e Bard, continua a aumentar, surgiram preocupações sobre o potencial uso indevido e a propagação da desinformação. A vice-chefe da Comissão Europeia, Vera Jourova, enfatizou a importância das empresas rotularem o conteúdo gerado por IA para combater a disseminação de notícias falsas.
Jourova destacou o ChatGPT da OpenAI, apoiado pela Microsoft, e o Bard do Google, como ferramentas generativas de IA que devem incorporar as salvaguardas necessárias para evitar que atores mal-intencionados os utilizem para gerar desinformação. Ao implementar tecnologia para reconhecer e rotular conteúdos gerados por IA, estas empresas podem aumentar a transparência e capacitar os utilizadores para fazerem julgamentos informados sobre a informação que consomem.
Em linha com o Código de Prática da UE sobre Desinformação, espera-se que as empresas que se inscreveram, incluindo Google, Microsoft e Meta Platforms, relatem as salvaguardas que implementaram para combater a desinformação gerada pela IA. Jourova também alertou o Twitter, que recentemente se retirou do código, para antecipar um maior escrutínio regulatório e enfatizou a necessidade de a empresa cumprir a legislação da UE.
O foco da UE no combate à desinformação gerada pela IA está alinhado com os seus esforços mais amplos para estabelecer diretrizes para a utilização responsável da IA. A próxima Lei da UE sobre Inteligência Artificial fornecerá orientações abrangentes para a utilização pública da IA e para as empresas que a implantam. Entretanto, as autoridades europeias apelam às empresas para que tomem medidas proativas e adotem um código de conduta voluntário para garantir o desenvolvimento responsável e a implantação de tecnologia de IA generativa.