A Google está a reforçar a utilização dos Grandes Modelos de Linguagem (LLM) de Inteligência Artificial para combater a publicidade e propaganda falsas online.
No balanço da atividade do ano passado, Ads Safety Report - divulgado esta quarta-feira e a que o DN teve acesso, o gigante da internet revelou que estes mecanismos de IA generativa introduziram "mudanças significativas na indústria da publicidade digital, desde a otimização do desempenho até à edição de imagens", reconhecendo que aqueles "também apresenta(m) novos desafios", como se pode ler no relatório.
Segundo este documento, com a ajuda da IA foi possível, no ano passado, bloquear ou remover "mais de 5,5 mil milhões de anúncios" falsos ou fraudulentos online, um número que é "um pouco acima do ano anterior". Também foram removidas "12,7 milhões de contas de anunciantes, quase o dobro do ano anterior".
"Fazêmo-lo de acordo com a missão da Google de tornar a informação universalmente acessível e útil. Investimos profundamente em ferramentas que permitem que editores e criadores de conteúdos sejam pagos pelo seu conteúdo através de publicidade. Reconhecemos a nossa responsabilidade de apoiar um ecossistema de publicidade digital que seja seguro para as pessoas", afirmou em conferência de imprensa internacional Duncan Lennox, vice-presidente da Google para a Segurança e Privacidade da Publicidade.
Este tipo de preocupações é também focado na propaganda política, um setor em constante crescimento online - e particularmente relevante em vésperas de Eleições Europeias, numa altura de permanentes suspeitas de possíveis interferências por parte de países hostis, como a Rússia, a Coreia do Norte ou a China.
Sendo os anúncios políticos locais por natureza, a filtragem regional é precisamente a primeira preocupação das políticas vigentes na Google. "Antes que um anunciante possa publicar qualquer anúncio eleitoral, primeiro verificamos se ele está qualificado para o fazer no seu país ou região. Depois, verificamos a sua identidade. Estas duas etapas juntas são fundamentais para garantir que agentes falsos não usem os nossos produtos para influenciar ou prejudicar as eleições", afirma aos jornalistas Alejandro Borgia, diretor de produto da Google.
"Também atualizámos especificamente as nossas políticas para o uso de IA generativa ou qualquer tecnologia que utilize 'inteligência sintetizada' e exigimos especificamente que divulguem a sua utilização. Ou seja, os anunciantes devem divulgar quando utilizam essas técnicas nos seus anúncios, para que os utilizadores tenham toda a transparência, saibam o que é real e o que é falso. Levamos isto muito a sério. Isto, em combinação com as nossas políticas de há muito sobre desinformação, é a forma como garantimos, não apenas para as Eleições Europeias, mas para todas as eleições em todo o mundo em que participamos, que o fazemos forma segura", prossegue este responsável em resposta a uma pergunta do DN.
Além disso, "também estamos a investir muito tempo e energia para continuar a melhorar e dimensionar o nosso mecanismo de detecção", garante Duncan Lennox. "Queremos detetar as falsificações e continuaremos muito vigilantes ao longo de 2024", promete.
Estes responsáveis sublinham ainda a importância do Relatório de Transparência, no qual constam todos os anúncios eleitorais e onde consta uma menção que mostre claramente quem os pagou.
O balanço do ano passado quanto à propaganda política é significativo: "Verificámos mais de 5000 novos anunciantes eleitorais e removemos mais de 7,3 milhões de anúncios eleitorais provenientes de anunciantes que não concluíram o processo de verificação."
Para o futuro, a Google reconhece que "muita coisa pode mudar ao longo de um ano: da introdução de novas tecnologias, tais como a IA generativa, a novas tendências de abuso e de conflitos globais." E sendo este um ano ainda de presidenciais americanas, maiores os desafios.
"O espaço publicitário digital tem de ser ágil e pronto para reagir", admite o gigante americano no relatório.