Siga-nos no Whatsapp
A+ / A-

Tecnologia

Técnica "LLM grooming" promove desinformação em ferramentas de IA

24 mar, 2025 - 17:36 • Lusa

Plataforma espanhola de verificação de factos aponta ser possível manipular as respostas dadas pelos modelos de inteligência artificial, alterando os dados de treino através da saturação dos resultados nos mecanismos de pesquisa, com grandes quantidades de conteúdo automatizado e desinformativo.

A+ / A-

A técnica 'LLM grooming' procura manipular as respostas dos 'chatbots' de inteligência artificial (IA) de forma a promover a desinformação, revelou a plataforma jornalística de 'fact-checking' espanhola Maldita.

O 'LLM grooming' consiste em saturar a internet com desinformação para que seja introduzida nos dados de treino dos 'chatbots' da IA (assistente virtual que usa inteligência artificial e programação para comunicar por texto com utilizadores).

De acordo com a plataforma espanhola, "os grandes modelos de linguagem (LLMs) são sistemas de IA capazes de imitar a maneira como os humanos falam, processando grandes quantidades de dados, que em muitos casos são obtidos através da internet".

Neste sentido, utilizando a técnica 'LLM grooming' é possível manipular as respostas dadas por estes modelos, alterando os seus dados de treino, através da saturação dos resultados nos mecanismos de pesquisa, por exemplo o Google, com grandes quantidades de conteúdo automatizado e desinformativo.

"Uma rede de desinformação pode alimentar as suas reivindicações nos dados de treino que os 'chatbots' colecionam da internet e manipular os 'tokens' (a representação numérica de uma palavra ou parte dela) que os modelos usam para processar a linguagem e responder às instruções dadas", refere o jornal.

Além disso, um relatório da NewsGuard citado pela entidade espanhola salienta que, "ao saturar os dados de treino com 'tokens' carregados de desinformação, as operações de interferência estrangeira aumentam a probabilidade de que os modelos gerem, citem e reforcem narrativas falsas nas suas respostas".

A rede russa Pravda usou esta técnica para alimentar a desinformação pró-Kremlin em 'chatbots' de IA, como uma forma de aumentar a sua visibilidade e credibilidade.

Comentários
Tem 1500 caracteres disponíveis
Todos os campos são de preenchimento obrigatório.

Termos e Condições Todos os comentários são mediados, pelo que a sua publicação pode demorar algum tempo. Os comentários enviados devem cumprir os critérios de publicação estabelecidos pela direcção de Informação da Renascença: não violar os princípios fundamentais dos Direitos do Homem; não ofender o bom nome de terceiros; não conter acusações sobre a vida privada de terceiros; não conter linguagem imprópria. Os comentários que desrespeitarem estes pontos não serão publicados.

Destaques V+