13 mar, 2025 - 06:00 • Fátima Casanova
A Associação Portuguesa para a Defesa do Consumidor (DECO) avisa que “as ferramentas digitais" de inteligência artificial (IA) "podem ser geradoras de desinformação, de distorção das respostas e, assim, causar danos aos consumidores”.
Este aviso é feito na sequência de uma análise a quatro assistentes virtuais: ChatGPT da Open Ai; Copilot da Microsoft; Gemini da Google e Deepseek da High Flyer.
Já segue a Informação da Renascença no WhatsApp? É só clicar aqui
A DECO, no início de fevereiro, fez várias perguntas àqueles sistemas de IA sobre três dos assuntos mais reclamados junto do gabinete da Defesa do Consumidor. São eles o direito de resolução, as garantias dos bens e a prescrição das dívidas nos serviços públicos essenciais.
As respostas foram analisadas à luz de quatro critérios, diz à Renascença Paulo Fonseca, jurista da DECO: “a fiabilidade, ou seja, perceber se a informação que era dada a consumidor era baseada em fontes fidedignas e quais é que eram essas fontes de informação, se a informação era completa, se era verdadeira e se era rigorosa”.
Correntes d’Escritas
Há 25 anos que os honorários dos tradutores são os(...)
Nas respostas dadas, os assistentes virtuais “falharam nos quatro critérios definidos”, sublinha Paulo Fonseca, que alerta para o facto destes assistentes virtuais contribuírem para a desinformação.
Paulo Fonseca alerta, ainda, para o facto de os assistentes virtuais contribuírem para a desinformação, porque “a informação, muitas vezes, não era verdadeira e, por vezes, misturava elementos verdadeiros com elementos falsos”.
“Uma coisa é os consumidores olharem para uma informação e perceberem logo que é totalmente falsa, outra coisa é verem uma informação aparentemente verdadeira”, o que pode levar a que confiem naquilo que estão a ler, sublinha.
O jurista da DECO partilhou, com a Renascença, exemplos de informação falsa veiculada pelos sistemas de inteligência artificial. Nomeadamente “o que diz respeito aos bens imóveis, vários sistemas identificaram cinco anos como prazo de garantia para os defeitos estruturais dos edifícios, quando o prazo atual é de 10 anos”.
Outro exemplo está relacionado com os contratos ao domicílio, com “alguns sistemas a dizer que os consumidores têm 14 dias para resolver o contrato livremente, quando este prazo já foi alterado para 30 dias”, diz Paulo Fonseca.
Atriz critica EUA e diz que é "aterrorizador" que (...)
Quanto à prescrição das dívidas de serviços públicos essenciais, como a água ou a eletricidade, os sistemas de inteligência artificial também falharam nas repostas, porque, apesar de reconheceram o prazo de seis meses, “relacionaram esse prazo com a data do envio da fatura”, mas a prescrição das dívidas ocorre seis meses “a partir da data da prestação do serviço”.
Para mitigar os riscos identificados, a DECO diz que “é crucial implementar mecanismos de verificação contínua e garantir sempre o acesso dos consumidores a processos de validação humana”.
Também defende a “introdução obrigatória das fontes da informação”, o que pode “ajudar o consumidor a compreender a natureza da informação e a avaliar a sua credibilidade antes de tomar decisões”.
À Renascença, o jurista da DECO, Paulo Fonseca, diz que as conclusões vão ser remetidas ao Ministério da Modernização a quem pede urgência na implementação da Estratégia Digital Nacional.