27 fev, 2025 - 16:26 • Liliana Monteiro
“Muitas vezes as pessoas não têm consciência da forma como a sua vontade é induzida em termos de inteligência artificial (IA)”. Quem o diz é o presidente da Comissão Nacional de Eleições (CNE), que esta quinta-feira promove uma conferência sobre “Inteligência artificial, Democracia e Eleições”, na Faculdade de Direito de Lisboa.
Em declarações à Renascença o juiz conselheiro Santos Cabral, presidente da CNE, diz que é hora de começar a discutir este assunto. “A IA pode ter aspetos negativos ou positivos e tudo depende da ética de quem a utiliza. Neste momento, há uma atenção redobrada à cibersegurança que é muito importante para detetar quem quer alterar as regras do jogo".
Santos Cabral defende a aposta na literacia digital. "É uma questão de educação cívica e das sucessivas gerações serem educadas para o facto de que nada se faz sem regras e valores, porque se não caímos na anemia e a inteligência artificial precisa de quem a domine, mas com regras e essa aprendizagem deveria começar na escola".
Questionado sobre se os meios da Comissão Nacional de Eleições são suficientes e devidamente formados para o desafio que é detetar problemas trazidos pela inteligência artificial, o presidente diz que há um trabalho em curso constante com o Ministério da Administração Interna.
Para a professora da Universidade de Direito, Sofia Casimiro, é hora de tomar decisões sobre o uso da Inteligência artificial.
"O facto de termos tecnologia poderosa é algo que neste momento histórico nos força a tomar decisões. Estamos num momento de viragem no mundo e pode ser decisivo para o nosso futuro, não só na Europa” explicando que “todos os estados estão a utilizar a IA como forma de projetar o seu poder".
E em matéria de eleições, diz esta especialista em inteligência artificial, estão cada vez mais cheias de notícias falsas e sofrem cada vez mais interferências.
"Hoje em dia do que está a ser feito com os sistemas de IA eu diria que as eleições que não têm interferências destas tecnologias são a exceção. Todos somos vítimas dessa manipulação que é cada vez mais perigosa a partir do momento em que a tecnologia nos dificulta a destrinça entre o verdadeiro e falso”. Dando o exemplo de um problema que pode surgir: mudar a memória coletiva.
"Se pensarmos que é possível criar vídeos e fotos que não permitem distinguir se são verdadeiros ou falsos, podemos mudar toda uma memória coletiva e apagar a existente. Nós baseamo-nos nas narrativas para tomar decisões e formar opinião e esta é a maior ameaça que enfrentamos".
É preciso tomar uma decisão: regulamentar, ou não, a Inteligência Artificial?
Sofia Casimiro sublinha que esta " é uma questão que tem de ser respondida neste momento” tendo noção de que é difícil “porque temos de equilibrar a necessidade de inovação com a proteção de valores fundamentais que nos caracterizam".