04 jul, 2025 • Fátima Casanova
A Inteligência Artificial generativa está a ser cada vez mais utilizada para terapia e companhia, um sinal de que estas ferramentas são usadas como apoio emocional e não apenas em contexto laboral.
Esta é uma das conclusões de um relatório da Harvard Business Review, "Os 100 principais usos da IA generativa em 2025", que aponta para as três utilizações mais relevantes da IA em 2025.
Significa que há cada vez mais pessoas que estão a procurar ferramentas como o Chat GPT, ou o Copilot da Microsoft para apoio emocional.
É o que indica a revista americana especializada em gestão de negócios, a Harvard Business Review, que tem feito nos últimos anos o “Os 100 principais usos da IA generativa”.
Este estudo indica que as três utilizações mais relevantes de IA, ao longo deste ano, estão dentro da categoria de suporte pessoal e profissional, como ajuda para superar obstáculos do dia-a-dia.
Em 2024, estas ferramentas eram utilizadas em primeiro lugar, para gerar ideias e fazer pesquisas. Este ano, esta categoria caiu para a sexta posição.
Também é relevante dizer que a procura por uma informação específica, no ano passado, estava em terceiro lugar e agora aparece na décima terceira posição.
Olhando para estas mudanças, os investigadores concluem que estas ferramentas estão a deixar de ser apenas de trabalho para passarem a ter uma função relacional, ou seja, quem interage com a IA procura sobretudo medidas para o autodesenvolvimento.
Procuram ajuda para refletir sobre os seus hábitos, sobre prioridades que devem assumir e, por isso, acabam por utilizar mais aplicações emocionais.
Há muitas aplicações, com umas a garantirem que ajudam a meditar, outras ajudam a identificar pensamentos disfuncionais e também podem propor exercícios de respiração.
A Inteligência Artificial reconhece emoções através do reconhecimento facial, também através da análise de voz, e as pessoas podem partilhar dados de saúde.
Com base nisso, podem obter um diagnóstico.
Sim, não deixa de ser um risco, porque passa a existir a possibilidade de a empresa responsável pela aplicação, usar essas informações para treinar os seus modelos de inteligência artificial, pois pode haver quebra de privacidade.
Por outro lado, também pode representar um risco ao nível da saúde, já que as respostas geradas pelos modelos de IA já não se distinguem das escritas por humanos.
Há vários alertas nesse sentido, porque estas plataformas podem criar resultados errados, mas utilizar uma terminologia credível, levando as pessoas a seguir recomendações que podem nem ser as mais correctas. Por isso, são muitos os alertas feitos pela comunidade médica em vários países.