Entrar
Cadastro
Entrar
Publicidade
Publicidade
Receba notícias do Congresso em Foco:
Inteligência artificial
24/12/2025 12:00
A cena é cada vez mais comum. Uma pessoa, sozinha em casa, abre o celular e conversa com um robô. A inteligência artificial responde de modo educado, sugere técnicas de respiração e incentiva o contato com alguém de confiança. O ambiente parece acolhedor, mas essa sensação de companhia esconde um dilema que exige debate responsável. Em setembro de 2025, o G1 publicou reportagem baseada em testes do Fantástico mostrando que metade dos usuários que relatam problemas de saúde mental utilizam IA em busca suporte emocional em chatbots, o que acendeu um alerta entre psicólogos, médicos e reguladores.
A geração Z ocupa o centro dessa transição. Jovens entre 16 e 24 anos cresceram conectados e valorizam anonimato, resposta imediata e disponibilidade permanente. Para muitos, o chatbot se tornou a porta de entrada: não julga, responde a qualquer hora e tem baixo custo. Ao mesmo tempo, o acesso ao atendimento presencial segue limitado em diversas regiões do Brasil, e a terapia privada permanece inacessível para parte da população. Essa combinação ajuda a explicar a popularidade da ferramenta, embora não legitime substituir o cuidado humano.
Especialistas destacam riscos concretos. Pesquisas conduzidas por universidades e relatórios internacionais, como o da Stanford Medicine em parceria com a Common Sense Media, apontaram que sistemas de IA falham na identificação de sinais de risco em adolescentes. Em simulações de crise, houve respostas inadequadas ou omissão em situações que exigiam intervenção imediata.
O Conselho Federal de Psicologia reforçou, em julho de 2025, que não existem evidências de que a psicoterapia possa ser realizada por IA e alertou sobre diagnósticos frágeis, atrasos no início do tratamento e exposição de dados sensíveis. O Conselho Federal de Medicina avançou, em agosto de 2025, na elaboração de uma minuta de resolução sobre o uso de IA na medicina, propondo diretrizes de governança, transparência e responsabilização. O texto está em consulta pública e já indica que o tema entrou na agenda regulatória.
A privacidade é outro ponto sensível. Diferentemente do ambiente clínico, sujeito ao sigilo profissional, muitas plataformas armazenam conversas em servidores e podem utilizar esses dados de forma comercial. A Lei Geral de Proteção de Dados exige base legal, finalidade definida e medidas de segurança para o tratamento de dados sensíveis, mas ainda faltam regras específicas que obriguem serviços de acolhimento automatizados a divulgar auditorias e relatórios de impacto. Sem esses mecanismos, usuários permanecem vulneráveis.
Mesmo com os riscos, há benefícios quando a tecnologia é usada como complemento. Em serviços estruturados, com supervisão profissional e protocolos de emergência, chatbots contribuem na triagem inicial, reforçam encaminhamentos, auxiliam em práticas de autocuidado e ampliam o acesso a informações seguras. Em momentos de solidão, uma resposta equilibrada pode reduzir a angústia e orientar o usuário a buscar apoio humano. A linha de separação é clara: a IA apoia, mas não substitui a relação terapêutica.
As perguntas mais comuns enviadas aos chatbots revelam demandas legítimas. Usuários querem entender por que se sentem ansiosos com frequência, como dormir melhor, como lidar com o fim de um relacionamento, o que fazer diante da solidão, se pensamentos negativos são normais, como agir em ataques de pânico, se precisam de um psicólogo ou se a conversa com o robô basta, como dialogar com os pais sobre o que sentem, como fortalecer a autoestima e onde encontrar atendimento acessível. Esses questionamentos mostram a busca por validação e orientação prática. Quando os sintomas persistem ou existe risco de morte, a conversa automatizada deixa de ser suficiente.
Três referências nacionais ajudam a esclarecer o debate. Em setembro de 2025, o G1 mostrou que testes realizados pelo Fantástico produziram sensação de acolhimento, mas também evidenciaram limites técnicos e éticos. O Hospital Pequeno Príncipe publicou nota alertando para os riscos do uso de IA por crianças e adolescentes, destacando vulnerabilidades próprias do desenvolvimento e a necessidade de supervisão familiar e escolar. Em maio de 2025, o UOL Tilt trouxe relatos de brasileiros que personalizam chatbots e dizem sentir alívio momentâneo, enquanto especialistas lembram que esse conforto não equivale a cuidado clínico.
Pais e escolas exercem papel ativo. É necessário orientar jovens sobre limites de uso, observar sinais de isolamento, estabelecer regras de tempo e tema das conversas e usar recursos de controle parental quando disponíveis. Profissionais de educação e saúde precisam indicar quando a conversa digital deixou de ser suficiente e como buscar atendimento presencial. Em caso de crise, o caminho seguro é humano: o Centro de Valorização da Vida atende de forma gratuita e sigilosa pelo telefone 188 e por canais digitais, 24 horas.
A regulação deve avançar. A LGPD protege dados sensíveis, porém é fundamental que a minuta do CFM e outras normas transformem princípios em obrigações práticas, como auditorias independentes, relatórios de impacto, protocolos de encaminhamento e canais de denúncia. Plataformas atuantes em saúde mental precisam divulgar evidências de segurança e submeter seus sistemas a testes clínicos e éticos. A participação da sociedade e a fiscalização estatal são essenciais para impedir que a tecnologia amplie desigualdades ou exponha grupos vulneráveis.
Em síntese, a inteligência artificial pode oferecer conforto temporário, mas a responsabilidade pelo cuidado em saúde mental permanece nas mãos de pessoas e instituições. O país precisa discutir o tema com seriedade, regular com rigor e garantir que a tecnologia funcione como apoio, jamais como substituição da terapia. O Centro de Valorização da Vida atende 24 horas pelo telefone 188 e por canais digitais.
A inteligência artificial pode oferecer algum conforto, mas a responsabilidade pelo cuidado da saúde mental permanece nas mãos de pessoas e instituições.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].
Temas