quarta-feira, 15 abr. 2026

Disse aos pais que iria trabalhar como nadador-salvador e acabou por se suicidar. Jovem terá pedido conselhos ao ChatGPT horas antes

O caso ocorreu em maio do ano passado.
Disse aos pais que iria trabalhar como nadador-salvador e acabou por se suicidar. Jovem terá pedido conselhos ao ChatGPT horas antes

O jovem britânico, Luca Cella Walker, de 16 anos, morreu a 4 de maio de 2025, depois de ter usado o ChatGPT horas antes da sua morte para procurar informação sobre suicídio.

O uso de chatbots de inteligência artificial por adolescentes e jovens em contextos de sofrimento psicológico voltou ao centro do debate internacional depois de um inquérito judicial no Reino Unido realizado esta terça-feira, de acordo com o The Guardian.

Walker terá perguntado ao chatbot de inteligência artificial qual era a forma “mais eficaz” de alguém se suicidar numa linha férrea. Durante a audiência, o detetive Garry Knight, da Polícia de Transportes Britânica, que investigou a morte de Walker, afirmou: “Descobriram que ele tinha acedido ao ChatGPT na noite anterior, por volta das 00h30, pedindo conselhos sobre as formas mais eficazes de se suicidar na ferrovia. É uma leitura bastante perturbadora e angustiante” e indicou que o sistema, apesar de conter alertas de segurança, acabou por fornecer respostas depois de o pedido ter sido formulado como se fosse uma pesquisa “informativa”.

O caso está a ser acompanhado com especial atenção por especialistas em saúde mental, reguladores e juristas, não apenas pelo conteúdo das interações, mas também pela forma como os sistemas de IA são hoje usados por muitos adolescentes como fonte de companhia, aconselhamento emocional ou apoio em momentos de crise.

O jovem descrito pela família como "amável, sensível e calmo” tinha dito aos pais que iria trabalhar como nadador-salvador, mas em vez disso, dirigiu-se a uma estação de comboios, onde acabou por se suicidar.

Os pais de Luca Walker não faziam ideia dos problemas de saúde mental do filho e descreveram a situação como "uma batalha invisível".

Durante o inquérito, foi também referido que o ambiente escolar poderá ter contribuído para dificuldades emocionais.

Os especialistas estão preocupados

A principal preocupação não está apenas no facto de um chatbot “responder” a perguntas sensíveis, mas sim na forma como estes sistemas podem simular empatia, proximidade emocional e disponibilidade permanente, sobretudo para utilizadores mais jovens, isolados ou emocionalmente fragilizados. Os adolescentes usam estes sistemas como substituto parcial de apoio humano, precisamente porque oferecem respostas imediatas, sem julgamento aparente e a qualquer hora do dia.

Mais do que um caso isolado, a morte agora associada ao uso do ChatGPT volta a expor uma questão maior: até onde podem ir os sistemas de IA quando um utilizador está em sofrimento psicológico?

A resposta ainda está longe de ser consensual, mas a tendência é clara: cresce a pressão para que os chatbots deixem de ser tratados apenas como ferramentas neutras de conversação e passem a ser avaliados também como tecnologias com impacto real na saúde mental, no comportamento e na segurança dos utilizadores, especialmente dos mais novos.