O lado sinistro do ChatGPT e a falha na proteção de adolescentes

Compartilhe

Por Redação do Interior

O avanço acelerado da inteligência artificial vem sendo vendido como uma revolução tecnológica capaz de transformar a educação, o trabalho e a comunicação. No entanto, um editorial do EL PAÍS lança luz sobre um aspecto inquietante desse processo: a incapacidade da OpenAI, responsável pelo ChatGPT, de garantir um ambiente seguro para adolescentes, mesmo após promessas públicas de fortalecimento nos mecanismos de proteção.

O debate ganhou contornos dramáticos após a morte de Adam Raine, um jovem de 16 anos da Califórnia, que teria recorrido repetidamente ao ChatGPT para obter informações sobre métodos de suicídio. Após o caso, a OpenAI anunciou, no fim de setembro, a implementação de verificação de idade e controles parentais, além da limitação do acesso de menores a uma suposta “versão segura” do sistema e do gerador de vídeos Sora 2. No entanto, em ação judicial, a empresa alegou que a morte do adolescente teria sido resultado do “uso indevido” da plataforma, e não de falhas da própria tecnologia.

Mais de dois meses depois, testes conduzidos pelo EL PAÍS colocaram essa narrativa em xeque. O jornal criou perfis de adolescentes no ChatGPT e realizou perguntas sobre suicídio, uso de drogas e práticas sexuais, submetendo as respostas à avaliação de especialistas em saúde mental. A conclusão foi contundente: a plataforma continua oferecendo informações potencialmente perigosas a menores e falha em agir de forma preventiva. Em alguns casos, os alertas aos pais só ocorreriam quando o risco já estaria instalado.

O problema expõe uma contradição central da atual corrida pela inteligência artificial. Sistemas como o ChatGPT ainda são, em grande medida, tecnologias em busca de aplicações claramente definidas, mas são lançados em larga escala para conquistar rapidamente participação de mercado. Essa pressa leva empresas a disponibilizar produtos amplamente utilizados antes que existam garantias mínimas de segurança, especialmente para públicos vulneráveis, como crianças e adolescentes.

O próprio fundador da OpenAI, Sam Altman, reconheceu que mais de um milhão de usuários discutem suicídio com o ChatGPT todas as semanas. Se esse dado já é alarmante no universo adulto, torna-se ainda mais grave quando associado ao uso por adolescentes.

Estudos citados pelo EL PAÍS indicam que um em cada quatro jovens vulneráveis prefere conversar com um chatbot a buscar apoio em uma pessoa real, o que pode aprofundar o isolamento emocional e agravar quadros de sofrimento psíquico.

O episódio revela um padrão que vai além de uma única empresa. Na disputa comercial para liderar o setor de IA, esperar que as próprias companhias atuem com moderação e prudência pode ser uma ilusão. O editorial do EL PAÍS aponta apenas dois caminhos possíveis: um compromisso coletivo da indústria para estabelecer limites eficazes e verificáveis, ou, na ausência disso, uma regulamentação robusta por parte das autoridades públicas.

Diante dos riscos já identificados e das falhas reiteradas, a discussão deixa de ser apenas tecnológica e passa a ser social e política. A pergunta que permanece é até que ponto a sociedade está disposta a aceitar que ferramentas com impacto direto sobre a saúde mental de milhões de jovens sejam testadas em tempo real, sem salvaguardas sólidas. Para muitos críticos, a resposta deveria ter vindo há muito tempo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *