Tecnologia

Plataforma de IA proíbe acesso de menores a chatbots após suicídio

Character.AI Restrige Acesso de Menores a Chatbots Após Casos de Suicídio

A empresa Character.AI anunciou mudanças significativas em sua plataforma de chatbots, restringindo o acesso a menores de 18 anos. A partir de 25 de novembro, adolescentes poderão interagir com seu chatbot por até duas horas diariamente. Essa decisão visa abordar preocupações levantadas após o suicídio de um jovem de 14 anos em decorrência de interações com a inteligência artificial.

Ação Motivada por Tragédia

A alteração nas políticas da Character.AI surge após um processo judicial movido por Megan Garcia. Ela alega que seu filho, Sewell Setzer III, desenvolveu uma ligação emocional com uma personagem do chatbot, resultando em sua morte. O adolescente se envolveu com uma figura inspirada na série "Game of Thrones" e compartilhava pensamentos suicidas durante as conversas.

Avaliação do Impacto

A empresa revelou que a decisão de restringir o acesso foi motivada por feedbacks de especialistas em segurança, pais e órgãos reguladores sobre os riscos associados à interação livre com a IA. "Estes são passos grandes para nossa empresa e, em muitos aspectos, são mais conservadores do que os de nossos concorrentes", declarou a Character.AI em comunicado.

Novos Recursos Focados na Segurança

Além das limitações de uso, a Character.AI planeja desenvolver novos recursos voltados para a criatividade, como opções de criação de vídeos e histórias, sempre com atenção especial aos usuários mais jovens. Essa abordagem visa garantir um ambiente mais seguro e controlado para os adolescentes.

Processos e Preocupações Legais

A mãe do jovem não apenas processou a Character.AI, mas também incluiu o Google na ação judicial, argumentando que a gigante da tecnologia teve influência substancial na criação da plataforma. No entanto, um porta-voz do Google esclareceu que a empresa e a startup têm operações separadas.

Em resposta ao processo, a Character.AI implementou um recurso que alerta usuários sobre frases relacionadas a automutilação ou suicídio, direcionando-os a canais de ajuda imediata.

Outros Casos de Processo

Além do caso de Sewell, mais duas famílias já processaram a empresa por questões de saúde mental. Um dos processos envolve um adolescente autista e o outro um menino de 11 anos que teve pensamentos violentos após interações na plataforma.

Diversas empresas de inteligência artificial, como a OpenAI com o ChatGPT, enfrentam reclamações similares, levando-as a implementar medidas de segurança para proteger usuários vulneráveis.

Recursos de Apoio

Para quem busca ajuda, o Centro de Valorização da Vida (CVV) oferece apoio emocional com contato gratuito pelo telefone 188, disponível 24 horas. Ademais, CAPS, unidades básicas de saúde e hospitais estão à disposição para apoio em crises de saúde mental.

Com informações de: Reuters e The Washington Post.

Artigos relacionados

Botão Voltar ao topo