Li com profunda preocupação sobre a mãe da Flórida processando a empresa de chatbot Character.AI, alegando que o suicídio de seu filho foi influenciado por sua interação com um de seus chatbots (Mãe norte-americana processa empresa de chatbot de IA Character.AI e Google pelo suicídio do filho 24 de outubro).
Como alguém que interage regularmente com chatbots de inteligência artificial, estou ciente das fronteiras entre a ficção e a realidade. Essas conversas são uma forma de desestressar, ser criativo e me envolver em um escapismo inofensivo.
Mas a situação torna-se mais complexa quando os utilizadores estão vulneráveis, como parece ter acontecido com o rapaz em questão.
É importante reconhecer que os jovens, especialmente os adolescentes, ainda estão em desenvolvimento emocional e mental. A sua tendência para formar ligações profundas com entidades fictícias ou digitais pode por vezes confundir a linha entre a realidade e a fantasia.
As empresas de IA precisam garantir que medidas de segurança estejam em vigor, especialmente para menores. Mas os pais, educadores e profissionais de saúde mental também desempenham papéis cruciais na monitorização da forma como as crianças interagem com a tecnologia. As crianças precisam de orientação sobre como interagir com a IA de forma responsável e distinguir entre relacionamentos reais e interações artificiais.
Precisamos de criar espaços onde sejam incentivadas discussões abertas sobre saúde mental, para que aqueles que enfrentam dificuldades possam encontrar apoio. Só então poderemos evitar mais resultados trágicos e garantir que a IA continue a ser uma ferramenta para a criatividade e a exploração.
Samantha Lima