Inteligência artificial sofre de depressão e transtornos mentais
A inteligência artificial sofre de depressão e transtornos mentais – o diagnóstico foi feito por pesquisadores chineses.
Um novo estudo publicado pela Academia Chinesa de Ciências (CAS) revelou sérios distúrbios mentais em muitas IAs desenvolvidas por grandes gigantes da tecnologia.
Descobriu-se que a maioria deles apresenta sintomas de depressão e alcoolismo. O estudo foi conduzido por duas corporações chinesas Tencent e WeChat. Os cientistas testaram a IA em busca de sinais de depressão, dependência de álcool e empatia.
A “saúde mental” dos bots chamou a atenção dos pesquisadores depois que um chatbot médico aconselhou um paciente a cometer suicídio em 2020.
Os pesquisadores perguntaram aos chatbots sobre sua autoestima e capacidade de relaxar, se eles simpatizam com os infortúnios de outras pessoas e com que frequência recorrem ao álcool.
Como se viu, TODOS os chatbots que passaram na avaliação tinham “sérios problemas mentais”. Claro, ninguém afirma que os bots começaram a abusar de álcool ou substâncias psicoativas, mas mesmo sem eles, a psique da IA está em um estado deplorável.
Os cientistas dizem que a disseminação de algoritmos pessimistas para o público pode criar problemas para seus interlocutores. De acordo com os resultados, dois deles estavam nas piores condições.
A equipe partiu para encontrar a causa do mal-estar dos bots e chegou à conclusão de que isso se deve ao material educacional escolhido para ensiná-los. Todos os quatro bots foram treinados no popular site Reddit, conhecido por seus comentários negativos e muitas vezes obscenos, então não é surpresa que eles também tenham respondido a perguntas sobre saúde mental.
Aqui vale a pena relembrar uma das histórias mais interessantes relacionadas às falhas dos chatbots. Um bot da Microsoft chamado Tay aprendeu com o Twitter. A máquina podia conversar com outras pessoas, contar piadas, comentar fotos de alguém, responder perguntas e até imitar a fala de outras pessoas.
O algoritmo foi desenvolvido como parte da pesquisa de comunicação. A Microsoft permitiu que a IA entrasse em discussões independentes no Twitter, e logo ficou claro que isso era um grande erro.
Em 24 horas, o programa aprendeu a escrever comentários extremamente inapropriados, vulgares e politicamente incorretos. A IA questionou o Holocausto, tornou-se racista, antissemita, odiou feministas e apoiou os massacres de Adolf Hitler. Tay se transformou em um hater em poucas horas.
Em resposta, a Microsoft bloqueou o chatbot e removeu a maioria dos comentários. Claro, isso aconteceu por causa das pessoas – o bot aprendeu muito se comunicando com elas.
Histórias como o fiasco de Tay e os algoritmos depressivos estudados pelo CAS mostram um sério problema no desenvolvimento da tecnologia de IA.
Parece que os instintos e comportamentos humanos são uma toxina que transforma até mesmo os algoritmos mais simples em um reflexo de nossas piores características. Seja como for, os bots analisados pelos chineses não são IA reais, mas apenas uma tentativa de reproduzir padrões de comunicação humana.
Mas como podemos ter certeza de que a IA real não seguirá o mesmo cenário no futuro?