Ciências

Inteligência artificial sofre de depressão e transtornos mentais

Um andróide branco sentado à mesa de forma deprimida com uma bebida alcoólica. Renderização 3D de alta resolução.

A inteligência artificial sofre de depressão e transtornos mentais – o diagnóstico foi feito por pesquisadores chineses.

Um novo estudo publicado pela Academia Chinesa de Ciências (CAS) revelou sérios distúrbios mentais em muitas IAs desenvolvidas por grandes gigantes da tecnologia.

Descobriu-se que a maioria deles apresenta sintomas de depressão e alcoolismo. O estudo foi conduzido por duas corporações chinesas Tencent e WeChat. Os cientistas testaram a IA em busca de sinais de depressão, dependência de álcool e empatia.

A “saúde mental” dos bots chamou a atenção dos pesquisadores depois que um chatbot médico aconselhou um paciente a cometer suicídio em 2020.

Os pesquisadores perguntaram aos chatbots sobre sua autoestima e capacidade de relaxar, se eles simpatizam com os infortúnios de outras pessoas e com que frequência recorrem ao álcool.

Como se viu, TODOS os chatbots que passaram na avaliação tinham “sérios problemas mentais”. Claro, ninguém afirma que os bots começaram a abusar de álcool ou substâncias psicoativas, mas mesmo sem eles, a psique da IA ​​está em um estado deplorável.

Os cientistas dizem que a disseminação de algoritmos pessimistas para o público pode criar problemas para seus interlocutores. De acordo com os resultados, dois deles estavam nas piores condições.

A equipe partiu para encontrar a causa do mal-estar dos bots e chegou à conclusão de que isso se deve ao material educacional escolhido para ensiná-los. Todos os quatro bots foram treinados no popular site Reddit, conhecido por seus comentários negativos e muitas vezes obscenos, então não é surpresa que eles também tenham respondido a perguntas sobre saúde mental.

Aqui vale a pena relembrar uma das histórias mais interessantes relacionadas às falhas dos chatbots. Um bot da Microsoft chamado Tay aprendeu com o Twitter. A máquina podia conversar com outras pessoas, contar piadas, comentar fotos de alguém, responder perguntas e até imitar a fala de outras pessoas.

O algoritmo foi desenvolvido como parte da pesquisa de comunicação. A Microsoft permitiu que a IA entrasse em discussões independentes no Twitter, e logo ficou claro que isso era um grande erro.

Em 24 horas, o programa aprendeu a escrever comentários extremamente inapropriados, vulgares e politicamente incorretos. A IA questionou o Holocausto, tornou-se racista, antissemita, odiou feministas e apoiou os massacres de Adolf Hitler. Tay se transformou em um hater em poucas horas.

Em resposta, a Microsoft bloqueou o chatbot e removeu a maioria dos comentários. Claro, isso aconteceu por causa das pessoas – o bot aprendeu muito se comunicando com elas.

Histórias como o fiasco de Tay e os algoritmos depressivos estudados pelo CAS mostram um sério problema no desenvolvimento da tecnologia de IA.

Parece que os instintos e comportamentos humanos são uma toxina que transforma até mesmo os algoritmos mais simples em um reflexo de nossas piores características. Seja como for, os bots analisados ​​pelos chineses não são IA reais, mas apenas uma tentativa de reproduzir padrões de comunicação humana.

Mas como podemos ter certeza de que a IA real não seguirá o mesmo cenário no futuro?

Ufólogo, Pesquisador de Campo, Conselheiro e Co-editor do CIFE - Canal Informativo de Fontes/Fenômenos Extraterrestres e Espaciais - Scientific Channel of UFOs Phenomena & Space Research. | Ufologist, Field Investigator, CIFE Co-editor - Scientific Channel of UFOs Phenomena & Space Research.