Há cenários apocalípticos para a Inteligência Artificial (IA) que a imaginam ganhando vontade própria, manipulando as pessoas e conquistando o mundo. Ainda não há evidência alguma de que isso possa vir a acontecer, mas, apesar disso, os chatbots como os conhecemos podem, sim, trazer riscos para nós. E esse prejuízo pode se dar na saúde mental.
A IA é um modelo estatístico e matemático, uma ferramenta desprovida de subjetividade ou vontade. Ela pode ser útil para otimizar tarefas e até desenvolver softwares e inovações em tratamentos de saúde, inclusive a mental. Todos esses benefícios podem ser alcançados quando tratada e usada como o que ela é, um instrumento de apoio.
O problema pode começar quando indivíduos desenvolvem afetividade com os robôs, ou alguma espécie de vínculo emocional, levando tudo o que a IA diz ou escreve como uma verdade incontestável.
“Um perigo da IA é que ela soa autoritária, confiante. E pode ser difícil para as pessoas discernirem qual informação é verdadeira e qual não é. Isso pode afetar a saúde mental das pessoas”, diz Catherine K. Ettman, professora assistente na Faculdade de Saúde Pública Bloomberg da Johns Hopkins e autora do artigo “A potencial influência da IA na saúde mental populacional”.
Segundo ela, isso pode acontecer no contexto em que os chatbots são usados como conselheiros psicológicos, médicos ou terapeutas, mas também em um contexto mais amplo, que pode mudar a forma como as pessoas se relacionam com coisas que as deixam felizes e saudáveis.
Quando as pessoas começam a se relacionar com a IA como uma régua para o mundo real, criando expectativas de que as interações humanas e mundanas possam atingir o mesmo grau de satisfação que alcançam em suas realidades virtuais, podem sair frustradas.
Cuide-se
Ciência, hábitos e prevenção numa newsletter para a sua saúde e bem-estar
“Se você fica buscando o ideal, você se decepciona o tempo todo e acaba se fechando e vivendo uma realidade alternativa. Você não consegue interagir socialmente se você ficar preso no ideal”, fala a psiquiatra Juliana Belo Diniz, pesquisadora no Serviço de Psicoterapia do Instituto de Psiquiatria do Hospital das Clínicas da Universidade de São Paulo (IPq-HC-USP).
O risco vem principalmente para pessoas que já têm a tendência a se isolarem socialmente. Seja por alguma vulnerabilidade social, física ou até mesmo psíquica, como algum transtorno psiquiátrico. São pessoas que têm dificuldade de desenvolver relacionamentos reais e podem ter uma falsa segurança diante da IA.
A psicóloga Anna Paula Zanoni Steinke, mestre em psicologia da educação e desenvolvimento humano pela USP, explica que o risco ocorre quando as pessoas se retiram das relações da vida real e intensificam as artificiais. “São comportamentos de isolamento social que, consequentemente, o sentimento de solidão aparece aí.”
Como os algoritmos tendem a entregar aquilo que as pessoas gostariam de ver, ouvir ou interagir, a psicóloga aponta os riscos de se fechar em bolhas e se tornar mais intolerante para a diversidade.
A insatisfação com a própria vida e a valorização do outro não é algo novo, afinal, já diziam que a grama do vizinho é sempre mais verde. Mas a questão com a imersão nas bolhas virtuais é que tudo passa a ser intolerável. “A pessoa não tolera o mundo. E é muito difícil a gente viver sem relação social”, afirma Diniz.
Nessa onda, alguns grupos são mais vulneráveis do que outros. Os jovens e adolescentes estão entre os mais expostos a esses riscos envolvendo a IA por alguns fatores.
“Eles estão num processo de autoconhecimento, de construção de identidade. É o início da formação de um pensamento mais crítico, social, é um momento de vulnerabilidade do ponto de vista psicológico”, explica Steinke.
Além dos jovens, Ettman diz que isso é válido para pessoas já mais isoladas, vulneráveis socialmente, com menos privilégios. E também aquelas que, por esses e outros fatores, têm uma saúde mental já afetada e que não conseguem distinguir entre informação e desinformação.
O contato humano, real e concreto, de forma saudável, é fundamental para o desenvolvimento de habilidades sociais e para a preservação da subjetividade humana. Isso proporciona que habilidades emocionais também sejam criadas e protege a saúde mental.
Steinke cita o livro “Geração Ansiosa”, de Jonathan Haidt (Companhia das Letras), que fez sucesso sobre o uso excessivo de telas. “Basicamente, o quanto a experiência exacerbada no mundo virtual, ela pode inibir as experiências necessárias para o desenvolvimento socioemocional no mundo real”, diz. É possível trazer a reflexão para o campo da Inteligência Artificial.
O fenômeno da IA é atual e, por isso, muita coisa ainda pode mudar, mais pesquisas ainda precisam ser feitas. “Mas é possível que o mundo virtual fique tão rico que seja cada vez mais difícil perder na competição”, comenta Diniz.
noticia por : UOL