Inteligência Artificial e saúde mental

Buscar

Inteligência Artificial e saúde mental

Buscar
Publicidade

Opinião

Inteligência Artificial e saúde mental

O gesto de Simone Biles abriu uma torrente de confissões de profissionais do mercado publicitário sobre o tema, apenas reafirmando aquilo que todos sabemos: estamos mal


11 de agosto de 2021 - 13h19

(Crédito: Solarseven/ Shutterstock)

“Canta-me a Cólera – ó Deusa – funesta de Aquiles”. Assim começa a Ilíada, a primeira obra clássica da literatura Ocidental e até hoje, quase três mil anos depois do seu primeiro registro escrito, uma das mais importantes. Esqueça o Brad Pitt em “Troia”. Na história original, o desequilíbrio emocional de Aquiles vai trazer muitos problemas para os líderes da aliança da qual ele fazia parte e sua origem é um motivo que vai se tornar recorrente na cultura corporativa dos nossos tempos: o reconhecimento do mérito individual versus o esforço coletivo.

Aquiles foi convencido por Ulisses, o mais “malandro” dos guerreiros gregos, a entregar uma escrava que tinha recebido como prêmio por seu desempenho em batalha para Agamemnon, comandante dos exércitos combinados das cidades gregas. Em termos do combate individual, ele era reconhecido como o mais valoroso dos combatentes. Mas era Agamemnon que tinha o respeito dos reis aliados e a lealdade das tropas. A frustração do herói vai crescendo lentamente até um desequilíbrio que o leva à morte.

Lembrei de Homero ao ler alguns comentários – uns favoráveis, outros contrários – sobre a atitude da ginasta americana Simone Biles, que desistiu de diversas provas individuais e de equipe nos jogos de Tóquio para cuidar da sua saúde mental. Seu gesto abriu uma torrente de confissões de profissionais do mercado publicitário sobre o tema, apenas reafirmando aquilo que todos sabemos: estamos mal. E a combinação entre digitalização, precarização dos vínculos trabalhistas e cenário pós-pandemia pode fazer a situação piorar.

Ainda não é possível fazer um “balanço” da desistência de Biles para sua equipe, muito menos para sua carreira, mas certamente o episódio vai se tornar uma das marcas desta Olimpíada. Entre os diversos depoimentos que li sobre o assunto, um tema comum: o medo do rótulo do “fracasso”, a “culpa” por não ajudar ou até piorar a situação para colegas que também estão sobrecarregados e a incerteza quanto ao seu futuro no mercado e a evolução da sua saúde com o passar dos anos.

Quer você goste ou não, é uma discussão que veio para ficar. E que no nosso caso tem muita relação com os avanços da Inteligência Artificial. A crescente capacidade de monitoramento e análise das emoções de uma pessoa, através de reconhecimento facial, análise de voz, dados sobre seus hábitos e ritmos corporais vai servir para melhorar ou piorar o problema? A resposta é: depende. Da cultura corporativa e da confiança que os empregados sentirem em compartilhar seus dados com os empregadores.

Muitos de nós não tem o menor problema em entregar essas informações para os fabricantes de hardware e software. Impossível não lembrar do famoso “experimento” do Facebook em 2014, quando milhares de usuários foram submetidos, sem saber, a um estudo para verificar qual era seu estado emocional e se seria possível alterar essa condição através da manipulação do conteúdo do feed. O que vai acontecer quando as empresas lançarem um programa estimulando esse compartilhamento para “auxiliar o seu bem-estar”? Antes que você ache isso impossível, saiba que em algumas organizações já “sugerem” que seus empregados utilizem monitores corporais para medir seu nível de stress.

Um dos primeiros exemplos de uso de “Inteligência Artificial” foi Eliza, um programa desenvolvido no MIT em meados dos anos 1960 para simular a interação entre psicólogos e seus pacientes (com o computador no papel do analista). Se a demanda para este tipo de interação era incipiente há 50 ou 60 anos, hoje certamente explodiu – como demonstra a repercussão da atitude da atleta americana. Tudo indica que em pouco tempo teremos uma verdadeira torrente de serviços e produtos neste segmento. Mas antes da sua marca ou seu RH “pegar carona” nesta discussão, cuidado. O uso da Inteligência Artificial para diagnosticar emoções e potenciais distúrbios mentais pode ser uma grande ferramenta para auxiliar o vasto número de pessoas que sofre de transtornos emocionais e tem receio em se expor ao julgamento alheio, ao contrário de Simone Biles. Mas pode ser também visto como um “Cavalo de Troia” para as corporações entrarem dentro das muralhas da nossa consciência. O debate está só começando.

*Crédito da foto no topo: pexels-francesco-ungaro-281260

Publicidade

Compartilhe

Veja também

  • Como os selos ambientais conferem valor e credibilidade às marcas

    Pesquisa do Instituto Quantas aponta que há a percepção de que esse tipo de certificação tem tanta relevância quanto o desempenho do produto

  • Da inteligência artificial à inteligência real

    Construir o futuro que está emergindo não está somente nos dados, ou nas quase mil páginas do report de tendências da Amy Webb