loader

AI para Reconhecer Emoções Humanas: Será que rola?

Um relatório anual lançado em Dezembro de 2019 pelo instituto de inteligência artificial da Universidade de Nova York (AI Now) criticou o desenvolvimento de tecnologias para reconhecer emoções através de AI.

Na China, por exemplo, essas tecnologias já são utilizadas para vigilância extrema e segurança pública, implementando um sistema de inteligência artificial para reconhecer expressões faciais no transporte público para detectar “suspeitos”.

Além disso, esse tipo de recurso também já está presente em diversos ambientes, como por exemplo em empresas de RH (que utilizam esse mecanismo para recrutamento de empregados), em centros médicos para avaliação da dor do paciente, e até mesmo no monitoramento da atenção de alunos nas salas de aula.

Apesar do aumento da popularização deste uso de AI, ele ainda é extremamente controverso, pois o reconhecimento do que eles chamam de “emoções” por expressão facial ainda não têm comprovação científica.

A Head de Neurociência da behup, Attalya Félix, explica que, na verdade, essas tecnologias são capazes de reconhecer comportamentos, e não emoções em si:

“É compreensível que termos como comportamento e emoção sejam confundidos, pois fenômenos como comportamento e emoção ocorrem ao mesmo tempo na maioria das vezes. De maneira bem geral, uma emoção é a soma de mudanças fisiológicas, sentimentos, comportamentos, expressões faciais e vocais que, por sua vez, são todos gerados por muitos outros processos cognitivos, como a interpretação das situações que vivenciamos. O comportamento é apenas uma parte dessa complicadíssima equação.”


Sabendo disso, avaliar uma emoção como propriamente dita, se torna ainda mais complexo.


Confiar em uma tecnologia deste tipo para tomar grandes decisões que afetam diretamente a vida das pessoas (como em entrevistas de emprego ou avaliação de dor na hora de passar ao médico) é realmente extremamente problemático, pois a AI em questão foi treinada para medir o comportamento (que pode ser variável de pessoa para pessoa), e não a emoção.


O Head de AI da behup e um dos criadores da ferramenta de social listening e monitoramento v-tracker, Ivan Viragine, afirma que não é possível confiar 100% na avaliação de emoções por inteligências artificiais e nem por avaliações humanas, devido às variáveis que podem existir de pessoa a pessoa:

“A Inteligência Artificial tem uma forte tendência à replicar o que os dados “dizem”, portanto, dependendo dos dados utilizados em sua modelagem, ela pode facilmente reforçar estereótipos, em larga escala. No caso de uma entrevista de emprego, por exemplo, há diversos fatores que indicam as emoções do candidato: expressão facial, expressão corporal, entonação da voz, velocidade e intensidade da fala e outros. Há diversas condições que modificam a intensidade desses fatores, como por exemplo, uma noite mal dormida, um atraso para a entrevista…, e, mesmo assim, esses fatores diferem de indivíduo a indivíduo, sendo uns mais expressivos que os outros, uns mais agitados que os outros e etc. A Inteligência Artificial não tem acesso a todos esses dados, portanto, sua conclusão nem sempre será confiável.”


Attalya Félix tem uma sugestão de como a situação pode ser remediada, para diminuir os estereótipos reforçados pela AI:

“Esses softwares provavelmente possuem um sistema de visão computacional muito bom que capta alguns padrões da face ou do corpo para calcular a probabilidade de aquela pessoa estar demonstrando um comportamento ou outro, que por sua vez carregam outra probabilidade de estar atrelado a uma emoção ou outra. Esse é um chute que pode ser extremamente mal educado, o que só pode ser remediado se um estudo rígido do comportamento e das emoções – da população específica que se tem como alvo – for executado em paralelo.” afirma a neurocientista.


Mas será que devemos continuar insistindo em utilizar a tecnologia para medir emoções e comportamentos? Ivan Viragine acredita que não devemos barrar efetivamente o uso de tais tecnologias, porém, elas devem ser aperfeiçoadas com o auxílio de profissionais de diversas áreas, como psicólogos, neurocientistas, antropólogos e serem aplicadas como uma camada de automatização, auxiliar, nunca como a última decisão, ou seja, com mais responsabilidade.


Já, Attalya não aceitaria por exemplo um programa de recrutamento com base em inteligência artificial, e afirma que certamente prejudicaria mais do que beneficiaria a empresa, porém concorda com o desenvolvedor quando se trata de pensar em maneiras que aperfeiçoar estes mecanismos:

“É importante que retomemos uma cultura interdisciplinar para que a tecnologia a ser desenvolvida seja supervisionada não só pelos extraordinários engenheiros e arquitetos de softwares que contribuíram tanto para o desenvolvimento da tecnologia até aqui, mas também pela crítica e zelo daqueles que têm as ciências humanas na formação e enxergam onde a máquina não pode ver.”


Nós da behup acreditamos que a inteligência humana e a inteligência artificial devem caminhar juntas em prol da sociedade e de um futuro onde todos podem se beneficiar das tecnologias.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *