Emoções são a essência do que nos torna humanos. Têm impacto nas nossas rotinas diárias, nas nossas interacções sociais, na nossa atenção, percepção e memória.
Um dos indicadores mais fortes para as emoções é a nossa face. À medida que rimos ou choramos estamos a colocar as nossas emoções em exposição, permitindo que outros vislumbrem as nossas mentes enquanto “lêem” o nosso rosto com base em alterações em características chave do rosto tais como olhos, sobrancelhas, tampas, narinas, e lábios.
O reconhecimento da expressão facial com base no computador imita as nossas capacidades de codificação humana de forma bastante impressionante, uma vez que capta respostas emocionais cruas e não filtradas em relação a qualquer tipo de conteúdo emocionalmente envolvente. Mas como funciona exactamente?
Temos as respostas. Este guia definitivo para a análise da expressão facial é tudo o que precisa para obter o dom do reconhecimento das emoções e da investigação sobre a qualidade do comportamento emocional. Agora é o momento certo para começar.
N.B. Este post é um excerto do nosso Guia de Bolso para Análise da Expressão Facial. Pode descarregar a sua cópia gratuita abaixo e obter ainda mais informações sobre o mundo da Análise da Expressão Facial.
Conteúdo:
- O que são expressões faciais?
- Expressões faciais e emoções
- Técnicas de FEA
- Tecnologia
- Equipamento
- Campos de aplicação
O que são expressões faciais?
O nosso rosto é uma parte intrincada e altamente diferenciada do nosso corpo – de facto, é um dos sistemas de sinais mais complexos à nossa disposição. Inclui mais de 40 músculos estrutural e funcionalmente autónomos, cada um dos quais pode ser desencadeado independentemente um do outro.
O sistema muscular facial é o único local do nosso corpo onde os músculos estão ligados a um osso e tecido facial (outros músculos do corpo humano ligam-se a dois ossos), ou apenas ao tecido facial, como o músculo que envolve os olhos ou lábios.
Obviamente, a actividade muscular facial é altamente especializada para a expressão – permite-nos partilhar informação social com outros e comunicar tanto verbalmente como não verbalmente.
O nervo facial controla a maioria dos músculos faciais
Todos os músculos do nosso corpo são estimulados por nervos, que vão até à medula espinal e ao cérebro. A ligação nervosa é bidireccional, o que significa que o nervo está a desencadear contracções musculares baseadas em sinais cerebrais (cérebro-músculo), ao mesmo tempo que comunica informação sobre o estado muscular actual de volta ao cérebro (músculo-cérebro).
A maior parte de todos os músculos faciais são estimulados por um único nervo, por isso simplesmente referido como nervo facial.
Em termos ligeiramente mais médicos, o nervo facial é também conhecido sob “VII. nervo craniano”.
O nervo facial emerge do interior profundo do tronco cerebral, deixa o crânio ligeiramente abaixo da orelha, e ramifica-se para todos os músculos como uma árvore. Curiosamente, o nervo facial está também ligado a regiões motoras muito mais jovens no nosso neo-cortex (neo como estas áreas estão presentes apenas no cérebro dos mamíferos), que são os principais responsáveis pelos movimentos musculares faciais necessários para falar.
Top of Page
Expressões faciais e emoções
A hipótese de feedback facial: Como engenhosamente descoberto por Fritz Strack e colegas em 1988, as expressões faciais e as emoções estão intimamente interligadas. No seu estudo, os inquiridos foram convidados a segurar uma caneta na boca enquanto classificavam os desenhos animados pelo seu conteúdo de humor. Enquanto um grupo segurava a caneta entre os dentes com os lábios abertos (imitando um sorriso), o outro grupo segurava a caneta apenas com os lábios (impedindo um sorriso adequado).
Aqui está o que Fritz Strack descobriu: O primeiro grupo classificou o desenho animado como mais bem-humorado. Strack e a equipa tomaram isto como evidência para a hipótese de feedback facial postulando que a activação selectiva ou inibição dos músculos faciais tem um forte impacto na resposta emocional aos estímulos.
Emoções, sentimentos, humores
O que são exactamente as emoções?
Na linguagem corrente, as emoções são quaisquer experiências conscientes relativamente breves caracterizadas por intensa actividade mental e um elevado grau de prazer ou desagrado. Na investigação científica, ainda não foi encontrada uma definição consistente. Há certamente sobreposições conceptuais entre os fundamentos psicológicos e neurocientíficos das emoções, humores e sentimentos.
As emoções estão intimamente ligadas à excitação fisiológica e psicológica com vários níveis de excitação relacionados com emoções específicas. Em termos neurobiológicos, as emoções poderiam ser definidas como programas de acção complexos desencadeados pela presença de certos estímulos externos ou internos.
Estes programas de acção contêm os seguintes elementos:
1. Sintomas corporais tais como aumento do ritmo cardíaco ou da condutância cutânea. Na sua maioria, estes sintomas são inconscientes e involuntários.
2. Tendências de acção, por exemplo, acções de “luta-ou-voo” para escapar imediatamente a uma situação perigosa ou para preparar um ataque físico do adversário.
3. Expressões faciais, por exemplo, barrar os dentes e franzir o sobrolho.
4. Avaliações cognitivas de eventos, estímulos ou objectos.
Pode classificar as emoções?
Expressões faciais são apenas uma entre muitas correlatas de emoções, mas podem ser as mais aparentes. Os seres humanos são obviamente capazes de produzir milhares de conjuntos ligeiramente variáveis de expressões faciais – no entanto, existe apenas um pequeno conjunto de configurações faciais distintas que quase todos associam a certas emoções, independentemente do sexo, idade, antecedentes culturais e história de socialização.
Estas emoções categóricas são:
A descoberta de que quase todos podem produzir e reconhecer as expressões faciais associadas a estas emoções levou alguns investigadores ao (debatido!) assumindo que elas são universais.
Cheque o nosso webinar on: O que são emoções e como as medimos
Top of Page
Técnicas de análise de expressões faciais
Expressões faciais podem ser recolhidas e analisadas de três maneiras diferentes:
1. Pelo rastreio da actividade electromiográfica facial (fEMG)
2. Pela observação ao vivo e codificação manual da actividade facial
3. Pela análise automática da expressão facial usando a visão de computador
algoritmos
Deixamos explicá-las com mais detalhe.
Facial electromyography (fEMG)
Com o EMG facial é possível acompanhar a actividade dos músculos faciais com eléctrodos ligados à superfície da pele. fEMG detecta e amplifica os pequenos impulsos eléctricos gerados pelas respectivas fibras musculares durante a contracção. Os locais mais comuns de fEMG estão na proximidade dos dois grupos musculares principais seguintes:
1. Corredor direito/esquerdo supercilii (“wrinkler de sobrancelhas”):
Este é um músculo pequeno, estreito, piramidal perto da sobrancelha dos olhos, geralmente associado a franzir o sobrolho. A onduladora desenha a sobrancelha para baixo e em direcção ao centro da face, produzindo um enrugamento vertical da testa. Este grupo muscular é activo para prevenir o alto brilho solar ou quando exprime emoções negativas como o sofrimento.
2. zygomaticus (major):
Este músculo estende-se de cada osso da face até aos cantos da boca e desenha o ângulo da boca para cima e para fora, tipicamente associado ao sorriso.
O Sistema de Codificação da Acção Facial (FACS)
O Sistema de Codificação da Acção Facial (FACS) representa um sistema de classificação totalmente padronizado de expressões faciais para codificadores humanos peritos com base em características anatómicas. Os especialistas examinam cuidadosamente vídeos faciais e descrevem qualquer ocorrência de expressões faciais como combinações de componentes elementares denominadas Unidades de Acção (UA).
Uma descrença comum é que o FACS está relacionado com a leitura de emoções. Na realidade, FACS é apenas um sistema de medição e não interpreta o significado das expressões. É como dizer que o objectivo de andar de bicicleta é ir para o trabalho. Claro que se pode andar de bicicleta para o trabalho, mas também se pode usar a bicicleta para muitas outras coisas (para lazer, treino desportivo, etc.). A ideia é a seguinte.
No entanto, durante a fase analítica, o sistema FACS permite uma construção modular de emoções com base na combinação de UAs.
Com a codificação da unidade de acção facial pode obter todo o conhecimento para dissociar entre as três categorias de expressão facial seguintes:
- As macroexpressões duram tipicamente entre 0.5 – 4 segundos, ocorrem em interacções diárias, e geralmente são óbvias a olho nu.
- As microexpressões duram menos de meio segundo, ocorrem quando tentam conscientemente ou inconscientemente ocultar ou reprimir o estado emocional actual.
- As expressões subtis estão associadas à intensidade e profundidade da emoção subjacente. Não estamos perpetuamente a sorrir ou a levantar sobrancelhas – a intensidade destas acções faciais varia constantemente. As expressões subtis denotam qualquer início de uma expressão facial onde a intensidade da emoção associada ainda é considerada baixa.
Fora destas limitações, surgiu uma nova geração de tecnologias de expressão facial totalmente automatizada e baseada em computador.
Top of Page
Análise de expressão facial Tecnologia
Criado com base na investigação inovadora de instituições académicas centrais nos Estados Unidos e Europa, foram desenvolvidos e disponibilizados ao público em geral procedimentos de reconhecimento automático de expressões faciais, detectando instantaneamente rostos, codificando expressões faciais, e reconhecendo estados emocionais.
Esta descoberta foi principalmente possibilitada pela adopção de algoritmos de visão computacional e de aprendizagem de máquinas de última geração, juntamente com a recolha de bases de dados de expressões faciais de alta qualidade em todo o mundo.
Estas tecnologias utilizam câmaras incorporadas em computadores portáteis, tablets, e telemóveis ou webcams autónomas montadas em ecrãs de computador para capturar vídeos dos inquiridos à medida que estes são expostos a conteúdos de várias categorias.
A utilização de webcams baratas elimina a necessidade de dispositivos especializados de alta classe, tornando a codificação automática de expressão ideal para captar vídeos faciais numa grande variedade de cenários ambientais naturalistas, tais como casas dos inquiridos, local de trabalho, automóvel, transportes públicos, e muitos mais.
p>Conferir o nosso webinar sobre Pesquisa Remota com iMotions: Análise da Expressão Facial & Codificação Comportamental do Seu Sofá
Quais são exactamente os procedimentos científicos e tecnológicos sob o capô desta caixa negra mágica?
A tecnologia por detrás da codificação facial automática
Mais ou menos, todos os motores de reconhecimento de emoções compreendem os mesmos passos. FACET Emotivo, por exemplo, aplica o seguinte:
Detecção facial
A posição de um rosto é encontrada numa moldura ou imagem de vídeo, o que pode ser conseguido através da aplicação do algoritmo Viola Jones Cascaded Classifier, por exemplo. Isto pode parecer sofisticado, mas também pode encontrar esta tecnologia na câmara do seu iPhone ou smartphone Android. O resultado é uma caixa de rosto emoldurando o rosto detectado.
Detecção de características
No rosto detectado, são detectados pontos de referência faciais tais como olhos e cantos dos olhos, sobrancelhas, cantos da boca, a ponta do nariz, etc. Depois disto, um modelo facial interno é ajustado na posição, tamanho e escala, a fim de corresponder à face real do inquirido. Pode imaginar isto como uma malha virtual invisível que é colocada no rosto do inquirido: Sempre que o rosto do inquirido se move ou muda de expressão, o modelo de rosto adapta-se e segue-se instantaneamente. Como o nome indica, o modelo de rosto é uma versão simplificada do rosto real do inquirido. Tem muito menos detalhes, (as chamadas características) em comparação com a cara real, no entanto, contém exactamente essas características para fazer o trabalho. Características exemplares são pontos de referência únicos (cantos das sobrancelhas, cantos da boca, ponta do nariz), bem como grupos de características (a boca inteira, todo o arco das sobrancelhas, etc.), reflectindo toda a “Gestalt” de uma área facial emocionalmente indicativa.
Classificação de características
Após o modelo facial simplificado estar disponível, a informação de posição e orientação de todas as características-chave é alimentada como entrada em algoritmos de classificação que traduzem as características em códigos de Unidade de Acção, estados emocionais, e outras métricas afectivas.
Affectiva AFFDEX
- Orientação do cabeçote (yaw, pitch, roll)
- Distância interocular e 33 marcos faciais
- 7 emoções básicas; valência, compromisso, atenção
- 20 métricas de expressão facial
Aqui está uma pequena teoria (e análise) por detrás dela.
A tradução das características faciais em métrica é realizada estatisticamente, comparando a aparência real da face e a configuração das características numericamente com as bases de dados normativas fornecidas pelos motores de expressão facial.
O que é que isso significa? A actual expressão facial de um inquirido não é comparada uma a uma com todas as centenas de milhares de imagens na base de dados – isto seria bastante enfadonho e demoraria uma eternidade. Em vez disso, as bases de dados contêm estatísticas e distribuições normativas de todas as características dos inquiridos de múltiplas regiões geográficas e perfis demográficos, bem como categorias de estímulos e condições de registo. Cada motor de análise de expressões faciais utiliza uma base de dados diferente. Esta é uma das razões pelas quais se pode obter resultados ligeiramente variáveis quando se alimenta o mesmo material-fonte em motores diferentes.
A classificação é feita a um nível puramente estatístico. Aqui está um exemplo: Se os cantos da boca do respondente forem puxados para cima, um codificador humano codificaria isto como actividade do AU12 (“puxador de cantos labiais”) – declarando que o respondente está a sorrir. Em vez disso, o motor de expressão facial tem de calcular a diferença vertical entre os cantos da boca e o centro da boca, devolvendo um valor de 10 mm. Este valor é comparado com todos os valores possíveis na base de dados (valores entre 0 mm e 20 mm, por exemplo).
No nosso exemplo, a expressão do inquirido parece estar mesmo no meio da distribuição do “sorriso” (0 << 20 mm). Para o motor é definitivamente seguro dizer que a expressão actual é mais forte do que um leve sorriso, contudo não tão forte como um grande sorriso.
Num mundo ideal, o classificador retorna ou “Sim” ou “Não” para cada emoção, AU ou métrica. Infelizmente, não é assim tão fácil. Dê novamente uma olhada ao classificador “smile”:
Os pontos preenchidos (mais para a esquerda) são todos configurações de boca na base de dados que não são classificadas como sorrisos, enquanto os pontos brancos (mais para a direita) representam configurações de boca que são consideradas como sorrisos.
A linha laranja denota o critério de classificação.
Todos os pontos do lado esquerdo da linha são classificados como “não um sorriso”, enquanto que tudo do lado direito é classificado como “sorriso”.
Há obviamente uma zona de transição difusa entre não sorrisos e sorrisos onde algumas configurações de boca são mal classificadas – podem ser sorrisos subtis que ficam sob o radar ou outras configurações de abertura de boca que podem ser mais bocejos do que sorrisos. Como consequência, o classificador só pode devolver um resultado probabilístico, reflectindo a probabilidade ou probabilidade de a expressão ser um autêntico “sorriso”.
No nosso exemplo, o sorriso do inquirido é bastante óbvio, acabando tudo no lado direito do “espaço de características”. Aqui, o classificador está muito seguro sobre o resultado de um sorriso e devolve um sólido 90%. Noutros casos, o classificador pode estar menos confiante quanto ao seu desempenho.
A classificação das características é feita independentemente para cada emoção, Unidade de Acção, e característica chave – o classificador para sorrisos não sabe nada sobre o classificador para carrancas, eles são simplesmente codificados independentemente um do outro. O bom disto é que a codificação automática é realizada muito mais objectivamente do que a codificação manual, onde os humanos – particularmente os codificadores novatos – tendem a interpretar a activação de uma Unidade de Acção em concertação com outras Unidades de Acção, o que altera significativamente os resultados.
Antes de nos aprofundarmos na visualização e análise dos resultados da classificação facial, teremos um pico em algumas directrizes e recomendações sobre como recolher os melhores dados da classe.
Top of Page
Equipamento
P>Vamo-nos tornar práticos.
O que deve considerar ao adquirir dados de alta qualidade, o que são estímulos óptimos, o que ter em mente ao recrutar e instruir os inquiridos? Estamos aqui para ajudar.
- Para começar, o reconhecimento automático da expressão facial pode ser realizado online, ou seja, enquanto os inquiridos são expostos a estímulos emocionais e as suas expressões faciais são monitorizadas (e/ou registadas).
- Parte da recolha de dados online, a detecção de expressão facial pode ser aplicada offline, por exemplo, para processar capturas faciais que já tenham sido registadas anteriormente. Pode mesmo registar um público maior e, com um mínimo de edição, analisar as expressões faciais de cada inquirido.
Uma palavra em câmaras web: Sugerimos a utilização de qualquer câmara Web HD. Pode, evidentemente, realizar análises automáticas de expressão facial com qualquer outra câmara, incluindo câmaras de smartphone, câmaras IP ou webcams internas de portáteis (dependendo da sua aplicação). No entanto, esteja ciente de que estas câmaras vêm geralmente com capacidades limitadas de auto-focalização, brilho e compensação de equilíbrio de branco.
Check out: Como a Análise de Expressões Faciais pode ser feita remotamente
Análise de Expressões Faciais (FEA): Campos de aplicação
Com o reconhecimento da expressão facial é possível testar o impacto de qualquer conteúdo, produto ou serviço que supostamente provoque excitação emocional e respostas faciais – objectos físicos tais como sondas ou embalagens de alimentos, vídeos e imagens, sons, odores, estímulos tácteis, etc. Expressões particularmente involuntárias, bem como um alargamento subtil das pálpebras são de interesse fundamental, uma vez que são consideradas como reflectindo mudanças no estado emocional desencadeadas por estímulos externos reais ou imagens mentais.
Agora quais os campos de investigação comercial e académica que têm vindo a adoptar técnicas de reconhecimento emocional ultimamente? Aqui está uma espreitadela às áreas de investigação mais proeminentes:
Neurociência e neuromarketing do consumidor
Não há dúvidas sobre isso: Avaliar as preferências dos consumidores e proporcionar uma comunicação persuasiva são elementos críticos no marketing. Embora os auto-relatos e os questionários possam ser ferramentas ideais para se obterem informações sobre as atitudes e consciência dos inquiridos, podem ser limitados na captura de respostas emocionais imparciais pela auto-consciencialização e desejabilidade social. É aí que entra o valor da análise das emoções: O rastreio de expressões faciais pode ser aproveitado para enriquecer substancialmente os auto-relatos com medidas quantificadas de respostas emocionais mais inconscientes em relação a um produto ou serviço. Com base na análise da expressão facial, os produtos podem ser optimizados, os segmentos de mercado podem ser avaliados, e os públicos-alvo e personas podem ser identificados. Há muito que a análise da expressão facial pode fazer para melhorar a sua estratégia de marketing – basta pensar nisso!
Testes multimédia & publicidade
Na pesquisa de meios de comunicação, os inquiridos individuais ou grupos focais podem ser expostos a anúncios televisivos, trailers, e pilotos completos enquanto monitorizam as suas expressões faciais. Identificar cenas onde se esperava respostas emocionais (particularmente sorrisos) mas o público simplesmente não “percebeu” é tão crucial como encontrar os quadros-chave que resultam nas expressões faciais mais extremas.
Neste contexto, poderá querer isolar e melhorar cenas que desencadeiam expressões negativas indesejadas indicando níveis elevados de repugnância, frustração ou confusão (este tipo de emoções não ajudaria exactamente um programa de comédia a tornar-se uma série de sucesso, pois não?) ou utilizar a resposta do seu público em relação a uma exibição para aumentar o nível global de expressões positivas no lançamento final.
Psychological research
Psychologists analyse facial expressions to identify how humans respond emotionally towards external and internal stimuli. Em estudos sistemáticos, os investigadores podem especificamente variar as propriedades dos estímulos (cor, forma, duração da apresentação) e as expectativas sociais a fim de avaliar como as características da personalidade e as histórias individuais de aprendizagem têm impacto nas expressões faciais.
Psicologia clínica e psicoterapia
Populações clínicas, tais como pacientes que sofrem de Distúrbio do Espectro do Autismo (DEA), depressão ou distúrbio de personalidade limítrofe (DAP) são caracterizadas por fortes deficiências na modulação, processamento e interpretação das suas próprias expressões faciais e de outras. A monitorização das expressões faciais enquanto os pacientes são expostos a estímulos emocionalmente excitantes ou sinais sociais (rostos de outros, por exemplo) pode aumentar significativamente o sucesso da terapia cognitivo-comportamental subjacente, tanto durante a fase de diagnóstico como na fase de intervenção. Um excelente exemplo é o “Labirinto do Sorriso”, tal como desenvolvido pelo Centro de Dinâmica Temporal de Aprendizagem (TDLC) da UC San Diego. Aqui, crianças autistas treinam as suas expressões faciais jogando um jogo tipo Pacman onde o sorriso conduz o personagem do jogo.
Aplicações medicinais & cirurgia plástica
Os efeitos da paralisia do nervo facial podem ser devastadores. As causas incluem paralisia do nervo facial, tumores, traumas, doenças, e infecções. Os pacientes geralmente lutam com mudanças significativas na sua aparência física, na capacidade de comunicar, e de expressar emoções. A análise da expressão facial pode ser utilizada para quantificar a deterioração e avaliar o sucesso de intervenções cirúrgicas, ergoterapia e fisioterapia orientadas para a reactivação dos grupos musculares paralisados.
Software UI &design de website
dealmente, o manuseamento de software e a navegação em websites deve ser uma experiência agradável – os níveis de frustração e confusão devem certamente ser mantidos tão baixos quanto possível. A monitorização de expressões faciais enquanto os testadores navegam em websites ou diálogos de software pode proporcionar conhecimentos sobre a satisfação emocional do grupo-alvo desejado. Sempre que os utilizadores se depararem com bloqueios de estrada ou se perderem em sub-menus complexos, poderão certamente ver um aumento de expressões faciais “negativas”, tais como o sulco da sobrancelha ou o franzir do sobrolho.
Engenharia de agentes sociais artificiais (avatares)
Até recentemente, robots e avatares eram programados para responder aos comandos do utilizador com base no teclado e na entrada do rato. Os últimos avanços na tecnologia de hardware, visão computacional e aprendizagem de máquinas lançaram as bases para agentes sociais artificiais, que são capazes de detectar e responder com fiabilidade e flexibilidade aos estados emocionais do parceiro de comunicação humano. O Siri da Apple pode ser a primeira geração de máquinas emocionalmente verdadeiramente inteligentes, no entanto, cientistas informáticos, médicos e neurocientistas de todo o mundo estão a trabalhar arduamente em sensores e algoritmos ainda mais inteligentes para compreender o estado emocional actual do utilizador humano, e para responder adequadamente.
Como fazê-lo correctamente com iMotions
N.B. Este é um excerto do nosso guia gratuito “Facial Expression Analysis – The Complete Pocket Guide”. Para obter o guia completo com mais informações sobre configuração de estímulos, saída de dados & visualização, biosensores adicionais, e “como fazê-lo correctamente com iMotions”, clique no banner abaixo. Se tiver alguma questão relativa à análise da expressão facial, não hesite em contactar-nos.
Top of Page