Análise comparativa de algoritmos de reconhecimento facial: FaceNet e DeepFace na detecção de emoções em aplicações clínicas
Resumo
Este estudo comparou o desempenho dos modelos de reconhecimento facial FaceNet e DeepFace na identificação de emoções e comportamentos afetivos em contextos clínicos. A pesquisa foi conduzida utilizando três bases de dados distintas: FER-2013 para o reconhecimento de emoções básicas, LFW para avaliar a robustez em imagens não tratadas e DAiSEE para detectar estados afetivos em vídeos, como distração e confusão, simulando ambientes de análise comportamental. Os modelos foram avaliados com as métricas de Acurácia, F1-Score, MSE, MAE e MAPE, cada uma selecionada para medir aspectos específicos em diferentes condições de imagem. Os resultados indicaram que o FaceNet superou o DeepFace em cenários com variações adversas de qualidade de imagem e no reconhecimento de mudanças emocionais sutis ao longo de vídeos. O estudo contribui para a aplicação de IA no apoio a diagnósticos clínicos, destacando o FaceNet como modelo mais robusto para contextos de saúde mental, sugerindo melhorias futuras em bases de dados e técnicas de pré-processamento.