Mariane de Carvalho PINTO (Universidade Federal de Juiz de Fora) – ORCID
mariane.carvalho@estudante.ufjf.br
Tiago Timponi TORRENT (Universidade Federal de Juiz de Fora) – ORCID
tiago.torrent@ufjf.br
RESUMO
Esta pesquisa investiga o potencial da anotação semântica multimodal de eventos na FrameNet Brasil (FN-Br), desenvolvida com base na Semântica de Frames (Fillmore, 1982), para a geração de roteiros de audiodescrição por sistemas de inteligência artificial. Parte-se da hipótese de que esse tipo de anotação, ao mapear semanticamente os eventos e seus participantes na produção audiovisual, pode favorecer a criação de roteiros de audiodescrição mais precisos e adequados ao contexto narrativo. O estudo compara a performance do mesmo sistema de IA (ChatGPT 4.0) na geração de roteiros a partir de prompts com e sem anotação para frames, além de avaliar o potencial dessa ferramenta para apoiar o trabalho do audiodescritor. Na pesquisa, foram anotadas cenas dos episódios 1 e 7 da série Pedro Pelo Mundo (GNT), com anotações baseadas no modelo de Ruppenhofer et al. (2016), das quais foram gerados roteiros preliminares de audiodescrição por IA. Em seguida, os roteiros produzidos foram comparados e analisados quanto à sua aproximação com os critérios do Guia para Produções Audiovisuais Acessíveis. Os resultados evidenciam que a anotação semântica multimodal aprimora a precisão dos roteiros, elevando a qualidade das audiodescrições geradas automaticamente. Embora algumas descrições ainda requeiram ajustes, os achados indicam que essa melhora na qualidade potencializa o uso da audiodescrição automática, tecnologia que pode contribuir para acelerar o processo produtivo das audiodescrições, reduzir custos e oferecer suporte eficiente aos audiodescritores.
Palavras-chave: Semântica de Frames, FrameNet, anotação multimodal, audiodescrição, copilotos de IA.