Prevendo a Atenção em Design Gráfico
Um modelo que prevê a atenção dos espectadores em documentos de design gráfico.
― 5 min ler
Índice
- Predizendo a Atenção Visual em Documentos de Design Gráfico
- Introdução
- A Importância da Previsão de Atenção
- Visão Geral do Modelo Proposto
- Etapa Um: Previsão do Mapa de Densidade de Fixação
- Etapa Dois: Previsão de Caminho de Visualização
- Coleta de Conjunto de Dados
- Comparação com Modelos Existentes
- Aplicações do Modelo
- Direções Futuras
- Conclusão
- Fonte original
- Ligações de referência
Atenção Visual em Documentos de Design Gráfico
Predizendo aEsse artigo apresenta uma nova forma de entender como as pessoas prestam atenção em documentos de design gráfico, como páginas da web, panfletos e pôsteres. Esses designs são feitos pra chamar a atenção e passar informações de um jeito eficaz. A gente foca em um modelo que prevê onde os espectadores olham e a ordem em que eles focam nas diferentes partes desses designs.
Introdução
Documentos de design gráfico têm um propósito: passar informações de um jeito que atraia a atenção do público. Diferente de imagens naturais, que muitas vezes são aleatórias, esses documentos são organizados de forma intencional. Isso significa que certos elementos devem chamar mais a atenção que outros, e pode ser que precisem ser vistos em uma ordem específica. Entender como as pessoas prestam atenção nesses designs é crucial pra melhorar sua eficácia.
A Importância da Previsão de Atenção
Prever onde as pessoas vão olhar enquanto visualizam designs gráficos pode ter várias aplicações. Por exemplo, em aulas online ou reuniões onde conteúdos visuais são compartilhados, saber onde a atenção muda pode melhorar a apresentação das informações. Além disso, se a gente prever onde um espectador provavelmente vai focar primeiro, podemos carregar conteúdos importantes mais rápido, deixando a experiência mais fluida.
Visão Geral do Modelo Proposto
A gente apresenta um novo modelo que prevê a atenção visual em duas etapas. Primeiro, identificamos quais partes de um design são mais propensas a atrair atenção. Segundo, prevemos a ordem em que essas partes serão vistas. Nosso foco principal são páginas da web, mas nosso modelo também funciona bem com outros tipos de designs gráficos.
Etapa Um: Previsão do Mapa de Densidade de Fixação
Na primeira parte do nosso modelo, criamos um mapa de densidade de fixação (MDF). Esse mapa mostra quais áreas de uma página da web têm mais chances de chamar atenção. Usamos várias características pra fazer essa previsão:
- Áreas Textuais: Texto, especialmente informações importantes, tende a atrair espectadores. A gente identifica e prioriza as regiões de texto no nosso modelo.
- Imagens e Logos: Imagens, logos e qualquer conteúdo visual desempenham um papel essencial em direcionar a atenção. Esses elementos estão inclusos no nosso modelo pra melhorar a previsão.
- Informações de Layout: A forma como um design é estruturado pode influenciar como a atenção é distribuída. A gente incorpora o layout pra melhorar nossas previsões.
A combinação de todas essas características ajuda a criar um mapa de densidade de fixação mais preciso, mostrando onde os espectadores provavelmente vão olhar.
Etapa Dois: Previsão de Caminho de Visualização
Na segunda etapa, pegamos o mapa de densidade de fixação e prevemos a sequência em que os espectadores vão olhar para as diferentes partes do design. Essa informação é crucial porque a atenção é dinâmica e muda com o tempo. Utilizamos um método chamado aprendizado por reforço inverso, onde aprendemos a partir de exemplos de como as pessoas veem os designs.
Coleta de Conjunto de Dados
Pra treinar nosso modelo, coletamos um grande conjunto de dados sobre movimentos oculares de participantes visualizando várias páginas da web. Esse conjunto de dados é fundamental, pois oferece exemplos reais de como a atenção é distribuída entre diferentes designs. Nosso conjunto de dados é maior que os existentes, permitindo um treinamento e validação do modelo mais precisos.
Comparação com Modelos Existentes
A gente comparou nosso modelo com modelos existentes de previsão de atenção. Ao fazer isso, descobrimos que nosso modelo consistently superou esses métodos anteriores, oferecendo previsões mais precisas. Isso é especialmente importante na hora de criar futuros conteúdos gráficos, já que entender a atenção pode melhorar significativamente a eficácia das informações apresentadas.
Aplicações do Modelo
Entender a atenção visual tem várias aplicações. Designers podem usar essa informação pra criar conteúdos mais envolventes. Educadores podem aprimorar materiais de aprendizado pra capturar atenção melhor. Profissionais de marketing podem otimizar anúncios pra direcionar o foco dos espectadores pra produtos ou mensagens-chave.
Direções Futuras
Há muito potencial pra mais pesquisas nessa área. Explorar como fatores como cor, movimento e contexto afetam a atenção pode proporcionar insights mais profundos. Além disso, integrar elementos de áudio em designs visuais pode revelar como combinações áudio-visuais influenciam o foco do espectador.
Conclusão
Resumindo, esse artigo apresenta um novo modelo pra prever a atenção visual em designs gráficos. Ao analisar padrões de fixação e a sequência em que as informações são vistas, a gente consegue entender melhor como criar materiais que capturam e mantêm a atenção de forma eficaz. Essa pesquisa abre novos caminhos pra aumentar o impacto dos designs gráficos em várias áreas.
Título: Predicting Visual Attention in Graphic Design Documents
Resumo: We present a model for predicting visual attention during the free viewing of graphic design documents. While existing works on this topic have aimed at predicting static saliency of graphic designs, our work is the first attempt to predict both spatial attention and dynamic temporal order in which the document regions are fixated by gaze using a deep learning based model. We propose a two-stage model for predicting dynamic attention on such documents, with webpages being our primary choice of document design for demonstration. In the first stage, we predict the saliency maps for each of the document components (e.g. logos, banners, texts, etc. for webpages) conditioned on the type of document layout. These component saliency maps are then jointly used to predict the overall document saliency. In the second stage, we use these layout-specific component saliency maps as the state representation for an inverse reinforcement learning model of fixation scanpath prediction during document viewing. To test our model, we collected a new dataset consisting of eye movements from 41 people freely viewing 450 webpages (the largest dataset of its kind). Experimental results show that our model outperforms existing models in both saliency and scanpath prediction for webpages, and also generalizes very well to other graphic design documents such as comics, posters, mobile UIs, etc. and natural images.
Autores: Souradeep Chakraborty, Zijun Wei, Conor Kelton, Seoyoung Ahn, Aruna Balasubramanian, Gregory J. Zelinsky, Dimitris Samaras
Última atualização: 2024-07-02 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2407.02439
Fonte PDF: https://arxiv.org/pdf/2407.02439
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://www.ctan.org/pkg/amsmath
- https://www.ctan.org/pkg/algorithms
- https://www.ctan.org/pkg/algorithmicx
- https://www.ctan.org/pkg/array
- https://www.ctan.org/pkg/subfig
- https://www.ctan.org/pkg/fixltx2e
- https://www.ctan.org/pkg/stfloats
- https://www.ctan.org/pkg/dblfloatfix
- https://www.ctan.org/pkg/endfloat
- https://www.ctan.org/pkg/url
- https://www.michaelshell.org/contact.html
- https://mirror.ctan.org/biblio/bibtex/contrib/doc/
- https://www.michaelshell.org/tex/ieeetran/bibtex/
- https://vision.cs.stonybrook.edu/~soura/websaliency.html
- https://vision.cs.stonybrook.edu/