Como as agências de publicidade estão usando geradores de imagens por IA e como eles podem ser usados ​​no futuro

Criativdade Artificial: uma revolução para a indústria da publicidade que precisa ser debatida.

Em 2021 a Heinz pediu aos seus consumidores: “Desenhe Ketchup”. A agência da marca, a canadense Rethink, resolveu então checar como a inteligência artificial atenderia esse pedido. Em segundos, o DALL-E 2 (um software de conversão de texto em imagem) gerou dezenas de imagens.

Muitas das imagens usavam a icônica garrafinha da marca Heinz e a agencia transformou esse fato em anúncios veiculados em julho deste com o slogan: “É assim que uma inteligência artificial enxerga um Ketchup”. Foi a primeira campanha de divulgação de um Top of (artificial) Mind.

A Rethink é apenas uma das muitas agências que usaram o DALL-E e outras ferramentas de IA, como Midjourney e Stable Diffusion, todas com potencial para mudar a forma como os anúncios são feitos. Além de criar conteúdo atraente, as agências estão usando essas ferramentas para economizar tempo e dinheiro, bem como para debater ideias. As ferramentas, todas lançadas no ano passado, potencialmente abrem novos horizontes para as agências no futuro, como anúncios personalizados criados para pessoas físicas, uma nova maneira de criar efeitos especiais ou até mesmo tornar a publicidade de comércio eletrônico mais eficiente.

“Estamos no início de uma revolução para nossa indústria criativa”, David Raichman, diretor executivo de criação social e digital da Ogilvy Paris. “A IA representa um potencial incrível que impacta a maneira como concebemos, projetamos, produzimos e fazemos justiça a realizar todo o potencial da ideia.”

No entanto, embora esses geradores de imagens tenham muitas vantagens, ainda há questões a serem consideradas, como questões sobre direitos autorais, o potencial de viés e preocupações sobre o que a dependência da IA ​​pode significar para os criativos no futuro.

Encontrando o ‘imprevisível’

A Dentsu Creative de Portugal lançou recentemente uma campanha utilizando o Midjourney para criar imagens abstratas, promovendo o festival europeu de música eletrónica Jardim Sonoro.

Gil Correia, diretor criativo da Dentsu Creative Portugal, disse que usar as ferramentas de imagem é simples. A equipe passou algumas semanas aprendendo a usar o Midjourney antes de passar cerca de três dias no projeto. 

20220915 aFF JardimSonoro IndivArtist
Crédito: Dentsu Creative Portugal

A agência procurava algo “imprevisível” que pudesse corresponder ao festival, disse Correia, que explicou ser importante combinar imagens com os vários artistas promovidos.

“Ajustamos – palavra por palavra – até conseguirmos fazer as imagens se vincularem, mesmo que fossem completamente diferentes”, disse Correia. “Mas o mais interessante de tudo é que se colocarmos as mesmas frases novamente, o resultado sempre seria diferente. E isso é uma coisa boa.”

A campanha foi veiculada por meio impresso, digital e fora de casa.

A TBWA/Melbourne este mês criou arte promocional para o Melbourne Writers Festival adicionando passagens da literatura clássica, incluindo “1984” e “Moby Dick”, em MidJourney. A produção se tornou inspiração para anúncios fora de casa e digitais promovendo o festival. Também há planos de lançar e-books ilustrados dos romances clássicos, com mais interpretações de IA, nos próximos meses.

20220919 TBWA Melbourne Moby Dick FULL

Em agosto, a OpenAI lançou um novo recurso DALL-E chamado “Outpainting” que permite aos usuários criar uma versão estendida de uma imagem preexistente, por exemplo, expandindo o plano de fundo da “Mona Lisa”.

A Ogilvy Paris lançou um anúncio para a marca Nestlé La Laitière que alterou seu logotipo, que é baseado na pintura “The Milkmaid” do artista holandês Johannes Vermeer. O resultado final foi um anúncio que expande a pintura, ilustrando uma nova imagem que mostra o restante a sala. 

Embora existam vários exemplos de trabalho que usaram as ferramentas de imagem de IA, quase todos os executivos de agências com quem a Ad Age conversou concordaram que esses geradores de imagens também podem ser usados ​​para complementar o processo criativo.

Brainstorming e economia

Executivos de agências como R/GA, Dentsu Creative, TBWA, Huge, Accenture Song e Wunderman Thompson enfatizaram os benefícios de usar esses programas como parte de sessões de brainstorming. Natalie Comins, diretora de criação do grupo Huge, disse que é útil para os criativos ver essas ferramentas como um “parceiro criativo” para acessar novas ideias.

“Depois de um briefing, alguns de nossos criativos passam uma ou duas horas jogando conceitos no DALL-E – seja uma linha de pensamento inicial, uma pergunta excêntrica ou uma noção impraticável de direção de arte que nunca poderíamos pagar – apenas para ver como ele responde “, disse John Doyle, vice-presidente executivo de estratégia de experiência de marca da Colle McVoy. “O resultado é uma espécie de teste de Rorschach fortuito que quase sempre surpreende a equipe e às vezes desperta novos pensamentos que inspiram conceitos reais.”

O uso dessas ferramentas também pode economizar tempo ao criar quadros de humor ou apresentações para clientes, de acordo com Comins, que diz que muitas vezes pode levar de duas a quatro horas pesquisando imagens no Google ou Getty.

Wunderman Thompson recentemente usou o DALL-E para criar uma imagem fotorrealista de cães jogando pôquer para uma apresentação a um cliente, disse Jason Carmel, líder global de dados criativos da agência, que acrescentou que isso economizou horas de trabalho para sua equipe.

“Estaria mentindo se dissesse que, em muitas ocasiões, não usamos DALL-E ou Difusão Estável para criar uma renderização para um slide de apresentação em que a fotografia de banco de imagens ou a pesquisa de imagens falharam”, disse Carmel.

20220915 WT dogs playing
Crédito: Wunderman Thompson

Os executivos da agência não apenas veem a ferramenta como uma economia de tempo, mas também pode ser econômica porque essas ferramentas podem gerar várias variações de um prompt em poucos minutos. 

Paul Caiozzo, cofundador da Supernatural, uma agência que usa IA para informar sua estratégia, diz que recentemente usou a geração de imagens para “animar e colorir” um filme. “A motivação foi financeira, mas o tempo economizado certamente foi um bônus”, disse Caiozzo. “Não tínhamos orçamento para estoque ou para ilustrar e animar ou filmar ação ao vivo.” 

Comprar versus investir

A diferença entre comprar uma imagem de estoque e investir em uma plataforma como a DALL-E é significativa, disse Hikari Senju, fundador e CEO da Omneky, uma empresa de software de publicidade que usa tecnologia de IA para criar anúncios digitais personalizados. 

“Se você pensar em DALL-E, por exemplo, custa US$ 15 por 115 créditos e cada crédito lhe dá quatro imagens geradas. Isso significa que cada imagem gerada é como uma fração de centavo ou algo assim versus o custo de uma imagem de banco de imagens que talvez seja de US$ 10 ou US$ 20”, disse Senju. “Se você tem uma assinatura, talvez seja um pouco mais barato, mas provavelmente ainda mais caro e limitado.” 

A Omneky, que tem cerca de 100 clientes e foi lançada em 2018, usa uma combinação de software de IA que gera conteúdo e cópia para fazer anúncios que às vezes apresentam humanos gerados por IA, como os abaixo.

Embora muitas agências ainda estejam em fase de teste e aprendizado com essas ferramentas, isso não impediu os diretores de criação de imaginar as possibilidades que elas trazem. Mas as ferramentas não são todas iguais. 

Caiozzo diz que prefere Stable Diffusion porque suas imagens são mais “nuances e naturais” e porque está disponível como código aberto, o que significa que o código subjacente à IA e o modelo em que ela é treinada estão disponíveis publicamente.

Isso é diferente da OpenAI, a organização que possui o DALL-E 2, que não permite acesso ao seu algoritmo e também possui filtros mais rígidos. Até esta semana, o OpenAI não permitia a geração de imagens mostrando pessoas reais. A OpenAI, no entanto, tem uma política contra usuários que fazem upload de imagens de outras pessoas sem o seu consentimento. 

Stable Diffusion e Midjourney têm a opção de adicionar “filtros não seguros para trabalho”, disse Rick Barber, diretor de tecnologia da Addition, uma empresa de IA que trabalha com marcas e agências. A adição recentemente ajudou a Droga5 a criar uma campanha para o New York Times que transforma as manchetes do histórico de leitura de cada assinante em uma descrição visual dessa pessoa.

O fundador e CEO da Addition, Paul Aaron, disse que o que o entusiasma sobre o uso futuro da tecnologia é a criação de publicidade “generativa” personalizada que é diferente para cada pessoa. Este é um conceito que a maioria das pessoas que o Ad Age falou para este artigo viu como uma possibilidade no futuro.

“É concebível que passemos da navegação ao destino em uma página de detalhes de um produto e os ativos e imagens sejam completamente exclusivos para você”, disse Derek Fridman, parceiro de design da Work&Co. “Digamos que uma pessoa vem do Google, ela adora a cor azul, e então quando você chega a um site inicial, você vê armários azuis. É a ideia de gerar uma experiência super personalizada por pessoa.”

Fridman também acrescentou que as ferramentas podem ser particularmente úteis para tornar os projetos de comércio eletrônico mais eficientes.

Efeitos especiais simplificados

Outro exemplo de um caso de uso futuro é usar essas ferramentas para simplificar o processo de criação de efeitos especiais.

Paul Trillo, um diretor que dirigiu comerciais para marcas como T-Mobile, Nokia, Carvana e Microsoft, e também dirige videoclipes para artistas como Bas e The Shins, começou a experimentar o Dall-E 2 desde que ganhou acesso ao plataforma em junho. Ele postou vários vídeos no Instagram, mostrando como criar efeitos especiais com essas ferramentas que conquistaram milhares de visualizações. Um vídeo inclui a roupa de uma mulher mudando 100 vezes. 

Trillo disse que dirigiu cenas semelhantes em que roupas 3D foram adicionadas à pessoa digitalmente. A cena também poderia ser criada onde a pessoa teria que trocar de roupa continuamente e uma foto seria tirada a cada vez. Ambos os casos são demorados, de acordo com Trillo.

“Você faria a mesma cena repetidas vezes… faria uma sobreposição da tomada anterior… [e] ainda há inconsistências e você está limitado ao que está disponível para compra no mundo real ou ao que pode fazer como traje”, disse Trillo. “Se você adotasse toda a abordagem CG, você precisaria projetar cada roupa, você precisaria aprovar os designs para cada roupa. Você poderia até acabar elaborando conceitos que não são usados ​​e então você teria que modelar, texturizar, iluminar e compor juntos”, acrescentou Trillo.

Desde que postou seus vídeos, Trillo diz que recebeu vários pedidos sobre a integração de IA em vídeos publicitários.

Limitações e obstáculos legais

E dado que as ferramentas de IA são informadas por dados e imagens preexistentes, é provável que o viés apareça. “Existe um risco geral de ser desequilibrado, não representativo, não relevante e potencialmente até ofensivo”, disse Alex Naressi, chefe global de P&D da Accenture Song. 

“Se você vai a essas plataformas e pensa: ‘Mostre-me um homem entrando em uma loja de animais’, geralmente é um cara branco”, disse Dave Meeker, chefe de design e inovação da Dentsu Creative. “Por que? Porque viu muitas imagens quando foi treinado e havia mais caras brancos nessas imagens. Temos que superar isso; temos que torná-lo neutro. Antes de podermos usar essas ferramentas em nosso dia-a-dia para trabalhos comerciais, temos que superar essas barreiras.”

No início deste mês, um trabalho gerado por IA ganhou o primeiro lugar no concurso anual de arte da Colorado State Fair, que enfatizou a grande questão que vem com essas ferramentas: quem é o dono do trabalho? 

“DALL-E e outros estão usando o Google Images, Dribble, Behance e outras fundições de designers para gerar composições ‘originais'”, disse Mickey Ogondo, presidente e diretor de criação da agência Bakery, com sede em Austin. “O problema é quando a base da composição é composta em sua maioria por uma obra de um artista muito real, muito humano. Um artista que não é nomeado, creditado, pago ou reconhecido neste processo.”

Como as imagens geradas por IA são baseadas em imagens preexistentes, a propriedade terá que ser decidida legalmente, de acordo com Bradford Newman, que lidera a prática de aprendizado de máquina e IA na América do Norte no escritório de advocacia global Baker McKenzie.

“Existe o argumento de que se eu digitar ‘Paris’ e isso me der imagens de baguetes e vinho e pequenas ruas de paralelepípedos e a Torre Eiffel, isso é uma coisa”, disse Newman. “Mas se houver um artista de renome mundial com seu próprio estilo e eu treinar o algoritmo nessa obra para que alguém como eu ou um membro do público usando o algoritmo possa digitar o nome dessa pessoa e obter uma cópia próxima de sua obra, mas eles não consentiram com nada disso, estamos falando de questões legais que serão decididas.”

Newman diz que a complicação aumenta quando a ferramenta está sendo usada para fins comerciais.

“Se eu sou uma agência de publicidade contratada pela empresa de tênis mais famosa do mundo e eu uso um desses geradores de IA e digito ‘sapato do concorrente contra o qual estamos lançando’, e isso me dá alguma variação do logotipo e da marca desse concorrente e aparência de sapato, haverá perguntas legítimas sobre se isso é uso justo. A questão é como os primeiros dias de streaming [de música] e MP3s… o artista original deveria ter direito a algum corte?”

Essa questão de propriedade fará com que as marcas tomem “precaução extra” no futuro, prevê Newman.

IA como aditivo

Apesar dos avanços na tecnologia, todos os executivos com quem a Ad Age falou para este artigo concordaram que as ferramentas de IA devem ser usadas para auxiliar os criativos, não substituí-los.

“Sempre haverá necessidade e valor na direção criativa, curadoria humana, refinamento humano de uma ideia e tomada de decisão em termos do que é certo para a marca com a qual estamos trabalhando”, disse Ben Williams, chefe de experiência criativa oficial da TBWA/Worldwide. “Por causa disso, é a combinação de criativos que aproveitam essas tecnologias onde está a verdadeira oportunidade.”

“Não é a IA que vai tirar o seu trabalho, é o outro criativo que sabe como usar a IA que vai tirar o seu trabalho”, acrescentou Stephan Pretorius, diretor global de tecnologia da WPP.

Pretorius disse que não usar esses geradores de imagem agora pode não ter um impacto no “curto prazo”, mas ainda é importante para os criativos aprenderem.

“Hoje em grande parte ainda é uma novidade; até 2025, a maioria das equipes criativas as usará como prática padrão”, disse Pretorius. “Mas se você não tiver desenvolvido uma fluência com essas ferramentas até 2030, provavelmente estará em desvantagem significativa”. 

[VIA]

Receba nossos posts GRÁTIS!
Deixe um comentário

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More