Colunistas
Web Summit Lisboa: insights dos palcos Marketing e Creative Summit
Esta é a minha quarta presença no Web Summit Lisboa, e a diferença entre a edição do ano passado e a atual é inegável. Se, por um lado, o entusiasmo em torno das diversas soluções de inteligência artificial ainda se mantém vibrante, por outro, já se assiste a uma gradual normalização da tecnologia, que dá lugar a uma discussão mais focada nas consequências e da sua rápida evolução.
No 1º dia inteiro do evento, tive oportunidade de assistir à Masterclass “AI & behavioural science: Turning insight into action”, uma conversa com Aaron Gibson, CEO da Hurree e Daniel Bennett, Head of Behavioural Science na Ogilvy Consulting.

A relação entre humanos e IA está a transformar-se rapidamente, trazendo consigo desafios psicológicos, éticos e sociais. Um dos conceitos centrais é a chamada “chat psychosis” (psicose de bate-papo), que descreve a tendência dos utilizadores procurarem na IA apenas respostas que confirmam as suas crenças, criando um ciclo de feedback que reforça ideias pré-existentes. Em vez de promover reflexão crítica, a IA torna-se uma “voz divina” que valida decisões, reduzindo a capacidade para questionar.
Este comportamento está ligado à decisão defensiva, comum em ambientes corporativos, onde se privilegia a solução mais segura e menos criticável em detrimento da mais inovadora. A IA, vista como um “micro-ondas” para respostas rápidas, alimenta esta lógica, mas nem sempre oferece a melhor solução. A pressão pela necessidade de encerramento cognitivo – a necessidade psicológica de obter respostas rápidas para reduzir a ansiedade causada pela incerteza – leva muitos a aceitar respostas superficiais, sacrificando qualidade e criatividade.
Quando essa necessidade é alta, as pessoas tendem a aceitar soluções superficiais, sacrificando qualidade e criatividade. Quando é baixa, há maior tolerância à ambiguidade, o que favorece criatividade e qualidade nas decisões.
Outro ponto crucial é a forma como formulamos perguntas à IA. Daniel referiu que existem três categorias: puzzles (problemas definidos com solução única), problems (problemas definidos com múltiplas soluções) e mess (problemas indefinidos e complexos). A IA lida bem com puzzles, ajuda nos problemas, mas tende a falhar em problemas caóticos, onde a análise humana continua a ser indispensável.
Daniel defendeu, ainda, que a adoção eficaz da IA exige adaptação comportamental: começar com objetivos pequenos, criar comunidades (passar mais tempo com quem mais sabe) e promover a exposição, incentivando a convivência diária com a IA.
Já no campo ético, surge a necessidade de uso responsável e sustentável da IA, evitando efeitos colaterais e descartando rapidamente o que não funciona. Estudos indicam que até 95% dos resultados gerados pela IA generativa podem não gerar retorno significativo, reforçando a importância de discernimento crítico.
A confiança é outro eixo fundamental. Segundo Daniel, a confiança cresce lentamente (como a palmeira de coco) e cai rapidamente (como o coco que cai), sendo vulnerável a vieses cognitivos e heurísticas que distorcem julgamentos. A prática de fisiognomia – tentar inferir características psicológicas ou traços de personalidade a partir da aparência física – ainda persiste, apesar da sua falta de validade científica, e os atalhos mentais aumentam o risco de erro.
As pessoas tendem a usar pistas visuais para julgar se alguém é confiável (ex.: expressões faciais, postura, sorriso relaxado ou linguagem corporal aberta). Estes atalhos mentais funcionam como heurísticas, mas podem levar a erros sistemáticos, porque a aparência não garante comportamento ético ou competência. Na era digital, este viés também se manifesta em fotos de perfil, vídeos e até avatares, influenciando perceções de credibilidade.
Por fim, foram referidos impactos da IA nos meios de comunicação e na formação de opinião. A procura de prova social, a dependência de autoridades e a influência de criadores de conteúdo reforçam ciclos de desinformação.
Empresas e governos enfrentam desafios regulatórios, como a implementação de tagging obrigatório (prática de marcar conteúdo como gerado por IA ou como potencialmente enganoso) e a criação de padrões de verificação. Sem medidas eficazes, cresce o risco de manipulação e perda de sentido de crítica.
Em suma, interagir com IA exige mais do que tecnologia: requer segurança psicológica, ética e estratégias para preservar a confiança e a capacidade crítica. O futuro dependerá da nossa capacidade em equilibrar inovação com responsabilidade, evitando que a IA se torne apenas um espelho das nossas certezas.
Acompanhe mais nos próximos artigos.
Leia também: Sol de Janeiro leva o verão brasileiro até Dubai
Imagem: Belfast Telegraph

*Elisabete Galiano é formada em Gestão e conta com mais de 18 anos de experiência em Marketing no setor de FMCG (Fast Moving Consumer Goods). É Head of Strategic Plant Based Food Category na Sumol Compal, empresa líder no mercado de bebidas não alcoólicas em Portugal. Reside em Lisboa e tem um interesse especial por marcas, inovação e tendências.
