Anúncios do Super Bowl da Anthropic Desencadeiam Conflito com o CEO da OpenAI, Sam Altman

Anthropic’s Super Bowl Ads Spark Feud with OpenAI CEO Sam Altman

Pontos principais

  • A Anthropic exibiu anúncios do Super Bowl que parodiam o ChatGPT da OpenAI com reviravoltas de colocação de produtos.
  • Um anúncio apresenta um chatbot que se transforma em uma promoção de um site de encontros fictício após um usuário pedir conselhos sobre como falar com sua mãe.
  • Outro anúncio mostra um chatbot recomendando palmilhas de aumento de altura após um usuário pedir dicas de condicionamento físico.
  • A campanha visa os usuários da OpenAI após a empresa anunciar que anúncios seriam introduzidos na camada gratuita do ChatGPT.
  • O CEO da OpenAI, Sam Altman, respondeu na plataforma X, chamando os anúncios de desonestos e lançando uma crítica longa.
  • Altman defendeu o modelo de anúncios futuros da OpenAI como transparente, rotulado e separado do conteúdo conversacional.
  • Ele acusou a Anthropic de controle autoritário, produtos caros para os ricos e políticas de uso restritivas.

A Anthropic lançou uma série de anúncios do Super Bowl que parodiam o ChatGPT da OpenAI, mostrando um chatbot que dá conselhos que se transformam abruptamente em promoções de produtos. Os anúncios, que visam os usuários da OpenAI, provocaram manchetes que os descreviam como uma zombaria da OpenAI. O CEO da OpenAI, Sam Altman, respondeu nas redes sociais, reconhecendo o humor, mas lançando uma crítica longa que rotulou a abordagem da Anthropic como desonesta e autoritária.

Campanha do Super Bowl da Anthropic

Durante o Super Bowl, o laboratório de pesquisa de IA Anthropic exibiu quatro anúncios que se referem diretamente ao ChatGPT da OpenAI. Um dos anúncios começa com a palavra "TRAÍÇÃO" e mostra um homem pedindo conselhos a um chatbot - claramente destinado a representar o ChatGPT - sobre como falar com sua mãe. O bot, interpretado por uma mulher loira, oferece sugestões típicas antes de se transformar em uma promoção de um site de encontros fictício chamado Golden Encounters. Outro anúncio apresenta um jovem procurando dicas para construir um abdômen definido; após fornecer métricas pessoais, o chatbot serve um anúncio para palmilhas de aumento de altura. A Anthropic conclui a campanha afirmando que, embora anúncios apareçam na IA, eles não aparecerão em seu próprio chatbot, Claude.

Visando Usuários da OpenAI

Os anúncios são deliberadamente direcionados aos usuários dos serviços da OpenAI, chegando logo após a empresa anunciar que anúncios seriam introduzidos na camada gratuita do ChatGPT. A cobertura da mídia enquadrava os anúncios como uma crítica irônica à OpenAI, usando linguagem como "zomba", "critica" e "derruba" a empresa rival.

Reação de Sam Altman

O CEO da OpenAI, Sam Altman, respondeu na plataforma X, admitindo que riu dos anúncios, mas também publicando um post longo que criticou a abordagem da Anthropic. Altman descreveu a camada com suporte a anúncios como um meio para subsidiar o acesso gratuito ao ChatGPT para milhões de usuários e enfatizou que o ChatGPT permanece o chatbot mais popular por uma grande margem. Ele afirmou que os anúncios futuros da OpenAI serão claramente rotulados, separados do conteúdo conversacional e nunca influenciarão uma conversa.

Altman também questionou a forma como os anúncios da Anthropic retrataram a colocação de produtos dentro de uma conversa, chamando essa representação de "desonesta". Ele argumentou que a OpenAI colocará anúncios no final das respostas apenas quando um produto ou serviço patrocinado relevante estiver alinhado com a conversa atual, um modelo que ele apresentou como transparente e centrado no usuário.

Alegações de Controle e Autoritarismo

Em seu post, Altman acusou a Anthropic de servir produtos caros a usuários afluentes, buscando controlar como as pessoas usam a IA e adotando uma postura "autoritária". Ele citou as restrições alegadas da Anthropic sobre certos usos de seu modelo Claude Code, sugerindo que a empresa bloqueia o uso por concorrentes como a OpenAI. Altman também alegou que a Anthropic deseja ditar o que os usuários podem e não podem fazer com a IA.

Antecedentes das Empresas e Diferenças de Política

A Anthropic foi fundada por ex-funcionários da OpenAI que deixaram a empresa devido a preocupações com a segurança da IA, posicionando a empresa em torno de uma ética de "IA responsável". Tanto a Anthropic quanto a OpenAI mantêm políticas de uso, guardrails e mecanismos de bloqueio de conteúdo. Notavelmente, a OpenAI permite erotica em seu chatbot, enquanto a Anthropic não, embora ambos bloqueiem conteúdo relacionado a preocupações de saúde mental.

O uso do termo "autoritário" por Altman gerou críticas por ser desproporcional, especialmente dado os contextos globais mais amplos que envolvem repressão governamental. No entanto, a troca de mensagens destaca uma rivalidade crescente no mercado de IA gerativa, onde ambas as empresas competem em preços, conjuntos de recursos e posicionamento ético.

Implicações para o Cenário de IA

O conflito destaca como as empresas de IA estão navegando em estratégias de monetização, experiência do usuário e percepção pública. Enquanto os anúncios da Anthropic usam o humor para questionar o modelo de anúncios futuros da OpenAI, a liderança da OpenAI enfatiza a transparência e a escolha do usuário. O debate contínuo pode moldar como os serviços de IA futuros integrarão publicidade sem comprometer a integridade conversacional.

#Inteligência Artificial#Chatbots#Anthropic#OpenAI#Sam Altman#Super Bowl#Publicidade#Ética de IA#Claude#ChatGPT

Também disponível em: