Google lança Gemini com geração de imagens que utiliza dados pessoais dos usuários

Pontos principais
- Google adiciona geração de imagens Nano Banana à Inteligência Pessoal do Gemini.
- A funcionalidade utiliza dados do Gmail, Fotos, Calendário, Drive e outros aplicativos do Google.
- Disponível agora para assinantes dos planos Plus, Pro e Ultra da Google nos Estados Unidos; usuários gratuitos terão acesso nas semanas seguintes.
- Europa excluída do lançamento inicial devido a preocupações regulatórias.
- Três modelos de Nano Banana: original, Nano Banana 2 e Nano Banana Pro.
- Um botão "fontes" mostra quais dados pessoais informaram cada imagem.
- Google afirma que o sistema não é treinado em dados pessoais, apenas os utiliza para inferência.
- Geração futura no dispositivo planejada para telefones Pixel e dispositivos Android.
Google adicionou a geração de imagens Nano Banana à funcionalidade de Inteligência Pessoal do Gemini, permitindo que o AI crie imagens que utilizam os dados dos usuários do Gmail, Fotos, Calendário, Drive e outros aplicativos do Google.
Google expandiu as capacidades do Gemini na quinta-feira, incorporando seus modelos de geração de imagens Nano Banana nativos à estrutura de Inteligência Pessoal. A Mellhoria permite que o chatbot produza imagens que refletem os dados do usuário – e-mails, fotos, eventos de calendário e arquivos armazenados no Drive – em vez de depender apenas de prompts textuais.
Assinantes dos planos Plus, Pro e Ultra da Google nos Estados Unidos verão a funcionalidade aparecer nos próximos dias. Usuários gratuitos devem ganhar acesso nas semanas seguintes, embora a Google não tenha anunciado nenhuma alteração de preços. O lançamento deliberadamente pula os mercados europeus, uma medida que a empresa atribui à possível fricção regulatória sob a GDPR e o futuro Ato de IA.
Nano Banana, a família de geração de imagens interna da Google, agora inclui três versões. O modelo original, construído no Gemini 2.5 Flash, lida com a criação de imagens conversacionais básicas. Nano Banana 2, introduzido em fevereiro de 2026 no Gemini 3.1 Flash, adiciona uma iteração mais rápida e um conjunto de recursos de nível Pro. O mais recente Nano Banana Pro, alimentado pelo Gemini 3 Pro, aproveita o modelo completo de raciocínio e conhecimento do mundo real para produzir saídas que capturam uma nuances de prompt mais profunda.
O que diferencia essa integração é o uso de contexto pessoal. A Inteligência Pessoal do Gemini, lançada em janeiro de 2026, já puxa texto, fotos e vídeos de uma variedade de serviços do Google – Gmail, Calendário, Drive, Fotos, YouTube, Pesquisa, Mapas e mais – quando os usuários optam por isso. Até agora, esses dados informaram apenas respostas baseadas em texto, como resumir planos de viagem de um e-mail de confirmação ou sugerir compras com base em pedidos anteriores. Com o Nano Banana, o AI agora pode gerar conteúdo visual que incorpora as imagens do usuário ou reflete preferências extraídas de sua pegada digital.
A Google destacou vários casos de uso: um usuário pode pedir ao Gemini para criar um retrato de família que combina fotos recentes de férias com um fundo estilizado, ou solicitar um mock-up de marketing que espelha a paleta de cores da marca do usuário extraída de arquivos de design anteriores. Um botão "fontes" aparece ao lado de cada imagem gerada, mostrando quais peças de dados pessoais o modelo consultou. A funcionalidade de transparência visa abordar as crescentes preocupações sobre a proveniência da mídia gerada por IA.
A medida posiciona a Google contra concorrentes que introduziram ferramentas de geração de imagens, mas carecem de uma amplitude de dados comparável. O ChatGPT da OpenAI e a suíte de Inteligência da Apple dependem de dados de usuário mais limitados, enquanto o ecossistema da Google abrange e-mail, armazenamento em nuvem, mapas e vídeo, dando-lhe uma vantagem única de personalização. A empresa também sugeriu uma geração futura no dispositivo para telefones Pixel e dispositivos Android, o que manteria o processamento privado e reduziria a latência.
Defensores da privacidade permanecem cautelosos. A Google assegura que o sistema não é treinado em dados pessoais, mas processa essas informações no momento da inferência para personalizar imagens. Críticos argumentam que a distinção pode ser perdida para os usuários médios que veem um IA que parece "saber" detalhes sobre suas casas, famílias ou viagens recentes. A exclusão da Europa do lançamento sugere que a Google antecipa uma escrutínio mais rigoroso sob as leis de proteção de dados.
Para os assinantes que habilitam a funcionalidade, a promessa é clara: um assistente de IA capaz de produzir visuais que se sentem pessoais, em vez de imagens genéricas de estoque. Aqueles que preferem manter seus dados isolados podem simplesmente recusar a opção de participação, embora eles percam as novas possibilidades criativas. A Google não divulgou nenhum custo adicional além das camadas de assinatura existentes, indicando que a funcionalidade está embutida nos planos atuais.