Essência em 7 linhas
- Andromeda não mudou as regras; amplificou-as. O que era bom ficou melhor, o ruim despenca mais rápido.
- Mais anúncios ≠ mais inteligência. Volume fragmenta dados e sabota o aprendizado.
- Diversidade é conceitual, não cosmética. Mudar vírgula não cria “novo criativo”.
- Uma campanha, dois ad sets. “Winners” (80–90% do budget) + “Testing” (10–20%).
- Estrutura 3–2–2 (322) em DCO/Dynamic Creative concentra aprendizado e acelera otimização.
- Targeting: idade, gênero, localização. O criativo faz o resto.
- Escala científica. Aumentos graduais, refresh a cada 72h, testes com hipótese única.
Por que a maioria erra
- Confunde “máquina mais esperta” com “dar mais lixo para escolher”. 50 ads = 50 pools de dados rasos.
- Complexidade manufaturada. Hipersegmentação, mil variações mínimas, learning phase eternizada.
- “Deixa o algoritmo descobrir”. Preguiça travestida de estratégia.
Diversidade criativa (de verdade)
Certo: 5 conceitos complementares (pense “cinema com gêneros diferentes”):
- UGC testemunhal (prova social)
- Demonstração (como funciona)
- Explainer de features/benefícios
- Estático derrubando objeção específica
- Carrossel mostrando a linha/variações
Errado: 100 UGCs dizendo a mesma coisa com pessoas diferentes; 50 product shots trocando só o fundo.
Estrutura de campanha que escala
Uma campanha. Dois ad sets.
- Ad Set 1 – Winners (controle): 3–6 anúncios que já saíram do learning (50+ conversões), formatos diversos e mensagens que se complementam. 80–90% do orçamento.
- Ad Set 2 – Testing (variável): 1–3 novos conceitos ou DCO 3–2–2. 10–20% do orçamento.
- Kill protocol: CPA > 2× meta por 48h → mata.
- Graduar: performou em 72h → promove para Winners.
Por que funciona: receita estável, teste isolado, atribuição limpa, escala previsível.
A peça-chave: 322 (3 vídeos, 2 textos, 2 headlines)
- 12 combinações dentro de um único pool de dados → aprendizado compartilhado e rápido.
- Ex.:
- Vídeo 1: problema–agit–solução
- Vídeo 2: testemunho (social proof)
- Vídeo 3: demo do produto
- Texto A: features | Texto B: benefícios
- Headline 1: CTA direto | Headline 2: proposta de valor
Resultado: o sistema aprende “V1+H-A funciona p/ F 25–34” e “V3+H-B p/ M 35–44” sem dividir orçamento entre 10 anúncios isolados.
Targeting em 2025: simples ou caro
- Só: idade, gênero, localização. Amplo.
- Interesses/lookalikes/exclusões estreitam o pool e atrasam aprendizado.
- Exceção: objetivos de negócio diferentes (aquisição vs. retenção vs. lucro bruto) → campanhas separadas por evento de otimização distinto.
Escala sem autoengano
- Padrão: +20% de budget a cada 3 dias se impressão/CTR/ATC estão estáveis e frequência < 1,3.
- Agressiva (< US$1k/dia): +50% a cada 2 dias; monitorar gatilhos de freio:
- CPM +30%, CTR −25%, CVR −20% → para de subir e estabiliza 48h.
- Pare de escalar quando: share de impressão cai enquanto o gasto sobe; CPM sobe com CTR flat (fadiga); ATC −15% WoW; ROAS −20% do baseline.
Refresh de criativos a cada 72h
- Preserve o core (promessa/mecanismo) e troque secundários: abertura, CTA, cor, cenário.
- Sinais de fadiga: share de impressão cai com spend estável; CPM sobe com CTR estável; comentários azedam; atraso de conversão > 60 min.
- Pré-requisito: tenha 3–5 variações reserva antes de lançar. 60% polido + 40% UGC.
Método científico aplicado
- Teste com hipótese. “CTR caiu → hipótese: hooks saturados → teste: 3 hooks novos mantendo corpo/CTA.”
- Controle vs. Variável. Winners = controle; Testing = variável.
- Um fator por vez. Se mudar hook, formato, LP e público junto, você não aprende nada.
Erros que drenam caixa
- Lançar ads demais. Fragmenta sinais, alonga learning, confunde atribuição.
- Copiar volume do concorrente. Pode estar queimando dinheiro (ou ter cheques infinitos). Foco em eficiência, não em mimetismo.
- Testar no pico. Está acima da meta? Escala. Teste só para resolver problema real.
- Ignorar jornada. Tenha peças TOF (problema), MOF (prova/demonstração), BOF (fechamento/urgência) dentro dos Winners.
- Neurose de atribuição. Acompanhe ROAS de campanha, CAC de novos, MER. Melhorou? Continua.
Checklist de implementação (4 semanas)
- Sem. 1 – Auditoria: mapear Winners (3–6), baseline (ROAS/CPM/CTR/CVR).
- Sem. 2 – Consolidação: 1 campanha | 2 ad sets | 80/20 orçamento | 5 conceitos tipo “Anéis Olímpicos” se não houver Winners.
- Sem. 3 – Teste cirúrgico: ataque o elo fraco (hook? formato? mensagem?). Regra 48h/72h (mata/promove).
- Sem. 4 – Escala ou troca: se acima da meta → +20% em Winners; se abaixo → substitua o pior Winner pelo melhor do Testing e repita.
Avançado que importa
- 4PI (freq, CPM, spend, eficiência) para entender posição de funil de cada anúncio (TOF tende a gastar mais com menor eficiência; BOF o inverso).
- Múltiplas campanhas só quando o objetivo/KPI muda (caixa, lucro, volume).
- Automation criativa: desative firulas (música auto, texto auto, cortes aleatórios). Mantenha Advantage+ placements/audience; CBO só se fizer sentido para sua cadência.
Conclusão que evita desperdício
- Simplicidade escala. Uma campanha. Dois ad sets. 3–6 winners. Teste com hipótese.
- Dado melhor > dado maior. Volume sem conceito derruba performance.
- Escale por sinal, não por esperança. Quando degradar, refresque criativo — não invente segmentação.
Quer resultado? Pare de complicar, comece a compilar sinal. Próximo passo lógico: transforme seus atuais 20 “ads” em 5 conceitos complementares, monte um 322 sólido para cada, e rode o protocolo 80/20 por 14 dias. Depois, reabasteça o Testing com hipóteses — não com mais do mesmo.