Vídeo profissional com IA: tudo sobre Higgsfield + Claude (do zero ao postar)
Tutorial completo em pt-BR pra criar vídeo cinematográfico com Claude Code + Higgsfield MCP. Setup, modelos, prompts profissionais e workflow real de UGC.

Aquele anúncio cinematográfico que tá rolando no teu feed do Instagram — drone girando ao redor do produto, iluminação perfeita, modelo segurando o copo de café enquanto o sol nasce — você acha que custou R$ 10 mil de produção?
Foi gerado por uma IA em menos de 1 minuto.
Esse post é o guia completo em pt-BR pra você fazer o mesmo. Não é tutorial de "olha, é fácil". É o passo a passo do zero até nível profissional — instalação, escolha do modelo certo, anatomia do prompt que dá look caro, três prompts comentados palavra-por-palavra, e o workflow real de criar um vídeo de 30 segundos em meia hora (em vez de gastar dois dias de filmagem).
A combinação que vamos usar: Claude Code (a IA que entende o que você quer) + Higgsfield AI (a fábrica de vídeo cinematográfico mais avançada hoje). Eles conversam direto via MCP — o mesmo "cabo USB" que ensinei no post sobre Supabase.
Vamos.
O que é Higgsfield (em 1 parágrafo, sem enrolação)
Higgsfield AI é uma plataforma que junta mais de 30 modelos de IA especializados em gerar imagem e vídeo cinematográfico. Pensa nele como um "estúdio digital" com 30 câmeras diferentes — uma boa pra retrato hiper-realista, outra pra cena de ação, outra pra anúncio de produto. Em 1 ano de operação alcançou 22 milhões de usuários, 750 milhões de vídeos gerados e 4 bilhões de visualizações nas redes sociais. O foco da empresa é diferente dos concorrentes: enquanto Sora, Veo e Pika competem em "qualidade geral", o Higgsfield foca em controle cinematográfico — você diz exatamente o ângulo da câmera, o tipo de movimento, a iluminação, e ele entrega.
Por que usar via Claude (e não direto na interface web)
Você pode usar o Higgsfield direto no site deles — interface boa, com botões e menus. Funciona.
Mas se você cria conteúdo toda semana (ou todo dia), tem dois problemas:
-
Cliques infinitos. Pra cada vídeo: escolhe modelo → cola prompt → ajusta câmera → ajusta iluminação → cola personagem → gera → espera → exporta. Seis a dez cliques por vídeo. Multiplicado por 30 vídeos no mês, é um turno inteiro de trabalho clicando.
-
Erro humano nos prompts. Você esquece de mencionar o ângulo. Esquece a iluminação. O resultado fica genérico.
Quando você conecta o Higgsfield ao Claude, você descreve em português normal o que quer:
"Bruno, gera 3 versões de um Reels mostrando meu curso de finanças. Pessoa real segurando o celular, falando direto pra câmera, ambiente de casa. Estilo UGC autêntico, nada cinematográfico demais. 15 segundos cada, vertical."
E o Claude orquestra: escolhe o modelo certo, escreve o prompt técnico, dispara a geração, te entrega 3 versões. Você foca em decidir qual fica melhor, não em apertar botões.
Pra fluxo de UGC semanal, isso é a diferença entre 30 minutos e uma tarde.
Os modelos que você precisa conhecer
Higgsfield tem 30+ modelos. Não precisa decorar todos. Esses 6 cobrem 95% dos casos:
| Modelo | Quando usar |
|---|---|
| Soul 2.0 | Foto hiper-realista de pessoa (sem cara de plástico de IA) |
| Soul ID | Treinar um "ator IA" pra ele aparecer igual em todos teus vídeos |
| Cinema Studio 3.5 | Vídeo cinematográfico — controle total de câmera, iluminação, mood |
| Seedance 2.0 | Movimento natural — best-in-class pra vídeo de ação ou pessoa em cena |
| Kling 3.0 Motion Control | Controle preciso de movimento (câmera ou personagem se movendo de jeito específico) |
| Veo / Minimax Hailuo | Alternativas premium pra estilos visuais específicos |
O que é Soul ID — explicação leiga
Soul ID é o recurso que separa amador de profissional. Você "treina" um personagem fictício uma vez (manda 5-10 fotos de referência, leva ~3 minutos), e depois esse mesmo personagem aparece em todos teus vídeos — com mesmo rosto, mesma roupa, mesmo cabelo. É o equivalente a contratar um ator fixo, mas sem pagar cachê. Isso é o que permite criar uma "marca de UGC" reconhecível sem filmar nada.
Pricing — o que você precisa saber antes de começar
Higgsfield tem 3 planos. Vou ser direto:
- Free: você consegue testar e brincar. Mas tem marca d'água no canto e — atenção — não pode usar comercialmente. Se você postar em ad pago, tá quebrando os termos.
- Basic — $9/mês: 150 créditos/mês, sem marca d'água, com direitos comerciais. É o piso pra quem vai usar profissionalmente.
- Creator e Studio (até $119/mês): mais créditos, prioridade de fila, modelos premium. É pra agência ou produção pesada.
A real do plano Free
Use o Free pros primeiros 3 dias pra entender a interface, testar prompts e ver se o estilo bate com o que você quer. Se gostar, sobe pro Basic ($9) — é menos do que um almoço por mês e libera o uso comercial. Tentar burlar o Free pra postar em ad é fácil de pegar (a marca d'água aparece, e o Higgsfield faz fingerprint do conteúdo gerado).
Os valores podem mudar — confirma sempre em higgsfield.ai/pricing.
Setup em 4 passos (5 minutos)
Passo 1 — Cria conta no Higgsfield (3 caminhos detalhados)
Vai em higgsfield.ai e clica em "Get Started" ou "Sign Up" (botão no topo). Aparecem 3 caminhos:
🟢 Caminho A — Continue with Google (mais rápido, recomendado)
- Clica em "Continue with Google"
- Popup de seleção de conta Google aparece
- Escolhe a conta (mesma que usas no Gmail)
- Aparece tela "Higgsfield quer acessar tua conta Google" → clica em Permitir
- Pronto, tá logado. 30 segundos.
🟣 Caminho B — Continue with X / Twitter
- Clica em "Continue with X"
- Aparece tela do Twitter pra autorizar
- Clica em "Authorize app" (botão azul)
- Volta pro Higgsfield logado. 30 segundos.
🟡 Caminho C — Sign up with email
- Clica em "Sign up with email"
- Preenche email + senha
- Clica em Sign up
- Vai no teu email — chegou mensagem do Higgsfield ("Verify your email")
- Clica no link de verificação dentro da mensagem
- Volta logado. 2-3 minutos.
Plano Free serve pra começar?
Sim — pra testar a plataforma e ver se o estilo bate com o que você quer. Mas tem 3 limitações:
- Marca d'água no canto do vídeo
- Sem direitos comerciais (não pode usar em ad pago)
- 1 vídeo + 1 imagem concorrente (lento se quiser fazer em escala)
Pra teste e portfólio: Free serve. Pra postar em ad e marca: precisa do Basic $9/mês (sem watermark, comercial liberado).
Passo 2 — Conecta o Claude ao Higgsfield com 1 comando
Abre o terminal e cola:
claude mcp add --transport http higgsfield https://mcp.higgsfield.ai/mcpAperta Enter. O Claude registra o servidor do Higgsfield como uma ferramenta oficial dele.
Output esperado (vai aparecer no teu terminal):
✓ Added MCP server "higgsfield"
Transport: http
URL: https://mcp.higgsfield.ai/mcp
Se aparecer ✓, deu certo. Se aparecer erro, vai pra seção troubleshooting.
O que esse comando faz, em português
Você tá dizendo: "Ô Claude, adiciona um cabo de conexão chamado higgsfield, do tipo HTTP, que aponta pra esse endereço oficial". Esse endereço é a porta de entrada que o time do Higgsfield mantém pra IAs. Sem chave manual, sem .env, sem configuração de Python — diferente do que você vê em alguns tutoriais antigos.
Passo 3 — Autoriza no navegador (OAuth tela por tela)
A primeira vez que você pedir uma geração via Higgsfield no Claude (tipo "gera uma imagem de café"), ele abre uma aba do navegador automaticamente. Aqui é tela por tela:
Tela 1 — Login no Higgsfield
- Se você já está logado na aba do Higgsfield no mesmo navegador → pula direto pra Tela 2.
- Se não está logado → faz login (Google/X/email — o caminho que usaste no cadastro).
Tela 2 — Autorização
Aparece tela com texto tipo:
"Claude wants to access your Higgsfield account"
Permitir Claude:
- Gerar imagens em seu nome
- Gerar vídeos em seu nome
- Acessar seus assets (Soul IDs, gerações anteriores)
- Consumir credits da tua conta
Tela 3 — Confirma
Clica no botão verde "Authorize" (ou "Allow" / "Permitir" — depende do design atual). Aba pode fechar sozinha ou mostrar mensagem "Connected!".
Volta pro terminal. Tá conectado.
Passo 4 — Testa com um prompt simples
Pergunta pro Claude:
gera uma imagem realista de uma xícara de café fumegante,
estilo café specialty shop, luz natural pela manhã
Em 20-40 segundos ele te entrega o link da imagem. Vai aparecer algo tipo:
✓ Imagem gerada com sucesso
URL: https://higgsfield.ai/cdn/...image.jpg
Modelo usado: Soul 2.0
Credits consumidos: 1
Abre o link no navegador — vai ver a imagem. Se chegou aqui, tá tudo conectado. Bem-vindo à fábrica.
Se algo deu errado, vai pra seção troubleshooting no fim.
O segredo do "look caro" — anatomia de um prompt profissional
Aqui é onde 90% das pessoas erram.
A pessoa joga "vídeo bonito de carro" no prompt e o resultado vem genérico. Aí ela conclui que IA "não serve pra coisa séria". Errado: o problema é o prompt.
Prompt profissional segue uma estrutura. Decora essa fórmula:
Sujeito + Ambiente + Iluminação + Câmera + Estilo
Cada elemento responde uma pergunta:
- Sujeito — o que está em cena? (pessoa, produto, animal, ação)
- Ambiente — onde acontece? (cozinha, rua à noite, estúdio neon)
- Iluminação — que luz tem? (golden hour, neon, key light, low-key)
- Câmera — que ângulo e movimento? (close-up, drone, dolly, tracking)
- Estilo — que tipo de obra parece? (cinematic, UGC raw, advertisement, photoreal)
Se você omite qualquer um desses 5 itens, o modelo "preenche" com a média estatística do dataset — ou seja, resultado genérico. Por isso o vídeo "fica com cara de IA".
Tabela de palavras-chave de câmera
| Palavra | O que faz |
|---|---|
dolly in / push in | Câmera se aproximando lentamente do sujeito |
dolly out / pull back | Câmera se afastando, revelando o ambiente |
pan left / pan right | Câmera vira pro lado (sem se mover) |
tilt up / tilt down | Câmera inclina pra cima ou baixo |
tracking shot | Câmera acompanha o sujeito andando |
orbit / 360 around | Câmera gira em torno do sujeito |
FPV drone shot | Visão de drone passando rápido (efeito viral no Insta) |
static shot | Câmera parada (bom pra UGC autêntico) |
close-up / extreme close-up | Foco no rosto, no detalhe |
wide shot / establishing shot | Plano aberto, mostra o cenário |
Tabela de palavras-chave de iluminação
| Palavra | Que efeito dá |
|---|---|
golden hour | Luz quente do nascer/pôr do sol — vibe romântica |
blue hour | Luz azulada pós pôr do sol — vibe melancólica |
neon lights | Luzes neon coloridas — vibe noturna, urbana |
key light + rim light | Luz principal de frente + contorno por trás — profissional |
low-key lighting | Sombras fortes, contraste alto — drama |
high-key lighting | Tudo claro, suave — comercial de produto |
natural window light | Luz da janela — vibe doméstica autêntica |
practical lights | Luzes que aparecem em cena (abajur, néon, vela) |
volumetric light / god rays | Raios de luz visíveis no ar — épico |
Decora 4-5 dessas. Você vai usar em todo prompt daqui pra frente.
3 prompts profissionais — comentados palavra por palavra
Aqui é onde a teoria vira prática. Cada prompt abaixo é pra um caso comum, e eu explico por que cada palavra está lá.
Prompt 1 — Anúncio Meta Ads no estilo UGC autêntico
Caso de uso: você vende um curso/produto e quer um criativo que pareça vídeo de cliente real (não de propaganda).
Pessoa de 30 anos sentada no sofá da sala, segurando o celular
na vertical com a mão direita, falando direto pra câmera com
expressão natural e empolgada. Cabelo solto, blusa básica
cinza. Ambiente doméstico com plantas ao fundo desfocadas.
Luz natural de janela à esquerda, suave. Câmera estática,
posição de smartphone gravando selfie, leve tremida orgânica.
Estilo UGC raw, sem filtro, autêntico, vibe de stories real.
9:16, 15 segundos.
Por que cada parte importa:
- "30 anos, sentada no sofá da sala, segurando o celular" → ancora o sujeito num cenário que o cliente reconhece como "real"
- "cabelo solto, blusa básica cinza" → roupa neutra evita parecer "modelo profissional"
- "plantas ao fundo desfocadas" → fundo orgânico, sinaliza casa de verdade
- "luz natural de janela" → única fonte de luz, igual stories de gente comum
- "câmera estática, posição de smartphone" → o ângulo certo pra parecer self-recording
- "leve tremida orgânica" → e essa é a chave: vídeo perfeito demais = óbvio que é pago. Tremida = humano.
- "UGC raw, sem filtro, autêntico" → diz ao modelo o estilo final (sem isso, ele faz cinematográfico)
- "9:16, 15 segundos" → formato de Reels/Stories, duração de Meta Ads
Prompt 2 — Abertura cinematográfica de YouTube Short
Caso de uso: você quer um clipe de 5 segundos pra abrir um Short e prender o espectador no primeiro segundo.
Drone FPV voando rápido por uma rua urbana ao amanhecer,
prédios espelhados refletindo luz dourada, neblina baixa
no nível do chão. Câmera mergulha entre os prédios e desce
pra altura humana em um beco com placas de néon vermelho
e azul. Iluminação golden hour combinada com practical
neon lights. Motion blur sutil, profundidade de campo
cinematográfica. Estilo Blade Runner moderno, photoreal,
hyper-detailed. 16:9, 5 segundos, 60fps.
Por que funciona:
- "Drone FPV voando rápido" → tipo de movimento que vicia o olho (TikTok algorítmico ama isso)
- "amanhecer + golden hour" + "prédios espelhados" → reflexos dourados = alta percepção de qualidade
- "câmera mergulha entre os prédios e desce" → movimento composto, dá a sensação de plano-sequência caro
- "neblina baixa no chão" → atmosfera, separa do banal
- "practical neon" + "vermelho e azul" → contraste de cor que segura atenção
- "Estilo Blade Runner moderno, photoreal" → referência cinematográfica que o modelo entende
- "60fps" → vídeo "fluido", sensação premium
Prompt 3 — Reels de produto e-commerce
Caso de uso: você vende um produto físico (cosmético, eletrônico, café) e quer destacar o objeto de forma desejável.
Close-up extremo de um perfume de luxo em frasco
âmbar transparente sobre superfície de mármore preto
molhada. Gotas de água escorrendo pela lateral do
frasco, reflexos dourados na tampa. Background escuro
com leve fumaça translúcida. Iluminação low-key com
key light dourada vindo da direita e rim light suave
pelas costas. Câmera orbitando lentamente 180 graus
ao redor do frasco, focando nos detalhes. Estilo
commercial cinemático, ultra-detailed, premium beauty
ad. 9:16, 8 segundos.
Por que cada elemento puxa olho:
- "close-up extremo" → enche a tela com o produto
- "frasco âmbar transparente" + "gotas de água" → texturas premium ativam reação visual
- "superfície de mármore preto molhada" → "molhada" = reflexo extra
- "low-key + key light dourada + rim light" → setup clássico de fotografia de produto de luxo
- "câmera orbitando 180 graus" → você vê o produto de vários ângulos sem cortes
- "premium beauty ad" → palavra final que dispara o estilo "Sephora / Chanel"
Workflow profissional fim a fim — 1 vídeo de 30s em 30 minutos
Como um profissional usa Claude + Higgsfield pra criar conteúdo recorrente:
Etapa 1 — Briefing (2 min)
Você descreve em pt-BR pro Claude o objetivo:
"Reels de 30s pro meu curso de finanças. Público: mulheres 25-35 que querem sair das dívidas. CTA: link na bio. Estilo: 70% cena UGC com personagem fixo + 30% texto animado."
Etapa 2 — Roteiro (3 min)
Claude escreve o roteiro segmentado em 4 cenas. Você ajusta 1-2 frases.
Etapa 3 — Personagem (3 min, só na primeira vez)
Pede pro Claude treinar um Soul ID com 5-10 fotos de referência (pode ser uma pessoa fictícia que você gerou no Soul 2.0 antes). Treino dura ~3 minutos.
A partir daqui, esse "ator IA" aparece em todos teus vídeos com o mesmo rosto.
Etapa 4 — Geração das cenas (15-20 min)
Claude pega o roteiro + Soul ID + um prompt-base que você definiu, e gera as 4 cenas em paralelo. Cada cena: 5-15 segundos.
Etapa 5 — Pós (5 min)
Você baixa os clipes, junta no editor (CapCut, Premiere, ou até no Higgsfield mesmo), adiciona legendas e música. Pronto.
Tempo total: ~30 minutos.
Custo: ~3-5 créditos do Higgsfield (cerca de $0,30 a $0,80 em USD no plano Basic). Comparado a uma filmagem real de 30 segundos: R$ 500 a R$ 2.000 se usar atriz freelancer + diretor.
E o resultado tem qualidade indistinguível pro feed do Instagram. Pra cliente que quer escalar criativo, é mudança de patamar.
7 erros que dão "cara de IA" — e como evitar
Esses são os tells que entregam que o vídeo é gerado:
-
Mãos com 6 dedos ou tortas — modelos antigos sofriam, Cinema Studio 3.5 e Seedance 2.0 já resolveram pra 90% dos casos. Se ainda aparecer: regenera ou descreve melhor a posição da mão no prompt.
-
Texto borrado em letreiros, placas, telas — os modelos não geram texto bem. Solução: não inclui texto na cena, adiciona depois no editor de vídeo.
-
Mudança brusca de objeto entre frames — copo muda de cor no meio do clipe, óculos somem. Solução: clipes mais curtos (5-7s em vez de 15s) reduzem isso.
-
Iluminação sem fonte clara — luz parece vir de lugar nenhum. Solução: sempre descreve a fonte ("luz de janela à esquerda", "lâmpada do teto").
-
Movimento sem ritmo natural — pessoa anda como robô. Solução: prompts com palavras tipo "natural movement, casual stride, organic body language".
-
Cara plástica / waxy skin — pele lisa demais, sem poro. Solução: usa Soul 2.0 (foi otimizado pra textura de pele) e adiciona "natural skin texture, visible pores, realistic".
-
Cabelo travado — não se mexe com vento, parece capacete. Solução: descreve dinâmica do cabelo: "hair gently moving with breeze, soft strands".
Se algo deu errado no setup — troubleshooting
Os erros mais comuns no setup:
Erro 1: command 'claude' not found
Você não tem o Claude Code instalado.
Solução: vai pro tutorial de instalação, instala, fecha e abre o terminal de novo. Testa claude --version.
Erro 2: MCP server "higgsfield" already exists
Você já rodou esse comando antes. Pra remover e adicionar de novo:
claude mcp remove higgsfield
claude mcp add --transport http higgsfield https://mcp.higgsfield.ai/mcpErro 3: Aba do navegador não abre
Em alguns sistemas o Claude não consegue abrir o navegador automaticamente. Manualmente: copia a URL que aparece no terminal e cola no navegador. Continua o fluxo de autorização normalmente.
Erro 4: Tela de autorização aparece mas dá erro de "scope" ou "permission denied"
Sua conta Higgsfield pode estar com algum problema de permissão.
Solução:
- Faz logout do Higgsfield no navegador
- Faz login de novo
- Tenta a autorização do Claude novamente
- Se persistir, vai em Settings → API no painel Higgsfield e revoga apps autorizados anteriores. Tenta de novo.
Erro 5: "Insufficient credits" ao gerar
Você esgotou os credits do plano Free (acontece rápido com vídeo).
Solução:
- Solução temporária: gera só imagem em vez de vídeo (gasta menos credits)
- Solução real: assina o Basic ($9/mês) que dá 150 credits/mês — vale pra quem vai usar de verdade
Erro 6: Imagem/vídeo demora muito (mais de 2 min)
Higgsfield pode estar com fila grande de gerações no plano Free.
Solução:
- Espera mais (pode chegar a 5-10 min em horário de pico no Free)
- Plano pago tem prioridade — cai pra ~30s
- Confere status.higgsfield.ai se há incidente
Erro 7: Vídeo gerado tem qualidade baixa / "cara de IA"
Não é erro de setup — é prompt fraco. Pula pra seção do prompt profissional lá em cima e refaz seguindo a estrutura Sujeito + Ambiente + Iluminação + Câmera + Estilo.
Outro erro qualquer?
Cola o erro completo num Claude novo e pede: "como resolvo esse erro do Higgsfield MCP?". Em 95% dos casos resolve.
Se não, manda email pra ola@mestredoclaude.com.br com o print.
Direitos de uso e disclosure honesto
Antes de subir esse vídeo no Meta Ads ou no teu funil:
Importante antes de monetizar
- Plano Free = vídeo com marca d'água + não pode ser usado comercialmente. Se você postar em ad pago ou usar em produto, tá violando os termos.
- Plano pago ($9+/mês) = comercial liberado. Você pode usar em ads, posts, infoproduto, e-commerce.
- Disclosure de IA: o Meta tá ficando rigoroso com criativos gerados por IA. Recomendação atual: marca o ad como "AI-generated content" no campo do Ads Manager se ele tiver pessoa "atriz" gerada.
- Soul ID treinado em pessoa real: se você treinar usando fotos de uma pessoa de verdade (você mesmo, um cliente, um amigo), pede consentimento por escrito. Direitos de imagem se aplicam mesmo em conteúdo gerado.
- Voz: Higgsfield gera vídeo, não áudio. Pra voz, use ElevenLabs, OpenAI TTS, ou grave a tua. Se clonar voz de alguém, mesma regra: consentimento.
Resumão — TL;DR
- Higgsfield AI é a fábrica de vídeo cinematográfico mais avançada hoje, com 30+ modelos especializados.
- Conecta no Claude com 1 comando (
claude mcp add ... higgsfield ...) — sem chave manual, OAuth no browser e pronto. - Plano Free é pra testar (marca d'água, sem comercial). Pra produção real, Basic $9/mês é o piso.
- Modelos principais: Soul 2.0 (foto realista), Soul ID (ator fixo), Cinema Studio 3.5 (vídeo cinema), Seedance 2.0 (movimento natural).
- Prompt profissional segue 5 partes: Sujeito + Ambiente + Iluminação + Câmera + Estilo. Sem isso = look genérico.
- Workflow real: 1 vídeo de 30s em ~30 minutos, custando $0,30-0,80, vs filmagem tradicional de R$ 500-2 mil.
Próximos passos
Você tem dois caminhos pra continuar:
1. Cadastra teu email aqui em cima pra receber os próximos posts. Tô preparando o comparativo Higgsfield vs Sora vs Veo, e o tutorial de como criar um ator IA fixo que vira a cara da tua marca.
2. Combina com outras skills do site pra fechar o funil completo:
- Humanizer — pra que o roteiro do vídeo não soe "feito por IA"
- TikTok Script Writer — escreve o roteiro nativo de TikTok que o algoritmo curte
- Instagram Reels — estrutura de Reels que segura attention
- Video Marketing — estratégia ampla pra vídeo orgânico
3. Pra ir mais fundo (nível avançado):
- Documentação oficial do Higgsfield MCP — em inglês, atualizada
- Cinema Studio 3.5 — guia oficial do modelo de cinema
- OSideMedia/higgsfield-ai-prompt-skill — repo open-source com 20 sub-skills do Claude Code que automatizam prompt cinematográfico (MCSLA formula, Soul ID, Kling Motion Control)
- AKCodez/higgsfield-claude-skills — 19 skills pra automatizar pipeline UGC inteiro com Playwright
Esse é o caminho. Não é mágica, é processo. Quem entende o processo escala. Quem fica clicando em ferramentas, fica pra trás.
Bora gravar.
Continua a leitura

Como publicar site no Netlify com Claude Code (1 comando, sem cadastro)
Você fala 'publica isso no Netlify' e o Claude entrega um link funcionando. Pra teste de landing, lead magnet, portfólio ou prévia pro cliente — sem cadastro, sem cartão.
Ler
Como conectar o Claude Code ao Supabase em 1 comando (sem perder a cabeça)
Em vez de copiar e colar o schema do Supabase no Claude toda vez, conecta uma vez e pronto — ele entende seu banco sozinho.
Ler
Como construir uma voz de marca que o Claude Code replica em qualquer canal (skill brand-voice)
Voz de marca não é decidir 3 adjetivos. É auditar 6 meses do seu conteúdo e extrair o padrão. Essa skill faz isso e devolve um VOICE PROFILE que o Claude usa em tudo que escrever depois.
Ler