AI for trueα
Garantir vaga
· Sprint de lançamento · 05/05/2026

Antes de publicar, preveja.

Mini-curso sobre TRIBE v2 (Meta) aplicado à criação de conteúdo. Pare de adivinhar hook e comece a validar reação neural — antes de publicar.

700+
voluntários treinaram o modelo
70×
resolução vs modelo anterior
~10 min
análise de 1 vídeo via Colab
· Proof of Concept · Abril 2026

Testei isso num reel meu. Viralizou sem paid media.

Rodei TRIBE v2 no Google Colab, analisei um vídeo do meu Instagram, integrei com Gemini pra traduzir o output neural em decisão. Resultado: reel viral com R$ 0 em tráfego pago.

· Reel original · @josecarlosamorim.ai
· O que o cérebro viu
PICO 127s
primeira ativação forte — ancora de atenção
VALE 143s
queda momentânea — transição narrativa
PICO 21m12s
clímax neural — reveal da ferramenta
QUEDA1m38s
saída natural — CTA final

“Estamos diante do maior mecanismo de neuromarketing já feito no mundo.”

· O manifesto em 3 atos

Três inimigos em sequência. Uma doença só — opinião vendida como evidência.

2014 — 2024
CLICKBAIT

Dez anos de redação. Eu vi a manchete mentir pra gerar clique. O inimigo da era do jornalismo era o sensacionalismo vendido como verdade.

2023 — 2026
ACHISMO

Virei criador. O inimigo mudou: guru postando framework mágico sem dado. Decisão criativa no “eu acho”. Chega de achismo.

2026 →
HYPE

Fui ao Vale do Silício. Chegou o terceiro. Alarde sobre IA vendido como revelação. E agora, também, tem antídoto técnico.

Antídoto único: curadoria com rigor jornalístico.

Princípio: Evidência sobre Opinião.

· A ferramenta · TRIBE v2 (Meta)

Um modelo que age como gêmeo digital do cérebro humano.

A Meta liberou em março de 2026 um modelo fundacional treinado em fMRI de 700+ voluntários. Aceita vídeo, áudio e texto. Retorna predição de atividade cerebral por região. Open source. Você roda no Colab.

RELEASE
26 / 03 / 2026
Meta AI
VOLUNTÁRIOS
700+
treinaram o modelo
INPUTS
vídeo · áudio · texto
multimodal
OUTPUT
fMRI prediction
alta resolução
RESOLUÇÃO
70×
vs TRIBE v1
LICENÇA
CC BY-NC
open source

O curso NÃO vende TRIBE v2 (licença não comercial). Ensina metodologia de aplicação: Colab → Análise → Gemini → Decisão criativa.

· Como funciona · arquitetura do modelo

3 inputs. 3 encoders. Uma predição neural.

TRIBE v2 recebe vídeo, áudio e texto em paralelo, processa em encoders especializados, integra num transformer e prevê atividade cerebral por subject block. Abaixo a arquitetura simplificada.

VIDEO
AUDIO
T
TEXT
Lê o vídeo
frame a frame, identifica cenas, cortes, movimento
V-JEPA2
Escuta o áudio
fala, música, silêncio — tudo que entra pelo ouvido
wav2vec 2.0
Entende o texto
legenda, narração e palavra falada
Llama 3.2
01 · INTEGRAÇÃO
Cruza os 3 sinais
imagem + som + palavra juntos — igual o cérebro faz ao assistir
02 · PREDIÇÃO
Prevê a reação cerebral
aponta onde o cérebro ativa, segundo a segundo

Adaptado do paper oficial Meta FAIR. O modelo alcança zero-shot em novos sujeitos, línguas e tarefas — o que permite rodar análise em qualquer vídeo seu, sem retreino.

· Framework proprietário · Picos · Vales · Quedas™

Três padrões universais em qualquer vídeo. Quem ignora, paga caro em alcance.

01 · PICOS
Onde o cérebro acende?

Identificar os 2-3 momentos de maior ativação neural no vídeo — o que você deve amplificar.

02 · VALES
Onde o interesse cai?

Pontos de queda de atenção. Onde a pessoa quase dá tchau. Onde você precisa cortar ou reformular.

03 · QUEDAS
Onde ela abandona?

O ponto exato de saída. Diferente de vale — aqui a pessoa fecha. Pergunta certa: por quê?

No curso, você recebe o framework Picos · Vales · Quedas™ em PDF + 5 estudos de caso reais onde a gente aplica.

· 6 módulos · ~4h total

De zero a primeira análise publicada — em uma semana.

01
Fundamentos — o que é predição neural

Sem academese. Direto ao ponto: como TRIBE v2 prediz, por que isso importa pra quem cria conteúdo, limitações honestas.

ENTREGA · Vídeo + referências científicas curadas
~20 min
02
Setup — Google Colab + TRIBE v2 em 10 minutos

Do zero ao primeiro output. Sem programar. Notebook pronto pra clonar.

ENTREGA · Walkthrough + notebook template copy-paste
~25 min
03
Análise — como ler mapa de calor cerebral

Tudo branco vs colorido. Ativação vs ausência. Região por região — sem virar neurocientista.

ENTREGA · Vídeo + checklist de interpretação
~30 min
04
Framework Picos · Vales · Quedas™

Os 3 padrões universais que a gente usa em QUALQUER vídeo pra decidir reformular, cortar ou publicar.

ENTREGA · PDF framework + 5 exemplos reais
~40 min
05
Prompt Engineering — Gemini / Claude

Como traduzir output neural bruto em insight conversacional. Prompts validados pros principais LLMs.

ENTREGA · 12 prompts prontos + vídeos de uso
~30 min
06
Aplicação — Reel, VSL, anúncio, carrossel

Cada formato com seu padrão de análise. Decisão criativa orientada a sinal neural, não ao achismo.

ENTREGA · 4 estudos de caso completos
~45 min
· Bônus inclusos · turma 1

Três bônus exclusivos pra primeira turma.

BÔNUS B1
Biblioteca · 20 análises pré-gravadas

20 vídeos virais (MrBeast, campanhas Super Bowl, criadores BR) já analisados no TRIBE v2 — cada um com breakdown de picos, vales e quedas.

VALOR · R$ 597
BÔNUS B2
Comunidade privada · 3 meses

Grupo fechado com a turma. Análises semanais de vídeos membros, discussões, estudos de caso novos quando saem.

VALOR · R$ 297
BÔNUS B3
Notebook Colab modificável + updates

Notebook customizado AI for true — com labels, comentários e preset de análise. Acesso vitalício a atualizações (quando TRIBE v3 sair, você ganha).

VALOR · Priceless
· Investimento · Turma 1 aberta

Valor percebido: R$ 3.897. Preço da turma 1:

· O que está incluso
Acesso TRIBE v2 via Colab (antes inacessível)
6 módulos do mini-cursoR$ 1.500
Framework Picos · Vales · Quedas™R$ 500
12 prompts Gemini/Claude validadosR$ 500
4 estudos de caso completosR$ 800
Bônus 1 — biblioteca 20 análisesR$ 597
Bônus 2 — comunidade 3 mesesR$ 297
· Turma 1 · 50 vagas
R$ 597
à vista · ou 12× no cartão via Hotmart
Garantir vaga agora
Pagamento processado pela Hotmart
✓ Acesso vitalício ao curso
✓ Comunidade 3 meses
✓ Análise 1:1 agendada
✓ 7 dias de garantia incondicional
· Perguntas que recebi no DM

Respostas sem rodeio.

Preciso saber programar?+

Não. O curso usa Google Colab — tudo no navegador. Você clona o notebook, sobe o vídeo, e roda. Sem código escrito por você.

O Colab é pago?+

Tier gratuito do Google Colab roda o modelo. Pra análises muito pesadas pode precisar Colab Pro (~R$ 60/mês), mas é opcional.

Funciona com vídeos em português?+

Sim. TRIBE v2 foi treinado em inputs multimodais e faz zero-shot pra novas línguas e tarefas. Seu reel em PT-BR funciona.

Serve pra VSL e anúncio, não só reels?+

Sim. O curso tem 4 estudos de caso cobrindo reel, carrossel, VSL e anúncio pago. O framework se aplica a qualquer mídia com áudio/vídeo.

Não é meio enganação esse negócio de 'ler cérebro'?+

É predição estatística baseada em fMRI real de 700 voluntários. Não é leitura mística. E o curso inclui limitações honestas do modelo — você aprende o que ele faz e o que NÃO faz.

Vou ter acesso ao TRIBE v2 por dentro do curso?+

A Meta liberou TRIBE v2 como open source sob licença CC BY-NC (não comercial). O curso te ensina COMO ACESSAR e USAR, via Colab. A ferramenta é gratuita para uso pessoal/educacional.

Quanto tempo pra ver resultado?+

Após o módulo 2 (~45 min), você já gerou sua primeira análise. Após módulo 4 (~2h), você tem framework pra decidir criativo. Método aplicável no mesmo dia.

E se eu não gostar?+

7 dias de garantia incondicional. Devolução 100%, sem pergunta. Suporte pelo email.