O problema
A análise de performance esportiva de ponta existe há anos: rastreamento biomecânico, mapas de calor táticos, análise de carga por segmento. Clubes da Serie A, franquias da NBA e federações olímpicas operam com câmeras de alta velocidade, sensores de GPS e equipes dedicadas de analistas de dados.
Para o restante da pirâmide esportiva (categorias de base, clubes regionais, seleções universitárias), essa infraestrutura é financeiramente inviável. O treinador da categoria sub-17 do interior de Minas decide a escalação com base em observação e experiência. Não porque dados não ajudariam, mas porque os dados nunca estiveram disponíveis.
O Projeto Apex partiu de uma premissa: câmeras de smartphone já têm resolução e taxa de quadros suficientes para extrair dados de performance com modelos de visão computacional modernos. O que faltava era a pipeline de processamento.
A abordagem técnica
Detecção e rastreamento
O núcleo do sistema é um modelo YOLOv11 fine-tuned em dataset esportivo proprietário para detecção de atletas, bola e elementos de campo. Fine-tuning foi necessário porque modelos genéricos performam mal nas condições reais de gravação esportiva: câmera em movimento, oclusão parcial por outros atletas, variação de iluminação, ângulos não-controlados.
O dataset de treinamento foi construído a partir de 180 horas de vídeo coletado em jogos amadores e de base, anotado semi-automaticamente com revisão manual em casos de baixa confiança. A escolha de focar em condições reais, não estúdio, foi deliberada: o modelo precisa funcionar no mesmo ambiente em que o técnico vai usar.
O rastreamento usa ByteTrack sobre as detecções do YOLO, mantendo identidade consistente de atletas ao longo do vídeo mesmo em frames com oclusão parcial ou saída momentânea do campo da câmera.
class AthleteTrack(BaseModel):
track_id: int
bbox: BoundingBox
confidence: float
team: Literal["home", "away", "unknown"]
position_field: Point2D # coordenadas normalizadas do campo
velocity: Vector2D | None
acceleration: float | None
A câmera de smartphone capta em perspectiva, não em vista superior. Para calcular distâncias reais percorridas, velocidades e posicionamento tático, é necessário mapear as coordenadas de pixel para coordenadas reais do campo.
A homografia é calculada automaticamente a partir da detecção das marcações do campo: linhas laterais, círculo central, área. Quando as marcações estão parcialmente visíveis (câmera em ângulo lateral), o sistema usa as marcações disponíveis com um prior sobre as dimensões padrão da modalidade para completar a estimativa.
Esse módulo foi o que mais limitou a precisão em condições adversas: campos sem marcação clara, iluminação que lava as linhas brancas, câmera muito baixa. Está em desenvolvimento ativo.
Sobre o rastreamento contínuo, um segundo modelo detecta eventos: passe, chute, interceptação, falta, marcação em bloco, transição ataque-defesa. Cada evento é categorizado com timestamp, atletas envolvidos e contexto posicional.
O Claude 3.5 entra como camada de interpretação: recebe a sequência de eventos detectados num segmento de jogo e gera uma análise em linguagem natural orientada ao técnico.
prompt = f"""
Você é um analista de futebol. Abaixo estão os eventos do primeiro tempo detectados automaticamente.
Eventos: {eventos_json}
Gere um resumo tático de 3 parágrafos para o técnico, destacando:
1. Padrão dominante de construção de jogo
2. Zona de maior pressão defensiva sofrida
3. Uma recomendação de ajuste para o segundo tempo
Seja direto e específico. Não use adjetivos genéricos.
"""
O resultado não substitui o olho do técnico: complementa. O profissional recebe dados que ele não conseguiria extrair manualmente enquanto está na beira do campo gerenciando a equipe.
Pipeline de processamento
O vídeo gravado no smartphone é enviado pelo aplicativo React após o jogo ou treino. O processamento acontece em backend FastAPI com fila de trabalhos assíncronos: detecção, rastreamento, homografia, extração de eventos, geração de relatório.
A latência de menos de 8 segundos por segmento de 30 segundos foi atingida com otimizações de batch no modelo e processamento paralelo de segmentos independentes. Para um jogo de 90 minutos, o relatório completo fica disponível em menos de 25 minutos após o upload.
Red Bull Basement 2026
O Red Bull Basement é uma competição global de inovação universitária que avalia startups em fase inicial por potencial de impacto, viabilidade técnica e escalabilidade. A etapa nacional brasileira de 2026 reuniu projetos de 34 universidades.
O Projeto Apex chegou à final nacional, top 5 do Brasil na edição, com avaliação dos jurados centrada em dois aspectos: a validade técnica da abordagem (demonstrada com benchmark ao vivo) e o tamanho do mercado potencial (democratização de analytics esportivo para a base da pirâmide).
A competição funcionou como validação independente: avaliadores sem vínculo com o projeto julgaram a proposta como tecnicamente sólida e comercialmente viável.