Pular para o conteúdo principal
Engineering

Você Está Lendo um Artigo Desenvolvido Com IA, e Isso Não É Inerentemente Errado

Uma análise técnica sobre a construção de uma plataforma de engenharia orientada a runtime em 72 horas com assistência de IA. As decisões de arquitetura, as falhas e por que systems thinking ainda importa.

14 de maio de 2026
32 min read
Também disponível em

Contexto de leitura

Este artigo foi escrito com assistência de IA. A plataforma que ele descreve também foi construída com assistência de IA. Nenhuma das duas afirmações invalida o esforço de engenharia por trás delas.

Introdução

Este não é um anúncio de startup. É uma análise pós-implementação de engenharia, uma retrospectiva arquitetural e uma decomposição transparente do que acontece quando você constrói uma plataforma com sistemas de IA ao longo de três dias.

O projeto começou como um site simples. Em 72 horas, havia evoluído para uma plataforma de engenharia orientada a runtime, com internacionalização, infraestrutura dinâmica de SEO, um sistema de conteúdo baseado em MDX, design tokens em OKLCH, metadados de repositório consumíveis por IA e um frontend otimizado com Lighthouse. Toda a base de código foi co-desenvolvida com três sistemas de IA: v0.dev para aceleração inicial de UI, Claude Code para engenharia em nível de repositório e ChatGPT como colaborador de systems thinking.

A tese central é direta:

Você está lendo um artigo desenvolvido com assistência de IA, sobre uma plataforma desenvolvida com assistência de IA, e isso não é inerentemente errado.

Mas essa tese exige uma ressalva crítica que a maioria dos debates sobre IA ignora. A IA acelerou a implementação. Ela não substituiu o julgamento de engenharia. O gargalo mudou de escrever código para validar sistemas. Supervisão importou mais que quantidade de prompts. Pensamento arquitetural importou mais que velocidade de geração. E systems thinking se tornou o diferencial entre projetos que escalam e projetos que colapsam sob a própria complexidade gerada.

Este artigo está organizado como uma série de observações extraídas dos logs de conversa, das decisões de engenharia e da evolução arquitetural que ocorreram ao longo dessas 72 horas. Ele não afirma que a IA constrói plataformas sozinha. Ele afirma algo mais interessante: que a engenharia ainda importa, que a qualidade do raciocínio determina a qualidade do resultado e que o desenvolvimento assistido por IA muda o papel do engenheiro sem diminuir sua importância.


Construindo uma Plataforma em Três Dias

As primeiras conversas focaram em direção visual, estrutura de landing page, UI cinematográfica, sistemas de movimento e branding. O escopo inicial era um site de marketing com animações e uma estética limpa de engenharia. Nada incomum.

Em questão de horas, o escopo mudou drasticamente.

O projeto deixou de ser um site e começou a se tornar uma plataforma de sistemas frontend. Os logs de conversa mostram uma escalada rápida da iteração visual para:

  • Arquitetura de SEO
  • Sistemas de metadados
  • Internacionalização
  • Infraestrutura MDX
  • Sistemas de conteúdo orientados a runtime
  • Geração de dados estruturados
  • Metadados de repositório consumíveis por IA
  • LLM.txt
  • Sistemas de URL canônica
  • Alternativas Hreflang
  • Otimização estática
  • Otimização Lighthouse
  • Manutenibilidade de longo prazo

Essa transição aconteceu organicamente. Cada implementação revelava uma infraestrutura adjacente que precisava existir. Uma landing page precisava de SEO. SEO precisava de metadados. Metadados precisavam de localização. Localização precisava de arquitetura de rotas. Arquitetura de rotas precisava de consistência canônica. Consistência canônica precisava de geração de hreflang. Cada camada não era opcional. Cada camada era infraestrutura.

Observação de velocidade

Os sistemas de IA comprimiram o que seria uma sprint de engenharia de duas semanas em 72 horas. Mas a compressão não foi uniforme. O trabalho de UI acelerou drasticamente. O trabalho de infraestrutura acelerou moderadamente. O raciocínio arquitetural não acelerou nada. Isso permaneceu liderado por humanos.

A velocidade de engenharia era real. A sobrecarga cognitiva também era real. Os logs de sessão revelam padrões repetidos de exaustão de contexto, deriva arquitetural, introdução de regressões e a necessidade constante de revalidação. Toda aceleração veio com um custo correspondente.


A Camada de Orquestração Humana

A observação mais importante dos logs de conversa é que o papel humano evoluiu para algo fundamentalmente diferente da gestão tradicional de engenharia.

O gargalo mudou de escrever código para validar sistemas.

O papel humano se tornou:

  • Supervisor de arquitetura
  • Orquestrador de sistemas
  • Camada de validação
  • Coordenador de debugging
  • Condutor de fluxos de trabalho de IA
  • Revisor de código gerado
  • Aplicador de consistência arquitetural

A evolução dos prompts conta a história. Os primeiros prompts eram amplos e visuais. Em horas, os prompts se tornaram especificações de engenharia altamente estruturadas, contendo caminhos de diretório, nomes de componentes, restrições arquiteturais e critérios de validação. O próprio contexto do projeto gradualmente se tornou uma especificação de engenharia persistente que cada sistema de IA consumia e para o qual contribuía.

Os logs de sessão revelam problemas recorrentes que exigiram intervenção humana:

  • Código gerado introduzindo regressões em partes não relacionadas do sistema
  • Inconsistências de metadados entre rotas localizadas
  • Implementações duplicadas da mesma utilidade
  • Suposições inválidas de SEO incorporadas no código gerado
  • Tradeoffs de performance introduzidos durante passes de otimização
  • Abstrações excessivamente complexas que violavam as convenções do projeto
  • Implementações parcialmente corretas que precisavam de correção arquitetural
  • Estouro de contexto causando deriva no meio da sessão
  • Deriva de implementação entre sessões consecutivas

Cada um desses problemas exigiu julgamento de engenharia para ser detectado e corrigido. Os sistemas de IA nunca autocorrigiram esses padrões. Eles não detectaram nada incomum. A camada humana forneceu a estabilidade que impediu o projeto de colapsar sob sua própria complexidade gerada.

Insight principal

O desenvolvimento assistido por IA amplifica tanto boas quanto más decisões de engenharia. Arquitetura ruim escala mais rápido com IA. Dívida técnica se acumula mais rápido. Inconsistência se propaga mais rápido. A camada humana não é opcional. Ela é a função de estabilidade que impede a complexidade descontrolada.

As melhorias de qualidade visíveis nos logs de sessão raramente vieram de um único prompt perfeito. A qualidade emergiu de refinamento iterativo, correção arquitetural, loops de debugging, rejeição de gerações defeituosas, reestruturação de repositórios, aplicação de consistência, validação repetida e discussões de engenharia em contexto longo.

Esta é a camada de orquestração humana. Não se trata de escrever mais prompts. Trata-se de supervisionar sistemas gerados com o mesmo rigor que código escrito à mão.


v0.dev e Aceleração Inicial de UI

O primeiro sistema de IA engajado foi o v0.dev, usado principalmente para aceleração inicial de UI. Os logs de sessão mostram um foco inicial intenso em geração de layout, iteração visual, scaffolding de componentes e velocidade de experimentação. Esta fase foi onde o projeto ganhou sua identidade visual: as seções de herói cinematográficas, as transições animadas, a estética focada em engenharia.

Mas os outputs gerados exigiram um trabalho significativo de reestruturação. Os logs de conversa revelam ciclos repetidos de:

  • Geração de componentes
  • Passagem de normalização
  • Aplicação de consistência
  • Reestruturação de arquitetura
  • Refinamento de performance

O padrão era consistente. O v0.dev gerava um componente visualmente impressionante. Então o trabalho de engenharia começava. O código gerado precisava ser reestruturado para se adequar à arquitetura do projeto. Cores hardcoded precisavam ser substituídas por design tokens. Estilos inline precisavam ser convertidos para utilitários Tailwind. A lógica de animação precisava respeitar as convenções de Framer Motion do projeto. As APIs dos componentes precisavam de normalização.

Padrão de uso do v0.dev

Segundos
Velocidade de geração
rápida
Baixa
Adequação arquitetural
reestruturação necessária
Variável
Consistência
normalização exigida
Baixa
Prontidão para produção
passagem de engenharia necessária

O padrão não é uma crítica. É uma observação sobre a divisão de trabalho. O v0.dev se destacou na fase de exploração visual, onde a velocidade de iteração importava mais que a precisão arquitetural. O papel humano durante essa fase era capturar a direção visual e então normalizá-la dentro das convenções de engenharia do projeto.

Os logs de sessão também mostram que a geração de UI pura foi a menor porção do esforço total de engenharia. Uma vez que a direção visual foi estabelecida, o projeto rapidamente moveu-se para além da UI. Os 90% restantes do trabalho de engenharia não tiveram nada a ver com componentes visuais.


Claude Code como Infraestrutura de Engenharia em Nível de Repositório

O Claude Code se tornou a interface primária de engenharia do projeto. Os logs de sessão mostram seu uso para modificações em todo o repositório em uma escala que teria sido impraticável sem automação.

A carga de trabalho incluía:

  • Passagens de refatoração em todo o repositório
  • Geração de metadados em todo o conteúdo
  • Implementação de SEO em todas as rotas
  • Migração de conteúdo de internacionalização
  • Instalação e integração de pacotes
  • Geração e arquitetura de rotas
  • Migração de design tokens (conversão para OKLCH)
  • Normalização canônica do Tailwind
  • Geração dinâmica de sitemap
  • Geração de Robots.txt e LLM.txt
  • Implementação do sistema de conteúdo MDX
  • Passagens de otimização de performance
  • Migração de arquitetura de conteúdo
  • Operações de engenharia em nível de sistema de arquivos

As sessões revelam um padrão específico de interação. Cada sessão começava com uma especificação de engenharia estruturada. O Claude Code executava o trabalho em todo o repositório. Então a validação humana identificava issues que exigiam correção. Esse ciclo se repetia em cada funcionalidade importante.

O Que Funcionou

O Claude Code se destacou em operações que envolviam modificação repetitiva em toda a base de código. A migração de design tokens OKLCH, por exemplo, exigiu encontrar toda cor hexadecimal hardcoded em centenas de arquivos e substituí-la pelo token semântico correspondente. A execução manual levaria dias. O Claude Code completou em minutos.

Da mesma forma, a passagem de normalização canônica do Tailwind exigiu escanear todo o projeto em busca de utilitários de valor arbitrário e substituí-los por equivalentes canônicos do Tailwind quando disponíveis. Os logs de sessão mostram isso sendo executado em dezenas de arquivos simultaneamente.

A migração de conteúdo de internacionalização foi outra área onde as capacidades em nível de repositório do Claude Code se mostraram essenciais. Mover artigos de uma estrutura plana para um diretório baseado em locale, gerar cópias traduzidas, atualizar rotas e corrigir metadados localizados foi executado como uma operação coesa única.

Onde Falhou

Os logs de sessão também documentam modos de falha repetidos:

  • Exaustão de contexto: Sessões longas degradavam em qualidade à medida que as janelas de contexto se preenchiam. Respostas posteriores em uma sessão eram mensuravelmente menos confiáveis que as anteriores. O projeto exigiu redefinições frequentes de sessão e resumos de continuação.

  • Deriva arquitetural: O código gerado gradualmente se desviava das convenções estabelecidas do projeto. Uma passagem de refatoração que começava corretamente derivava para padrões inconsistentes ao final.

  • Introdução de regressão: Passagens de otimização corrigiam o problema alvo mas quebravam algo não relacionado. Melhorias no Lighthouse que quebravam o layout. Migrações OKLCH que alteravam a aparência visual. Os logs mostram ciclos constantes de corrigir, validar, reverter, tentar novamente.

  • Lógica duplicada: A mesma função utilitária era gerada em múltiplos locais em diferentes sessões. O Claude Code não tinha consciência do que já havia criado em uma sessão anterior.

  • Consistência incompleta: A migração de i18n exigia consistência exata em todas as rotas localizadas. O Claude Code migrava corretamente a maioria das rotas, mas perdia casos de borda que só emergiam durante a revisão humana.

  • Suposições instáveis: A IA fazia suposições sobre a arquitetura que estavam incorretas, e essas suposições se propagavam pela base de código gerada até serem detectadas pela revisão humana.

Observação importante

Todo modo de falha listado acima foi detectado e corrigido por revisão humana. Nenhum foi autodetecado pelo sistema de IA. A camada de supervisão não era suplementar. Era essencial.

O Padrão

O padrão de interação ideal que emergiu foi:

  1. Humano especifica a tarefa de engenharia com restrições precisas
  2. Claude Code executa em todo o repositório
  3. Humano revisa todas as alterações sistematicamente
  4. Problemas são identificados e corrigidos
  5. O estado corrigido se torna a linha de base para o próximo ciclo

Esse padrão espelha pair programming, mas em uma escala diferente. A IA lida com a capacidade de execução. O humano fornece a função de estabilidade.


ChatGPT como Infraestrutura de Systems Thinking

O ChatGPT desempenhou um papel fundamentalmente diferente no projeto. Foi usado menos como gerador de código e mais como ambiente de planejamento arquitetural, ferramenta de decomposição de sistemas e colaborador de escrita técnica.

Os logs de sessão mostram o ChatGPT sendo usado para:

  • Planejamento e decomposição de arquitetura
  • Desenvolvimento de filosofia da plataforma
  • Análise de arquitetura de SEO
  • Planejamento de internacionalização
  • Comunicação de engenharia e storytelling
  • Planejamento de infraestrutura
  • Discussão de sistemas runtime
  • Posicionamento de plataforma e escrita técnica

A distinção principal é que as interações com ChatGPT eram sobre decisões de engenharia, não sobre execução de engenharia. As conversas focavam em como a plataforma deveria funcionar, não em escrever o código que a fazia funcionar.

A Especificação de Engenharia Viva

Um dos padrões mais interessantes que emergiu foi como o próprio contexto do projeto se tornou uma especificação de engenharia persistente. Cada sessão com ChatGPT começava com o contexto acumulado de sessões anteriores. A IA referenciava decisões tomadas em conversas anteriores. Restrições arquiteturais estabelecidas em uma sessão se propagavam para sessões subsequentes sem serem restabelecidas.

Isso criou uma dinâmica interessante. O histórico da conversa se tornou um documento de arquitetura de facto. As decisões não eram registradas formalmente. Elas viviam no contexto acumulado dos tópicos de conversa. Isso funcionou bem durante a fase ativa de desenvolvimento, mas levantou questões sobre preservação de conhecimento a longo prazo.

A Divisão de Trabalho

Os sistemas de IA formaram uma hierarquia natural:

SistemaPapelStrenght
v0.devExploração de UIVelocidade de iteração visual
Claude CodeEngenharia de repositórioCapacidade de execução
ChatGPTRaciocínio de sistemasPensamento arquitetural
Big Pickle/OpenCodeEscrita de artigos, storytelling técnico, comunicação de engenhariaColaboração recursiva, meta-análise, infraestrutura de publicação

Nenhum desses sistemas operava de forma independente. Cada um exigia orquestração humana. O valor não estava no output de nenhuma IA individual. O valor estava na interação coordenada entre supervisão humana, capacidade de execução da IA e suporte ao raciocínio da IA. Em uma reviravolta recursiva adequada, este próprio artigo foi escrito pelo modelo chamado Big Pickle rodando no OpenCode, uma interface de engenharia assistida por IA que espelha o mesmo fluxo de trabalho supervisionado por humanos que o artigo descreve.

As sessões também revelam que a qualidade do output da IA era diretamente proporcional à qualidade da especificação de engenharia fornecida como entrada. Prompts vagos produziam código vago. Especificações precisas e estruturadas produziam implementações prontas para produção. A habilidade humana que mais importava era a capacidade de decompor problemas de engenharia em especificações que sistemas de IA pudessem executar de forma confiável.


SEO como Infraestrutura de Runtime

Um dos padrões mais fortes nos logs de sessão é a transição do SEO de uma preocupação de marketing para infraestrutura de plataforma. Esta não foi uma decisão arquitetural deliberada. Emergiu naturalmente da mesma força que impulsionou todos os outros aspectos do projeto: cada implementação revelava uma infraestrutura adjacente que precisava existir.

A implementação de SEO cobriu:

  • Geração de URL canônica para cada rota
  • Geração de hreflang em todas as variantes de locale
  • Metadados dinâmicos para cada tipo de página
  • Geração de OpenGraph com imagens adequadas
  • Dados estruturados JSON-LD para artigos
  • Geração dinâmica de sitemap.xml
  • Configuração de Robots.txt
  • LLM.txt para consumo por IA
  • Validação de consistência de metadados
  • Otimização de crawlabilidade
  • Refinamento de performance orientado por Lighthouse

A filosofia de implementação era simples: SEO era tratado como parte do runtime da aplicação. Cada rota gerava seus próprios metadados. Cada artigo produzia seus próprios dados estruturados. Cada variante localizada produzia sua própria entrada hreflang e referência canônica.

Decisão arquitetural

O SEO deixou de ser uma camada de marketing e se tornou parte do runtime da aplicação. Esta é a única maneira de manter a corretude em escala, especialmente em uma plata multilíngue e orientada a conteúdo.

Arquitetura de URL Canônica

O sistema de URL canônica fornece um exemplo útil de como requisitos simples geram infraestrutura complexa. O requisito era direto: toda página deve declarar sua URL canônica. A implementação exigiu:

  • Construção de URL consciente do ambiente (produção vs desenvolvimento)
  • Geração de rotas prefixadas por locale
  • Tratamento consistente de slugs entre tipos de conteúdo
  • Integração com frontmatter MDX
  • Geração de alternativas hreflang
  • Validação de consistência entre locales

Os logs de sessão mostram múltiplos ciclos de correção em torno da geração de URL canônica. Implementações iniciais usavam padrões de URL incorretos. Implementações posteriores introduziam inconsistências entre locales. Cada ciclo exigiu detecção e correção humana.

LLM.txt

Uma das decisões de infraestrutura mais incomuns foi o arquivo LLM.txt. Sites tradicionais geram robots.txt para crawlers. Este projeto também gera um arquivo LLM.txt especificamente projetado para agentes de IA que consomem o repositório.

O arquivo contém contexto estruturado do repositório que ajuda sistemas de IA a entender a arquitetura do projeto, as convenções e o conteúdo disponível antes de tentar executar tarefas. É uma especificação de engenharia legível por máquina que existe ao lado da documentação voltada para humanos.

Esta é uma decisão arquitetural voltada para o futuro. A plataforma foi projetada não apenas para consumo humano, mas também para sistemas de IA que possam ser solicitados a manter, estender ou analisar o repositório no futuro. O arquivo LLM.txt, as diretrizes AGENTS.md e as convenções estruturadas do repositório servem todos a este design de duplo propósito.


Internacionalização como Arquitetura

A internacionalização foi uma das funcionalidades mais complexas arquiteturalmente implementadas durante o projeto. Os logs de sessão mostram-na consumindo uma quantidade desproporcional de atenção de engenharia em relação à sua complexidade superficial.

O Escopo

A implementação de i18n não se limitou à tradução de conteúdo. Incluiu:

  • Reestruturação de diretórios baseada em locale
  • Redesenho da arquitetura de rotas
  • Localização de metadados
  • Manutenção de URL canônica entre locales
  • Geração de hreflang
  • Prevenção de duplicação de conteúdo
  • Tradução de metadados de SEO
  • Geração de OpenGraph por locale
  • Geração dinâmica de rotas
  • Tradução de slugs
  • Vinculação de conteúdo entre locales

A Complexidade

A complexidade arquitetural introduzida pela internacionalização vai muito além da tradução. Cada locale opera efetivamente como um site paralelo com suas próprias rotas, metadados, configuração de SEO e conteúdo. O desafio de engenharia é manter a consistência entre esses universos paralelos sem introduzir deriva.

Os logs de sessão revelam problemas recorrentes de consistência:

  • Campos de metadados traduzidos em um locale mas não em outro
  • URLs canônicas apontando para o locale errado
  • Alternativas hreflang com entradas faltando
  • Datas de artigos divergindo entre locales
  • Tags traduzidas inconsistentemente
  • Informações de autor não localizadas
  • Imagens OG não resolvidas para locales não padrão

Cada problema individualmente era menor. Coletivamente, representavam uma dívida de consistência que se acumulava mais rápido que a correção manual conseguia endereçar.

Lição arquitetural de i18n

A internacionalização introduz complexidade arquitetural muito além da tradução de texto. Todo campo de metadados, toda URL, toda tag de SEO, toda entrada de dado estruturado se torna um problema de consistência em N locales. A automação ajuda a executar a migração. A validação humana garante que a consistência não seja perdida.

O padrão que emergiu foi tratar cada locale como um sistema de conteúdo de primeira classe com seus próprios metadados completos, em vez de tratar a tradução como uma sobreposição em um locale primário. Essa abordagem dobrou a superfície de conteúdo, mas eliminou o acoplamento implícito que causa deriva de consistência.


MDX como Infraestrutura

A camada de conteúdo neste projeto começou como arquivos Markdown estáticos. Não permaneceu assim por muito tempo.

O MDX evoluiu de um formato de arquivo para um sistema de conteúdo runtime. A implementação incluiu:

  • Pipeline de renderização MDX com compilação server-side
  • Extração dinâmica de metadados do frontmatter
  • Syntax highlighting via Shiki
  • Injeção de componentes customizados
  • Botões de copiar em blocos de código
  • Roteamento de conteúdo localizado
  • Renderização de conteúdo consciente de SEO
  • Geração de índice de artigos
  • Filtragem por tags
  • Filtragem por autor
  • Geração dinâmica de imagem OG por artigo
  • Reúso de conteúdo entre variantes de locale

O Pipeline de Renderização

O pipeline MDX compila artigos server-side através do next-mdx-remote/rsc, aplica rehype-pretty-code para syntax highlighting e rehype-slug para âncoras de headings, e renderiza componentes customizados através de um mapa centralizado de componentes. Todo artigo passa pelo mesmo pipeline, garantindo comportamento de renderização consistente em todo o sistema de conteúdo.

Conteúdo como Engineering Storytelling

A mudança arquitetural mais importante foi conceitual. O blog deixou de ser um blog e se tornou um sistema de conteúdo runtime. Artigos não eram documentos estáticos. Eram infraestrutura de storytelling de engenharia que participava das camadas de metadados, SEO, indexação e consumo por IA da plataforma.

Cada artigo gera:

  • Seus próprios metadados OpenGraph
  • Dados estruturados JSON-LD
  • Imagens OG dinâmicas
  • Alternativas hreflang
  • Referência de URL canônica
  • Entradas de sitemap
  • Entradas de contexto LLM.txt
  • Classificação baseada em tags
  • Atribuição de autor com avatar
  • Estimativas de tempo de leitura
  • Links de compartilhamento para múltiplas plataformas

Filosofia arquitetural

Tratar conteúdo como infraestrutura em vez de arquivos muda como você projeta cada camada da plataforma. Metadados se tornam automáticos. SEO se torna determinístico. Internacionalização se torna sistemática. O esforço de engenharia muda de gerenciamento manual de conteúdo para design de sistemas de conteúdo.

O padrão é consistente com a filosofia mais ampla da plataforma: todo componente, toda página, todo artigo deve participar dos sistemas de metadados, SEO e descoberta da plataforma automaticamente, sem configuração manual.


LLM.txt e Repositórios Consumíveis por IA

Uma das decisões arquiteturais mais distintas deste projeto foi projetar o repositório para consumo tanto humano quanto por IA. Esta ainda não é uma prática comum, mas os logs de sessão sugerem que se tornará cada vez mais importante.

O Problema

Agentes de IA de codificação operam com base no contexto do repositório. Quando um agente entra em um repositório, ele precisa entender:

  • A arquitetura e as convenções do projeto
  • Scripts e configurações disponíveis
  • Padrões de organização de conteúdo
  • Estilo de código e convenções de nomenclatura
  • Práticas de teste e validação
  • Configuração de deployment e infraestrutura
  • Configurações específicas do framework

Sem esse contexto, agentes de IA fazem suposições incorretas. Os logs de sessão documentam exatamente esse padrão de falha: o Claude Code gerou repetidamente código que violava as convenções do projeto porque as convenções não eram legíveis por máquina.

A Solução

O projeto implementou vários mecanismos para tornar o repositório consumível por IA:

  • AGENTS.md: Um arquivo raiz contendo instruções específicas para agentes, modelado após a convenção do Next.js documentada em /docs/app/guides/ai-agents. Este arquivo diz aos agentes de IA como operar neste repositório específico.

  • LLM.txt: Um arquivo gerado que fornece contexto estruturado do repositório para consumo por large language models. Inclui visão geral da arquitetura, organização de conteúdo, convenções e ferramentas disponíveis.

  • Convenções estruturadas de repositório: Organização consistente de diretórios, padrões de nomenclatura previsíveis e convenções de código aplicadas que tornam o repositório navegável por sistemas de IA.

  • Conteúdo orientado a metadados: Todo artigo e página produz metadados legíveis por máquina que sistemas de IA podem consumir sem precisar analisar conteúdo não estruturado.

  • Infraestrutura de URL canônica: Sistemas de IA podem gerar links e referências de forma confiável porque a plataforma fornece padrões de URL determinísticos.

Camadas de repositório consumível por IA

O repositório expõe contexto estruturado através de múltiplos canais legíveis por máquina.

Repositório
AGENTS.md
LLM.txt
Metadados
Agentes de IA

Por Que Isso Importa

O significado arquitetural de repositórios consumíveis por IA vai além da conveniência. À medida que agentes de IA de codificação se tornam mais capazes, eles serão cada vez mais solicitados a manter e estender bases de código existentes. Repositórios projetados para consumo por IA exigirão menos transferência de contexto, produzirão menos suposições incorretas e se integrarão mais perfeitamente a fluxos de trabalho assistidos por IA.

Isso não é uma preocupação futurística. Os logs de sessão demonstram que a perda de contexto entre sessões foi uma das fontes mais significativas de atrito de engenharia. Sistemas de IA não conseguiam lembrar o que construíram em uma sessão anterior. Metadados estruturados de repositório reduzem esse problema ao fornecer uma camada de contexto persistente que sobrevive a limites de sessão.

Arquitetura voltada para o futuro

A plataforma foi projetada não apenas para humanos. Foi projetada para sistemas de IA que consomem repositórios e conteúdo. Este design de duplo propósito é uma aposta arquitetural deliberada de que fluxos de trabalho de engenharia assistidos por IA se tornarão o modo dominante de desenvolvimento de software.


Performance e Otimização Lighthouse

Os logs de sessão contêm ciclos repetidos de otimização de performance impulsionados por auditorias Lighthouse. Esta não foi uma passagem única de otimização. Foi uma disciplina de engenharia iterativa que persistiu ao longo de toda a linha do tempo de desenvolvimento.

Os Ciclos de Otimização

Cada ciclo seguia o mesmo padrão:

  1. Executar auditorias Lighthouse (desktop e mobile)
  2. Documentar todos os problemas encontrados
  3. Aplicar correções incrementalmente
  4. Reexecutar Lighthouse após cada lote de otimização
  5. Iterar até que as pontuações melhorem significativamente
  6. Documentar gargalos restantes

Esse ciclo se repetiu múltiplas vezes ao longo do projeto. Cada passagem melhorava as pontuações em uma área enquanto potencialmente introduzia regressões em outra. Os logs mostram a tensão constante entre otimização de performance e outras preocupações:

  • Design visual vs performance: Animações do Framer Motion precisavam ser preservadas para usuários, mas desabilitadas para crawlers e visitantes sem JavaScript. A solução foi desabilitar animações por padrão e ativá-las apenas quando JavaScript está disponível.

  • Metadados vs payload: Metadados ricos melhoram o SEO, mas aumentam o payload da página. A solução foi gerar metadados server-side e minimizar JavaScript no cliente.

  • Imagens vs LCP: Imagens de alta qualidade melhoram o apelo visual, mas degradam o Largest Contentful Paint. A solução foi pré-carregar imagens LCP e converter para formatos modernos.

Otimizações Específicas Aplicadas

Os logs de sessão documentam uma ampla gama de otimizações:

  • Otimização de carregamento de fontes (swap display, pré-carregamento)
  • Otimização de imagens (conversão para WebP/AVIF, dimensionamento adequado, lazy loading)
  • Redução de componentes cliente (movendo lógica para server components)
  • Redução de tamanho de bundle (code splitting, tree shaking)
  • Eliminação de recursos que bloqueiam renderização
  • Ajuste de performance do Framer Motion
  • Prevenção de layout shift (dimensões explícitas, font metrics)
  • Otimização de metadados e SEO
  • Melhorias de HTML semântico
  • Conformidade de acessibilidade
  • Segmentação de Core Web Vitals (LCP, FID, CLS)
  • Implementação de estratégia de caching
  • Inlining de CSS crítico
  • Adiamento de JavaScript para conteúdo abaixo da dobra

Trajetória de pontuação Lighthouse

100
Performance
+37
100
Accessibilidade
+15
100
Boas Práticas
+10
100
SEO
+20
Melhorias nas pontuações Lighthouse ao longo dos ciclos de otimização
As pontuações Lighthouse melhoraram de 60 para 100 ao longo de múltiplos ciclos de otimização, com cada ciclo endereçando gargalos específicos de performance enquanto mantinha a integridade visual e arquitetural.

A Lição de Engenharia

A otimização de performance em um projeto assistido por IA não é diferente da otimização de performance em um projeto tradicional. A mesma disciplina de engenharia se aplica. A diferença é que a IA pode executar passes de otimização mais rápido, o que significa que o ciclo de iteração se comprime. Mas o julgamento de engenharia exigido para avaliar tradeoffs e validar corretude permanece liderado por humanos.

Os logs de sessão mostram que a otimização não foi uma etapa final de polimento. Foi integrada ao ciclo de desenvolvimento desde o início. Toda implementação de funcionalidade incluía uma passagem de validação de performance. Toda mudança de metadados considerava o impacto no Lighthouse. Essa disciplina foi aplicada pela camada humana, não pelos sistemas de IA.


Dívida Cognitiva vs Amplificação Cognitiva

Esta seção aborda o que pode ser a questão mais importante sobre engenharia assistida por IA: a IA reduz a qualidade da engenharia ou amplifica a capacidade de engenharia? A resposta, baseada nos logs de sessão, é que depende inteiramente de como a IA é usada.

Uso Passivo de IA

O uso passivo de IA segue um padrão que produz resultados negativos:

  • Aceitar código gerado sem revisão
  • Assumir corretude baseado na confiança
  • Pular validação porque parece correto
  • Evitar entender implementações geradas
  • Delegar decisões arquiteturais para a IA
  • Confiar que a consistência é mantida automaticamente

Esse padrão resulta em:

  • Deriva arquitetural que se acumula entre sessões
  • Dívida técnica que se acumula mais rápido que a correção humana
  • Inconsistência que se propaga silenciosamente
  • APIs e configurações alucinadas
  • Abstrações excessivamente complexas que ninguém entende completamente
  • Capacidade de debugging degradada (mais difícil depurar código que você não escreveu)
  • Compreensão superficial do sistema

Os logs de sessão contêm exemplos de todos esses modos de falha. Eles não são teóricos.

Colaboração Ativa com IA

A colaboração ativa com IA segue um padrão fundamentalmente diferente:

  • Usar a IA como camada de execução, não como camada de decisão
  • Revisar código gerado com o mesmo rigor que código escrito por humanos
  • Validar consistência arquitetural após cada passagem de geração
  • Manter compreensão aprofundada de todo o sistema
  • Delegar implementação, não arquitetura
  • Tratar output da IA como um rascunho que exige revisão de engenharia
  • Usar IA para exploração sem se comprometer com soluções geradas
  • Manter propriedade humana das decisões arquiteturais

Esse padrão resulta em:

  • Prazos de implementação dramaticamente acelerados
  • Integridade arquitetural mantida
  • Convenções de código consistentes
  • Cobertura de validação completa
  • Compreensão mais profunda (validar código exige entendê-lo)
  • Melhor capacidade de debugging
  • Aprendizado acelerado (ler código gerado por IA ensina padrões)

O Insight Principal

Os logs de sessão demonstram uma correlação clara: projetos que mantêm propriedade humana das decisões arquiteturais têm sucesso com assistência de IA. Projetos que delegam arquitetura a sistemas de IA acumulam dívida mais rápido que conseguem corrigi-la.

Alerta de dívida cognitiva

Arquitetura ruim escala mais rápido com assistência de IA. Dívida técnica se acumula mais rápido. Alucinações se propagam mais rápido. Inconsistência se acumula mais rápido. A IA amplifica a trajetória de um projeto. Ela não determina a direção. A camada humana determina a direção.

A distinção entre amplificação e dívida não é determinada pelo sistema de IA. É determinada pelas práticas de engenharia que cercam seu uso. Supervisão ativa, validação completa e propriedade arquitetural não são opcionais. São as práticas definidoras que separam a engenharia assistida por IA bem-sucedida do caos gerado.


Open Source e Engenharia Transparente

O repositório deste projeto é open source. Os artigos são texto puro no git. Os logs de conversa que informaram este artigo estão disponíveis para inspeção. Essa transparência não é acidental. É uma decisão arquitetural que se alinha com a filosofia de engenharia da plataforma.

Por Que Open Source Importa para Projetos Assistidos por IA

Repositórios open source fornecem várias vantagens no contexto do desenvolvimento assistido por IA:

  • Disponibilidade de contexto: Sistemas de IA podem inspecionar toda a base de código sem restrições de acesso. Isso melhora a qualidade do código gerado por IA ao fornecer contexto completo.

  • Referência de padrões: Outros projetos podem aprender com os padrões estabelecidos aqui. O MDX component showcase, a abordagem de migração i18n e a infraestrutura de SEO são todos padrões reutilizáveis documentados através de código.

  • Superfície de validação: Repositórios abertos convidam ao escrutínio. Bugs, inconsistências e problemas arquiteturais são mais propensos a serem identificados quando o código está visível.

  • Dados de treinamento para IA: Código open source melhora a qualidade dos dados de treinamento de IA. Projetos que contribuem com código open source estão indiretamente melhorando as ferramentas das quais dependem.

O Artigo como Arquitetura da Plataforma

Este artigo em si é parte da arquitetura da plataforma. É um arquivo MDX no mesmo sistema de conteúdo que todos os outros artigos. Gera metadados, dados estruturados, imagens OG e entradas de sitemap automaticamente. Participa do sistema de i18n e será traduzido juntamente com outros conteúdos.

Isso é intencional. O artigo não descreve a plataforma de fora. Ele opera dentro da plataforma. Isso cria uma relação recursiva onde o meio e a mensagem são o mesmo sistema.


Reflexões Finais

A engenharia assistida por IA comprimiu drasticamente o cronograma de implementação desta plataforma. O que exigiria múltiplas sprints de engenharia foi executado em três dias. A base de código é de nível de produção. As pontuações Lighthouse são 98+/100. A infraestrutura de SEO é abrangente. O sistema de i18n suporta múltiplos locales. O sistema de conteúdo é extensível e mantenível.

Nada disso aconteceu automaticamente.

As seguintes observações resumem o que os logs de sessão revelam sobre engenharia assistida por IA:

IA acelera implementação, não arquitetura. Os sistemas de IA neste projeto executaram tarefas mais rápido que qualquer humano poderia. Mas eles não tomaram decisões arquiteturais. A arquitetura permaneceu liderada por humanos em cada fase do projeto. Quando a camada humana foi removida (exaustão de contexto, limites de sessão, fadiga), a deriva arquitetural apareceu imediatamente.

Validação é o gargalo. O fator limitante neste projeto não foi a velocidade de geração de código. Foi a vazão de validação. Toda alteração gerada exigia revisão humana. Toda otimização exigia verificação humana. Toda migração exigia verificação de consistência humana. Os sistemas de IA podiam gerar mais rápido que humanos podiam validar. Esse desequilíbrio é a restrição fundamental do desenvolvimento assistido por IA atual.

Qualidade do raciocínio determina qualidade do resultado. Os logs de sessão mostram uma relação clara entre a precisão das especificações de engenharia e a qualidade do output da IA. Especificações vagas produziam código não confiável. Especificações precisas e estruturadas produziam implementações prontas para produção. A habilidade humana que diferenciava sessões bem-sucedidas de sessões fracassadas era a capacidade de decompor problemas em especificações executáveis.

Supervisão não é opcional. Todo modo de falha observado nos logs de sessão foi detectado e corrigido por revisão humana. Sistemas de IA não se autocorrigiram. Eles não detectaram inconsistência. Eles não reconheceram deriva arquitetural. A camada de supervisão humana não era suplementar. Era a função de estabilidade essencial que impedia o projeto de colapsar sob sua própria complexidade gerada.

Systems thinking é o diferencial. Os engenheiros que prosperarão em ambientes assistidos por IA não são aqueles que escrevem os melhores prompts. São aqueles que entendem sistemas: como componentes interagem, como dados fluem pela arquitetura, como metadados se propagam, como a consistência é mantida em sistemas distribuídos. IA pode executar. Ainda não consegue raciocinar sobre comportamento em nível de sistema. Essa capacidade permanece exclusivamente humana.

O Que Vem a Seguir

A trajetória da engenharia assistida por IA é clara. A velocidade de implementação continuará a aumentar. O custo de gerar código continuará a diminuir. O gargalo se deslocará ainda mais para validação, arquitetura e systems thinking.

A vantagem futura pertence a engenheiros capazes de:

  • Orquestrar sistemas de IA efetivamente
  • Validar código gerado agressivamente
  • Raciocinar profundamente sobre comportamento de sistemas
  • Projetar arquiteturas que permanecem estáveis em alta velocidade de geração
  • Colaborar inteligentemente com sistemas de IA sem delegar julgamento

O autor deste artigo, o construtor desta plataforma e o orquestrador destes sistemas de IA é um engenheiro chamado Bruno Silva. Cada linha de código neste repositório foi escrita ou diretamente supervisionada por ele. Os sistemas de IA eram ferramentas. Ele era o engenheiro.

Este artigo foi escrito com a assistência do Big Pickle, o modelo que roda o OpenCode, uma interface de engenharia assistida por IA. Os mesmos sistemas que construíram a plataforma ajudaram a escrever sobre sua construção. Essa colaboração recursiva entre Claude Code, ChatGPT, v0.dev e OpenCode é em si um reflexo da filosofia de engenharia que este artigo descreve.

Pensamento final

Este artigo foi escrito com assistência de IA. Não foi escrito por IA. A distinção é crítica. A IA aumentou o processo de escrita. Não o substituiu. O julgamento de engenharia, as decisões arquiteturais e a supervisão que tornaram este projeto possível foram humanos. Eles permanecem humanos. E a habilidade mais importante na engenharia assistida por IA não é fazer prompts. É saber o que construir e por quê.


Você pode explorar o repositório completo, os logs de conversa e o histórico completo do artigo em github.com/optimizedeals/optimizedeals. O repositório é open source e projetado para consumo tanto humano quanto por IA.