O DeepSeek não copiou o raciocínio do OpenAI: ele o reinventou do zero e é isso que é revolucionário
DeepSeek mostrou que é possível criar modelos com habilidades avançadas de raciocínio usando principalmente aprendizado por reforço
Com o R1, o DeepSeek conseguiu algo que parecia impossível: treinar um modelo de IA com capacidades de raciocínio comparáveis às do OpenAI... mas sem depender de enormes conjuntos de dados rotulados.
Sua abordagem baseada em aprendizado por reforço abre a porta para muitos outros grupos desenvolverem IAs avançadas.
Porque isso importa
Este avanço muda as regras que assumimos no desenvolvimento de IA. Até agora, criar modelos com capacidade de raciocínio exigia enormes quantidades de dados rotulados e recursos computacionais apenas ao alcance de gigantes como OpenAI, Meta ou Google.
O DeepSeek mostrou que há um caminho alternativo muito mais eficiente.
Nos bastidores
O processo de treinamento do DeepSeek R1 é dividido em duas fases principais:
- Primeiro, o R1-Zero aprende a raciocinar exclusivamente por meio de aprendizado por reforço, explorando soluções por tentativa e erro.
- O R1 então refina essas capacidades com uma pequena quantidade de dados de "inicialização a frio" para melhorar aspectos como legibilidade.
O modelo usa uma arquitetura Expert Mix (MoE) com 671 bilhões de parâmetros totais, mas ativa apenas 37 bilhões por consulta. É isso que permite que você obtenha desempenho comparável ao o1 do OpenAI com uma fração dos recursos computacionais.
Contraste
Enquanto o OpenAI investe centenas de milhões em dados rotulados e computação, o DeepSeek obteve resultados semelhantes com menos de US$ 6 milhões (investimento declarado, cerca de R$ 34,1 milhões).
...
Matérias relacionadas
Aprenda a instalar o DeepSeek no seu computador e usá-lo localmente no Windows, macOS e GNU/Linux