Sem resultados
Ver todos os resultados
O Folha de Minas
  • Notícias
    • Gerais
    • Agropecuária
    • Brasil
    • Cidades
    • Economia
    • Internacional
    • Política
    • Turismo
  • Esportes
  • Cultura e Entretenimento
  • Educação
  • Ciência e Tecnologia
  • Saúde
  • Colunas
    • Ediel Ribeiro
    • Lenin Novaes
    • Nilson Lattari
    • Geraldo Ribeiro
    • João Baptista Herkenhoff
  • Notícias
    • Gerais
    • Agropecuária
    • Brasil
    • Cidades
    • Economia
    • Internacional
    • Política
    • Turismo
  • Esportes
  • Cultura e Entretenimento
  • Educação
  • Ciência e Tecnologia
  • Saúde
  • Colunas
    • Ediel Ribeiro
    • Lenin Novaes
    • Nilson Lattari
    • Geraldo Ribeiro
    • João Baptista Herkenhoff
Sem resultados
Ver todos os resultados
O Folha de Minas
Sem resultados
Ver todos os resultados
Home Ciência e Tecnologia

DeepSeek: ‘Molho secreto’ da IA chinesa é revelado por pesquisadores da Apple

O DeepSeek é tão bom quanto o ChatGPT e foi bem mais barato de desenvolver; pesquisadores da Apple revelam segredo da IA chinesa

Por Redação
29 de janeiro de 2025 - 12:13
em Ciência e Tecnologia

Foto: Solen Feyissa / Unsplash 

CONTINUA DEPOIS DA PUBLICIDADE

O DeepSeek pegou usuários e mercado de inteligência artificial (IA) de surpresa nesta semana. O que surpreende na IA chinesa é uma combinação de fatores. Primeiro, ela aparentemente ser tão boa quanto seus rivais estadunidenses (ChatGPT, por exemplo). Segundo, seu desenvolvimento ter sido mais barato em comparação a modelos de IA dos EUA. Mas como isso é possível? Pesquisadores da Apple explicam.

Vale explicar: a Apple não tem ligação com a DeepSeek. A big tech toca suas próprias pesquisas de IA regularmente. Por isso, fica de olho em trabalhos de empresas tanto dos EUA quanto de fora do país – como a startup de IA chinesa.

O relatório no qual os pesquisadores explicam o “molho secreto” do DeepSeek, intitulado “Parâmetros vs FLOPs: Leis de Escala para a Esparsidade Ótima para Modelos de Linguagem Mistos de Especialistas“, foi publicado na semana passada – antes do “boom”, no servidor de pré-impressão arXiv. De tudo que você acabou de ler neste parágrafo, guarde apenas este termo: esparsidade.

Segredo do DeepSeek é a esparsidade – mas o que isso significa (e como é aplicado) na IA chinesa?
O termo “esparsidade” pode parecer estranho, mas existe (confira exemplos aqui e aqui). É um fenômeno explorado por uma abordagem ampla dentro da aprendizagem profunda (deep learning). O objetivo é simples: extrair mais dos chips de computador.

CONTINUA DEPOIS DA PUBLICIDADE

Justamente por integrar uma abordagem ampla, a esparsidade se apresenta de várias formas. Às vezes, envolve eliminar partes dos dados usados pela IA quando eles não afetam materialmente o resultado do modelo. Outras vezes, envolve cortar partes de uma rede neural, se isso não afetar o resultado final.

A DeepSeek fez o segundo no desenvolvimento do DeepSeek R1, “motor” do chatbot que ficou popular nesta semana. O autor principal do artigo em questão, Samir Abnar, da Apple, e outros pesquisadores da big tech estudaram como o desempenho variava à medida que exploravam a esparsidade desligando partes da rede neural. Harshay Shah, do MIT, também colaborou.

O principal avanço identificado na DeepSeek é que ela pode ligar e desligar grandes seções dos “pesos” ou “parâmetros” de uma rede neural. Os parâmetros são o que molda como uma rede neural pode transformar a entrada – o comando (prompt) que você digita – em texto ou imagens.

Usar alguns dos parâmetros totais de um modelo de linguagem grande e desligar o restante é um exemplo de esparsidade. E ela pode ter um grande impacto no orçamento computacional de um modelo de IA.

O que pesquisadores da Apple investigaram
Abnar e sua equipe realizaram seus estudos usando uma biblioteca de código lançada em 2023 por pesquisadores de IA da Microsoft, Google e Stanford, chamada MegaBlocks. Mas eles deixam claro que seu trabalho é aplicável ao DeepSeek.

Eles questionam se há um nível “otimizado” para a esparsidade no DeepSeek e modelos semelhantes. Em outra palavras: para uma quantidade dada de poder computacional, existe um número ideal de pesos neurais para ligar ou desligar?

Para uma rede neural de um tamanho dado em parâmetros totais, com uma quantidade dada de computação, são necessários cada vez menos parâmetros para atingir a mesma ou melhor precisão em teste de benchmark de IA, como matemática ou perguntas e respostas.

Simplificando: seja qual for o seu poder computacional, você pode desligar partes da rede neural e obter os mesmos resultados (ou até melhores).

Outra inovação do DeepSeek é um truque matemático chamado “atenção latente multi-cabeça”. Em suma, a atenção latente multi-cabeça é usada para comprimir um dos maiores consumidores de memória e largura de banda: o cache de memória que mantém o texto mais recente de um prompt, conforme explicado no Epoch AI.

O que você precisa entender
Essa descoberta explica como o DeepSeek consegue ter menos poder computacional e alcançar o mesmo ou melhor resultado. O segredo é: desligar mais e mais partes da rede neural.

“A esparsidade é uma espécie de dial mágico que encontra a melhor combinação do modelo de IA que você tem e o poder computacional disponível”, conforme explicado pelo ZDNet.

O que tudo isso significa: o DeepSeek é um exemplo saído de uma área ampla de pesquisa já explorada por muitos laboratórios. Agora, muitos outros provavelmente irão segui-la para replicar o sucesso do DeepSeek. A ver quais ideias vão vingar.

Fonte: Olhar Digital

Tags: DeepSeekIA
Redação

Redação

Central de jornalismo

MATÉRIAS RELACIONADAS

Estudo identifica reprodução de anfíbios em cavernas da Serra do Espinhaço
Ciência e Tecnologia

Estudo identifica reprodução de anfíbios em cavernas da Serra do Espinhaço

Por Redação
27 de janeiro de 2026 - 14:42
Ciência e Tecnologia

Falha global na Cloudflare causa instabilidade e derruba serviços pelo mundo

Por Redação
18 de novembro de 2025 - 14:22

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Mais lidas

  • Bloco convocado por Nikolas para pedir anistia a Bolsonaro tem adesão muito abaixo do esperado em BH

    Bloco convocado por Nikolas para pedir anistia a Bolsonaro tem adesão muito abaixo do esperado em BH

    0 Compartilhamentos
    Compartilhamento 0 Tweet 0
  • Filme brasileiro “O Agente Secreto” vence Spirit Awards nos EUA

    0 Compartilhamentos
    Compartilhamento 0 Tweet 0
  • Abono salarial começa a ser pago para nascidos em janeiro nesta segunda

    0 Compartilhamentos
    Compartilhamento 0 Tweet 0
  • FLOREAL, O NOSSO BASQUIAT

    0 Compartilhamentos
    Compartilhamento 0 Tweet 0
  • Tema Lula agita Carnaval

    0 Compartilhamentos
    Compartilhamento 0 Tweet 0

Recomendado

Justiça obriga Unimed BH a custear cirurgias pós-bariátrica

Justiça obriga Unimed BH a custear cirurgias pós-bariátrica

4 dias atrás
Cinema brasileiro chega em peso ao Oscar 2026 com ‘O Agente Secreto’

Filme brasileiro “O Agente Secreto” vence Spirit Awards nos EUA

14 horas atrás

Programa Universidade para Todos: prazo para entregar documentos termina nesta sexta

3 dias atrás
  • Como anunciar
  • Contato
  • Sobre
  • Expediente
  • Política Editorial
  • Política de Correções

© 2025 Badu Editora Ltda. Todos os direitos reservados.
O Folha de Minas | (31) 3831-7884 | folhamg@ofolhademinas.com.br
redacao@ofolhademinas.com.br

Sem resultados
Ver todos os resultados
  • Home
  • Política
  • Internacional
  • Economia
  • Saúde
  • Cidades
  • Cultura e Entretenimento
  • Esportes
  • Turismo
  • Ciência e Tecnologia

© 2025 Badu Editora Ltda. Todos os direitos reservados.
O Folha de Minas | (31) 3831-7884 | folhamg@ofolhademinas.com.br
redacao@ofolhademinas.com.br