DeepSeek: IA que parece pensar é fetiche da vez – 10/02/2025 – Tec

Автор
11 Leitura mínima

A startup chinesa DeepSeek recentemente desbancou o ChatGPT no ranking dos aplicativos de inteligência artificial, e parte do motivo para deslumbrar o público foi oferecer, de graça, a ideia mais sexy no universo da IA: um chatbot que “pensa” antes de responder à pergunta de um usuário.

O modo “DeepThink” do aplicativo responde a cada consulta com o texto “pensando…”, seguido por uma série de atualizações que parecem o chatbot conversando consigo mesmo enquanto descobre sua resposta final. O monólogo se desenrola com floreios coloquiais como “Espere”, “Hmm” ou “Aha”.

Chatbots que falam consigo mesmos antes de responder estão agora se espalhando à medida que rivais americanos correm para superar o momento viral da DeepSeek. Este estilo de assistente de IA pode ser mais preciso em algumas tarefas, mas também imita humanos, podendo esconder suas limitações.

A técnica de discussão interna, às vezes chamada de “raciocínio”, tornou-se tendência nos principais laboratórios de inteligência artificial no final do ano passado, depois que a OpenAI e o Google lançaram ferramentas de IA que obtiveram pontuações mais altas em testes de matemática e programação ao monologar através dos problemas, passo a passo.

No início, esse novo tipo de assistente não estava disponível para as massas: a OpenAI lançou um sistema chamado o1 em dezembro que custava US$ 200 por mês e mantinha seu funcionamento interno em segredo. Quando a DeepSeek lançou seu aplicativo “pensante” gratuitamente e também compartilhou o modelo de raciocínio R1 por trás dele, uma frenesi de desenvolvedores se seguiu.

“As pessoas estão animadas para aplicar essa nova abordagem em tudo o que for possível”, disse Nathan Lambert, pesquisador de IA do instituto sem fins lucrativos Allen Institute for AI.

Nas duas semanas desde que a ascensão da DeepSeek derrubou as ações de tecnologia dos EUA, a OpenAI disponibilizou gratuitamente parte de sua tecnologia de raciocínio dentro do ChatGPT e lançou uma nova ferramenta baseada nela chamada Deep Research, que pesquisa na web para compilar relatórios.

Na quarta-feira (5), o Google disponibilizou seu produto concorrente, Gemini 2.0 Flash Thinking Experimental, aos consumidores pela primeira vez, gratuitamente, através de seu aplicativo de IA Gemini.

No mesmo dia, a divisão de computação em nuvem da Amazon disse que estava apostando no “raciocínio automatizado” para conquistar a confiança dos usuários. No dia seguinte, a OpenAI fez com que o ChatGPT começasse a mostrar aos usuários uma versão polida das “correntes de pensamento” brutas de maneira semelhante à DeepSeek.

As empresas americanas em breve gastarão “centenas de milhões a bilhões” de dólares tentando potencializar essa abordagem de raciocínio em IA, previu Dario Amodei, diretor executivo da Anthropic, fabricante do chatbot Claude, em um ensaio sobre as implicações da estreia da DeepSeek na competição EUA-China.

A enxurrada de investimentos e atividades aumentou as esperanças da indústria tecnológica de construir software tão capaz e adaptável quanto os humanos, a partir de uma tática primeiro comprovada em problemas de matemática e computação. “Agora estamos confiantes de que sabemos como construir a AGI”, ou inteligência geral artificial, escreveu Sam Altman da OpenAI em um post no blog no mês passado.

A vice-presidente do Google para o aplicativo Gemini, Sissie Hsiao, disse em um comunicado que os modelos de raciocínio representam uma mudança de paradigma. “Eles desmistificam como a IA generativa funciona —tornando-a mais compreensível e confiável ao mostrar seus ‘pensamentos'”, ao mesmo tempo que ajudam em tarefas mais complexas, disse ela.

“À medida que introduzimos modelos de raciocínio para mais pessoas, queremos construir uma compreensão mais profunda de suas capacidades e como eles funcionam” para criar melhores produtos, disse o porta-voz da OpenAI, Niko Felix, em um comunicado. “Os usuários nos disseram que entender como o modelo raciocina através de uma resposta não apenas apoia uma tomada de decisão mais informada, mas também ajuda a construir confiança em suas respostas.”

BATENDO NO TETO

A obsessão do Vale do Silício com o raciocínio começou com a busca pelo próximo salto nos modelos de linguagem, a tecnologia que alimenta o ChatGPT.

A atenção conquistada pela OpenAI anteriormente ajudou a reunir o setor de tecnologia em torno de um paradigma simples para máquinas mais inteligentes: colocar mais dados e poder de computação em modelos de IA cada vez maiores para torná-los mais capazes.

Mas nos últimos anos essa fórmula confiável começou a estagnar. Os modelos de linguagem não estavam mais melhorando tão rapidamente nos benchmarks da indústria para matemática, ciência e lógica. E a maioria dos dados disponíveis na internet já havia sido raspada.

Em resposta, laboratórios de empresas como Google, OpenAI e Anthropic começaram a se concentrar em extrair melhor desempenho dos modelos de IA que já haviam criado.

Um truque promissor envolvia direcionar modelos de linguagem para dividir um problema em etapas chamadas “correntes de pensamento” em vez de responder em uma única tentativa —parte da técnica de raciocínio usada pela DeepSeek e outros. Isso força um modelo de IA a gastar mais tempo e poder de processamento respondendo a uma consulta.

A estratégia valeu a pena —especialmente quando combinada com uma técnica chamada aprendizado por reforço, que permitiu que computadores dominassem jogos como Go (espécie de jogo de damas japonês). Isso envolve direcionar como os sistemas de IA se comportam recompensando a resposta correta em inúmeras instâncias de tentativa e erro.

Essa estrutura se presta a domínios como matemática, lógica e codificação, onde os computadores podem verificar se a resposta final está correta. Ainda assim, as empresas careciam de dados que mostrassem como os humanos raciocinavam através dos problemas.

No início, tentaram contratar funcionários terceirizados para escrever os passos que tomavam ao responder perguntas, um método que se mostrou lento e caro.

Mas, à medida que a tecnologia de IA melhorou, ela pôde gerar de forma confiável inúmeros exemplos que imitavam “correntes de pensamento” escritas por humanos. Gradualmente, os pesquisadores puderam remover as pessoas do processo.

Em um relatório técnico publicado em janeiro, a DeepSeek afirmou que um de seus modelos de raciocínio anteriores, chamado R1-Zero, começou a mostrar longas “correntes de pensamento” apenas com os pesquisadores aumentando o número de rodadas de tentativa e erro que ele realizava, sem nenhum dado especialmente criado.

“Você está efetivamente configurando um ambiente onde o modelo muda seu comportamento por conta própria”, disse Lambert.

Alguns observadores argumentam que a empolgação com essa nova direção em IA ofuscou a discussão sobre seus limites.

Ainda é uma questão em aberto se “correntes de pensamento” refletem como um sistema de IA realmente processa informações, disse Subbarao Kambhampati, professor de ciência da computação na Universidade Estadual do Arizona.

O trabalho recente de Kambhampati sugere que as habilidades de raciocínio dos modelos de IA podem desmoronar se desafiadas em testes para aplicações do mundo real, como planejamento e agendamento.

Além disso, ele disse, os laboratórios que constroem esses modelos tendem a se concentrar na precisão das respostas finais, não se o raciocínio é sólido —uma qualidade difícil de medir.

Por exemplo, o artigo técnico da DeepSeek para o R1 observou que uma versão anterior de seu modelo forneceu respostas finais mais precisas quando suas correntes de pensamento misturavam texto em chinês e inglês. No entanto, seus pesquisadores optaram por um modelo que tagarelava consigo mesmo em inglês porque era mais agradável para os usuários.

Kambhampati argumenta que as empresas deveriam permitir que os chatbots “murmurem para si mesmos” da maneira que produzisse as respostas mais precisas, em vez de tentar tornar suas “correntes de pensamento” mais agradáveis para os humanos. “É melhor se livrar dessa antropomorfização. Não importa”, disse ele.

A indústria de IA parece estar indo em uma direção diferente. Modelos de raciocínio amplamente lançados desde o choque da DeepSeek no Vale do Silício incluem recursos de design que, como os do aplicativo chinês, incentivam os consumidores a acreditar que os “pensamentos” do software mostram que ele está raciocinando como um humano.

Na página inicial do ChatGPT, um botão de modo “Raciocínio” aparece de forma proeminente na caixa de chat. Em um post no X, Altman chamou “corrente de pensamento” de um recurso onde a IA “mostra seu raciocínio”.

“Para um usuário comum, parece que está ganhando uma visão sobre como um algoritmo funciona”, disse Sara Hooker, chefe do laboratório de pesquisa Cohere for AI. Mas é uma maneira de aumentar o desempenho, não de espiar sob o capô, disse ela.

Ethan Mollick, professor que estuda IA na Wharton School da Universidade da Pensilvânia, disse que ver o suposto monólogo interno de um chatbot pode desencadear empatia.

Comparado com o tom mais plano do ChatGPT, as respostas do R1 da DeepSeek pareciam “neuroticamente amigáveis e desesperadas para agradar você”, disse ele.

“Estamos meio que vendo esse mundo estranho onde a ciência da computação hardcore está se alinhando com o marketing —não está claro se até mesmo os criadores sabem qual é qual.”

Compartilhe este artigo
Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *