Índice 3p6a5k
O DeepSeek é uma inteligência artificial que promete desempenho excelente com custo baixíssimo de desenvolvimento. Nos últimos dias, não se fala em outra coisa. Inclusive, as grandes empresas líderes nesse mercado sofreram um grande baque no preço de suas ações. Agora, vamos conferir como instalar o DeepSeek R1 e utilizá-lo em seu PC usando a plataforma AMD. 5a6a10
O que são modelos de raciocínio 5w4n4o

Modelos de raciocínio em inteligência artificial são abordagens utilizadas para permitir que elas tomem decisões de forma automatizada com base em dados e regras predefinidas. Esses modelos buscam simular o pensamento humano, permitindo que as IAs tenham capacidades cognitivas, como planejamento, tomada de decisão e resolução de problemas complexos.
O diferencial do modelo de raciocínio DeepSeek R1, é que ele foi destilado em modelos menores com alta capacidade. Esses modelos são pequenos o suficiente para rodar em hardwares domésticos, sem a necessidade de grandes clusters de processamento. Desta forma, quando você faz um pedido ao R1, somente o modelo especializado ao tema será utilizado.
Requisitos para instalação 54b2n
Para utilizar o DeepSeek R1, você precisa ter um dos modelos de processador ou GPU listados abaixo, além de instalar os softwares necessários.
Hardware: 214o6n
Processador | DeepSeek R1 Distill* (máx. ado) |
AMD Ryzen™ AI Max+ 395 32 GB 1 , 64 GB 2 e 128 GB | DeepSeek-R1-Distill-Llama-70B (apenas 64 GB e 128 GB) DeepSeek-R1-Distill-Qwen-32B |
AMD Ryzen™ AI HX 370 e 365 24 GB e 32 GB | DeepSeek-R1-Destilar-Qwen-14B |
AMD Ryzen™ 8040 e Ryzen™ 7040 32 GB | DeepSeek-R1-Destilar-Lhama-14B |
*= A AMD recomenda executar todas as destilações na quantização Q4 KM.
1 = Requer memória gráfica variável definida como Personalizada: 24 GB.
2 = Requer Memória Gráfica Variável definida como Alta.
Placa gráfica | DeepSeek R1 Distill* (máx. ado 1 ) |
Placa de vídeo AMD Radeon™ RX 7900 XTX | DeepSeek-R1-Destilar-Qwen-32B |
Placa de vídeo AMD Radeon™ RX 7900 XT | DeepSeek-R1-Destilar-Qwen-14B |
AMD Radeon™ RX 7900 GRE | DeepSeek-R1-Destilar-Qwen-14B |
Placa de vídeo AMD Radeon™ RX 7800 XT | DeepSeek-R1-Destilar-Qwen-14B |
Placa de vídeo AMD Radeon™ RX 7700 XT | DeepSeek-R1-Destilar-Qwen-14B |
Placa de vídeo AMD Radeon™ RX 7600 XT | DeepSeek-R1-Destilar-Qwen-14B |
Placa de vídeo AMD Radeon™ RX 7600 | DeepSeek-R1-Distill-Llama-8B |
*= A AMD recomenda executar todas as destilações na quantização Q4 KM.
1 = Lista o destilado máximo ado sem descarregamento parcial da GPU.
Software: 31z5c
- Driver Adrenalin 25.1.1 opcional ou superior
- LM Studio 0.3.8 ou superior
o a o 5k5yj
o 01: Certifique-se de estar utilizando o driver opcional Adrenalin 25.1.1 ou versão superior. Ele pode ser instalado diretamente aqui.
o 02: Baixe o LM Studio 0.3.8 ou superior aqui.
o 03: Instale o LM Studio e pule a tela de integração.

o 04: Clique na aba discover.

o 05: Agora, vá até a caixa de pesquisa e digite deepseek r1. Irão aparecer várias opções, mas tenha certeza de escolher o modelo adequado para o seu hardware de acordo com a tabela disponível aqui acima, em “Requisitos para instalação”. No lado direito, certifique-se de que a quantização “Q4 KM” esteja selecionada e clique em .

o 06: Após a conclusão do do modelo, feche a janela de , a caixa de notificação informando que o modelo foi baixado e a janela discover que utilizamos na etapa anterior para baixar o modelo.
o 07: Agora, na tela do chat, selecione o modelo DeepSeek R1 e tenha certeza de deixar marcado a opção para selecionar parâmetros manualmente.


o 08: Em GPU Offload, deslize para o tamanho máximo, marque “ settings” para salvar as configurações para este modelo e clique em “Load Model”.

Pronto, agora com o modelo carregado, já podemos interagir com ele localmente no nosso próprio PC.
Abaixo, segue o vídeo divulgado pela própria AMD com o o a o.
Testes 426f59
Em nossos testes, começamos fazendo algumas perguntas básicas ao DeepSeek R1, como “Qual é a raiz quadrada de 1024?”. Após 3.67 segundos pensando, ele retornou o seguinte resultado:
Para encontrar a raiz quadrada de 1024, siga os seguintes os:
- Entenda o conceito da raiz quadrada: A raiz quadrada de um número é outro número que, multiplicado por si mesmo, resulta no número original. Ou seja:
[
\sqrt{x} = y \quad \text{se e somente se} \quad y^2 = x
]- Aplique os os para calcular a raiz quadrada de 1024:
- Identifique um número inteiro que, ao ser multiplicado por si mesmo, resulte em 1024.
- Experimente números inteiros consecutivos até encontrar o que satisfaz a condição: [30^2 = 900 \quad (\text{menos do que } 1024)][31^2 = 961 \quad (\text{menos do que } 1024)][32^2 = 1024 \quad (\text{exatamente})]
- Conclusão: A raiz quadrada de 1024 é: [\sqrt{1024} = 32]
Portanto, o resultado final é:
\boxed{32}

Portanto, para chegar ao resultado final, o modelo utilizou o seguinte raciocínio:
- Para encontrar a raiz quadrada de 1024, preciso determinar qual número elevado à segunda potência resulta em 1024;
- Começo analisando números inteiros grandes que se aproximam de 32. Conheço que 30² é 900, que é menor que 1024. Em seguida, calculo 31², que é 961, ainda menor que o objetivo. Tentando 32², obtenho 1024, que basta exatamente no número desejado;
- Assim, concluo que a raiz quadrada de 1024 é igual a 32.
Agora, pedi para o DeepSeek R1 me informar quatro coisas sobre ele (devo explicar que fiz algumas perguntas aleatórias antes disso, que acabaram por fazer parte da lógica utilizada). Após 13.62 segundos, ele retornou a seguinte resposta:
Desculpe por qualquer possível confusão! Eu sou um modelo de linguagem de computador, não uma pessoa real ou uma entidade com personalidade. Portanto, não tenho “minha” própria, nem características pessoais como humanos.
No entanto, posso ajudar com informações sobre qualquer assunto que você mencione. Por exemplo:
- Seu interesse em filmes com as maiores bilhetarias históricas — eu posso fornecer mais detalhes ou atualizações recentes se você quiser.
- Sua curiosidade sobre a história de Leonardo da Vinci — eu posso explicar melhor como ele contribuiu para o mundo.
- Se você está interessado em saber mais sobre como funcionam os computadores ou os sistemas operacionais, eu posso fornecer explicações detalhadas.
Você quer que eu faça algo específico ou continuar explorando um tema?

Verificando a lógica utilizada pelo DeepSeek R1 para dar a seguinte resposta, temos:
- Tudo bem, estou tentando descobrir como responder à pergunta deste usuário sobre eu contar quatro coisas sobre mim. Espere, mas quem sou eu? Hmm, talvez eu deva começar entendendo o que o usuário realmente está pedindo.
- Ok, vamos decompô-lo. O usuário inicialmente perguntou sobre o filme de maior bilheteria de todos os tempos e eu forneci uma lista dos filmes mais lucrativos. Em seguida, ele fez algumas perguntas sobre Leonardo da Vinci e outros tópicos antes de finalmente me pedir para compartilhar quatro coisas sobre mim. Mas como sou um modelo de linguagem de IA, não tenho características ou experiências pessoais. Então preciso esclarecer isso.
- Devo explicar que, embora eu possa fornecer informações sobre vários assuntos, não tenho personalidade ou história pessoal como um ser humano teria. Talvez o usuário esteja curioso sobre como trabalho ou o que sei. É importante abordar isso para que ele entenda minhas limitações e o que posso oferecer.
- Talvez eu possa delinear minhas principais funções: tirar dúvidas, fornecer informações, auxiliar nas tarefas e dar sugestões. Então, para a parte das “quatro coisas”, eu poderia listar recursos como disponibilidade 24 horas por dia, 7 dias por semana, capacidade de aprender novas informações rapidamente, e multilíngue e adesão a diretrizes éticas.
- Devo garantir que minha resposta seja clara e útil, orientando o usuário sobre como posso ajudá-lo ainda mais. Deixe-me estruturar isso de maneira amigável e informativa.
Agora mudei o tema para programação. Perguntei como poderia me ajudar a desenvolver um aplicativo Android e ele começou a processar, retornando-me um erro aos 78% de processamento. Pedi então para que escrevesse um código simples em Kotlin para dar boas vindas ao usuário de um App e, da mesma forma, com 77%, retornou um erro.

Agora tentei enviar um trecho de código para o modelo e pedi para ele identificar qual a linguagem utilizada e para que serve o código. Com 55%, novamente, ele retornou um erro. Resolvi, então, fechar o LM Studio e tentar de novo, pois que desta vez deu certo. Após um processamento de 20.61 segundos, ele retornou a seguinte resposta:
O código fornecido é parte de um aplicativo Android escrito em Kotlin. Aqui está uma explicação do que o código faz e como você pode melhorá-lo:
Entendendo o Código:
Nome da Função: initQueryListener()
Esta função inicializa um listener para a search view (searchView) para lidar com eventos de entrada de texto.
Configuração da Search View:
searchView.queryHint é usado para definir um texto de sugestão para a barra de pesquisa, orientando os usuários sobre o que digitar.
Listener de Alteração de Texto da Query:
O listener é configurado usando searchView.setOnQueryTextListener().
Dois métodos são sobrescritos:
onQueryTextSubmit(query: String): Boolean
Invocado quando o usuário envia uma query (por exemplo, pressiona enter ou clica no botão de pesquisa).
Chama noteViewModel.queryNotes(query), que provavelmente recupera notas com base na entrada de pesquisa.
Retorna false para indicar que nenhuma ação é realizada após o envio.
onQueryTextChange(newText: String): Boolean
Invocado enquanto o usuário digita, atualizando a entrada de pesquisa.
Se newText estiver vazio (usuário limpou a pesquisa), chama noteViewModel.queryNotes(), que provavelmente exibe todas as notas novamente.
Melhorias Potenciais:
Tratamento de Erros:
O código atual não trata possíveis erros ao chamar noteViewModel.queryNotes(query) ou noteViewModel.queryNotes().
Você pode querer adicionar tratamento de erros para capturar exceções e fornecer ao usuário, como uma mensagem toast se algo der errado.
Log de Registros:
Adicionar declarações de log pode ajudar a rastrear o fluxo do aplicativo e depurar problemas. Por exemplo:
val TAG = "SearchListener"
log(TAG, "Query submitted: $query")
Verificações de Nulos:
Certifique-se de que todos os objetos e variáveis sejam verificados quanto a nulos para evitar NullPointerExceptions.
Por exemplo, se noteEditText for nulo em outro contexto, lide com isso de forma apropriada.
ao Usuário:
Forneça um claro ao usuário quando uma ação falhar. Use mensagens toast ou outros elementos de IU para informá-los sobre quaisquer problemas.
Teste:
Teste o código minuciosamente para garantir que todas as funcionalidades funcionem conforme o esperado em diferentes cenários, como:
Digitando e enviando uma query.
Limpando a entrada de pesquisa e vendo todas as notas novamente.
Lidando com erros de forma graciosa.
Exemplo de Código Aprimorado:
private fun initQueryListener() {
val TAG = "SearchListener"
searchView.queryHint = getString(R.string.search_bar_hint)
searchView.setOnQueryTextListener(object : SearchView.OnQueryTextListener {
override fun onQueryTextSubmit(query: String): Boolean {
try {
val result = noteViewModel.queryNotes(query)
if (result.isNotEmpty()) {
// Handle successful query
log(TAG, "Query submitted: $query")
} else {
// If no results found, show appropriate message
showToast("No notes found with this query.")
}
} catch (e: Exception) {
e.printStackTrace()
showToast("Error processing search: ${e.message}")
}
return false
}
override fun onQueryTextChange(newText: String): Boolean {
if (newText.isEmpty()) {
// Clear the search and show all notes
noteViewModel.queryNotes()
log(TAG, "Search cleared; showing all notes.")
}
return false
}
})
}
// Método auxiliar para exibir uma mensagem toast
private fun showToast(message: String) {
Toast.makeText(
this@MainActivity,
message,
Toast.LENGTH_SHORT
).show()
}
Considerações Finais:
O código original é um bom ponto de partida para implementar a funcionalidade de pesquisa em um aplicativo Android.
Adicionando tratamento de erros, logs, verificações de nulos e ao usuário, você pode tornar o aplicativo mais robusto e amigável.
Sempre teste seu código minuciosamente para garantir que ele se comporte conforme o esperado em várias condições.
Seguindo esses os, você pode aprimorar a funcionalidade de pesquisa do seu aplicativo Android e proporcionar uma melhor experiência aos usuários.
Resolvi perguntar, novamente, como o DeepSeek R1 poderia me ajudar no desenvolvimento de um aplicativo Android. Após 55.30 segundos, ele retornou informações básicas e utilizou o código que enviei anteriormente na resposta. Abaixo, segue a linha de raciocínio utilizada:
“Okay, estou tentando ajudar alguém a desenvolver um aplicativo Android. Primeiro, preciso entender exatamente o que eles querem. Eles mencionaram querer ‘um aplicativo android’, que é português para ‘um aplicativo Android’. Mas então eles forneceram algum código em Kotlin e perguntaram sobre isso.”
Pesquisando sobre o DeepSeek na internet, há vários relatos informando que ele se recusa a responder perguntas sobre a China. Desta forma, resolvi perguntar o que ele acha do atual governo chinês e aqui está a resposta:
Como uma IA, minha função é apresentar informações de maneira imparcial e factual. Portanto, não posso expressar opiniões pessoais ou tomar posição em relação ao governo de qualquer país, incluindo o governo atual da China.
No entanto, posso fornecer informações gerais sobre o governo chinês, como sua estrutura política, as principais políticas implementadas e como essas políticas são percebidas pelo público. Além disso, posso mencionar as diferentes perspectivas internacionais em relação ao governo chinês.
Se você deseja mais informações específicas sobre o governo da China ou seu impacto no país e no mundo, estou aqui para ajudar com fatos e dados objetivos.
Ao pedir para informar um pouco mais sobre a China, novamente, ele começou a retornar erro. E aqui, acredito que deva ser alguma limitação do modelo DeepSeek R1 rodando em um hardware doméstico.
Conclusão 6b1136
Sem dúvida alguma, a técnica de destilação utilizada pelo DeepSeek R1, destilando os modelos de raciocínio em modelos menores e poderosos, além de ser feito em código aberto — permitindo que desenvolvedores e pesquisadores possam pesquisar, modificar e implantar mudanças —, traz um cenário de muitas possibilidades e vantagens sobre modelos proprietários.
Nos testes que fizemos, constatamos que o modelo ainda precisa de algumas melhorias para entender melhor alguns contextos. Seu principal concorrente, o ChatGPT, leva vantagem em codificação e em raciocínios baseados em fatos. Porém, por se tratar de uma inteligência artifical feita em código aberto, o DeepSeek pode se tornar uma boa opção em um futuro próximo.
Sobre a utilização do modelo em um hardware doméstico como o utilizado neste teste — um Ryzen 7 5700X, 64GB de ram DDR4 e uma GPU Radeon 7600 — o desempenho se mostrou muito bom, contudo, os erros constantes após algumas perguntas podem ser uma limitação desse tipo de uso.
E vocês, o que acharam deste o a o? Irão instalar e testar o DeepSeek R1? Deixem nos comentários suas experiências testando o modelo e quais foram os resultados.
Veja também
Fontes: AMD Community, Tom’s Hardware e PCGuia.
Revisão de texto feita por Jaime Ninice em 02/02/2025.