Veja como é fácil instalar e usar DeepSeek grátis no seu computador.

  • Quinta, 30 Janeiro, 2025
  • 14:04pm

O que é o DeepSeek-R1?

O DeepSeek-R1 é um modelo de linguagem de grande escala desenvolvido pela startup chinesa DeepSeek. Este modelo de primeira geração destaca-se por suas capacidades de raciocínio avançadas, alcançando desempenho comparável ao OpenAI-o1 em tarefas de matemática, codificação e raciocínio lógico. Uma característica notável do DeepSeek-R1 é sua eficiência, alcançando alta performance com um orçamento significativamente menor em comparação com outros modelos de ponta.

Além disso, o modelo é gratuito e de código aberto, permitindo que desenvolvedores em todo o mundo o utilizem e personalizem conforme necessário.

Instalando o Ollama

O Ollama é uma plataforma que permite executar modelos de linguagem de grande escala localmente em sua máquina, oferecendo maior controle e privacidade. A seguir, apresentamos o processo de instalação para diferentes sistemas operacionais

Para macOS

1 – Instale o Homebrew (caso ainda não o tenha):

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" 

2 – Instale o Ollama:

brew install ollama

Este comando baixará e instalará o Ollama a partir do repositório Homebrew.

3 – Verifique a instalação:

ollama –version

Este comando deve retornar a versão instalada do Ollama, confirmando que a instalação foi bem-sucedida.

Para Windows

1 – Baixe o instalador para Windows:

Acesse o site oficial do Ollama e clique em “Download for Windows”.

2 – Execute o instalador:

Abra o arquivo baixado e siga as instruções do assistente de instalação.

3 – Verifique a instalação:

Abra o Prompt de Comando e digite:

ollama --version

Se a versão do Ollama for exibida, a instalação foi concluída com sucesso.

Para Linux

1 – Atualize os pacotes do sistema:

sudo apt update && sudo apt upgrade -y

Instale as dependências necessárias:

sudo apt install -y curl

2 – Baixe e execute o script de instalação do Ollama:

curl -fsSL https://ollama.com/install.sh | sh

Este comando detectará automaticamente a arquitetura do seu sistema e instalará a versão apropriada do Ollama.

3 – Verifique a instalação:

ollama --version

Este comando deve retornar a versão instalada do Ollama, confirmando que a instalação foi bem-sucedida.

Executando o modelo DeepSeek-R1 de 14B no Ollama

Após instalar o Ollama, você pode executar o modelo DeepSeek-R1 de 14 bilhões de parâmetros seguindo os passos abaixo:

1 – Baixe o modelo DeepSeek-R1:

ollama pull deepseek-r1:14b

Este comando fará o download do modelo especificado para o seu sistema.

2 – Execute o modelo:

ollama run deepseek-r1:14b

Isso iniciará uma sessão interativa onde você pode inserir prompts e receber respostas do modelo.

Para mais informações e suporte, visite o repositório oficial do Ollama no GitHub.

O que é o Open WebUI?

O Open WebUI é uma interface web de código aberto, auto-hospedada e rica em recursos, projetada para operar modelos de linguagem de grande escala (LLMs) localmente. Compatível com APIs semelhantes à OpenAI e integrando-se perfeitamente com o Ollama, o Open WebUI oferece uma plataforma intuitiva para interagir com modelos como o DeepSeek-R1. Sua interface amigável facilita a experimentação e o desenvolvimento de aplicações baseadas em LLMs. (docs.openwebui.com)

Instalando o Open WebUI

A instalação do Open WebUI pode ser realizada de duas maneiras principais: utilizando o Docker ou através de uma instalação manual. A seguir, detalharemos ambos os métodos.

Instalação via Docker

Pré-requisitos:

  • Docker instalado em seu sistema.

Baixe e execute a imagem Docker do Open WebUI:

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:ollama

Este comando baixa a imagem do Open WebUI com suporte integrado ao Ollama e a executa em um contêiner Docker. A aplicação ficará acessível em http://localhost:3000

Explicação dos parâmetros:

-d: Executa o contêiner em segundo plano (modo “detached”).

--network=host: Utiliza a rede do host, permitindo que o contêiner acesse serviços em execução no host diretamente.

-v open-webui:/app/backend/data: Monta um volume chamado open-webui para persistência de dados.

-e OLLAMA_BASE_URL=http://127.0.0.1:11434: Define a variável de ambiente OLLAMA_BASE_URL para apontar para o Ollama em execução no host.

--name open-webui: Nomeia o contêiner como open-webui.

--restart always: Garante que o contêiner seja reiniciado automaticamente em caso de falha.

ghcr.io/open-webui/open-webui:main: Especifica a imagem do Open WebUI a ser utilizada.

Acesse a interface web:

Abra seu navegador e navegue até http://localhost:3000/. No primeiro acesso, será solicitado que você crie uma conta de administrador fornecendo um nome, e-mail e senha.

Integrando o Open WebUI com o Ollama para Executar o Modelo DeepSeek-R1

Após instalar o Open WebUI e o Ollama, você pode configurar o ambiente para executar o modelo DeepSeek-R1 de 14 bilhões de parâmetros.

Passos:

1 – Baixe o modelo DeepSeek-R1:

ollama pull deepseek-r1:14b

Este comando faz o download do modelo especificado para o seu sistema.

2 – Configure o Open WebUI para reconhecer o modelo:

No Open WebUI, vá até a seção de modelos e adicione o modelo deepseek-r1:14b à lista de modelos disponíveis.

3 – Selecione o modelo e comece a interagir:

Na interface do Open WebUI, selecione o modelo DeepSeek-R1 e comece a inserir prompts para receber respostas geradas pelo modelo.
Agora você está equipado para explorar o poder do modelo DeepSeek-R1 utilizando o Open WebUI integrado ao Ollama em seu sistema. Lembre-se de experimentar diferentes comandos e configurações para obter o máximo dessa ferramenta poderosa.

Fonte: https://www.hostcuritiba.net.br/veja-como-e-facil-instalar-e-usar-deepseek-gratis-no-seu-computador/

« Retornar

ico-whatsapp
WhatsApp Curitiba
ico-whatsapp
WhatsApp Maringá
ico-whatsapp
WhatsApp São Paulo
ico-chat
Dúvidas por Web Chat
ico-ticket.png
Abrir ticket Suporte