O que é o DeepSeek-R1?
O DeepSeek-R1 é um modelo de linguagem de grande escala desenvolvido pela startup chinesa DeepSeek. Este modelo de primeira geração destaca-se por suas capacidades de raciocínio avançadas, alcançando desempenho comparável ao OpenAI-o1 em tarefas de matemática, codificação e raciocínio lógico. Uma característica notável do DeepSeek-R1 é sua eficiência, alcançando alta performance com um orçamento significativamente menor em comparação com outros modelos de ponta.
Além disso, o modelo é gratuito e de código aberto, permitindo que desenvolvedores em todo o mundo o utilizem e personalizem conforme necessário.
Instalando o Ollama
O Ollama é uma plataforma que permite executar modelos de linguagem de grande escala localmente em sua máquina, oferecendo maior controle e privacidade. A seguir, apresentamos o processo de instalação para diferentes sistemas operacionais
Para macOS
1 – Instale o Homebrew (caso ainda não o tenha):
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
2 – Instale o Ollama:
brew install ollama
Este comando baixará e instalará o Ollama a partir do repositório Homebrew.
3 – Verifique a instalação:
ollama –version
Este comando deve retornar a versão instalada do Ollama, confirmando que a instalação foi bem-sucedida.
Para Windows
1 – Baixe o instalador para Windows:
Acesse o site oficial do Ollama e clique em “Download for Windows”.
2 – Execute o instalador:
Abra o arquivo baixado e siga as instruções do assistente de instalação.
3 – Verifique a instalação:
Abra o Prompt de Comando e digite:
ollama --version
Se a versão do Ollama for exibida, a instalação foi concluída com sucesso.
Para Linux
1 – Atualize os pacotes do sistema:
sudo apt update && sudo apt upgrade -y
Instale as dependências necessárias:
sudo apt install -y curl
2 – Baixe e execute o script de instalação do Ollama:
curl -fsSL https://ollama.com/install.sh | sh
Este comando detectará automaticamente a arquitetura do seu sistema e instalará a versão apropriada do Ollama.
3 – Verifique a instalação:
ollama --version
Este comando deve retornar a versão instalada do Ollama, confirmando que a instalação foi bem-sucedida.
Executando o modelo DeepSeek-R1 de 14B no Ollama
Após instalar o Ollama, você pode executar o modelo DeepSeek-R1 de 14 bilhões de parâmetros seguindo os passos abaixo:
1 – Baixe o modelo DeepSeek-R1:
ollama pull deepseek-r1:14b
Este comando fará o download do modelo especificado para o seu sistema.
2 – Execute o modelo:
ollama run deepseek-r1:14b
Isso iniciará uma sessão interativa onde você pode inserir prompts e receber respostas do modelo.
Para mais informações e suporte, visite o repositório oficial do Ollama no GitHub.
O que é o Open WebUI?
O Open WebUI é uma interface web de código aberto, auto-hospedada e rica em recursos, projetada para operar modelos de linguagem de grande escala (LLMs) localmente. Compatível com APIs semelhantes à OpenAI e integrando-se perfeitamente com o Ollama, o Open WebUI oferece uma plataforma intuitiva para interagir com modelos como o DeepSeek-R1. Sua interface amigável facilita a experimentação e o desenvolvimento de aplicações baseadas em LLMs. (docs.openwebui.com)
Instalando o Open WebUI
A instalação do Open WebUI pode ser realizada de duas maneiras principais: utilizando o Docker ou através de uma instalação manual. A seguir, detalharemos ambos os métodos.
Instalação via Docker
Pré-requisitos:
- Docker instalado em seu sistema.
Baixe e execute a imagem Docker do Open WebUI:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:ollama
Este comando baixa a imagem do Open WebUI com suporte integrado ao Ollama e a executa em um contêiner Docker. A aplicação ficará acessível em http://localhost:3000
Explicação dos parâmetros:
-d: Executa o contêiner em segundo plano (modo “detached”).
--network=host: Utiliza a rede do host, permitindo que o contêiner acesse serviços em execução no host diretamente.
-v open-webui:/app/backend/data: Monta um volume chamado open-webui para persistência de dados.
-e OLLAMA_BASE_URL=http://127.0.0.1:11434: Define a variável de ambiente OLLAMA_BASE_URL para apontar para o Ollama em execução no host.
--name open-webui: Nomeia o contêiner como open-webui.
--restart always: Garante que o contêiner seja reiniciado automaticamente em caso de falha.
ghcr.io/open-webui/open-webui:main: Especifica a imagem do Open WebUI a ser utilizada.
Acesse a interface web:
Abra seu navegador e navegue até http://localhost:3000/. No primeiro acesso, será solicitado que você crie uma conta de administrador fornecendo um nome, e-mail e senha.
Integrando o Open WebUI com o Ollama para Executar o Modelo DeepSeek-R1
Após instalar o Open WebUI e o Ollama, você pode configurar o ambiente para executar o modelo DeepSeek-R1 de 14 bilhões de parâmetros.
Passos:
1 – Baixe o modelo DeepSeek-R1:
ollama pull deepseek-r1:14b
Este comando faz o download do modelo especificado para o seu sistema.
2 – Configure o Open WebUI para reconhecer o modelo:
No Open WebUI, vá até a seção de modelos e adicione o modelo deepseek-r1:14b à lista de modelos disponíveis.
3 – Selecione o modelo e comece a interagir:
Na interface do Open WebUI, selecione o modelo DeepSeek-R1 e comece a inserir prompts para receber respostas geradas pelo modelo.
Agora você está equipado para explorar o poder do modelo DeepSeek-R1 utilizando o Open WebUI integrado ao Ollama em seu sistema. Lembre-se de experimentar diferentes comandos e configurações para obter o máximo dessa ferramenta poderosa.
Fonte: https://www.hostcuritiba.net.br/veja-como-e-facil-instalar-e-usar-deepseek-gratis-no-seu-computador/