Recommend this page to a friend! |
![]() |
Info | Documentation | Screenshots | ![]() |
![]() |
![]() |
Reputation | Support forum | Blog | Links |
Last Updated | Ratings | Unique User Downloads | Download Rankings | |||||
2025-05-19 (2 days ago) ![]() | Not yet rated by the users | Total: Not yet counted | Not yet ranked |
Version | License | PHP version | Categories | |||
deepseek-offline 1 | MIT/X Consortium ... | 8 | Algorithms, PHP 5, Chat, Artificial i..., G... |
Description | Author | |
This package implements a chat with DeepSeek bot in the local machine. |
|
In Portuguese:
Por favor, leia este documento para entender como funciona, se configura e se executa este aplicativo de bate-papo com inteligência artificial.
Este projeto apresenta uma aplicação de chat em tempo real que demonstra o consumo de APIs locais fornecidas por servidores de LLM (Large Language Models) rodando diretamente em sua máquina. O foco é permitir a interação com diferentes modelos offline, sem necessidade de conexão com a internet após a configuração inicial.
A aplicação utiliza PHP no backend para gerenciar as requisições e se comunicar com os servidores LLM locais (Ollama e LM Studio), e JavaScript no frontend para a interface de chat dinâmica e o streaming de respostas.
O principal objetivo deste projeto é ilustrar como é possível consumir APIs de LLMs que rodam localmente. Diferentemente de soluções que dependem de APIs na nuvem (como a OpenAI), aqui você controla o ambiente e pode rodar modelos compatíveis com Ollama ou via a API compatível com OpenAI do LM Studio, alternando entre eles diretamente na aplicação. Isso permite privacidade, uso offline e a possibilidade de experimentar diversos modelos sem custos de API ou latência de rede externa.
? Consumo de APIs Locais: Interage com servidores LLM rodando no próprio computador (Ollama e LM Studio).
? Operação Offline: Não requer conexão com a internet para o chat após a instalação dos modelos.
? Suporte Dual Server: Configurado para alternar entre a API do Ollama (/api/generate
) e a API compatível com OpenAI do LM Studio (/v1/chat/completions
).
? Streaming de Respostas Token a Token: Exibe a resposta do LLM em tempo real conforme ela é gerada.
? Suporte a Diferentes Modelos: Capacidade de interagir com modelos rodando em Ollama (como DeepSeek, Llama3) e modelos rodando em LM Studio (como Gemma 3B IT).
? Formatador de Código: Reconhece blocos de código (`
) e aplica destaque de sintaxe.
? Suporte a Markdown: Formata texto em negrito (), itálico (
*
) e código inline (`
).
Para rodar este projeto como configurado, você precisará ter os seguintes componentes instalados e rodando em sua máquina:
Antes de iniciar a aplicação PHP, certifique-se de que ambos os servidores, Ollama e LM Studio, estão rodando:
Com os servidores LLM locais ativos, inicie o servidor web do PHP no diretório raiz do projeto:
php -S localhost:8000
Screenshots (3) | ||
![]() |
File | Role | Description | ||
---|---|---|---|---|
![]() |
||||
![]() ![]() |
Aux. | Configuration script | ||
![]() ![]() |
Aux. | Configuration script | ||
![]() ![]() |
Doc. | Documentation |
The PHP Classes site has supported package installation using the Composer tool since 2013, as you may verify by reading this instructions page. |
![]() |
Version Control | Unique User Downloads | |||||||
77% |
|
Applications that use this package |
If you know an application of this package, send a message to the author to add a link here.