Skip to content

xnet-training/chat-llm-server

Repository files navigation

chat-llm-server

Servicio para Chat Interactivo basado en LLM con gRPC

Preparar entorno Java

wget https://download.java.net/java/GA/jdk13.0.1/cec27d702aa74d5a8630c65ae61e4305/9/GPL/openjdk-13.0.1_linux-x64_bin.tar.gz
tar -xvf openjdk-13.0.1_linux-x64_bin.tar.gz
mv jdk-13.0.1 /opt/

Configurar variables de entorno

JAVA_HOME='/opt/jdk-13.0.1'
PATH="$JAVA_HOME/bin:$PATH"
export PATH

Preparar entorno local con maven

wget https://mirrors.estointernet.in/apache/maven/maven-3/3.6.3/binaries/apache-maven-3.6.3-bin.tar.gz
tar -xvf apache-maven-3.6.3-bin.tar.gz
mv apache-maven-3.6.3 /opt/

Configurar variables de entorno

M2_HOME='/opt/apache-maven-3.6.3'
PATH="$M2_HOME/bin:$PATH"
export PATH

Ejecutar Servidor gRPC

Ejecutar con Java (CLI)

mvn clean package
java -jar target/chat-server-1.0.0.jar 8999 NA http://172.17.8.220:11434 phi3

Ejecutar usando Docker

Se debe generar la imagen del contenedor

docker buildx build . -t xnet/chat-llm-server:0.1.0
docker run --rm \
  --name chat-llm-server \
  -p 8999:8999 \
  xnet/chat-llm-server:0.1.0

Generar modelo personalizado

ollama create phi3-xnet -f Modelfile_phi3

Se debe iniciar el servicio con el modelo creado

ollama run phi3-xnet

Ejecutar con Docker Compose

Se debe crear un archivo .env y colocar los siguientes parametros previo a la ejecución del docker compose:

Parametro Valoe
API_KEY Valor del APIKEY obtenido de OpenAI
docker compose up -d

References

  1. Chat con embeding desde documentos

Autor: Ilver Anache ianache@crossnetcorp.com

About

Servicio para Chat Interactivo basado en LLM con gRPC

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published