Servicio para Chat Interactivo basado en LLM con gRPC
wget https://download.java.net/java/GA/jdk13.0.1/cec27d702aa74d5a8630c65ae61e4305/9/GPL/openjdk-13.0.1_linux-x64_bin.tar.gz
tar -xvf openjdk-13.0.1_linux-x64_bin.tar.gz
mv jdk-13.0.1 /opt/Configurar variables de entorno
JAVA_HOME='/opt/jdk-13.0.1'
PATH="$JAVA_HOME/bin:$PATH"
export PATHwget https://mirrors.estointernet.in/apache/maven/maven-3/3.6.3/binaries/apache-maven-3.6.3-bin.tar.gz
tar -xvf apache-maven-3.6.3-bin.tar.gz
mv apache-maven-3.6.3 /opt/Configurar variables de entorno
M2_HOME='/opt/apache-maven-3.6.3'
PATH="$M2_HOME/bin:$PATH"
export PATHmvn clean package
java -jar target/chat-server-1.0.0.jar 8999 NA http://172.17.8.220:11434 phi3Se debe generar la imagen del contenedor
docker buildx build . -t xnet/chat-llm-server:0.1.0docker run --rm \
--name chat-llm-server \
-p 8999:8999 \
xnet/chat-llm-server:0.1.0ollama create phi3-xnet -f Modelfile_phi3Se debe iniciar el servicio con el modelo creado
ollama run phi3-xnetSe debe crear un archivo .env y colocar los siguientes parametros previo a la ejecución del docker compose:
| Parametro | Valoe |
|---|---|
| API_KEY | Valor del APIKEY obtenido de OpenAI |
docker compose up -dAutor: Ilver Anache ianache@crossnetcorp.com