Web Analytics

ollama-intel-arc

⭐ 241 stars Spanish by eleiton

Ejecuta Ollama, Stable Diffusion y Reconocimiento Automático de Voz con tu GPU Intel Arc

[Blog]

Despliega fácilmente una solución basada en Docker que utiliza Open WebUI como tu interfaz de IA amigable y Ollama para integrar Modelos de Lenguaje Grandes (LLM).

Adicionalmente, puedes ejecutar contenedores docker de ComfyUI o SD.Next para optimizar las capacidades de Stable Diffusion.

También puedes ejecutar un contenedor docker opcional con OpenAI Whisper para realizar tareas de Reconocimiento Automático de Voz (ASR).

Todos estos contenedores han sido optimizados para GPUs Intel Arc Series en sistemas Linux utilizando Intel® Extension for PyTorch.

captura de pantalla

Servicios

Configuración

Ejecute los siguientes comandos para iniciar su instancia de Ollama con Open WebUI
$ git clone https://github.com/eleiton/ollama-intel-arc.git
$ cd ollama-intel-arc
$ podman compose up

Además, si desea ejecutar una o más de las herramientas de generación de imágenes, ejecute estos comandos en una terminal diferente:

Para ComfyUI

$ podman compose -f docker-compose.comfyui.yml up

Para SD.Next

$ podman compose -f docker-compose.sdnext.yml up

Si desea ejecutar Whisper para el reconocimiento automático de voz, ejecute este comando en una terminal diferente:

$ podman compose -f docker-compose.whisper.yml up

Validar

Ejecute el siguiente comando para verificar que su instancia de Ollama esté activa y funcionando
$ curl http://localhost:11434/
Ollama is running
Al usar Open WebUI, debería ver esta salida parcial en su consola, indicando que su GPU arc fue detectada
[ollama-intel-arc] | Found 1 SYCL devices:
[ollama-intel-arc] | |  |                   |                                       |       |Max    |        |Max  |Global |                     |
[ollama-intel-arc] | |  |                   |                                       |       |compute|Max work|sub  |mem    |                     |
[ollama-intel-arc] | |ID|        Device Type|                                   Name|Version|units  |group   |group|size   |       Driver version|
[ollama-intel-arc] | |--|-------------------|---------------------------------------|-------|-------|--------|-----|-------|---------------------|
[ollama-intel-arc] | | 0| [level_zero:gpu:0]|                     Intel Arc Graphics|  12.71|    128|    1024|   32| 62400M|         1.6.32224+14|

Uso de la Generación de Imágenes

screenshot screenshot screenshot

Uso del Reconocimiento Automático de Voz

  podman exec -it  whisper-ipex whisper https://www.lightbulblanguages.co.uk/resources/ge-audio/hobbies-ge.mp3 --device xpu --model small --language German --task transcribe
  [00:00.000 --> 00:08.000]  Ich habe viele Hobbys. In meiner Freizeit mache ich sehr gerne Sport, wie zum Beispiel Wasserball oder Radfahren.
  [00:08.000 --> 00:13.000]  Außerdem lese ich gerne und lerne auch gerne Fremdsprachen.
  [00:13.000 --> 00:19.000]  Ich gehe gerne ins Kino, höre gerne Musik und treffe mich mit meinen Freunden.
  [00:19.000 --> 00:22.000]  Früher habe ich auch viel Basketball gespielt.
  [00:22.000 --> 00:26.000]  Im Frühling und im Sommer werde ich viele Radtouren machen.
  [00:26.000 --> 00:29.000]  Außerdem werde ich viel schwimmen gehen.
  [00:29.000 --> 00:33.000]  Am liebsten würde ich das natürlich im Meer machen.
  podman exec -it  whisper-ipex whisper https://www.lightbulblanguages.co.uk/resources/ge-audio/hobbies-ge.mp3 --device xpu --model small --language German --task translate
  [00:00.000 --> 00:02.000]  I have a lot of hobbies.
  [00:02.000 --> 00:05.000]  In my free time I like to do sports,
  [00:05.000 --> 00:08.000]  such as water ball or cycling.
  [00:08.000 --> 00:10.000]  Besides, I like to read
  [00:10.000 --> 00:13.000]  and also like to learn foreign languages.
  [00:13.000 --> 00:15.000]  I like to go to the cinema,
  [00:15.000 --> 00:16.000]  like to listen to music
  [00:16.000 --> 00:19.000]  and meet my friends.
  [00:19.000 --> 00:22.000]  I used to play a lot of basketball.
  [00:22.000 --> 00:26.000]  In spring and summer I will do a lot of cycling tours.
  [00:26.000 --> 00:29.000]  Besides, I will go swimming a lot.
  [00:29.000 --> 00:33.000]  Of course, I would prefer to do this in the sea.
  podman exec -it  whisper-ipex whisper YOUR_FILE_NAME.mp3 --device xpu --model small --task translate

Actualización de los contenedores

Si hay nuevas actualizaciones en la imagen docker ipex-llm-inference-cpp-xpu o en la imagen docker Open WebUI, es posible que desee actualizar sus contenedores para mantenerse al día.

Antes de cualquier actualización, asegúrese de detener sus contenedores

$ podman compose down 

Luego, simplemente ejecute un comando pull para recuperar las imágenes latest.

$ podman compose pull
Después de eso, puedes ejecutar compose up para iniciar tus servicios nuevamente.

$ podman compose up

Conexión manual a su contenedor Ollama

Puede conectarse directamente a su contenedor Ollama ejecutando estos comandos:

$ podman exec -it ollama-intel-arc /bin/bash
$ /llm/ollama/ollama -v

Mi entorno de desarrollo:

Referencias

--- Tranlated By Open Ai Tx | Last indexed: 2026-02-16 ---