Web Analytics

ollama-intel-arc

⭐ 241 stars Simplified Chinese by eleiton

使用您的英特尔Arc GPU运行Ollama、Stable Diffusion和自动语音识别

[博客]

轻松部署基于Docker的解决方案,使用Open WebUI作为用户友好的 AI界面,使用Ollama集成大型语言模型(LLM)。

此外,您还可以运行ComfyUISD.Next的docker容器, 以简化Stable Diffusion功能。

您还可以运行一个可选的docker容器,使用OpenAI Whisper执行自动语音识别(ASR)任务。

所有这些容器均通过使用Intel® Extension for PyTorch 针对Linux系统上的英特尔Arc系列GPU进行了优化。

截图

服务

使其兼容Intel Extension for Pytorch镜像。

设置

运行以下命令以启动带有 Open WebUI 的 Ollama 实例
$ git clone https://github.com/eleiton/ollama-intel-arc.git
$ cd ollama-intel-arc
$ podman compose up
另外,如果您想运行一个或多个图像生成工具,请在另一个终端运行以下命令:

对于 ComfyUI

$ podman compose -f docker-compose.comfyui.yml up
对于 SD.Next

$ podman compose -f docker-compose.sdnext.yml up

如果您想运行 Whisper 进行自动语音识别,请在另一个终端运行此命令:

$ podman compose -f docker-compose.whisper.yml up

验证

运行以下命令以确认您的 Ollama 实例正在运行
$ curl http://localhost:11434/
Ollama is running
使用 Open WebUI 时,您应该在控制台中看到此部分输出,表示已检测到您的 Arc GPU
[ollama-intel-arc] | Found 1 SYCL devices:
[ollama-intel-arc] | |  |                   |                                       |       |Max    |        |Max  |Global |                     |
[ollama-intel-arc] | |  |                   |                                       |       |compute|Max work|sub  |mem    |                     |
[ollama-intel-arc] | |ID|        Device Type|                                   Name|Version|units  |group   |group|size   |       Driver version|
[ollama-intel-arc] | |--|-------------------|---------------------------------------|-------|-------|--------|-----|-------|---------------------|
[ollama-intel-arc] | | 0| [level_zero:gpu:0]|                     Intel Arc Graphics|  12.71|    128|    1024|   32| 62400M|         1.6.32224+14|

使用图像生成

screenshot screenshot screenshot

使用自动语音识别

  podman exec -it  whisper-ipex whisper https://www.lightbulblanguages.co.uk/resources/ge-audio/hobbies-ge.mp3 --device xpu --model small --language German --task transcribe
  [00:00.000 --> 00:08.000]  Ich habe viele Hobbys. In meiner Freizeit mache ich sehr gerne Sport, wie zum Beispiel Wasserball oder Radfahren.
  [00:08.000 --> 00:13.000]  Außerdem lese ich gerne und lerne auch gerne Fremdsprachen.
  [00:13.000 --> 00:19.000]  Ich gehe gerne ins Kino, höre gerne Musik und treffe mich mit meinen Freunden.
  [00:19.000 --> 00:22.000]  Früher habe ich auch viel Basketball gespielt.
  [00:22.000 --> 00:26.000]  Im Frühling und im Sommer werde ich viele Radtouren machen.
  [00:26.000 --> 00:29.000]  Außerdem werde ich viel schwimmen gehen.
  [00:29.000 --> 00:33.000]  Am liebsten würde ich das natürlich im Meer machen.
  podman exec -it  whisper-ipex whisper https://www.lightbulblanguages.co.uk/resources/ge-audio/hobbies-ge.mp3 --device xpu --model small --language German --task translate
  [00:00.000 --> 00:02.000]  I have a lot of hobbies.
  [00:02.000 --> 00:05.000]  In my free time I like to do sports,
  [00:05.000 --> 00:08.000]  such as water ball or cycling.
  [00:08.000 --> 00:10.000]  Besides, I like to read
  [00:10.000 --> 00:13.000]  and also like to learn foreign languages.
  [00:13.000 --> 00:15.000]  I like to go to the cinema,
  [00:15.000 --> 00:16.000]  like to listen to music
  [00:16.000 --> 00:19.000]  and meet my friends.
  [00:19.000 --> 00:22.000]  I used to play a lot of basketball.
  [00:22.000 --> 00:26.000]  In spring and summer I will do a lot of cycling tours.
  [00:26.000 --> 00:29.000]  Besides, I will go swimming a lot.
  [00:29.000 --> 00:33.000]  Of course, I would prefer to do this in the sea.
  podman exec -it  whisper-ipex whisper YOUR_FILE_NAME.mp3 --device xpu --model small --task translate

更新容器

如果 ipex-llm-inference-cpp-xpu Docker 镜像或 Open WebUI Docker 镜像有新的更新,您可能需要更新您的容器,以保持最新状态。

在进行任何更新之前,请确保停止您的容器

$ podman compose down 
然后只需运行拉取命令以获取latest镜像。

$ podman compose pull

之后,您可以运行 compose up 来重新启动您的服务。

$ podman compose up

手动连接到您的 Ollama 容器

您可以通过运行以下命令直接连接到您的 Ollama 容器:

$ podman exec -it ollama-intel-arc /bin/bash
$ /llm/ollama/ollama -v

我的开发环境:

参考资料

--- Tranlated By Open Ai Tx | Last indexed: 2026-02-16 ---