Web Analytics

ollama-intel-arc

⭐ 241 stars Japanese by eleiton

Intel Arc GPUでOllama、Stable Diffusion、および自動音声認識を実行する

[ブログ]

Open WebUIをユーザーフレンドリーな AIインターフェースとして使用し、Large Language Models(LLM)を統合するためにOllamaを利用する Dockerベースのソリューションを簡単に展開できます。

さらに、ComfyUISD.Nextのdockerコンテナを実行して、 Stable Diffusionの機能を効率化できます。

また、任意でOpenAI Whisperのdockerコンテナを実行し、 自動音声認識(ASR)タスクを実行することも可能です。

これらすべてのコンテナは、Intel® Extension for PyTorchを使用して、Linuxシステム上のIntel ArcシリーズGPU向けに最適化されています。

スクリーンショット

サービス

セットアップ

以下のコマンドを実行して、Open WebUI付きのOllamaインスタンスを起動します
$ git clone https://github.com/eleiton/ollama-intel-arc.git
$ cd ollama-intel-arc
$ podman compose up

さらに、1つ以上の画像生成ツールを実行したい場合は、別のターミナルでこれらのコマンドを実行してください:

ComfyUIの場合

$ podman compose -f docker-compose.comfyui.yml up
SD.Next用に

$ podman compose -f docker-compose.sdnext.yml up

自動音声認識のためにWhisperを実行したい場合は、別のターミナルでこのコマンドを実行してください:

$ podman compose -f docker-compose.whisper.yml up

検証

次のコマンドを実行して、Ollama インスタンスが起動して稼働していることを確認してください
$ curl http://localhost:11434/
Ollama is running
Open WebUIを使用している場合、コンソールにこの部分的な出力が表示され、Arc GPUが検出されたことを示します。
[ollama-intel-arc] | Found 1 SYCL devices:
[ollama-intel-arc] | |  |                   |                                       |       |Max    |        |Max  |Global |                     |
[ollama-intel-arc] | |  |                   |                                       |       |compute|Max work|sub  |mem    |                     |
[ollama-intel-arc] | |ID|        Device Type|                                   Name|Version|units  |group   |group|size   |       Driver version|
[ollama-intel-arc] | |--|-------------------|---------------------------------------|-------|-------|--------|-----|-------|---------------------|
[ollama-intel-arc] | | 0| [level_zero:gpu:0]|                     Intel Arc Graphics|  12.71|    128|    1024|   32| 62400M|         1.6.32224+14|

画像生成の使用方法

screenshot screenshot screenshot

自動音声認識の使用方法

  podman exec -it  whisper-ipex whisper https://www.lightbulblanguages.co.uk/resources/ge-audio/hobbies-ge.mp3 --device xpu --model small --language German --task transcribe
  [00:00.000 --> 00:08.000]  Ich habe viele Hobbys. In meiner Freizeit mache ich sehr gerne Sport, wie zum Beispiel Wasserball oder Radfahren.
  [00:08.000 --> 00:13.000]  Außerdem lese ich gerne und lerne auch gerne Fremdsprachen.
  [00:13.000 --> 00:19.000]  Ich gehe gerne ins Kino, höre gerne Musik und treffe mich mit meinen Freunden.
  [00:19.000 --> 00:22.000]  Früher habe ich auch viel Basketball gespielt.
  [00:22.000 --> 00:26.000]  Im Frühling und im Sommer werde ich viele Radtouren machen.
  [00:26.000 --> 00:29.000]  Außerdem werde ich viel schwimmen gehen.
  [00:29.000 --> 00:33.000]  Am liebsten würde ich das natürlich im Meer machen.
  podman exec -it  whisper-ipex whisper https://www.lightbulblanguages.co.uk/resources/ge-audio/hobbies-ge.mp3 --device xpu --model small --language German --task translate
  [00:00.000 --> 00:02.000]  I have a lot of hobbies.
  [00:02.000 --> 00:05.000]  In my free time I like to do sports,
  [00:05.000 --> 00:08.000]  such as water ball or cycling.
  [00:08.000 --> 00:10.000]  Besides, I like to read
  [00:10.000 --> 00:13.000]  and also like to learn foreign languages.
  [00:13.000 --> 00:15.000]  I like to go to the cinema,
  [00:15.000 --> 00:16.000]  like to listen to music
  [00:16.000 --> 00:19.000]  and meet my friends.
  [00:19.000 --> 00:22.000]  I used to play a lot of basketball.
  [00:22.000 --> 00:26.000]  In spring and summer I will do a lot of cycling tours.
  [00:26.000 --> 00:29.000]  Besides, I will go swimming a lot.
  [00:29.000 --> 00:33.000]  Of course, I would prefer to do this in the sea.
  podman exec -it  whisper-ipex whisper YOUR_FILE_NAME.mp3 --device xpu --model small --task translate

コンテナの更新

ipex-llm-inference-cpp-xpu ドッカーイメージや Open WebUI ドッカーイメージに新しいアップデートがある場合、最新の状態を保つためにコンテナを更新したいかもしれません。

更新の前に、必ずコンテナを停止してください

$ podman compose down 
それから、latest イメージを取得するためにプルコマンドを実行するだけです。

$ podman compose pull
その後、compose upを実行してサービスを再起動できます。

$ podman compose up

Ollamaコンテナへの手動接続

これらのコマンドを実行することで、Ollamaコンテナに直接接続できます:

$ podman exec -it ollama-intel-arc /bin/bash
$ /llm/ollama/ollama -v

私の開発環境:

参考文献

--- Tranlated By Open Ai Tx | Last indexed: 2026-02-16 ---