Web Analytics

ollama-intel-arc

⭐ 241 stars Korean by eleiton

인텔 Arc GPU로 Ollama, Stable Diffusion 및 자동 음성 인식 실행하기

[블로그]

Open WebUI를 사용자 친화적인 AI 인터페이스로 사용하고, 대형 언어 모델(LLM) 통합을 위해 Ollama를 사용하는 Docker 기반 솔루션을 손쉽게 배포하세요.

또한, ComfyUI 또는 SD.Next 도커 컨테이너를 실행하여 Stable Diffusion 기능을 간소화할 수 있습니다.

자동 음성 인식(ASR) 작업을 수행하기 위해 OpenAI Whisper 도커 컨테이너를 선택적으로 실행할 수도 있습니다.

이 모든 컨테이너는 Intel® Extension for PyTorch를 사용하여 Linux 시스템의 인텔 Arc 시리즈 GPU에 최적화되어 있습니다.

screenshot

서비스

공식 [Intel® Extension for PyTorch]를 기본 컨테이너로 사용합니다( 공식 Intel® Extension for PyTorch를 기본 컨테이너로 사용합니다)

설정

다음 명령어를 실행하여 Open WebUI와 함께 Ollama 인스턴스를 시작하세요
$ git clone https://github.com/eleiton/ollama-intel-arc.git
$ cd ollama-intel-arc
$ podman compose up
추가로, 하나 이상의 이미지 생성 도구를 실행하려면, 다른 터미널에서 다음 명령어를 실행하세요:

ComfyUI의 경우

$ podman compose -f docker-compose.comfyui.yml up
SD.Next 용

$ podman compose -f docker-compose.sdnext.yml up

자동 음성 인식을 위해 Whisper를 실행하려면, 다른 터미널에서 다음 명령어를 실행하세요:

$ podman compose -f docker-compose.whisper.yml up

검증

다음 명령어를 실행하여 Ollama 인스턴스가 정상적으로 실행 중인지 확인하세요
$ curl http://localhost:11434/
Ollama is running
Open WebUI를 사용할 때, 콘솔에 이 일부 출력이 표시되어 arc GPU가 감지되었음을 나타냅니다
[ollama-intel-arc] | Found 1 SYCL devices:
[ollama-intel-arc] | |  |                   |                                       |       |Max    |        |Max  |Global |                     |
[ollama-intel-arc] | |  |                   |                                       |       |compute|Max work|sub  |mem    |                     |
[ollama-intel-arc] | |ID|        Device Type|                                   Name|Version|units  |group   |group|size   |       Driver version|
[ollama-intel-arc] | |--|-------------------|---------------------------------------|-------|-------|--------|-----|-------|---------------------|
[ollama-intel-arc] | | 0| [level_zero:gpu:0]|                     Intel Arc Graphics|  12.71|    128|    1024|   32| 62400M|         1.6.32224+14|

이미지 생성 사용하기

screenshot screenshot screenshot

자동 음성 인식 사용하기

  podman exec -it  whisper-ipex whisper https://www.lightbulblanguages.co.uk/resources/ge-audio/hobbies-ge.mp3 --device xpu --model small --language German --task transcribe
  [00:00.000 --> 00:08.000]  Ich habe viele Hobbys. In meiner Freizeit mache ich sehr gerne Sport, wie zum Beispiel Wasserball oder Radfahren.
  [00:08.000 --> 00:13.000]  Außerdem lese ich gerne und lerne auch gerne Fremdsprachen.
  [00:13.000 --> 00:19.000]  Ich gehe gerne ins Kino, höre gerne Musik und treffe mich mit meinen Freunden.
  [00:19.000 --> 00:22.000]  Früher habe ich auch viel Basketball gespielt.
  [00:22.000 --> 00:26.000]  Im Frühling und im Sommer werde ich viele Radtouren machen.
  [00:26.000 --> 00:29.000]  Außerdem werde ich viel schwimmen gehen.
  [00:29.000 --> 00:33.000]  Am liebsten würde ich das natürlich im Meer machen.
  podman exec -it  whisper-ipex whisper https://www.lightbulblanguages.co.uk/resources/ge-audio/hobbies-ge.mp3 --device xpu --model small --language German --task translate
  [00:00.000 --> 00:02.000]  I have a lot of hobbies.
  [00:02.000 --> 00:05.000]  In my free time I like to do sports,
  [00:05.000 --> 00:08.000]  such as water ball or cycling.
  [00:08.000 --> 00:10.000]  Besides, I like to read
  [00:10.000 --> 00:13.000]  and also like to learn foreign languages.
  [00:13.000 --> 00:15.000]  I like to go to the cinema,
  [00:15.000 --> 00:16.000]  like to listen to music
  [00:16.000 --> 00:19.000]  and meet my friends.
  [00:19.000 --> 00:22.000]  I used to play a lot of basketball.
  [00:22.000 --> 00:26.000]  In spring and summer I will do a lot of cycling tours.
  [00:26.000 --> 00:29.000]  Besides, I will go swimming a lot.
  [00:29.000 --> 00:33.000]  Of course, I would prefer to do this in the sea.
  podman exec -it  whisper-ipex whisper YOUR_FILE_NAME.mp3 --device xpu --model small --task translate

컨테이너 업데이트

ipex-llm-inference-cpp-xpu 도커 이미지나 Open WebUI 도커 이미지에 새로운 업데이트가 있을 경우, 최신 상태를 유지하기 위해 컨테이너를 업데이트할 수 있습니다.

업데이트 전에 반드시 컨테이너를 중지하세요

$ podman compose down 

그런 다음 pull 명령을 실행하여 latest 이미지를 가져오십시오.

$ podman compose pull
그 후에, 다시 서비스를 시작하려면 compose up을 실행할 수 있습니다.

$ podman compose up

Ollama 컨테이너에 수동으로 연결하기

다음 명령어를 실행하여 Ollama 컨테이너에 직접 연결할 수 있습니다:

$ podman exec -it ollama-intel-arc /bin/bash
$ /llm/ollama/ollama -v

나의 개발 환경:

참고 자료

--- Tranlated By Open Ai Tx | Last indexed: 2026-02-16 ---