最終目的はollamaを動作させてローカルLLMサーバにする事だ。
インストールイメージをダウンロードし、Rufusを使ってUSBメモリにインストーラを作成する。
LANの設定は都合が良いようにする。
AMD GPUドライバをインストールする
GPUで動かせなくては意味がないので、以下を確認する。
- BIOS で iGPU が有効か確認
uname -aを実行し、カーネルバージョンが 6.9 以上になっているか確認- lspci -nnk と dmesg | grep -i amdgpu の確認
プレインストールされているWindows11でiGPUが有効になっているのを確認済みなので、GPUドライバを入れる。
AMD Radeon™ & Radeon PRO™ グラフィックス用 Linux® ドライバーから、Ubuntu用の最新ドライバを入手する。
Radeon™ Software for Linux® version 25.30.1 for Ubuntu 24.04.3 HWE
以下を実行し、ドライバをインストールする。
curl https://repo.radeon.com/amdgpu-install/30.20.1/ubuntu/noble/amdgpu-install_7.1.1.70101-1_all.deb -O
sudo apt install ./amdgpu-install_7.1.1.70101-1_all.deb
カーネルを6.9以上に上げる
つぎにuname -a を実行すると 6.8 だったので、まずカーネルを最新にする。
2026/01/06時点で最新のv6.18をインストールする。URLはブラウザで https://kernel.ubuntu.com/mainline にアクセスして探した方が楽。
cd /tmp
wget https://kernel.ubuntu.com/mainline/v6.18/amd64/linux-headers-6.18.0-061800-generic_6.18.0-061800.202511302339_amd64.deb
wget https://kernel.ubuntu.com/mainline/v6.18/amd64/linux-headers-6.18.0-061800_6.18.0-061800.202511302339_all.deb
wget https://kernel.ubuntu.com/mainline/v6.18/amd64/linux-image-unsigned-6.18.0-061800-generic_6.18.0-061800.202511302339_amd64.deb
wget https://kernel.ubuntu.com/mainline/v6.18/amd64/linux-modules-6.18.0-061800-generic_6.18.0-061800.202511302339_amd64.deb
sudo dpkg -i *.deb
sudo reboot
再起動後、以下を実行し Display controller が amdgpu で動いていることを確認する。
sudo apt update && sudo apt upgrade -y
sudo apt install -y pciutils mesa-utils
lspci -nnk | grep -A 3 Display
pcilib: Error reading /sys/bus/pci/devices/0000:00:08.3/label: Operation not permitted
c5:00.0 Display controller [0380]: Advanced Micro Devices, Inc. [AMD/ATI] Device [1002:1586] (rev c1)
Subsystem: Device [2014:801d]
Kernel driver in use: amdgpu
Kernel modules: amdgpu
Ollamaをインストールする
以下を実行する。
curl -fsSL https://ollama.com/install.sh | sh
インストールするとsystemdでサービスとして動作している状態になる。
LAN内のPCからアクセスできないと意味がない、2つは動かしたいなど、デフォルト設定では困るので、 sudo systemctl edit ollama を実行し環境変数を設定する。
[Service]
Environment="OLLAMA_CONTEXT_LENGTH=32768"
Environment="OLLAMA_HOST=http://0.0.0.0:11434"
Environment="OLLAMA_KEEP_ALIVE=1h"
Environment="OLLAMA_LOAD_TIMEOUT=1h"
Environment="OLLAMA_NUM_PARALLEL=2"
Environment="OLLAMA_VULKAN=1"
Environment="OLLAMA_ORIGINS=http://192.168.*"
保存したら sudo systemctl daemon-reload && sudo systemctl restart ollama を実行して、変更を反映する。
モデルは適当にpullする。
最終確認
まず、ローカルで curl http://localhost:11434/api/tags を実行して、pull済みのモデル一覧が取得できるか確認する。問題なければLANの他の端末からも試し、同様に取得できれば完了。