LinuxでDeepSeekを動かす:Ollamaを使った超簡単ローカルAI環境構築ガイド

Home / IT / OS / Linux / でDeepSeekを動かす:Ollamaを使った超簡単ローカルAI環境構築ガイド

2026年現在、生成AIの常識を塗り替えたDeepSeek。その驚異的な推論能力を、クラウドの制限なく、プライバシーを完全に守りながら自分のLinux環境でフル活用するための「完全ガイド」をお届けします。

この記事でわかること:

  • Ollamaを使ったDeepSeek各モデルの導入手順
  • GPU/メモリスペックに合わせた最適なモデルの選び方
  • Open WebUIによる快適なチャットインターフェース構築
  • VS Code等の開発ツールとの高度な連携

1. DeepSeekモデルのラインナップと選び方

DeepSeekには複数のモデルが存在します。自分のPCスペックに最適なものを選びましょう。

モデル名 推奨VRAM 特徴
DeepSeek-R1-Distill-Qwen-7B 8GB以上 軽量・爆速。一般的なデスクトップPC向け。
DeepSeek-R1-Distill-Llama-70B 40GB以上 極めて高い知性。ハイエンドワークステーション向け。
DeepSeek-V3 (Base/Chat) 汎用的な対話とコーディングに優れた基盤モデル。

2. Ollamaのセットアップと最適化

インストール(Linux)

curl -fsSL https://ollama.com/install.sh | sh

GPUの認識確認

インストール後、GPUが正しく認識されているか確認します。

nvidia-smi  # NVIDIAユーザー
rocm-smi    # AMDユーザー

モデルの実行(R1 7B)

ollama run deepseek-r1:7b

3. 応用:GUI環境と開発連携

Open WebUIの導入(Docker使用)

ブラウザで快適に操作するために、業界標準のUIを導入します。

docker run -d -p 3000:8080 
  --add-host=host.docker.internal:host-gateway 
  -v open-webui:/app/backend/data 
  --name open-webui 
  ghcr.io/open-webui/open-webui:main

VS Code (Continue) との連携

VS Codeの拡張機能「Continue」をインストールし、config.json に以下を追記することで、DeepSeekを専属のペアプログラマーとして使えます。

"models": [
  {
    "title": "DeepSeek R1",
    "provider": "ollama",
    "model": "deepseek-r1:7b"
  }
]

4. トラブルシューティング(Linux特有の課題)

  • CUDAエラー: ドライバーのバージョンが古い可能性があります。apt upgrade nvidia-driver-... で更新を確認してください。
  • ポート競合: Ollamaは標準で 11434 ポートを使います。sudo lsof -i :11434 で競合を確認できます。
  • メモリ不足: スワップ領域の拡大、またはモデルの量子化サイズ(4bit等)を下げて試してください。

まとめ:なぜLinuxユーザーこそDeepSeekを使うべきか

Linuxコミュニティの精神である「自由」と「制御」は、ローカルLLMの思想と完全に一致します。DeepSeekを自前で運用することは、単なるツール利用を超えて、AI時代のインフラを自分で構築する第一歩となります。

次のステップ:
もっと詳しく知りたい方は、当サイトの DeepSeek解説Ollama活用術 も合わせてご覧ください。