【環境構築手順】WindowsのOllamaをUbuntuのDifyと社内ネットワークで連携する方法
社内ネットワーク環境でWindowsにインストールしたOllamaを、UbuntuサーバーのDifyと連携させる手順を解説します。この記事では、特にネットワーク設定に焦点を当てて説明します。
開発環境
- システム構成:
- クライアント環境: Windows PC(社内LAN接続)
- Ollama for Windows
- サーバー環境: Ubuntu Server(社内LAN接続)
- Dify(Docker環境)
- クライアント環境: Windows PC(社内LAN接続)
1. Windowsでのollama設定
環境変数の設定
まず、Ollamaがネットワークからのアクセスを受け付けるように環境変数を設定します。
- Windowsの検索ボックスで「環境変数」と入力
- 環境変数設定画面を開く
- 「新規」ボタンを押下し、以下を追加:
- 変数名:
OLLAMA_HOST
- 変数値:
0.0.0.0
- 変数名:
Ollamaの再起動
- タスクトレイのOllamaアイコンを右クリックして終了
- スタートメニューからOllamaを再起動
2. ファイアウォールの設定
Windowsファイアウォールでポート11434を開放
- Windowsの「スタート」→「設定」→「システムとセキュリティ」→「Windows Defender ファイアウォール」
- 左側メニューから「詳細設定」をクリック
- 「受信の規則」→「新しい規則」をクリック
- 以下の設定を行う:
- 規則の種類:「ポート」
- プロトコル:「TCP」
- ポート番号:「11434」
- アクション:「接続を許可する」
- プロファイル:必要なものを選択(プライベートは必須)
- 名前:「Ollama-11434」
3. 動作確認
WindowsのコマンドプロンプトでOllamaの動作確認を行います:
1 | curl http://localhost:11434/api/generate -d "{\"model\":\"llama2\", \"prompt\":\"Hello\"}" |
4. Difyの設定
- UbuntuサーバーのDifyにログイン
- 設定 → モデルプロバイダー → Ollamaを選択
- 以下の項目を設定:
- Model Name:
llama2
- Base URL:
http://<WindowsのIPアドレス>:11434
- Model Type:
Chat
- Model Context Length:
4096
- Maximum Token Limit:
4096
- Model Name:
トラブルシューティング
接続エラーが発生した場合は、以下の点を確認してください:
- WindowsのIPアドレスが正しく設定されているか
- ファイアウォールの設定が正しく行われているか
- Ollamaが正常に起動しているか
- ネットワーク接続に問題がないか
まとめ
この設定により、社内ネットワーク環境でDifyからOllamaのモデルを利用することが可能になります。セキュリティ面を考慮しながら、適切なネットワーク設定を行うことが重要です。
このブログのすべての記事は、CC BY-NC-SA 4.0 ライセンスの下で提供されており、特に明記されていない限り、すべての権利を留保します。転載時には出典を明記してください: Toki Blog。