本サイトは広告・アフィリエイトプログラムにより収益を得ています
Web Search MCP Server + gpt-oss-20bで実現するローカルLLM環境の構築方法

Web Search MCP Server + gpt-oss-20bで実現するローカルLLM環境の構築方法

スポンサーリンク
前々から出るぞ出るぞと言われていたOpenAIのオープンウェイトリーズニングモデルである、「gpt-oss」が2025年8月5日にリリースされました。 リリース…
syobon.jp

先日リリースされたgpt-oss-20bをLM Studioで使ってみた結果、思いのほか快適な環境を構築できたことを紹介しました。

しかし、ChatGPTやPerplexityなどのようにWEB検索ができないため、同じようなイメージで利用するとハルシネーション(誤った情報を生成してしまう現象)が発生してしまい、思いのほか使いづらい状況にありました。

そんな中、解決策がないか調べていたところLM Studioと互換性が確認されている「Web Search MCP Server for use with Local LLMs(以下Web Search MCP Server)」を見つけたので、今回導入してみることにしました。

A simple, locally hosted Web Search MCP server for use with Local LLMs – mrkrsl/…
github.com

今回導入した環境

今回導入した環境はの主なスペックは以下の通りです。

OSWindows 11 Pro
CPUAMD Ryzen 7 9700X
RAMDDR5-5600 64GB×2
GPUAMD Radeon RX 9070
モデルを保存しているNVMeIntel SSD 670p
モデルgpt-oss-20b

事前準備

Web Search MCP Serverを利用するにあたって、Node.js 18.0.0より新しいバージョンとnpm 8.0.0より新しいバージョンの導入が必要なので、これらを導入するために「NVM for Windows」を導入します。

A node.js version management utility for Windows. Ironically written in Go. – co…
github.com

Releaseから、最新のnvm-setup.exeをダウンロードしてインストールします。

インストール後、PowerShellを立ち上げて下記コマンドを実行し、導入できるNode.jsのバージョン一覧を表示します。

nvm list available

実行すると下記のような結果が得られます。(記事執筆時点)

|   CURRENT    |     LTS      |  OLD STABLE  | OLD UNSTABLE |
|--------------|--------------|--------------|--------------|
|    24.5.0    |   22.18.0    |   0.12.18    |   0.11.16    |
|    24.4.1    |   22.17.1    |   0.12.17    |   0.11.15    |
|    24.4.0    |   22.17.0    |   0.12.16    |   0.11.14    |
|    24.3.0    |   22.16.0    |   0.12.15    |   0.11.13    |
|    24.2.0    |   22.15.1    |   0.12.14    |   0.11.12    |
|    24.1.0    |   22.15.0    |   0.12.13    |   0.11.11    |
|    24.0.2    |   22.14.0    |   0.12.12    |   0.11.10    |
|    24.0.1    |   22.13.1    |   0.12.11    |    0.11.9    |
|    24.0.0    |   22.13.0    |   0.12.10    |    0.11.8    |
|   23.11.1    |   22.12.0    |    0.12.9    |    0.11.7    |
|   23.11.0    |   22.11.0    |    0.12.8    |    0.11.6    |
|   23.10.0    |   20.19.4    |    0.12.7    |    0.11.5    |
|    23.9.0    |   20.19.3    |    0.12.6    |    0.11.4    |
|    23.8.0    |   20.19.2    |    0.12.5    |    0.11.3    |
|    23.7.0    |   20.19.1    |    0.12.4    |    0.11.2    |
|    23.6.1    |   20.19.0    |    0.12.3    |    0.11.1    |
|    23.6.0    |   20.18.3    |    0.12.2    |    0.11.0    |
|    23.5.0    |   20.18.2    |    0.12.1    |    0.9.12    |
|    23.4.0    |   20.18.1    |    0.12.0    |    0.9.11    |
|    23.3.0    |   20.18.0    |   0.10.48    |    0.9.10    |

This is a partial list. For a complete list, visit https://nodejs.org/en/download/releases

今回僕は最新のLTSバージョンの22.18.0を利用することにしたので、下記のコマンドを実行してNode.js 22.18.0を導入します。

nvm install 22.18.0
nvm use 22.18.0

これで事前準備は完了です。

Web Search MCP Serverのインストール

続いて、下記コマンドを実行してWeb Serach MCP Serverのインストールに必要なファイル群をGitHubからCloneします。

git未導入の場合

git for Windowsが未導入の場合は、ターミナル(管理者)で下記コマンドを実行して、ターミナルを立ち上げ直して下さい。

winget install git.git

#Web Serach MCP Serverをインストールする先を作成する
#例ではC:\Users\syobon\work\
mkdir C:\Users\syobon\work

#Web Serach MCP ServerのClone
cd C:\Users\syobon\work
git clone https://github.com/mrkrsl/web-search-mcp.git

#インストール
npm audit fix
npm install
npx playwright install
npm run build

LM Studioでプラグインを作成し、MCP Serverと接続する

Web Serach MCP Serverのインストールが完了したら、LM Studioでプラグインを作成してMCP Serverと接続します。

LM Studioを立ち上げたら、ウィンドウ右上のスパナアイコン→「Program」→「Install」→「Edit mcp.json」をクリックします。

「Be mindful: MCPs are userful, but they can be dangerous」というウィンドウが表示されるので、「Got it」をクリックします。

これは、MCPは非常に便利な反面、MCPサーバを利用すると実行しているPCで任意のコマンドが実行されるため、信頼できないMCPサーバを追加しないように警告が表示されるのです。

すると、「mcp.json」の編集画面が表示されるので、下記の通り編集して右上の「Save」をクリックします。

なお、例ではC:\Users\syobon\work\web-search-mcpにWeb Search MCP Serverの実体があるものとします。

なお、ファイル/フォルダパスして維持は「\」を「/」に置き換えて下さい。

{
  "mcpServers": {
    "web-search-mcp": {
      "command": "C:/nvm4w/nodejs/node.exe",
      "args": [
        "C:/Users/syobon/work/web-search-mcp/dist/index.js"
      ],
      "cwd": "C:/Users/syobon/work/web-search-mcp"
    }
  }
}

Web Serach MCP Serverの実体が存在していれば、上図の通り「Integrations」に「mcp/web-search-mcp」が表示されます。

こちらが表示されていることを確認して、gpt-oss-20bを読み込みます。

なお、LM Studioのデフォルト設定値ではコンテキスト長(LLMが一度に処理できるテキストの最大長)が4096に設定されていますが、Web上の情報を複数検索した上で、複雑な提案などをさせる場合は、必要に応じてコンテキスト長を増やすようにして下さい。

モデルを読み込んだら、チャットタブに戻って「Integration」内の「mcp/web-search-mcp」の有効化トグルをクリックします。

Web Search MCP Serverを使って、gpt-oss-20bでWeb検索できることを確認する。

それでは試しに「https://syobon.jp はどんなブログですか?」と入力して実行してみます。

実行すると、LLMモデルがMCP Serverを呼び出す度に許可を求められるので、「Proceed」をクリックします。

確認画面を無効化するには

MCPを利用する際、プロンプト実行後にMCPサーバに接続するかどうか毎回聞かれます。

前述したMCP Serverのリスクに備えた機能ですが、もし毎回の確認が煩わしい場合は、下記設定で「Web Search MCP Server」に限り、確認画面を表示させないよう設定できます。

「mcp/web-search-mcp」のトンカチアイコン→「Tools」→「…」→「Always allow all tools」をクリックします。

すると、しょぼんブログ(https://syobon.jp)の概要が表示されます。

試しに「mcp/web-search-mcp」を無効化して同じく「https://syobon.jp はどんなブログですか?」と入力すると、適当な内容が生成されてしまい、正しくない情報が生成されます。

まとめ

ローカルでgpt-ossを快適に動作させる場合、現時点で推論最適化に優位性のあるRDNA3または、RDNA4世代のVRAM 16GB以上のGPUを搭載し、さらにメモリが潤沢なPCが必要となるコスト面でのデメリットはあります。

こぼれ話

今ならRDNA3世代のRX 7900 XTやRX 7900 XTXの価格が安くなってきているので、ローカルLLMを主眼としておくならこちらが良いかも。

ただ、環境さえ手元にあれば有償の外部サービスを使わずとも、LLMが利用できるので導入して得られるメリットは大きいんじゃないかなぁと感じます。

もし興味があれば、gpt-oss-20bとWeb Search MCP Serverを組み合わせた、ローカルLLM環境の構築をしてみては・・・!

モバイルバージョンを終了