ブラウザで使えるローカルLLMチャットツール

ブラウザで使えるローカルLLMチャットツールの画面イメージ
本サイトはプロモーションが含まれています
WordPress Ready / Browser-only Local LLM

Local LLM Workspace

ブラウザだけで使えるローカルLLMツールです。普段はチャットを中心に、必要なときだけ添付、履歴、診断、詳細設定を開けます。

外部送信なし 履歴保存 PDFと画像OCR
モデル選択 ロード 会話開始
動作チェック
現在の環境
準備状態: 確認中
WebGPU: 確認中
端末情報: 確認中
保存状況: 確認中
モデル候補: 既定
現在の状態
モデル未ロード
選択モデル目安メモリ: 計算中
端末適合: 判定中
実測: まだありません
おすすめを計算中…
準備中…

上のモデル欄から候補を選び、ロードが終わったら下の入力欄からそのまま会話できます。迷ったら「迷ったらこれ」を押してください。

Ctrl+K 新規会話 Ctrl+H 履歴 Ctrl+S 設定
速度:
入力:
出力:
入力推定: 0 / 0
プリセットを選ぶと、ここに内容の要約が表示されます。
添付なし(txt・md・json・PDF・画像OCR対応 / PDF・OCRは必要時に読込)
添付できるファイルの目安
内容を読める: txt, md, json, csv, xml, yaml, ini, toml, js, ts, py, html, css, sh などのテキスト系
内容を読める: PDF(本文抽出)、画像(OCR)
添付のみ可: docx, xlsx, pptx, 音声, 動画, zip(本文は読まず名前と形式のみ参照)
読めない場合: 画像化PDF、低解像度画像、破損ファイル。上限は8件で本文抽出は先頭のみ。PDFとOCRは初回のみ追加読込
ヘルプとFAQ

このツールは、完全にブラウザ内で動作するAIチャットです。以下の特徴があります:

  • 完全プライバシー保護: 入力した会話データは外部送信せず、処理はブラウザ内で完結します(ライブラリ・モデル取得時は通信が発生)
  • オフライン対応: 初回のモデルダウンロード後は、インターネット接続なしで使用可能
  • 無料・無制限: API料金や利用制限がなく、何度でも自由に使用できます
  • 日本語対応: Qwen3とQwen2.5は日本語用途で使いやすい候補です
  1. モデルを選択: 画面上部のドロップダウンから使用するAIモデルを選びます(最新系は「Qwen3 1.7B」、軽さ優先なら「Qwen3 0.6B」)
  2. モデルをロード: 空状態のボタン、または「選択モデルを読み込む」ボタンをクリックします(初回は数分かかります)
  3. メッセージを入力: テキストエリアに質問や指示を入力します
  4. 送信: 送信ボタンをクリック、またはEnterキーを押します(改行はShift+Enter)
  5. AIの応答: AIが回答を生成します。コードやマークダウン形式も正しく表示されます
  • Ctrl + K (Mac: Cmd + K): 新しい会話を開始
  • Ctrl + H (Mac: Cmd + H): 会話履歴を開く
  • Ctrl + S (Mac: Cmd + S): 設定を開く
  • Ctrl + E (Mac: Cmd + E): 会話をエクスポート
  • Ctrl + R (Mac: Cmd + R): 直前の応答を再生成
  • Enter: メッセージを送信
  • Shift + Enter: 改行を入力
  • Esc: モーダルを閉じる
推奨モデル:
  • Qwen3 1.7B (最新): 新しめのQwen系を使いたい場合の本命。品質と軽さのバランス型
  • Qwen3 0.6B: 最新系で最も軽量。低スペック端末向け
  • Qwen2.5 1.5B (推奨): バランスが良く、日本語対応。初心者におすすめ(約1GB)
  • Qwen2.5 3B: やや重めだが高品質。高性能PCで使用推奨
その他のモデル:
  • Llama 3.2 シリーズ: Meta製。英語が得意
  • Phi 3.5 Mini: Microsoft製。コンパクトで多言語対応
  • Gemma 2 2B: Google製。バランス型
Temperature (温度):

AIの創造性を調整します。低い値(0.1-0.5)は一貫した回答、高い値(0.8-1.5)はより創造的で多様な回答を生成します。

Max Tokens (最大トークン数):

AIが生成する最大の文字数を制御します。長い回答が必要な場合は増やしてください。

システムプロンプト:

AIの振る舞いを定義します。例: 「専門家として詳しく説明してください」「簡潔に答えてください」など。

Q: 初回のロードに時間がかかります

A: 初回はモデルファイルをダウンロードするため、数分かかります。2回目以降はブラウザにキャッシュされるため高速です。

Q: どのブラウザで使えますか?

A: Chrome、Edge、Braveなど、WebGPUに対応した最新ブラウザで動作します。Firefoxは現在非対応です。

Q: スマホでも使えますか?

A: Android版Chromeでは動作する場合がありますが、PCでの使用を推奨します。iOSは現在非対応です。

Q: データは保存されますか?

A: 会話履歴と設定はブラウザのLocalStorageに保存されます。外部サーバーには一切送信されません。

Q: 右上の「動作チェック」は何を見ていますか?

A: このブラウザで使えるかどうかの目安です。「準備状態」は必要な機能や追加読込の状態、「WebGPU」はローカルLLM実行に必要な機能、「端末情報」は今使っている端末の種類やメモリ目安、「保存状況」はこのブラウザで使えそうな保存領域の目安、「モデル候補」は選べるモデルの状態を示します。

Q: 「端末情報」や「保存状況」はアクセスする環境ごとに変わりますか?

A: はい。使っているパソコンやスマホ、ブラウザの種類や設定によって変わります。保存状況は端末の性能そのものより、ブラウザ側の保存ルールや空き状況の影響を受けます。

Q: エラーが出て動作しません

A: 以下を確認してください:
・最新のブラウザを使用しているか
・WebGPUが有効になっているか(chrome://gpu で確認)
・十分なメモリがあるか(最低4GB推奨)

  • メッセージ編集: ユーザーメッセージにマウスを乗せると編集ボタンが表示されます
  • メッセージ削除: 不要なメッセージを個別に削除できます
  • コードコピー: コードブロックにマウスを乗せるとコピーボタンが表示されます
  • 会話のエクスポート: Markdown形式で会話をダウンロードできます
  • 会話履歴: 過去20件の会話が自動保存され、検索可能です
  • ダークモード: 右上のボタンでライト/ダークモードを切り替えられます
設定
生成パラメータ
Temperature (0-2)
高いほどランダム
Max Tokens (100-4096)
最大生成トークン数
システムプロンプト

AIの振る舞いをカスタマイズできます

データ管理
読み込み中…
実測データ: なし
会話履歴