LM Studioの使い方|GUIで簡単にローカルLLMを動かす方法を解説

kento_morota 10分で読めます

ローカルLLMを始めてみたいが、コマンドラインの操作に自信がない――そんな方に最適なツールが「LM Studio」です。LM Studioは、グラフィカルなユーザーインターフェース(GUI)でローカルLLMのダウンロード・実行・管理がすべて完結するデスクトップアプリケーションです。

本記事では、LM Studioのインストールから基本的な使い方、業務活用に役立つ機能まで、初心者の方でも迷わず操作できるよう詳しく解説します。

LM Studioとは何か

LM Studioは、LM Studio社が開発・提供する無料のデスクトップアプリケーションです。Windows、macOS、Linuxに対応しており、プログラミングの知識がなくてもローカルLLMを手軽に利用できます。

LM Studioの主な特徴

  • 直感的なGUI:モデルの検索・ダウンロード・実行がすべて画面上の操作で完結
  • Hugging Face統合:Hugging Face上の対応モデルを直接検索してダウンロード可能
  • チャットUI内蔵:ChatGPTライクな対話インターフェースを標準搭載
  • ローカルAPIサーバー:OpenAI互換のAPIサーバー機能を内蔵
  • モデル比較機能:複数のモデルを並べて同時に比較テスト可能
  • 量子化モデル対応:GGUF形式の量子化モデルに幅広く対応

Ollamaがコマンドラインベースのツールであるのに対し、LM Studioはすべての操作をGUIで行える点が最大の特徴です。IT部門以外のスタッフにもローカルLLMを試してもらいたい場合に特に適しています。

LM Studioのインストール方法

LM Studioのインストールは非常にシンプルです。

ダウンロードとインストール

  1. LM Studio公式サイトにアクセス
  2. お使いのOSに対応するインストーラをダウンロード
  3. ダウンロードしたファイルを実行してインストール

Windowsの場合:ダウンロードされた .exe ファイルをダブルクリックして実行します。インストーラの指示に従って「次へ」を選択するだけで完了します。

macOSの場合:ダウンロードされた .dmg ファイルを開き、LM Studioのアイコンをアプリケーションフォルダにドラッグします。

Linuxの場合:AppImage形式で提供されるため、ダウンロード後に実行権限を付与して起動します。

chmod +x LM-Studio-*.AppImage
./LM-Studio-*.AppImage

システム要件

LM Studioの最低システム要件は以下の通りです。

項目 最低要件 推奨要件
OS Windows 10 / macOS 13 / Ubuntu 22.04 最新OS推奨
RAM 8GB 16GB以上
ストレージ 10GB以上の空き SSD 100GB以上推奨
GPU 不要(CPU推論可能) VRAM 8GB以上のGPU

詳細なハードウェア選定については、ローカルLLMに必要なPCスペックガイドを参考にしてください。

モデルの検索とダウンロード

LM Studioを起動すると、まずモデルの検索画面が表示されます。ここから使いたいモデルを探してダウンロードしましょう。

モデルの検索方法

画面上部の検索バーにモデル名やキーワードを入力して検索します。例えば、以下のようなキーワードで検索できます。

量子化バージョンの選び方

検索結果には、同じモデルでも複数の量子化バージョンが表示されます。量子化レベルによってファイルサイズと精度が異なるため、自分のPC環境に合ったバージョンを選びましょう。

量子化レベル サイズ(7Bモデルの場合) 精度 推奨環境
Q2_K 約2.5GB 低い メモリが非常に限られる環境
Q4_K_M 約4.0GB 良好 最もバランスが良くおすすめ
Q5_K_M 約5.0GB 高い VRAM 8GB以上の環境
Q8_0 約7.5GB 非常に高い VRAM 12GB以上の環境

LM Studioの画面上では、各バージョンの横に推奨されるVRAM容量が表示されるため、自分のPCに合ったものを簡単に選択できます。迷った場合はQ4_K_Mを選んでおけば間違いありません。

ダウンロードの実行

使用したいモデルのバージョンを見つけたら、「Download」ボタンをクリックするだけでダウンロードが開始されます。ダウンロード状況はプログレスバーで確認でき、完了すると自動的にモデル一覧に追加されます。

チャット機能の使い方

モデルのダウンロードが完了したら、すぐにチャット機能でAIとの対話を始められます。

チャットの開始手順

  1. 左サイドバーのチャットアイコンをクリック
  2. 画面上部のモデル選択ドロップダウンから、使用するモデルを選択
  3. モデルの読み込みが完了するのを待つ(初回は数秒〜数十秒)
  4. 画面下部の入力欄にメッセージを入力して送信

ChatGPTと同様の操作感で対話が可能です。チャット履歴は自動的に保存され、後から見返すこともできます。

システムプロンプトの設定

チャット画面の設定パネルから、システムプロンプトを設定できます。業務用途に合わせたシステムプロンプトを設定することで、モデルの応答品質を大幅に向上させることが可能です。

例えば、社内Q&A用途であれば以下のようなシステムプロンプトが効果的です。

あなたは社内ITヘルプデスクの担当者です。
社員からの技術的な質問に対し、わかりやすい日本語で回答してください。
手順を説明する際は、番号付きのステップで記述してください。
不明な点がある場合は、IT部門への問い合わせを案内してください。

パラメータの調整

右サイドパネルでは、以下のパラメータを調整できます。

  • Temperature:応答の創造性を制御(0に近いほど一貫性のある回答、1に近いほど多様な回答)
  • Max tokens:応答の最大文字数を設定
  • Top P:応答の多様性を制御する別のパラメータ
  • Context length:一度に処理できるテキストの長さ

業務利用では、Temperature を 0.1〜0.3 に設定すると、安定した一貫性のある回答が得られます。創造的な文章生成には 0.7〜0.9 が適しています。

ローカルAPIサーバー機能

LM Studioには、OpenAI互換のローカルAPIサーバー機能が内蔵されています。この機能を有効にすることで、他のアプリケーションからHTTP経由でモデルにアクセスできます。

APIサーバーの起動方法

  1. 左サイドバーのサーバーアイコンをクリック
  2. 使用するモデルを選択
  3. 「Start Server」ボタンをクリック
  4. デフォルトで http://localhost:1234 にサーバーが起動

APIの利用例

起動したAPIサーバーには、OpenAIライブラリから直接アクセスできます。

from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:1234/v1",
    api_key="lm-studio"
)

response = client.chat.completions.create(
    model="使用中のモデル名",
    messages=[
        {"role": "system", "content": "あなたは優秀なビジネスアシスタントです。"},
        {"role": "user", "content": "来週の営業会議のアジェンダを作成してください。"}
    ]
)
print(response.choices[0].message.content)

この機能を活用すれば、社内のAPIサーバーとして、RAGシステムチャットボットのバックエンドとしてLM Studioを運用できます。

モデル比較機能の活用

LM Studioの便利な機能の一つが、複数のモデルを同時に比較できる「マルチモデルチャット」機能です。

比較テストの手順

  1. チャット画面で「Compare」モードを選択
  2. 比較したい2つ以上のモデルを選択
  3. 質問を入力すると、選択した全モデルが同時に回答を生成
  4. 回答品質・速度・正確性を横並びで比較可能

この機能は、どのモデルを業務に採用するかを判断する際に非常に役立ちます。例えば、日本語の文書要約タスクに対してQwen3Gemma 3の回答品質を並べて確認し、自社の用途に最適なモデルを選定できます。

LM Studio活用のベストプラクティス

LM Studioを業務で効果的に活用するためのポイントをまとめます。

用途ごとにプリセットを作成する

LM Studioでは、システムプロンプトとパラメータの組み合わせをプリセットとして保存できます。用途ごとにプリセットを作成しておくと、素早く切り替えて利用できます。

  • 議事録要約用:低いTemperature + 要約に特化したシステムプロンプト
  • メール下書き用:中程度のTemperature + ビジネスメールのトーン設定
  • アイデア出し用:高いTemperature + 創造的な回答を促すプロンプト

モデルの使い分け

すべてのタスクに同じモデルを使う必要はありません。タスクの複雑さに応じてモデルを使い分けることで、効率的な運用が実現できます。

  • 簡単なテキスト分類SLM(1B〜4Bモデル)で高速に処理
  • 文書生成・要約:7B〜14Bモデルでバランスの良い品質
  • 高度な分析・推論:27B以上のモデルで高品質な出力

定期的なモデルの更新

オープンソースのLLMは日々進化しています。定期的にLM Studioのモデル検索画面をチェックし、より性能の良い新しいモデルが公開されていないか確認しましょう。

LM StudioとOllamaの使い分け

ローカルLLMの二大ツールであるLM StudioとOllamaは、それぞれ得意分野が異なります。

比較項目 LM Studio Ollama
操作方法 GUI(グラフィカル) CLI(コマンドライン)
初心者向け 非常に適している CLIに慣れていれば容易
自動化・スクリプト連携 API経由で可能 非常に容易
モデル管理 GUIで直感的に管理 コマンドで管理
リソース消費 GUI分のオーバーヘッドあり 軽量
サーバー運用 デスクトップ向け サーバー運用に最適

個人利用や少人数のチームでのPoC段階ではLM Studio、本格的なサーバー運用や自動化パイプラインにはOllamaが適しています。もちろん、両方を併用することも可能です。

まとめ:LM StudioでローカルLLMを手軽に始めよう

LM Studioは、技術的なハードルを最小限に抑えてローカルLLMを体験・活用できるツールです。本記事のポイントを改めて整理します。

  • GUIで完結:コマンドライン不要で、モデルの検索・ダウンロード・実行がすべて画面操作で可能
  • 豊富なモデル対応:Hugging Faceの数千のモデルに対応し、最新のモデルもすぐに利用可能
  • チャットUI内蔵:ChatGPTのような使い勝手でAIとの対話が即座に開始
  • APIサーバー機能:他のシステムとの連携も標準機能で実現
  • モデル比較機能:複数モデルの横並び比較で、最適なモデル選定をサポート

まずはLM Studioをインストールして、SLMクラスの軽量モデルを動かしてみてください。ローカルLLMの仕組みを体感しながら、自社の業務にどう活かせるかを検討していきましょう。ビジネス活用事例も参考に、具体的な導入計画を立ててみてください。

#LM Studio#ローカルLLM#使い方
共有:
無料メルマガ

週1回、最新の技術記事をお届け

AI・クラウド・開発の最新記事を毎週月曜にメールでお届けします。登録は無料、いつでも解除できます。

プライバシーポリシーに基づき管理します

AI活用のヒントをお探しですか?お気軽にご相談ください。

まずは話だけ聞いてもらう