
Table of Contents
導入
Smart CodeInsight のような AI 搭載ツールの使用には興味があるけれど、データはローカルに保存しておきたい、またプライバシーに関する不安であったり、API呼び出しのコストを削減したい、あるいは単にさまざまな LLM モデルを試してみたい、などの課題があると思います。このガイドでは、大規模言語モデル (LLM) をローカルで実行するためのユーザーフレンドリなデスクトップ アプリケーションである LM Studio をセットアップし、RAD Studio の Smart CodeInsight に接続する方法を説明します。 Ollama や Docker ベースのソリューションなどの代替品とは異なり、LM Studio は、コマンドライン ツールやコンテナー テクノロジーに慣れていない場合でもローカル LLM セットアップにアクセスできる、視覚的で直感的なインターフェイスを提供します。LM Studioとは何ですか?
LM Studio は、さまざまな LLM モデルをローカルマシンにダウンロードして実行できるデスクトップ アプリケーションです。次の機能を提供します。-
- シンプルで使いやすいインターフェース
-
- 自動 GPU アクセラレーション (利用可能な場合)
-
- Windows、macOS、Linuxとの互換性
-
- Hugging Faceから直接モデルをダウンロードする機能
-
- OpenAI互換APIサーバーモード
前提条件
始める前に、以下のものを用意してください。-
- RAD Studio Smart CodeInsight機能をインストール
-
- 適度に高性能なコンピューター(できればパフォーマンス向上のために専用の GPU を搭載)
-
- LLM モデル用の十分なストレージ スペース (モデルは選択に応じて 1 GB から 10 GB 以上の範囲になります)
ステップ1: LM Studioをインストールする
LM Studioを以下のサイトからダウンロードしてインストールするだけです。 公式ウェブサイト.インストールプロセスはWindows、macOS、Linuxで簡単です。プラットフォーム固有の問題が発生した場合は、 ドキュメントを参照ください。ステップ2: モデルをダウンロードする
初回起動後、LM Studio はモデルのダウンロードを提案します。Smart CodeInsight で最良の結果を得るには、CodeLlama、WizardCoder、DeepSeek Coder などのコード特化モデルのダウンロードを検討してください。複数のモデルをダウンロードして、さまざまな機能やパフォーマンス特性を試すことができます。ダウンロードすると、モデルが [My Models] タブに表示され、必要に応じて選択して読み込むことができます。 モデルの選択と管理オプションの詳細については、LM Studio モデル管理ドキュメントを参照ください。ステップ3: ローカルAPIサーバーを起動する
RAD Studio を LM Studio に接続するには、LM Studio のローカル API サーバーを起動する必要があります。
- LM Studio で、サイドバーの「Developer」タブをクリックします。
- 選択したモデルがロードされていることを確認してください。
- 「Start Server」トグルをクリックします。
- 表示されるサーバー アドレスをメモします (通常は http://localhost:1234 または類似のもの)。
- サーバーは実行されており、接続の準備が整いました。
追加のサーバー設定オプションについては、LM Studio API サーバーのドキュメントを参照ください。
ステップ4: RAD Studio Smart CodeInsightを構成する
ローカル LLM サーバーが実行中になったので、それを使用するように RAD Studio を構成する必要があります。
- RAD Studio を開きます。
- [ツール] > [オプション] に移動します。
- 「IDE」セクションの「スマート支援機能」を探します。
- プラグイン設定で:
- 「ChatGPT」を選択し、「有効」をクリックします
- API URLをローカルLM Studioサーバーのアドレスに設定します(例: http://localhost:1234/v1).
- API キー フィールドに任意のテキストを入力します (RAD Studio ではこのフィールドに何かを入力する必要がありますが、実際の値は重要ではありません)。
- 「モデル」ドロップダウン メニューをクリックします。利用可能なモデルのリストが返された場合、接続は成功しています。
ステップ5: 接続をテストする
すべてが動作していることを確認するには:
- RAD Studio で Delphi または C++ プロジェクトを開きます。
- コード補完や説明などの Smart CodeInsight 機能を使用してみてください。
- リクエストが LM Studio によって処理されていることがわかります (これは LM Studio インターフェースで監視できます)。
- Smart CodeInsight は、ローカル モデルに基づいた提案で応答します。
トラブルシューティング
接続に問題が発生した場合:
- LM Studio サーバーが応答しません: API サーバーが LM Studio で実行されており、モデルがロードされていることを確認してください。
- 接続が拒否されました: RAD Studio の URL が LM Studio の [Developer] タブに表示されるアドレスと一致していることを確認してください。
- 応答品質が低い: 別のモデルを試す必要があります。コードに特化したモデルは、一般的に開発タスクで優れたパフォーマンスを発揮します。
- パフォーマンスが遅い: ローカル LLM は、特に GPU アクセラレーションがない場合、クラウドベースの代替手段よりも一般的に低速です。より小さなモデルを使用するか、ハードウェアのアップグレードを検討してください。
上級者向けヒント
ネットワーク経由で LM Studio を使用する
強力なデスクトップで LM Studio を実行し、RAD Studio を実行しているラップトップからそれに接続する場合、または RAD Studio を VM で実行する場合は、LM Studio でリモート接続 (localhost とは異なる) を有効にすることもできます。
- LM Studio の「Developer」Settings (「activate」トグルの横) で、「Serve on local network」オプションをクリックします。
- LM Studioを実行しているコンピュータのIPアドレスをメモします(例:192.168.1.100).
- RAD Studio では、API URL に次の IP アドレスを使用します。http://192.168.1.100:1234/v1.
- ファイアウォールが LM Studio ポートへの接続を許可していることを確認します。
モデルパフォーマンスの最適化
パフォーマンスを向上させるには:
- 特定のハードウェアに最適化されたモデルを使用します。LM Studio は、ハードウェアに基づいて最適なモデルを提案します。
- 大型モデルの全機能が必要ない場合は、小型モデルを検討してください。
- 速度と品質のバランスをとるために、LM Studio の推論パラメータを調整します。
AIをコントロール
このような代替手段は、データをローカルに保持し、管理しながら、AI 支援開発のすべての利点を提供します。モデルが改良され、ハードウェアの性能が向上するにつれて、このようなローカル LLM ソリューションは、あらゆる規模の開発チームにとってますます実用的なオプションになるでしょう。
RAD Studio の Smart CodeInsight 機能やその他の AI を活用した開発ツールに関する質問については、エンバカデロのドキュメントをご覧ください。
免責事項
LM Studioは個人利用のみにご利用いただけます。詳しくは。利用規約をご覧ください。
Design. Code. Compile. Deploy.
Start Free Trial Upgrade Today
Free Delphi Community Edition Free C++Builder Community Edition