Site icon Embarcadero RAD Studio, Delphi, & C++Builder Blogs

RAD Studio の Smart CodeInsight で LM Studio を利用する方法: ローカル AI による代替

rad lmstudio

導入

Smart CodeInsight のような AI 搭載ツールの使用には興味があるけれど、データはローカルに保存しておきたい、またプライバシーに関する不安であったり、API呼び出しのコストを削減したい、あるいは単にさまざまな LLM モデルを試してみたい、などの課題があると思います。このガイドでは、大規模言語モデル (LLM) をローカルで実行するためのユーザーフレンドリなデスクトップ アプリケーションである LM Studio をセットアップし、RAD Studio の Smart CodeInsight に接続する方法を説明します。 Ollama や Docker ベースのソリューションなどの代替品とは異なり、LM Studio は、コマンドライン ツールやコンテナー テクノロジーに慣れていない場合でもローカル LLM セットアップにアクセスできる、視覚的で直感的なインターフェイスを提供します。

LM Studioとは何ですか?

LM Studio は、さまざまな LLM モデルをローカルマシンにダウンロードして実行できるデスクトップ アプリケーションです。次の機能を提供します。 何よりも優れているのは、RAD Studio の Smart CodeInsight などのアプリケーションで LM Studio を OpenAI の API の代替として使用できるため、コード生成と AI 支援を完全にローカルに保つことができることです。

前提条件

始める前に、以下のものを用意してください。

ステップ1: LM Studioをインストールする

LM Studioを以下のサイトからダウンロードしてインストールするだけです。 公式ウェブサイト.インストールプロセスはWindows、macOS、Linuxで簡単です。プラットフォーム固有の問題が発生した場合は、 ドキュメントを参照ください。

ステップ2: モデルをダウンロードする

初回起動後、LM Studio はモデルのダウンロードを提案します。Smart CodeInsight で最良の結果を得るには、CodeLlama、WizardCoder、DeepSeek Coder などのコード特化モデルのダウンロードを検討してください。複数のモデルをダウンロードして、さまざまな機能やパフォーマンス特性を試すことができます。ダウンロードすると、モデルが [My Models] タブに表示され、必要に応じて選択して読み込むことができます。 モデルの選択と管理オプションの詳細については、LM Studio モデル管理ドキュメントを参照ください。

ステップ3: ローカルAPIサーバーを起動する

RAD Studio を LM Studio に接続するには、LM Studio のローカル API サーバーを起動する必要があります。

  1. LM Studio で、サイドバーの「Developer」タブをクリックします。
  2. 選択したモデルがロードされていることを確認してください。
  3. 「Start Server」トグルをクリックします。
  4. 表示されるサーバー アドレスをメモします (通常は http://localhost:1234 または類似のもの)。
  5. サーバーは実行されており、接続の準備が整いました。

追加のサーバー設定オプションについては、LM Studio API サーバーのドキュメントを参照ください。

ステップ4: RAD Studio Smart CodeInsightを構成する

ローカル LLM サーバーが実行中になったので、それを使用するように RAD Studio を構成する必要があります。

  1. RAD Studio を開きます。
  2. [ツール] > [オプション] に移動します。
  3. 「IDE」セクションの「スマート支援機能」を探します。
  4. プラグイン設定で:
    • 「ChatGPT」を選択し、「有効」をクリックします
    • API URLをローカルLM Studioサーバーのアドレスに設定します(例: http://localhost:1234/v1).
    • API キー フィールドに任意のテキストを入力します (RAD Studio ではこのフィールドに何かを入力する必要がありますが、実際の値は重要ではありません)。
  5. 「モデル」ドロップダウン メニューをクリックします。利用可能なモデルのリストが返された場合、接続は成功しています。

ステップ5: 接続をテストする

すべてが動作していることを確認するには:

  1. RAD Studio で Delphi または C++ プロジェクトを開きます。
  2. コード補完や説明などの Smart CodeInsight 機能を使用してみてください。
  3. リクエストが LM Studio によって処理されていることがわかります (これは LM Studio インターフェースで監視できます)。
  4. Smart CodeInsight は、ローカル モデルに基づいた提案で応答します。

トラブルシューティング

接続に問題が発生した場合:

上級者向けヒント

ネットワーク経由で LM Studio を使用する

強力なデスクトップで LM Studio を実行し、RAD Studio を実行しているラップトップからそれに接続する場合、または RAD Studio を VM で実行する場合は、LM Studio でリモート接続 (localhost とは異なる) を有効にすることもできます。

  1. LM Studio の「Developer」Settings (「activate」トグルの横) で、「Serve on local network」オプションをクリックします。
  2. LM Studioを実行しているコンピュータのIPアドレスをメモします(例:192.168.1.100).
  3. RAD Studio では、API URL に次の IP アドレスを使用します。http://192.168.1.100:1234/v1.
  4. ファイアウォールが LM Studio ポートへの接続を許可していることを確認します。

モデルパフォーマンスの最適化

パフォーマンスを向上させるには:

AIをコントロール

このような代替手段は、データをローカルに保持し、管理しながら、AI 支援開発のすべての利点を提供します。モデルが改良され、ハードウェアの性能が向上するにつれて、このようなローカル LLM ソリューションは、あらゆる規模の開発チームにとってますます実用的なオプションになるでしょう。

RAD Studio の Smart CodeInsight 機能やその他の AI を活用した開発ツールに関する質問については、エンバカデロのドキュメントをご覧ください。

免責事項

LM Studioは個人利用のみにご利用いただけます。詳しくは。利用規約をご覧ください。

 

Exit mobile version