AIを使おう(初回) – Open AI APIとLM Studio (Local LLM)のセットアップ

投稿者: | 6月 28, 2025

昔、サンタバーバラーという片田舎、ハリウッドになる前の映画の街にある会社に勤めていたことがある。そこの製品は、クラウドダッシュボードを提供していて、異なる操作、APIのクラウドを1つのダッシュボード、APIで使うことができるソリューションだった。追加機能で、ローカルのクラウド、それもパソコンで動くクラウド環境も連結できた。

何が便利かというと、パブリッククラウドでやるとコストが気になるオートスケール検証が、手元の環境、それも無料でできた。手元で開発して、必要なときにだけクラウド上で動かすことができた。これでクラウドの利用量がかなり安くなった。社員だったので、ダッシュボードの利用量も無料というのもあるが。とあるイベントで、ブースデモでオートスケールを見せたら、うちのブースだけ通路を塞ぐくらいの黒山の人だかりができてしまい、主催者から怒られた。そのソリューション、APIの提供だけではなく、メトリックスなどのオートスケールに必要な機能が付いていて便利だった。

 

閑話休題

 

クラウドのAIのAPIとローカルで動くLLM のAPIの使い方、セットアップ編。以下、Open AI APIとLM Studioの両方の利用法を書いてある。全くの別物なので、使う方だけ読むことにしても構わない。Open AI APIは、無料トライアルで済まそうとするなら、使う時に設定しておいたほうがいいと思う。

 

Open AI API

いわば、Chat GPTのAPIバージョン。有償のChat GPT Plusとは別の課金体型。ちょうどDeep L ProとAPIの関係に似ている。つまり、有償プランの契約者でもAPIは有償プランに含まれておらず、別に利用料を支払う必要がある。

料金体型

無料トライアルの内容 

  • 無料枠:2,500トークン
  • 有効期限:3ヶ月
  • 料金:トライアル期間終了後、または無料枠を使い切った後は、トークン数に応じた料金が発生します。 

無料枠の確認方法

  • OpenAIのダッシュボードで、Usageセクションにアクセスすると、API利用状況と料金を確認できます。
  • 無料枠の利用状況も、この画面で確認できます。 

無料枠を使い切った場合や、有効期限が切れた場合

  • APIの利用を継続するには、料金を支払う必要があります。 
  • 料金は、使用したトークン数に応じて計算されます。 
  • GPT-3.5の場合、1,000入力トークンあたり約0.00015ドル、1,000出力トークンあたり約0.002ドルです。 
  • GPT-4の場合、1,000入力トークンあたり約0.03ドル、1,000出力トークンあたり約0.06ドルです。 
  • 最新のGPT-4 Turboの場合、1,000入力トークンあたり約0.01ドル、1,000出力トークンあたり約0.03ドルです。 

API 価格表

https://platform.openai.com/docs/pricing

実際に選択できるのは

モデル名 入力単価(USD/1K tokens) 出力単価(USD/1K tokens) 合計単価(USD/1K tokens)
gpt-4.1-nano 0.00010 0.00040 0.00050
gpt-4o-mini 0.00060 0.00240 0.00300
gpt-4.1-mini 0.00040 0.00160 0.00200
gpt-4.1 0.00200 0.00800 0.01000
gpt-4o 0.00500 0.02000 0.02500

テストで使うなら、gpt-4o-nano あるいはgpt-4o-mini、 本番利用なら、gpt-4oか。入力と出力(トークン)に値段設定がついている。まぁ、テストgpt-4o-miniなら、10回の利用で1円程度。月$5でもかなり大量に発行できる。なので、逆にプログラムの作成をミスると、クラウド破産ならぬ、API破産が起こりうるんだが。

自分は、Open AI APIが出てすぐにアカウントを作って使っていたため(すっかり忘れていた)、無料の期限なんてとっくに終わってて、いきなり有料からスタートになってしまった。(よく考えたらGmailも出たてのころUSでしかアカウントが作れなかったが、ちょうどNYに長期出張中でリリース1週間くらいでアカウントを作った記憶がある。)

 

Open AI APIのアカウントを作ったら以下の設定をする。

お支払い

Chat GPT Plusとは別会計。クレカが必要。サブスクなので、毎月ドル払い。デフォルト$10だが最低価格の$5にした。

https://platform.openai.com/settings/organization/billing/overview

Limit

月$しか設定していないが、とりあえず$10にした。テストレベルでモデルをちゃんと選べばここまで使うのも難しいと思う。

https://platform.openai.com/settings/organization/limits

利用量、課金表示

どれくらい使ったが見える。

https://platform.openai.com/settings/organization/usage

APIキー

以下でAPIキーを生成しておく。

https://platform.openai.com/settings/organization/api-keys

これでOpen AI APIを使う準備は完了

 

あとは、APIでAPIキーとモデルを呼び出して使えばいい。

こんな危ない橋を渡りたくない人は、次に説明するLM Studioを使うことをおすすめする。モデルのロード時以外は、インターネットを使わないし、無料ソフトウェアなので。

 

LM Studio

これは、Chat GPTのような事前学習型のAIをローカルで使えるようにするアプリケーション。いわゆるローカルLLM。

Mac (Apple Silicon) / Windows / Linux版がある。

動作要件

https://lmstudio.ai/docs/app/system-requirements

MACならM1以上であれば問題ない。それに一番無難。さらに一番コスパがいい。Windows/LinuxでIntel CPUだとAVX2 インストラクションをサポートしているIntel CPUで16GB RAMが必要。

これは、何を意味するかというと、Intel 第4世代以降で16GB RAM以上ということなんだが、第4世代 16GB RAMって当時のMAX構成。ただし、Intel CPUの場合、CPUにGPUがあっても使ってくれるケースがほとんどない。あっても12世代以上で限定的、たいていはCPUのパフォーマンスしかでない。

そこそこサクサク使いたいのであれば、Mac Miniを買いに行ったほうがいいかも。AmazonでM4 Mac Mini 16GBが約9万円。ただし、LM Studioを使う最低要件が16GBなので、動かせるモデルに制限がでるかもしれない。それでもWindowsにGPUを付けるよりは安い。ちなみにM4 Mac Miniで32GB RAMだと18万円。ど新規で買うならありだが、Windowsパソコンに増設するとなると微妙なレベルかもしれない。まぁ、M4 Mac Mini 16GBでも最初は十分遊べる。

インストール

以下からダウンロードしてインストール (無償。かかるのはもはや電気代のみ)

https://lmstudio.ai/ 

MACならApplicationへコピー、Windowsなら単純にセットアップ。パラメータはない。

起動

立ち上げると、Chat GPTみたいなUIが出てくる。モデルをロードしないと使えない。以下は、最初のサンプル。他にも選べる。選ぶには左側の虫眼鏡メニューをクリック。

モデルは、Open AI APIでも出てきたものと同じで様々なモデルがネットを騒がせている。どのモデルが最適かは、CPU型番と特に搭載メモリ量に依存をする。

このモデルGemma-3-12bは、Apple SiliconだとMetalを使ってくれる。GPUの利用率メータが100%になる。ただし、32GB以上必要なので、M4 Mac Miniならば、Gemma-2B(Q4_K_M)くらいがいい。Intel CPUならば、Intel第12世代Corei7 32GB RAMは必要。

モデルの選択に関してはChat GPTなどに聞いたほうがいいかもしれない。ただし、モデルの種類にパラメータがあるので、モデルを最初に選んで、パラメーターを指定してダウンロードをする。モデルを選んだら右のペインでパラメーターを選択する。また、動かないのは、動かないじゃない?というサジェスチョンがでる親切設計。

また、全てのモデルがMCPなどのフォーマットに対応をしているわけではない。

これこそAIに聞くべき。

プロンプト

LM Studioを使う。<CPU> で搭載メモリがXXGBのMAC環境で、MCP準拠、Open API API互換でおすすめのモデルとパラメーターは?

例 LM Studioを使う。M4 Apple Siliconで搭載メモリが32GBのMAC環境で、MCP準拠、Open API API互換でおすすめのモデルとパラメーターは?

Nous Hermes 2 Mistral 7B – Q4_K_M

であると教えてくれた。Mistral 7Bを検索して、Q4_K_Mをダウンロード。

AIに聞くと、どちらかというとCPUよりメモリ容量のほうが重要な様子。(なので、Mac Miniを買う時は、メモリを追加したほうがいいかも)

 

モデルのダウンロードはGBクラスのファイルなので、ダウンロードを待つ。ダウンロードを完了したら、

モデルをロードする。ロードが完了すると、

お約束の質問をしてみる。

はい。岸田さんまでしか知らないモデルがダウンロードされましたw。ちょうど100代目の総理大臣だったんですね。記念式典とかしてあげればよかったかなぁ。

ちなみに、別のモデルをロードして同じ質問をしてみたところ。。。

前任の方は、阿部さんという方だったらしい。なんか近所のおじさんみたいな名前の人だなぁ。。。安倍さんのほうが品がありますね。

 

API サーバの設定

さて、APIを使うには、APIサーバを有効にする必要がある。

画面下側の設定をDeveloperに変える。

左のメニューで上から2番目のAPIの画面をクリックするとStatusがStoppedとなっている。

Runningに変える。Developer LogsにAPIのログが出てくる。これ、地味に重要。API実行時に役に立つ。

これでローカルホストからAPIを使うことができる。

他のマシンからも使えるようにするためには、

Settingsをクリックして、Serve on Local Networkをオンにすると他のホストからも使える。

自分の場合、手元のMACにアプリを今の所入れたくないが、テスト用のUbuntuをデプロイしてネットワークから使っている。さらに、Roon Serverで使っているWIndow 11にもLM Studioをインストール、ネットワーク経由の利用を有効にして、Intel CPUのクソ遅さを体感するために切り替えて使っている。

 

試しに、ロードされているモデルをAPI経由で聞いてみると、http://localhost:1234/v1/models あるいはhttp://<LM Studioが動いているサーバ>:1234/v1/models をAPIで叩いてみる。

{
"data": [
{
"id": "google/gemma-3-12b”,
"object": “model”,
"owned_by": “organization_owner”
},
{
"id": "text-embedding-nomic-embed-text-v1.5”,
"object": “model”,
"owned_by": “organization_owner”
}
],
"object": “list”

と出てくる。

 

さて、今回はここまで、次回は実際にOpen AI API / LM Studioで使ってみる。(もうブログ自体は書けている。)

 

完全に以下余談。

次回は、jsonが出てくる。ジェイソンといえば、13日の金曜日だが、兄の誕生日は6月13日。今年の誕生日は、金曜日だった。試しに6月13日が金曜日になるのは人生で何回あるのか調べてみた。

以下が「ジェソンバースデー」(もちろんAIに聞いてみた。)

1980年 6歳

1986年 12歳

1997年 23歳

2003年 29歳

2008年 34歳

2014年 40歳

2025年 51歳

2031年 57歳

2042年 68歳

2048年 74歳

2053年 79歳

2059年 85歳

2064年 90歳

2070年 96歳

2075年 101歳

2081年 107歳

2087年 113歳

2092年 118歳

たいてい5、6年に一度に遭遇するのだが、40歳から51歳で11年間空いている。今年は久々のジェイソンバースデーだった盛大にお祝いしてあげるべきだったか。ちなみに57歳から68歳も11年間空いているなぁ。

カテゴリー: AI

コメントを残す