最近、ローカルAIがめちゃくちゃ面白いことになってる
最近考えてたんだけど、AIを開発に使うのって、もう当たり前になってきたよね。でも、ChatGPTとかCopilotみたいなクラウドサービスって、便利だけど「このコード、外部に送って大丈夫かな…」って一瞬ためらうこと、正直ない?会社の機密情報とか、まだ世に出てないアイデアとか。あと、地味にAPI利用料がかさんだり、ネットがないと動かなかったり。
で、最近僕がハマってるのが「ローカルAI」。要するに、自分のPCの中だけで完結させるAI開発環境。これがね、思ったよりずっと簡単に、しかも強力な環境が作れるようになってきたんだ。特にDeepSeekっていうモデルとCodeGPTを組み合わせるのが、なかなかいい感じ。
今回は、その環境をServBayっていうツールを使ってサクッと構築する方法を、僕の思考プロセスだだ漏れで話してみようと思う。これ、マジで開発体験変わるから。
そもそも、なんでわざわざローカルで?クラウドじゃダメなの?
よく聞かれるのがこれ。「クラウドのほうが性能いいんじゃない?」って。まあ、一理ある。でもね、ローcalにはクラウドにはない、代えがたいメリットがあるんだ。ちょっと比較してみようか。
| 比較ポイント | クラウドAI (例: GPT-4 API) | ローカルAI (今回の構成) |
|---|---|---|
| プライバシーとセキュリティ | コードを外部サーバーに送信する必要がある。まあ、ポリシー上は安全ってことになってるけど、100%安心とは言い切れないよね、正直。 | コードはPCから一歩も出ない。完全なオフラインでも動くし、機密情報も安心。この精神的な楽さはデカい。 |
| コスト | 使った分だけ課金される従量課金制がほとんど。デバッグでループさせちゃって、請求額見て青ざめる…みたいな悪夢、ありえるよね。 | 初期設定さえしちゃえば、あとは無料。電気代はかかるけど、API利用料はゼロ。心置きなく試行錯誤できる。 |
| 速度と応答性 | ネットワークの遅延に左右される。たまにサーバーが混んでて、返事がめちゃくちゃ遅い時がある。 | 自分のマシンスペック次第だけど、ネット遅延はゼロ。サクサク動くから思考が途切れない。これは快適。 |
| カスタマイズ性 | 提供されてるモデルしか使えない。ファインチューニングはできるけど、結構大変だしお金もかかる。 | いろんなオープンソースモデルを自由に試せる。今日はこのモデル、明日はこっち、みたいな。まさに自分だけの環境を作れる。 |
| 導入の手間 | アカウント作ってAPIキー取得するだけ。導入は簡単。 | 昔は黒い画面との格闘が必要だった。でも、ServBayみたいなツールのおかげで、今はかなり楽になった。…というのが今日の話のキモ。 |
要するに、最高性能を求めるならまだクラウドだけど、「プライバシー」「コスト」「応答性」を重視するなら、ローカルAIがめちゃくちゃ輝いてくるってわけ。日々のコーディングの相棒としては、むしろこっちのほうがいい場面も多いんじゃないかな。
じゃあ、どうやって作るの?具体的な設定手順
よし、じゃあ本題。どうやってその快適なローカルAI環境を作るか。ステップバイステップで見ていこう。今回はmacOSでのやり方ね。
ステップ1:土台作り (ServBayとCodeGPTのインストール)
まず、ローカルで大規模言語モデル(LLM)を動かすための「Ollama」っていうのが必要になる。これ自体は直接使えるんだけど、正直、ターミナルでコマンドをポチポチ打つのはちょっと面倒だし、モデルのダウンロードが遅いっていう弱点もある。
そこで登場するのが[ServBay]。これは何かというと、macOS向けの超便利なローカル開発環境ツール。Webサーバーとかデータベースとか、そういうのをまとめてGUIで管理できるやつ。XAMPPとかMAMPみたいなやつの、もっとモダンでパワフルな版って感じかな。日本の技術ブログとか見てると、まだDockerで頑張ってる人が多い印象だけど、Macユーザーならこっちのほうが断然手軽だと思う。
で、この[ServBay]がOllamaを内蔵してくれてるのが最高に嬉しいポイント。インストールは公式サイトからインストーラーをダウンロードして、ポチポチ進めるだけ。途中で「Ollamaをインストールしますか?」って聞かれるから、必ずチェックを入れるのを忘れないで。
土台のもう一つが、VSCodeの拡張機能である「[CodeGPT]」。これは、VSCodeにAIの力を持ち込むための橋渡し役だね。
- VSCodeを開いて、拡張機能マーケットプレイスに移動 (Macなら
Cmd + Shift + X)。 - 「CodeGPT」で検索してインストール。
- CodeGPT.coで無料アカウント作ると色々機能が増えるらしいけど、とりあえずローカルで使う分には必須じゃないかな。
これで、AIモデルを動かすエンジン(Ollama via ServBay)と、エディタとの連携役(CodeGPT)が揃ったわけだ。
ステップ2:AIモデルのダウンロードと設定
さて、いよいよ主役のAIモデルをダウンロードする番。ServBay経由でOllamaを動かしてるから、これも驚くほど簡単。
CodeGPTのサイドバーを開くと、`Local LLMs` みたいなセクションがあるはず。そこでプロバイダーとして「Ollama」を選ぶ。そうすると、利用可能なモデルのリストが出てくる。
ここでポイントなのが、目的に合わせて2種類のモデルを使い分けること。
1. チャット・相談役: deepseek-coder (7bとかの小さめサイズでOK)
※原文だと`deepseek-r1`って書いてあったけど、今は`deepseek-coder`のほうが一般的かな。まあ、この辺は好みで色々試せるのがローカルのいいところ。ここでは`deepseek-coder:7b`あたりを想定しよう。
これは、コードの断片を渡して「このコード、どういう意味?」「ここ、バグってるんだけど直して」「もっといい書き方ない?」みたいに、対話形式で使うモデル。コードを選択して、/explain とか /fix っていうコマンド(ショートカット)を使うと、AIが答えてくれる。これがめちゃくちゃ便利。
2. オートコンプリート役: deepseek-coder (latest)
こっちが本命かも。コーディング中の自動補完をやってくれるモデル。ただの補完じゃなくて、「Fill-In-The-Middle (FIM)」っていう技術を使ってるのがミソ。なんていうか、コードの「途中」を賢く予測して埋めてくれる感じ。例えば、関数の頭を書き始めたら、その中身をごっそり「こんな感じじゃない?」って提案してくれたりする。
これもCodeGPTの設定から選ぶだけ。一度設定すれば、あとは普通にコードを書いてるだけで、リアルタイムに灰色の文字で補完候補が出てくるようになる。Tabキーを押せば確定。もうこれなしでは生きられない体になるかも。
ハマりどころと注意点
ここまでいいことばっかり言ってきたけど、もちろん注意点もある。正直に言っておくと…
- macOS限定: 今のところ、このServBayを使ったお手軽な方法はmacOS限定。Windowsの人は、WSL2 (Windows Subsystem for Linux 2) とDockerを使ってOllamaを動かす、みたいな少し手間のかかる手順を踏む必要がある。まあ、それに関する記事も探せばたくさんあるけどね。
- マシンスペックはそれなりに必要: 当然だけど、自分のPCのリソース(特にメモリ)を結構使う。最低でも16GB、できれば32GBくらいのメモリがあると安心かな。モデルを動かしている間は、PCのファンが元気に回りだすこともある。
- 性能はクラウド最強モデルには及ばないことも: 正直に言うと、ここで紹介した7B(70億パラメータ)クラスのモデルは、GPT-4 Turboみたいな最新・最大のクラウドモデルとガチで比較すると、複雑な推論とか、超専門的な知識では一歩譲る場面もある。でも、日常的なコーディングのサポート役としては、十分すぎるくらい賢いよ。
まとめ:自分だけの「開発の相棒」を育ててみない?
というわけで、ServBay、CodeGPT、そしてDeepSeekモデルを使ったローカルAI開発環境の構築方法でした。
クラウドAIの手軽さも素晴らしいけど、自分の手元で、プライバシーを完全に守りながら、コストも気にせず、自分好みにAIをカスタマイズしていく…。この感覚、なんだか「自分だけの道具を育てる」みたいで、すごくワクワクしない?
最初はちょっと設定が必要だけど、一度この環境を作ってしまえば、日々の開発効率が上がるのはもちろん、「AIにコードを見られるのが嫌だ」っていう心理的なブレーキから解放されるのが、個人的には一番大きいかなと思ってる。
もしあなたがMacユーザーで、AIを使った開発に興味があるなら、試してみる価値は絶対にあると思う。マジでおすすめ。
みんなはどう思う?コーディングの相棒として、手軽でパワフルなクラウドAIを選ぶ?それとも、プライバシーとカスタマイズ性重視のローカルAI?よかったら、あなたの考えを聞かせてほしいな。
