ローカルAI開発環境の構築方法:DeepSeekとCodeGPTで実現する効率的なコーディング

Published on: | Last updated:

最近、ローカルAIがめちゃくちゃ面白いことになってる

最近考えてたんだけど、AIを開発に使うのって、もう当たり前になってきたよね。でも、ChatGPTとかCopilotみたいなクラウドサービスって、便利だけど「このコード、外部に送って大丈夫かな…」って一瞬ためらうこと、正直ない?会社の機密情報とか、まだ世に出てないアイデアとか。あと、地味にAPI利用料がかさんだり、ネットがないと動かなかったり。

で、最近僕がハマってるのが「ローカルAI」。要するに、自分のPCの中だけで完結させるAI開発環境。これがね、思ったよりずっと簡単に、しかも強力な環境が作れるようになってきたんだ。特にDeepSeekっていうモデルとCodeGPTを組み合わせるのが、なかなかいい感じ。

今回は、その環境をServBayっていうツールを使ってサクッと構築する方法を、僕の思考プロセスだだ漏れで話してみようと思う。これ、マジで開発体験変わるから。

そもそも、なんでわざわざローカルで?クラウドじゃダメなの?

よく聞かれるのがこれ。「クラウドのほうが性能いいんじゃない?」って。まあ、一理ある。でもね、ローcalにはクラウドにはない、代えがたいメリットがあるんだ。ちょっと比較してみようか。

ローカルAI開発のイメージ:PC内部の安全な空間
ローカルAI開発のイメージ:PC内部の安全な空間
比較ポイント クラウドAI (例: GPT-4 API) ローカルAI (今回の構成)
プライバシーとセキュリティ コードを外部サーバーに送信する必要がある。まあ、ポリシー上は安全ってことになってるけど、100%安心とは言い切れないよね、正直。 コードはPCから一歩も出ない。完全なオフラインでも動くし、機密情報も安心。この精神的な楽さはデカい。
コスト 使った分だけ課金される従量課金制がほとんど。デバッグでループさせちゃって、請求額見て青ざめる…みたいな悪夢、ありえるよね。 初期設定さえしちゃえば、あとは無料。電気代はかかるけど、API利用料はゼロ。心置きなく試行錯誤できる。
速度と応答性 ネットワークの遅延に左右される。たまにサーバーが混んでて、返事がめちゃくちゃ遅い時がある。 自分のマシンスペック次第だけど、ネット遅延はゼロ。サクサク動くから思考が途切れない。これは快適。
カスタマイズ性 提供されてるモデルしか使えない。ファインチューニングはできるけど、結構大変だしお金もかかる。 いろんなオープンソースモデルを自由に試せる。今日はこのモデル、明日はこっち、みたいな。まさに自分だけの環境を作れる。
導入の手間 アカウント作ってAPIキー取得するだけ。導入は簡単。 昔は黒い画面との格闘が必要だった。でも、ServBayみたいなツールのおかげで、今はかなり楽になった。…というのが今日の話のキモ。

要するに、最高性能を求めるならまだクラウドだけど、「プライバシー」「コスト」「応答性」を重視するなら、ローカルAIがめちゃくちゃ輝いてくるってわけ。日々のコーディングの相棒としては、むしろこっちのほうがいい場面も多いんじゃないかな。

じゃあ、どうやって作るの?具体的な設定手順

よし、じゃあ本題。どうやってその快適なローカルAI環境を作るか。ステップバイステップで見ていこう。今回はmacOSでのやり方ね。

ステップ1:土台作り (ServBayとCodeGPTのインストール)

まず、ローカルで大規模言語モデル(LLM)を動かすための「Ollama」っていうのが必要になる。これ自体は直接使えるんだけど、正直、ターミナルでコマンドをポチポチ打つのはちょっと面倒だし、モデルのダウンロードが遅いっていう弱点もある。

そこで登場するのが[ServBay]。これは何かというと、macOS向けの超便利なローカル開発環境ツール。Webサーバーとかデータベースとか、そういうのをまとめてGUIで管理できるやつ。XAMPPとかMAMPみたいなやつの、もっとモダンでパワフルな版って感じかな。日本の技術ブログとか見てると、まだDockerで頑張ってる人が多い印象だけど、Macユーザーならこっちのほうが断然手軽だと思う。

で、この[ServBay]がOllamaを内蔵してくれてるのが最高に嬉しいポイント。インストールは公式サイトからインストーラーをダウンロードして、ポチポチ進めるだけ。途中で「Ollamaをインストールしますか?」って聞かれるから、必ずチェックを入れるのを忘れないで。

ServBayの管理画面:ここからモデルを追加する
ServBayの管理画面:ここからモデルを追加する

土台のもう一つが、VSCodeの拡張機能である「[CodeGPT]」。これは、VSCodeにAIの力を持ち込むための橋渡し役だね。

  1. VSCodeを開いて、拡張機能マーケットプレイスに移動 (Macなら Cmd + Shift + X)。
  2. 「CodeGPT」で検索してインストール。
  3. CodeGPT.coで無料アカウント作ると色々機能が増えるらしいけど、とりあえずローカルで使う分には必須じゃないかな。

これで、AIモデルを動かすエンジン(Ollama via ServBay)と、エディタとの連携役(CodeGPT)が揃ったわけだ。

ステップ2:AIモデルのダウンロードと設定

さて、いよいよ主役のAIモデルをダウンロードする番。ServBay経由でOllamaを動かしてるから、これも驚くほど簡単。

CodeGPTのサイドバーを開くと、`Local LLMs` みたいなセクションがあるはず。そこでプロバイダーとして「Ollama」を選ぶ。そうすると、利用可能なモデルのリストが出てくる。

ここでポイントなのが、目的に合わせて2種類のモデルを使い分けること。

1. チャット・相談役: deepseek-coder (7bとかの小さめサイズでOK)

※原文だと`deepseek-r1`って書いてあったけど、今は`deepseek-coder`のほうが一般的かな。まあ、この辺は好みで色々試せるのがローカルのいいところ。ここでは`deepseek-coder:7b`あたりを想定しよう。

これは、コードの断片を渡して「このコード、どういう意味?」「ここ、バグってるんだけど直して」「もっといい書き方ない?」みたいに、対話形式で使うモデル。コードを選択して、/explain とか /fix っていうコマンド(ショートカット)を使うと、AIが答えてくれる。これがめちゃくちゃ便利。

2. オートコンプリート役: deepseek-coder (latest)

こっちが本命かも。コーディング中の自動補完をやってくれるモデル。ただの補完じゃなくて、「Fill-In-The-Middle (FIM)」っていう技術を使ってるのがミソ。なんていうか、コードの「途中」を賢く予測して埋めてくれる感じ。例えば、関数の頭を書き始めたら、その中身をごっそり「こんな感じじゃない?」って提案してくれたりする。

これもCodeGPTの設定から選ぶだけ。一度設定すれば、あとは普通にコードを書いてるだけで、リアルタイムに灰色の文字で補完候補が出てくるようになる。Tabキーを押せば確定。もうこれなしでは生きられない体になるかも。

VSCodeでのコーディング支援:AIが次のコードを提案してくれる
VSCodeでのコーディング支援:AIが次のコードを提案してくれる

ハマりどころと注意点

ここまでいいことばっかり言ってきたけど、もちろん注意点もある。正直に言っておくと…

  • macOS限定: 今のところ、このServBayを使ったお手軽な方法はmacOS限定。Windowsの人は、WSL2 (Windows Subsystem for Linux 2) とDockerを使ってOllamaを動かす、みたいな少し手間のかかる手順を踏む必要がある。まあ、それに関する記事も探せばたくさんあるけどね。
  • マシンスペックはそれなりに必要: 当然だけど、自分のPCのリソース(特にメモリ)を結構使う。最低でも16GB、できれば32GBくらいのメモリがあると安心かな。モデルを動かしている間は、PCのファンが元気に回りだすこともある。
  • 性能はクラウド最強モデルには及ばないことも: 正直に言うと、ここで紹介した7B(70億パラメータ)クラスのモデルは、GPT-4 Turboみたいな最新・最大のクラウドモデルとガチで比較すると、複雑な推論とか、超専門的な知識では一歩譲る場面もある。でも、日常的なコーディングのサポート役としては、十分すぎるくらい賢いよ。

まとめ:自分だけの「開発の相棒」を育ててみない?

というわけで、ServBay、CodeGPT、そしてDeepSeekモデルを使ったローカルAI開発環境の構築方法でした。

クラウドAIの手軽さも素晴らしいけど、自分の手元で、プライバシーを完全に守りながら、コストも気にせず、自分好みにAIをカスタマイズしていく…。この感覚、なんだか「自分だけの道具を育てる」みたいで、すごくワクワクしない?

最初はちょっと設定が必要だけど、一度この環境を作ってしまえば、日々の開発効率が上がるのはもちろん、「AIにコードを見られるのが嫌だ」っていう心理的なブレーキから解放されるのが、個人的には一番大きいかなと思ってる。

もしあなたがMacユーザーで、AIを使った開発に興味があるなら、試してみる価値は絶対にあると思う。マジでおすすめ。


みんなはどう思う?コーディングの相棒として、手軽でパワフルなクラウドAIを選ぶ?それとも、プライバシーとカスタマイズ性重視のローカルAI?よかったら、あなたの考えを聞かせてほしいな。

Related to this topic:

Comments

  1. Guest 2025-07-03 Reply
    ローカルAIの導入、めっちゃ興味深いですね!セキュリティと効率性のバランス、うまく取れてそう。DeepSeekとか、現場目線だと結構使えそうな感じがするんですよね。コスト感覚も大事だし、実際どう運用するかが肝心かも。