MacBookで無料AI。「ローカルLLM」がいい感じに進化してます | ギズモード・ジャパン
ローカルLLMとは、ざっくり言ってしまうと「無料で公開されている大規模言語モデル」のことで、自分のPCにダウンロード・専用ソフトで読み込んで使います。ChatGPTのように会話できますし、API利用(対応アプリや自分で作ったプログラムからAIを呼び出して使う)も可能です。ChatGPTといった主流のAIはサブスクリプションサービス、API利用は従量課金制となっているので、対極に位置するAIだと言
投稿一覧
ローカルLLMでコーディングとか翻訳がガンガン使えるようになってきてるよな。月額課金もったいないし。
MacBookのメモリ16GBだとギリギリ動くけど、やっぱ64GBくらい積まないとキツイよ。スペックの割に高いのが痛い。
去年春頃からollamaがmetal対応してから一気に状況変わったよね。それまでは全然使い物にならなかった。
GoogleのGemma 3n E4Bってやつ試してみたけど、普通のMacBookでも動くじゃん。LM Studioで簡単にインストールできた。
iPhone16だと35TOPS出るから軽い処理なら全然いけるな。ローカルでサクサク動く。
Cursorとか課金してても制限かかるときあるから、そういう時はローカルに切り替えると作業続けられて便利。
ウェブサービスに組み込んで非同期でガンガン使えたら面白そうなんだけどな。
Apple Intelligenceに期待してるけど、クラウドのAIが優秀すぎてローカルの出番が限られるのが現実。
翻訳とかコード生成なら意外とローカルでもいける水準になってきてる。英語ニュース全部翻訳とかも普通にできる。
MacはSSDが早いから気づかないけど、メモリ足りないとSWAPでSSDバリバリ使うからすぐ寿命縮むぞ。
今の性能だと微妙だけど、来年のCopilot PC辺りが出る頃には実用レベルになりそう。
aniちゃんとかiOS先行のアプリ多いし、ローカルAIはApple機種の方が有利なのかもね。
API利用より割高でも使い放題の安心感はデカい。持ち家か賃貸かみたいな感覚。
MBAでも動くのは驚いた。普通のアプリインストールする感じで試せるのいいな。
複雑なプログラムもちゃんと書けるようになったら最高だよね。
Microsoftが「ずっとパソコン上の作業を見ててくれる」みたいなローカルAI先行してる感じする。
GPUメモリ16GBあれば現行でも結構いけるんだけど、やっぱMacのメモリドカ積みが強いよな。
LM StudioのインターフェースはChatGPTに似てるけど、そこまで取っつきやすくはないかな。
スマホでも動くし翻訳なら実用的。でも過大な期待は禁物だよ。
メモリ16GBで動くって言っても、最近のMacBook買った人じゃないと厳しいよね。
仕事でも使えそうなレベルになってきたけど、GPUメモリ多めのマシン買うタイミングがわからん。
ローカルLLMって結局どこまで実用的になるのかな?