記事内に広告を含みます

【生成AI】新旧PCで比較!ローカルLLMの使用限界は?CanIRun.aiで比較してみた

この記事は…

自分のPCで動作するローカルLLMの限界がどこにあるか調査した内容をまとめています。

調査方法は簡単でサイトにアクセスするだけ。

約9年前に購入した古いPCと新たに組んだPCで調査してみました。

以前、AI動画生成やローカルLLMを試すためにAI用PCを組みました。

構成の中心はRTX3090 24GBです。
これを元にマザボ・電源・メモリ・CPU・PCケースなど中古と新品をかき集めて組み上げました。
最新のハイスペPCからすれば見劣りするかもしれませんが、取り敢えず捻出できる金額で最善のものだと思っています。

ローカルAIではGPU性能も大事ですが、特に重要になるのがVRAM容量です。
モデルサイズが大きくなるほど必要なVRAMも増えるため、グラボ選びがかなり重要になります。
(これも技術の進歩でいずれ変わるのかな…)

ただ、スペック表を見ただけでは、

「このPCでどのAIモデルが動くのか」
「古いPCと新しいPCでどれくらい差があるのか」
「32Bや70Bクラスのモデルは現実的なのか」

ということが一目で分かりません。

そこで使ってみたのが、GIGAZINEさんで紹介されていた CanIRun.ai です。

CanIRun.aiは、ブラウザ上でPC構成を検出し、各AIモデルの動作可能性を表示してくれるサイトです。
公式サイトでも、GPU、CPU、RAMをブラウザ上で分析し、ローカルで実行できるAIモデルを調べるサイトとして説明されています。

では、私が所有している古いPCの GTX1080Ti と、新しく組んだAI用PCの RTX3090 で、どのくらい判定が変わるのかを比較してみましょう!

CanIRun.aiとは

CanIRun.aiは、自分のPCでどのAIモデルが動きそうかを確認できるWebサイトです。

サイトにアクセスすると、GPU、VRAM、メモリ帯域、RAMなどをもとに、各モデルの動作目安を表示してくれます。
判定は以下のような段階で表示されます。

ランク点数表示意味
S100~85Runs great快適に動きそう
A84~70Runs well良好に動きそう
B69~55Decentそこそこ動きそう
C54~40Tight fitギリギリ
D39~20Barely runsかろうじて動く
F19~0Too heavy重すぎる

比較したPC

今回比較したのは以下の2台です。

項目旧PC新PC
グラボNVIDIA GeForce GTX1080Ti 11GBMSI GeForce RTX3090 VENTUS 3X 24G OC
CPUIntel Core i7-8700KIntel Core i5-13500
メモリDDR4-2666 16GB×4 計64GBDDR4-3200 32GB×4 計128GB
電源850W 80PLUS GOLDMSI MAG A850GL PCIE5 850W 80PLUS GOLD

まずは、古いPCのGTX1080Tiです。

GTX1080Tiは古いグラボですが、VRAMは11GBあります。
そのため、小型〜中型のローカルLLMであれば、まだ意外と使えそうな結果になりました。

主なモデルの判定は以下です。

モデル判定推定速度スコア
Llama 3.1 8BRuns great約74 tok/s85/100
Qwen 3.5 9BRuns well約66 tok/s81/100
Phi-4 14BDecent約44 tok/s64/100
GPT-OSS 20BBarely runs約21 tok/s30/100
Mistral Small 3.1 24BBarely runs約10 tok/s17/100
Gemma 3 27BBarely runs約7 tok/s13/100
Qwen 2.5 Coder 32BBarely runs約4 tok/s10/100
Qwen 3 32BBarely runs約4 tok/s10/100
DeepSeek R1 Distill 32BBarely runs約4 tok/s10/100
Llama 3.3 70BToo heavy0 tok/s0/100

結果を見ると、GTX1080Tiでも 8B〜9Bクラスはかなり現実的 です。

Llama 3.1 8BはRuns great、Qwen 3.5 9BはRuns wellという判定でした。
このあたりのモデルなら、古いPCでもローカルLLMを試すには十分候補に入ります。

Phi-4 14BもDecent判定なので、使えないわけではなさそうです。
ただし、余裕たっぷりというよりは「そこそこ使える」という位置づけです。

一方で、20Bを超えると一気に重くなります。

GPT-OSS 20BはBarely runs、32BクラスもBarely runsで、速度も約4 tok/s程度の表示でした。
実験として動かすことはできても、常用するにはストレスが出そうです。

70Bクラスになると、GTX1080TiではToo heavy判定でした。

次に新PCの結果です。
GPUはRTX3090、VRAMは24GBです。
CanIRun.aiでの判定は以下の通りでした。

旧PCと比べると、Runs great、Runs well、Decentが大きく増えています。
主なモデルの判定は以下です。

モデル判定推定速度スコア
Llama 3.1 8BRuns great約142 tok/s96/100
Qwen 3.5 9BRuns great約128 tok/s96/100
Phi-4 14BRuns great約85 tok/s93/100
GPT-OSS 20BRuns well約58 tok/s80/100
Mistral Small 3.1 24BRuns well約51 tok/s76/100
Gemma 3 27BRuns well約46 tok/s71/100
Qwen 2.5 Coder 32BDecent約39 tok/s65/100
Qwen 3 32BDecent約39 tok/s65/100
DeepSeek R1 Distill 32BDecent約39 tok/s65/100
Llama 3.3 70BToo heavy0 tok/s0/100

RTX3090になると、8B〜14Bクラスはかなり快適側に入ります。

旧PCではDecentだったPhi-4 14Bが、新PCではRuns greatになりました。
これはかなり大きい差です。

さらに、旧PCではBarely runsだった20B〜27Bクラスも、RTX3090ではRuns wellになっています。

32Bクラスも、旧PCではBarely runsでしたが、新PCではDecent判定になりました。
スコアも10/100から65/100まで上がっており、ローカルLLMとして試す現実味がかなり増しています。

旧PCと新PCの比較

モデルサイズ別に見ると、差が分かりやすいです。

モデル規模GTX1080TiRTX3090
8B〜9B快適〜良好かなり快適
14Bそこそこ快適
20B〜27Bかなり重い実用圏内
32B厳しい試せる範囲
70B以上厳しいまだ厳しい

RTX3090にしたことで、特に変わったのは 14B〜32Bクラス です。

GTX1080Tiでは、現実的に使うなら8B〜14Bあたりまでという印象でした。
RTX3090では、20B〜27Bクラスも実用圏内に入り、32Bクラスも試せそうな結果になりました。

逆に言うと、70BクラスはRTX3090でもまだ厳しいです。

Llama 3.3 70Bは、RTX3090でもToo heavy判定でした。
必要VRAMの目安も36.4GBと表示されており、24GBのRTX3090では収まりません。

RTX3090は強力ですが、70B以上を快適に動かすには、さらに大きなVRAMが必要になりそうです。

GTX1080TiでもローカルLLMは使えるのか

今回の結果を見る限り、GTX1080TiでもローカルLLMは一応使えます。
ただし、狙うモデルは絞った方が良さそうです。

現実的なのは以下のあたりです。

  • Llama 3.1 8B
  • Qwen 3.5 9B
  • hi-4 14B

8B〜9Bクラスなら、古いPCでもかなり良い判定でした。

一方で、20B以上になると厳しくなります。
32Bクラスは動く可能性があっても、快適に使うにはかなり厳しそうです。

つまり、GTX1080Tiは「ローカルLLMを試す入口」としてはまだ使えます。
ただし、大きめのモデルを本格的に使いたいなら、VRAMの多いGPUが欲しくなります。

RTX3090にして良かった点

RTX3090にして良かった点は、選べるモデルの幅が広がったことです。

旧PCでは、8B〜14Bあたりが現実的な範囲でした。
新PCでは、20B〜27Bも使えそうで、32Bも試す候補に入ります。

ローカルLLMでは、モデルサイズが大きくなると回答品質や得意分野が変わることがあります。
もちろん、性能はモデルサイズだけで決まりません。

それでも、試せるモデルの選択肢が増えるのは大きなメリットです。

特にRTX3090は最新世代ではありませんが、24GB VRAM があるのが強みです。

ローカルLLM用途では、GPU世代やベンチマークスコアだけでなく、VRAM容量がかなり効いてくると感じました。

ただし、CanIRun.aiはとても便利ですが結果はあくまで推定です。

実際の動作は、以下の条件で変わります。

  • 使用する実行環境
  • 量子化方式
  • コンテキスト長
  • GPUドライバ
  • CPU性能
  • RAM容量
  • 同時に起動しているアプリ
  • モデルの形式

また、今回のスクリーンショットでも分かる通り、RAM表示は実機と違って見える場合があります。
CanIRun.aiの画面にも、ブラウザAPIによる推定であり、実際のスペックと異なる場合がある旨が表示されています。

そのため、CanIRun.aiは、「絶対にこの速度で動く」というより、

「自分のPCで、どのモデルが現実的かをざっくり確認する」

ためのサイトとして使うのが良さそうです。

まとめ

今回は、CanIRun.aiを使って、旧PCのGTX1080Tiと、新しく組んだRTX3090のAI用PCを比較してみました。

結果として、GTX1080Tiでも8B〜9BクラスのローカルLLMはまだ現実的に使えそうです。
14Bクラスも、条件次第では候補に入ります。
ただし、20B以上になると一気に重くなり、32Bクラスは快適とは言いにくい結果でした。

一方、RTX3090 24GBでは、8B〜14Bクラスはかなり快適、20B〜27Bクラスも実用圏内、32Bクラスも試せそうな結果になりました。
特に、旧PCではBarely runsだったモデルが、新PCではRuns wellやDecentまで上がっている点は大きいです。

ローカルLLM用のPCを考えるなら、やはりVRAM容量はかなり重要です。
RTX3090は最新世代ではありませんが、24GB VRAMがあるためローカルLLM用途では今でも十分魅力があります。

今回CanIRun.aiで比較してみて、AI用PCを組んだ効果が数字として見えたのは面白かったです。

ローカルLLMに興味がある人やグラボの買い替えを考えている方は、一度CanIRun.aiで自分のPCを調べて参考にされてみても良いと思いました。

ということで今回はここまで!

見てくれてありがとね(・ω・)ノシ