要旨
AI の開発会社 PrismML が 2026年3月31日に発表した「1-bit Bonsai」は、80億個のパラメーターを持ちながらメモリ消費量がわずか 1.15GB という驚きの省メモリ AI モデルです。同規模のモデルが通常 16GB 前後のメモリを必要とすることを考えると、その差は約 14 倍にもなります。にもかかわらず、性能はむしろ同規模モデルを上回るベンチマーク結果を記録しており、省メモリと高性能を両立した注目の技術といえます。Apache License 2.0 のオープンモデルとして公開されており、誰でも自由にダウンロードして利用できます。
AI モデルと「メモリ」の関係
AI モデルはパラメーター数が多いほど賢くなる傾向がありますが、その分だけコンピューターのメモリ(RAM)をたくさん消費します。一般的な PC のメモリは 8GB〜32GB 程度ですが、高性能な AI モデルを動かすには 16GB 以上が必要になることも珍しくありません。
そのため、優れた AI モデルを一般の PC やスマートフォンで動かすことは難しいのが現状です。「1-bit Bonsai」はこの課題を正面から解決しようとしたモデルです。
1-bit 設計がもたらす圧倒的なメモリ削減
「1-bit」というのは、モデルの内部で使う数値の精度をぎりぎりまで落とす技術のことです。通常の AI モデルは各計算に 16 ビットや 32 ビットといった高精度な数値を使いますが、1-bit Bonsai はモデル全体を 1 ビットの設計で構成しています。
具体的には、「embedding」「attention layer」「MLP layer」「LM head」というモデルを構成するすべての部分を 1 ビット化することで、メモリ消費量を大幅に削減することに成功しました。
その結果、80億パラメーターを持つ「1-bit Bonsai 8B」のメモリ消費量はわずか 1.15GB です。比較として、同規模の Llama 3.1 8B は約 16GB のメモリを必要とします。この差が約 14 倍という数字につながっています。
ラインナップは以下の 3 種類です。
- 1-bit Bonsai 8B:メモリ使用量 1.15GB(80億パラメーター)
- 1-bit Bonsai 4B:メモリ使用量 0.57GB(40億パラメーター)
- 1-bit Bonsai 1.7B:メモリ使用量 0.24GB(17億パラメーター)
いずれも同規模モデルと比べてメモリ消費量が圧倒的に少なく設計されています。
性能はどうなの?
メモリを大幅に削減すると、どうしても性能が落ちるイメージがあります。ところが 1-bit Bonsai 8B のベンチマーク結果は、Llama 3.1 8B や GLM 4 9B といった同規模モデルを上回るスコアを記録しています。
メモリ 1GB あたりの性能を比較したグラフでも、1-bit Bonsai 8B の効率の良さは一目瞭然です。少ないメモリで、より高い性能を引き出せる設計になっているのです。
iPhone でも動く、オープンモデルとして公開
1-bit Bonsai 8B は、RTX 4090 搭載の高性能 PC や M4 Pro 搭載の Mac だけでなく、iPhone 17 Pro Max でも動作します。iPhone 17 Pro を使った実機デモ動画では、10億パラメーターの競合モデルと同じ計算問題を解かせた結果、1-bit Bonsai 8B のほうが高速かつ正確に回答を出したことが確認されています。
モデルは Hugging Face で公開されており、Apache License 2.0 のライセンスのもと、商用利用も含めて誰でも無料でダウンロードできます。また GitHub でデモコードも公開されています。さらに iPhone アプリ「Locally AI」から実行することも可能です。
おわりに
「1-bit Bonsai」のような超省メモリの AI モデルが登場することで、高性能な AI が特別なパソコンや高価なサーバーがなくても使えるようになります。手持ちのスマートフォンや普通の PC でも、本格的な AI アシスタントをオフラインで動かせる未来が、少しずつ近づいています。
学校の勉強や日常の調べものに AI を活用したいと思っている方にとっても、インターネット接続が不要なオフライン AI はプライバシーの面でも安心して使えますので、こうした技術の進展は大いに期待できます。
※ ここに掲載されている情報は、発表日現在の情報です。最新の情報と異なる場合がございますので、あらかじめご了承ください。
出典: GIGAZINE


コメント