SSDを購入しようとしてスペックを調べると、「DRAMレス」という言葉が出てきて困惑した経験はないでしょうか。
DRAMレスSSDとは、SSD内部にDRAMキャッシュを搭載していないSSDのことです。
DRAMキャッシュありのSSDと比べてコストが低い反面、特定の用途ではパフォーマンスが大きく低下することがあります。
本記事では、DRAMレスSSDの意味・仕組み・DRAMキャッシュありとの速度差・メリット・デメリット・用途別の選び方をわかりやすく解説していきます。
DRAMレスSSDとは何か?基本的な意味と仕組み
それではまず、DRAMレスSSDの基本的な意味と仕組みについて解説していきます。
DRAMレスSSD(DRAM-less SSD)とは、SSDのコントローラーチップに隣接して搭載されるDRAMキャッシュを持たないSSDのことです。
SSDにおけるDRAMキャッシュとは、NANDフラッシュメモリのアドレス変換テーブル(FTL:Flash Translation Layer)をキャッシュするために使われるDRAMチップのことです。
DRAMキャッシュがある場合は、よくアクセスされるアドレス変換情報をDRAMに保持することで高速なアクセスが実現できます。
DRAMレスの場合はこのキャッシュがなく、アドレス変換情報をNANDフラッシュ自体(またはHMB)から読み出す必要があるため、特定の状況でパフォーマンスが低下することがあります。
SSDにおけるDRAMキャッシュの役割
SSDの内部では、ホストOS(Windowsなど)が認識する論理アドレス(LBA)と、NANDフラッシュの物理アドレスを対応させる「アドレス変換テーブル(FTLマッピングテーブル)」が常に参照されています。
NANDフラッシュは書き込み前に消去が必要なため、データの物理的な配置が頻繁に変わります。
このマッピングテーブルをDRAMにキャッシュしておくことで、テーブル参照にかかる時間が大幅に短縮され、ランダムアクセスのパフォーマンスが向上します。
HMB(Host Memory Buffer)とは
DRAMレスSSDの一部は「HMB(Host Memory Buffer)」という機能を持ちます。
HMBとは、SSD自体にDRAMを持つ代わりに、ホストPC(マザーボード)のDRAMの一部をSSDのキャッシュとして借用する技術です。
NVMe規格の機能として定義されており、HMB対応のDRAMレスSSDはホストのRAMを少量(64MB〜1GB程度)借りることで、純粋なDRAMレスよりもパフォーマンスを改善できます。
ただしHMBはDRAMキャッシュ内蔵のSSDには及ばない場合が多く、ホストPCのメモリ使用量が増えるというデメリットもあります。
DRAMキャッシュありとなしの速度差
続いては、DRAMキャッシュありとDRAMレスの速度差について確認していきます。
シーケンシャル読み書き速度(大きなファイルの連続転送)とランダムアクセス速度(小さなファイルへのランダムな読み書き)で、両者の差が大きく異なります。
シーケンシャルアクセスの速度差
シーケンシャルアクセス(連続した大きなデータの読み書き)においては、DRAMレスとDRAMキャッシュありのSSDの差は比較的小さいです。
大容量ファイルの連続読み書きでは、アドレス変換テーブルへのアクセス回数が相対的に少ないため、DRAMキャッシュの有無による影響が軽減されます。
スペック上のシーケンシャル読み取り速度(例:7000MB/s)はDRAMレスでも高い数値を示すことが多く、カタログスペックだけでは差が見えにくいことがあります。
ランダムアクセスの速度差
最も差が出るのがランダムアクセスです。
OSの起動・アプリの起動・大量の小ファイルへのアクセスなど、ランダムな小容量のデータを頻繁に読み書きする場面では、DRAMレスSSDはDRAMキャッシュ搭載SSDより大幅にパフォーマンスが低下することがあります。
特に「SLC書き込みキャッシュ(疑似SLC)」が枯渇した後の書き込み速度の低下は、DRAMレスSSDで顕著に現れることが多いです。
| 比較項目 | DRAMキャッシュあり | DRAMレス(HMBあり) | DRAMレス(HMBなし) |
|---|---|---|---|
| シーケンシャル読み取り | 非常に高速 | ほぼ同等 | やや劣る |
| ランダム読み取り(4K) | 高速 | やや劣る | 大幅に劣る |
| 持続書き込み性能 | 安定している | やや低下することがある | 大幅に低下することがある |
| コスト | 高い | 中程度 | 低い |
| 主な用途 | ゲーム・動画編集・サーバー | 一般用途・ライトユーザー | 大容量バックアップ・サブストレージ |
DRAMレスSSDのメリットとデメリット
続いては、DRAMレスSSDのメリットとデメリットを確認していきます。
DRAMレスSSDのメリット
DRAMレスSSDの最大のメリットは「低コスト」です。
DRAMチップを搭載しない分、製造コストが削減されるため、同容量のDRAMキャッシュ搭載SSDよりも安価に購入できます。
次のメリットは「消費電力の低減」です。
DRAMは動作中に一定の電力を消費するため、DRAMレスにすることで消費電力を抑えることができます。
ノートPCやモバイルデバイスのバッテリー持続時間の向上に貢献します。
また、「コンパクトな設計」も挙げられます。
DRAMチップが不要なため基板設計がシンプルになり、小型フォームファクター(M.2 2230など)への採用が容易です。
DRAMレスSSDのデメリット
DRAMレスSSDの主なデメリットは、ランダムアクセス性能の低下と持続書き込み時のパフォーマンス低下です。
日常的なPC使用においてランダムアクセスは頻繁に発生するため、体感速度に影響することがあります。
また、大容量のデータを長時間書き込み続ける場合(動画エンコード・大容量ファイルのコピーなど)に書き込み速度が大幅に低下するケースがあります。
DRAMレスSSDを選ぶべき場面と避けるべき場面をまとめます。
DRAMレスが適しているのは、予算を抑えたいライトユーザー・外付けSSD・サブストレージ・大容量データの長期保管用途です。
DRAMキャッシュ搭載SSDを選ぶべきなのは、OSドライブ・ゲームインストール先・動画編集用ストレージ・業務用PCなど、高いランダムアクセス性能と安定した書き込み速度が求められる用途です。
同じNVMe M.2 SSDでもDRAMの有無でパフォーマンスが大きく変わるため、購入前に必ずスペックを確認することをお勧めします。
まとめ
本記事では、DRAMレスSSDの意味・仕組み・HMBの役割・DRAMキャッシュありとの速度差・メリット・デメリット・用途別の選び方について解説してきました。
DRAMレスSSDは低コスト・低消費電力というメリットがある一方、ランダムアクセス性能や持続書き込み性能においてDRAMキャッシュ搭載SSDより劣る場面があります。
用途に合わせてDRAMレスとDRAMキャッシュ搭載SSDを使い分けることで、コストとパフォーマンスの最適なバランスを実現できるでしょう。