ディー・クルー・テクノロジーズ Blog

bookmark_borderシステムLSIのブレイクスルー技術③ 動的電圧周波数スケーリング(DVFS)(3)

こんにちは。今日は、DVFSの元となった、動的電圧スケーリング(DVS)開発の背景をお伝えします。

動的電圧スケーリング(DVS)とは?

近年マーケットからLSIの低消費電力化が強く求められていく時代でありながら、従来SoCのSPECで規定されていた設計補償動作電圧では、本来欲しい動作電圧に比べて大きなマージンを含んだ電圧が必要となり、それが低消費電力化の障害となっていました。

そこでDVSが登場したのです。一言で言うと、DVSは、SoC内のクリティカルパスが動作するぎりぎり最小の電源電圧Vddを適応的にSoCに供給する技術です。どういうことか分かりやすくするため、動的電圧スケーリング(DVS)開発の背景を図示しました。

図1 動的電圧スケーリング(DVS)開発の背景

左側が従来の設計補償動作電圧、右側がDVSです。SoCにおけるプロセスばらつき、温度変動、電源電圧変動、経年劣化等のworst条件を満足させるため、本来必要な動作電圧に比べ無駄に大きかった動作保証電圧の閾値を、右のDVSではクリティカルパスが動作するギリギリ+αの最小電圧をアダプティブにSoCに供給するため、動作電圧を低減し省電力化に貢献できます。

レプリカによるクリティカルパス監視がDVS技術の肝

図2にプロセスばらつき/温度変動等に対応したDVSを紹介します。SoC内部のクリティカルパスと同等の遅延時間を有するレプリカ回路を用意し、レプリカの遅延時間がクロック1周期内に入るギリギリ最小の電源電圧をSoCに供給します。

図2 DVS(プロセスバラツキ/変動対応)SoCの構成(特開2000-216337を参考に弊社作成)

無論電源電圧供給ではTsu/Thを考慮しますが、こうしたレプリカによるクリティカルパスモニターが、設計マージンの最小化を可能した結果、低消費電力化が実現しています。

DVSの効果

DVSは従来型に比べどの程度省電力化に効果があるのでしょうか?

図3にDVSの効果を示します。近年はMOS トランジスタの微細化により、サブスレッシュホールド・リーク電流が無視できなくなります。従来の固定電圧方式では、低Vthサンプルでリーク電流の増大に伴う消費電力増加が大きな問題になります。一方でDVSを採用すると、低Vthであっても回路の高速化を図れるため、電源電圧を低減でき、低消費電力化が図れますので、製品の消費電力SPEC低減に貢献できます。

  • MOS動作周波数 Fmax ∝ VddVth)・μ/ L2
  • 微細化するとリーク電流増大→リークが問題となるVth小サンプルをDVSで補償
図3 DVS有り、無しにおける消費電力効果の比較

DVFSによる最小電源電圧供給

DVSとDVFSの違いは、一言で言うとプロセスばらつき等のworst条件において、電圧だけでなく、動作周波数も考慮に入れて最小電源電圧を供給できる点です。図4にばらつき対応DVFSのブロック図、図5にばらつき対応のDVFSによる最小電源電圧供給を示します。

図4 ばらつき対応DVFSのブロック図

DVFSは、プロセスばらつき/温度変動/動作周波数に応じて、SoCが動作する最小限の電圧を適用的に供給します。SoC内蔵のCPUがレプリカからの遅延情報を電圧指示に変えるのですが、これがMPU/GPUの場合は負荷検出部及びVt検出部(Ring Osc)からの情報がレプリカに与えられます。

図5 ばらつき対応のDVFSによる最小電源電圧供給

ばらつき対応DVFSであれば、動作周波数に応じリーク電流が大きくなる条件で電源電圧を下げるので、リーク電力が保証されます。すなわち、Worst条件に応じて動的にLSIが動作可能な最低限の電圧を供給します。この結果リーク電流を含めて消費電力を最小化できます。

まとめ

最後にDVFSのまとめを示します。

1.プロセッサ系のMPU/GPU/SoCでは素子バラツキ対応を含めたDVFSが幅広く使われている。
2.DVFSは負荷状態に応じて、動的に電源電圧、クロック周波数を制御する。
3. 素子バラツキを考慮したDVFSは低消費電力化の効果が大きい。
4. DVFSは、今後プロセッサのみならず各種SoC(ASIC)にも幅広く使われていく。

いかがでしたでしょうか。この記事がLSIの低電力化における皆様のご理解の一助に慣れればうれしいです。

bookmark_borderシステムLSIのブレイクスルー技術② 動的電圧周波数スケーリング(DVFS)(2)

こんにちは。今日はDVFS機能搭載プロセッサとDVFSの動作原理についてお伝えします。

DVFS機能搭載プロセッサのブロック図

まず、DVFS機能搭載プロセッサについてです。図1に弊社が電源ICで用いているDVFS機能搭載プロセッサのブロック図を事例として示します。

図1 DVFS機能搭載プロセッサのブロック図

CPU内にクロック周波数/電源テーブルが配置され、負荷の大きさに対応するクロック周波数及び電源電圧Vddの指示情報をテーブルから出力します。

指示情報に基づきPLL及び可変電源を制御し、DVFSを実行します。すなわち、負荷の大きさに適合したクロック周波数、電源電圧を用いてDVFSが最適な値を選択実行することになります。

半導体企業の可変電源(DVFS対応電源IC)の製品例

半導体企業の可変電源(DVFS対応電源IC)の製品例を以下に示します。

半導体企業製品例
  1. TI LM25066A
  2. リニアテクノロジーLTC3886
3. ダイアログ・セミコンダクタDA9063
4. ルネサスISL69269
  5. オンセミコンダクタNCP81022
  6. ADI  LTM4680 
7. ディークルーテクノロジーズ DCT013C(開発品)
半導体企業のDVFS対応製品(2024年9月 弊社調べ)

また、Appleは、iOSなどのソフトウェアとAシリーズチップなどのハードウェアを密接に統合し、DVFSを効果的に活用しています。

Apple Mobile Processor における動的電圧スケーリング技術(DVFS)(2024年9月 弊社調べ)

  • プロセッサの負荷監視: プロセッサ内部のセンサーやモニタリング機能が、プロセッサの負荷状況を定期的に監視する。これには、タスクの実行中の処理負荷や電力消費の推定が含まれる。
  • 電圧と周波数の調整: 負荷の高い場面では、プロセッサの動作周波数を上げ、同時に電圧も増加させることで性能を最大限に引き出す。一方、負荷が低いときには、動作周波数を下げ、電圧を低く保ちながらも十分な処理能力を維持する。
  • スケーリングアルゴリズム: モバイルプロセッサには、動的電圧スケーリングを行う専用のアルゴリズムが組み込まれている。これらのアルゴリズムは、プロセッサの状態を評価し、最適な電圧と周波数の組み合わせを決定する。
  • バッテリー管理: バッテリーの残量や充電状態なども考慮に入れながら、電圧と周波数を調整する。

DVFSの動作原理

図2にDVFSの原理を示します。

図2 DVFSの原理

まず上段の説明です。一般に低消費電力化を図るため、SoCではゲーテッドクロックが用いられます。Gated Clockは負荷が軽い場合、所要の処理が終了するとクロックを止めます。これで、タスク処理割当時間後半にはクロックを止めるので、1動作時間を半分=消費電力1/2を図れます。

次に下段の説明です。DVFSではタスク処理割当時間丁度で処理が終了する様に、1/2の電源電圧、1/2のクロック周波数でSoCを動作させます。 すなわちDVFSはゲーテッドクロックに比べて、さらに1/4の消費削減を図れます。

なお、CMOSの特性から、クロック周波数に比例して電源電圧を下げる事ができます。

プロセスバラツキを考慮したDVFS機能搭載SoC/MPU/GPU

次に図3にプロセスバラツキを考慮したDVFS機能搭載SoC/MPU/GPUのブロック図を示します。

図3 プロセスバラツキを考慮したDVFS機能搭載SoC/MPU/GPUのブロック図

リングオシレータ(Ring Osc)の発振周波数からMOSトランジスタの閾値(Vth)を推定します。例えばVthが低い方向に0.05Vばらついた場合、回路の動作周波数が上がります。同一周波数で動作させる場合、電源電圧(Vdd)を下げる事ができるので、消費電力を更に低減できます。一般にVthが低下するとトランジスタのリーク電流が増加しますが、Vdd低減による低消費電力化により相殺できます。こうした工夫によりプロセスバラツキを考慮した設計ができます。

なお、SoCの作りに応じて、リングオシレータは複数個所に挿入されることがあります。

参考までに各CMOS世代におけるVthのプロセスバラツキを示します。

図4 各CMOS世代におけるVthのプロセスバラツキ(2024年9月 弊社調べ)

いかがでしょうか。
次は、動的電圧スケーリング(DVS)開発の背景をお伝えしようと思います。

bookmark_borderシステムLSIのブレイクスルー技術① 動的電圧周波数スケーリング(DVFS)(1)

久々にシステムLSI記事を更新します。今回は動的電圧周波数スケーリング(DVFS)の概要についてお伝えします。

DVFSとは

動的電圧周波数スケーリング(Dynamic Voltage and Frequency Scaling, DVFS)は、プロセッサの処理量(負荷)の大小に応じて、電源電圧およびクロック周波数を動的(適応的)に切り替える技術です。これにより、必要な性能を維持しつつ、消費電力を最適化し、発熱を抑えることができます。

このDVFSによるクロック周波数/電源電圧の動的切り替えについて、表1に示します。

表1 DVFSのクロック周波数/電源電圧動的切り替えとアプリケーション

各種システムLSI(SoC)やプロセッサでは低消費電力化を図るために動的電圧周波数スケーリング(DVFS)が広く導入されています。例えば、SoCの負荷が低いときには動作周波数及び電源電圧を下げ、低消費電力化を図ります。一方、高負荷時には高性能を必要とするアプリケーションに対して、周波数及び電源電圧を上げて高速処理を可能にします。DVFSは負荷の大小に応じて動的に最適な電圧/周波数を割り当て、低消費電力化を図る手法です。

各クロック周波数/電圧における具体的なアプリケーションは概ね下記の通りです。

2GHz/1.2V:AIモデルの学習や推論、ゲーム、ビデオ編集、画像認識、画像生成、画像処理タスク(高解像度)など、高負荷の作業時に切り替えます。
1.5GHz/1V:自然言語処理や音声認識など、中程度の負荷の作業時に切り替えます。
0.8GHz/0.5V:画像処理タスク(低解像度)、長時間かけて良い推論、Office作業、Web閲覧、スリープモードなど、低負荷の作業時に動的切り替えを実施します。

DVFSで用いられている負荷検出手段(MPUの例)

MPUにおいてDVFSで用いられている負荷検出手段を表2に示します。DVFSはMPUのみならず、モバイルプロセッサ、GPU, ECU 等で広く実用化されています。

表2 DVFSで用いられている負荷検出手段(MPUの例)

各半導体企業のソリューション例

各半導体企業が得意なアプリケーション、ハードウェアの競争力を高めるDVFS技術を提供しています。それぞれ簡単に説明します。

DVFSの種類概要
NVIDIA 「GPU Boost」GPUの電力管理を実現のための技術で、一部のGPUシリーズに搭載されています。
AMD GPU 「PowerTune」AMDの「PowerTune」は、エネルギー消費の削減に加え、コンピュータの冷却によって発生する騒音レベルを下げ、モバイルデバイスのバッテリー寿命を延ばすのに役立ちます。(wikipedia)
Intel MPU, GPU「DVFS」Intelは、MPU(マイクロプロセッサユニット)およびGPU(グラフィックスプロセッサユニット)においてDVFS技術を採用しています。これにより、プロセッサの動作周波数と電圧を動的に調整し、効率的な電力管理を実現しています。
Appleスマホ用プロセッサ Aシリーズ「DVFS」AppleのAシリーズプロセッサもDVFS技術を活用しています。これにより、iPhoneやiPadのパフォーマンスを最適化しつつ、バッテリー寿命を延ばすことができます。

DVFSは、現代のプロセッサにおいて不可欠な技術であり、各企業が独自のソリューションを提供しています。これにより、パフォーマンスと電力効率のバランスを取ることが可能となり、ユーザーにとって快適な使用体験を提供します。

次回はDVFSのブロック図、及び動作原理についてご説明します。

bookmark_borderシステムLSI(SoC) の直面するクライシス

3つの技術クライシス

システムLSI(SoC)に搭載するトランジスタの集積度を上げる(トランジスタを小さくし、たくさん並べる)ほどLSIの演算性能は上がるのですが、同時に「電力」「複雑さ」「配線」の3つの主要な技術的課題に直面します。各クライシスに対する原因、課題、対策について簡単にまとめました。

電力クライシス

電力クライシスとは消費電力と性能のバランスの問題です。システムLSIのトランジスタを集積して動作周波数を上げれば処理能力が上がりますが、同時に消費電力が増加し、バッテリーサイズ、リーク電流の発生、発熱に影響します。逆に動作周波数を落とせば処理能力は低下します。

LSIの微細化に伴って、特にドレインーソース間のリーク電流増加が大きな問題になっています。これに対してFin-FETGAA-FETのような近年の新しいトランジスタ技術はリーク電流減少に寄与します。さらに最近はDVS(Dynamic Voltage Scaling)やDVFS(Dynamic Voltage & Frequency Scaling)といった新しいパワーマネジメント手法を導入することで、動的に電力を管理し、さらに細かく消費電力を最適化することも始まっています。電力クライシスに対処するためには、このように回路、アーキテクチャー、システム、アルゴリズムの工夫が必要となります。

複雑さのクライシス

複雑さのクライシスとは、SoCのトランジスタ数が増加するにつれて、設計の複雑性が増大することです。例えばAppleの A17proは190憶トランジスタを使用し、3nm GAA-FETプロセスを採用しています。これは、100人✖1年の設計工数を必要とするほどの複雑さです。こうした設計の複雑性の増加は、設計時間の増加、コストの増大、およびエラーの可能性の増加を招きます。

複雑さのクライシスに対する対策としては、Cベース(高位合成)やIPベースの設計化です。これらを進めることで、設計プロセスを自動化し、設計効率を向上させることができます。また、ドメイン特化型プラットフォームの構築は、設計資産を効率的に再利用し、開発時間とコストを削減することができます。

配線クライシス

配線クライシスとは、システムLSIの論理回路ブロック同士をつなぐクリティカルパスによる信号遅延のことです。トランジスタの微細化がすすみ、今はシステムLSIの中で非常に多くの論理回路ブロックを置くことができるようになりました。しかし先に論理ブロックを並べてから配線する従来の「P&R(Place & Route)」の設計方法ですと、配線長がどんどん長くなりがちです。特にクリティカルパスが長くなることは致命的で、信号遅延による非効率な回路となってしまいます。

配線クライシスに対する対策として、クリティカルパスについてはP&R設計ではなく先に配線レイアウトを最適化する「R&P(Route & Place)」による設計が最も重要です。加えてSI(Signal Integrity)PI(Power Integrity)に起因するクロストークやIRドロップに対する対策も効果的です。さらに新しい技術としてチップ間の遅延時間を大幅に短縮する3次元積層化技術も有効な手段として期待しています。

最も重要なのは電力クライシス対策

LSIのトランジスタ微細化の大きな流れの中で、私は電力クライシス対策が最も重要なカギと考えていて、技術開発に取り組んでまいりました。そこでまずシステムLSIで私が省電力化に対して取り組んだことをご紹介し、次にこれから特に有望と考えうるアーキテクチャーとして、DVFS, DVS 等について順次ご紹介しようと思っています。

bookmark_borderスケーリング則/ムーアの法則

システムLSI(SoC: System on a Chip)は、約3年ごとに0.7倍のペースで微細化が進んでいます。この微細化のトレンドのことは、スケーリング則やムーアの法則、またはデナードの法則とも呼ばれています。

スケーリング則では0.7倍のスケールダウンにより単位面積あたりの集積密度が2倍になり、同一電圧で1.7倍高速化し、消費電力が半分になる性能向上が図られます。スケーリング則と素子構造および回路パラメータとの関係について、詳しくは下図を参照してください。

下図でKはスケーリング係数(<1)であり、約3年でx0.7 です。

図1スケーリング則(デナード則)

次は、LSI低電圧化の流れについて説明します。

bookmark_borderシステムLSIの低消費電力化技術(6)  

昨今はチャージリサイクリングによる低消費電力化の研究が活発です。その1つを今日はお話します。

チャージリサイクリングでViを下げる

以前の記事で解説した数式を1つ思い出していただきたいのですが、CMOSLSIの消費電力の算出で、Pcは(1)「C・Vi・Ve・f」もしくは(2)「C・Ve2・f」で表されます、と申し上げました。このうちViを、「チャージリサイクリング」と呼ばれる低消費電力化を図る技術についてご紹介します。

チャージリサイクリング技術とは?


ブログをご覧の皆様には基本的レベルの事ですが、重要なのであえて申し上げますと、LSIの内部ノードは、演算動作に応じてVeと0の間を遷移します。内部ノードを、0→Veにする時は電源から所定のノードへ電荷を供給し、Ve→0にする時はノードの電荷をGNDへ引き抜いています。

演算動作中、演算を実施しているノードと、これから演算を開始するノードがLSI内で同時に存在します。すなわち“Ve”へ充電したいノードと“0”へ放電したいノードが混在する。ということが頻発します。この状態でノード毎に充放電すれば、当たり前ですが消費電力量は増えますね。

チャージリサイクリングとは、あるノードをVe→0にする時、その電荷をすべてGNDへ捨てるのはもったいないので、電荷の一部を0→Veにしたい別ノードへ渡して再利用する技術なのです。

なんとも賢い方法ですね。原理図を示します。

図16 チャージリサイクリング技術(原理図)

チャージリサイクリングのメカニズム


メカニズムを簡単に説明します。

ノード[A]、[B]を各々Ve→0、0→Veにする場合、t1のタイミングでS1をONさせ電荷分配によってノード[A]および[B]をVe/2にします。次いでt2のタイミングでS2(GND側スイッチ)、S3(電源側スイッチ)をONし、ノード[A]、[B]を各々目標のVe/2→0、Ve/2→Veにします。この過程において、ノード[A]の放電する電荷の1/2はノード[B]を充電するために再利用されている。このチャージリサイクリング技術によって、消費電力を1/2に低減する事ができるわけです。

チャージリサイクリング技術の強誘電体メモリ応用例

さらに、図17にこの技術を強誘電体メモリ(FeRAM)へと応用した事例を示します。従来強誘電体メモリは、セルプレート線に容量値の大きい強誘電体メモリセルが接続されており、その充放電時の消費電力が大きな問題でした。

図17 強誘電体メモリ(FeRAM)への応用事例

メモリアクセスによってセルプレート選択線CP1=“1”(選択)からCP2=“1”へ切り換えるとき、まず、電荷回収用容量線CP0とCP1をSW1によってONさせ、CP1とCP0とを電荷分配させる。この時、CP1の電荷の一部がCP0へと転送されます。次にCP0とCP2をSW2によってONさせると、CP0の電荷の一部がCP2へ転送されます。
すなわち、放電すべきCP1の電荷の一部が、スイッチドキャパシタ動作によってCP1→CP0→CP2のパスで、充電すべきCP2で再利用することができるのですね。この時 CPn/CP0値を最適化すれば、およそ50%近い電荷再利用効率を得る事ができた、という事例になります。

「容量の充放電」がポイント

ポイントは、CMOSLSIで使われる電力のほとんどが「容量の充放電」で費やされている事実です。ですから、チャージリサイクリングのような「容量の充放電」をコントロールする技術は低消費電力化において重要な技術です。言い換えるなら、LSI回路設計における低消費電力化とは「ある大きな容量のノードを放電する時、その電荷をどこか他のノードに利用できないか?」が本質といっても過言ではありません。(その解決策を考えるのがLSI技術者の面白いところでもありますね)

さて、システムLSIの低消費電力化技術についてはひとまず終え、次はDVFSについてご紹介できればと思います。

bookmark_borderシステムLSIの低消費電力化技術(5)

今日はアルゴリズムの工夫による低消費電力化についてです。

動画処理の世界では、動画をフレームで記録する際に、データ線の遷移確率を減らすデータ表現等が次々に発表されていきました。今日は私が以前映像録画機器で用いた事例として「符号付き絶対値表現」を用いた低消費電力化手法を紹介いたします。

ビデオ信号のフレーム差分データ処理

記録中の映像フレームで、絵の一部が動いたか、そうではないか、をLSIで検出処理する場合、現在のフレームと1フレーム前とのビデオ信号の差を判別する処理が必要となります。15図で示した通り、この時必要なフレーム差分データは、一般に大きな容量ノードであるバスラインあるいはチップ外へ出力されることが多いので、消費電力が大きくなりがちです。またビデオ信号はフレーム間の相関が大きく、差分処理の出力が、「少し大きい」あるいは「少し小さい」値となる場合が多いです。

デジタルデータで処理する場合、通常「2の補数」で表現します。図15にも示しましたが、1サンプルごとにMSBからLSBまで表現する場合、ほとんどのビットが赤数字で示したようにデータ遷移してしまいます。このビットのデータ遷移=電力消費の発生ですから、大きな電力消費をしていることになります。

図15 符号付き絶対値表現による低電力化

符号付き絶対値表現

これに対し図15の中央のように「符号付き絶対値表現」を用いますと、この仕組みでは専用の符号ビットを持たせていますので、符号ビット自身は頻繁にデータ遷移しますが、一方で絶対値データ値のビット(LSB近傍を除く)はほとんどデータ遷移しません。データ遷移がなければ電力消費しないので、「符号付き絶対値表現」を用いると、データバスやLSIチップ間配線の様な(消費電力が大きくなる)大容量ノードでのデータ遷移の確率を減らすので、十分な低消費電力化が見込めます。

この方法によって、世の中のビデオカメラの画像信号のフレーム間処理や、水平走査線間処理等の相関の大きな信号処理の低消費電力化に成功するなど、家庭録画機器の低消費電力化と性能アップに特に有効な手法となりました。

次はチャージリサイクリングによる低消費電力化について、ご紹介します。

bookmark_borderシステムLSIの低消費電力化技術(4)

今日は、アーキテクチャの工夫による低消費電力化の方法です。

アーキテクチャの工夫による低消費電力化の方法として、並列処理、パイプライン処理が従来よりある処理技術として有名です。

並列処理

そのうちの1つ、並列処理の概略図を(図14)に示します。例えば、ある演算器を2つ並列に配置します。この配置ですと演算機1つの場合と比較して、同一スループットに対して演算サイクルタイムを2倍に広げる事ができます。という事は動作周波数を1/2に下げられるので、電源電圧Veを約1/3にする低消費電力化が図れることになります。 

 ただしデメリットもあります。並列2系統の回路が必要ですから、当然ながらチップ面積が大きくなりますので、システムLSIのコスト(またはチップサイズ)と消費電力とはトレードオフの関係になりますので、並列処理はとにかく低消費電力を重視する製品向けのLSIに適した方式であると言えます。

図14 並列処理

bookmark_borderシステムLSIの低消費電力化技術(3) 

この記事では、システムLSIの低消費電力化技術の1つとして、一世を風靡した8ミリビデオ・カムコーダ用に開発したDRAM混載SoCについてお話します。

8ミリビデオカムコーダとは?

使ったご経験がある方おられると思いますが、個人がテープに録画記録するビデオカメラで、運動会で活躍するお子さんをこぞって撮影するお父さんたち、旅行先で動画撮影のために持ち歩く旅行スタイルなど、当時の生活の楽しみ方を根本から変える画期的製品でした。持ち歩いて長時間撮影したいと、より軽量かつ小型なカムコーダを市場から求められましたので、それを実現するための技術開発が行われました。

当時のマルチメディア画像処理の仕組み

画像処理を中心としたマルチメディア信号処理では、大容量メモリ(フレームメモリ)とロジックとの信号のやりとりが特に頻繁になります。

図12 NR+TBCシステム

カムコーダでは画像処理のために、「ノイズ・リデューサ+タイム・ベース・コレクタ」略してNR+TBCシステム(図12)を用いていました。入力であるVTR(録画映像)のPB信号は、録画テープを回転させるドラムの回転ムラ等に起因した時間的な「ゆらぎ」、Δfジッターを持っています。映像をきれいに残すためにはSN比の向上を図るNRが重要で、これを実現する為に「ジッターを持った」1フレーム前の信号との相関を利用します。これがNR+TBCシステムです。

1フレーム前の相関を利用するためにはフレームメモリからTBCされたジッターの無い信号を出力する必要があります。しかし、各々8ビットのビデオ・データともなると、NR+TBCの処理だけでも、メモリとロジックとで、24本のデータラインが13.5MHzのサンプリング・レートで結ばれることになり、消費電力が高くなってしまいます。

ロジック+DRAM混載のSoCの必要性

当時はフレームメモリ(DRAM)とロジックとは別チップであり、その場合ピン間容量が大きく、消費電力の点で、携帯用機器としては大きな問題でした。通常LSIのブロック内、ブロック間、チップ間の配線部分の容量比率は、おおよそ1:10:100(図13)であり、ここまでのピン間容量比率であればもう信号処理ロジックとフレームメモリとを同一チップに入れる方が、消費電力的に圧倒的に有利です。そういう経緯から、ロジックとDRAMを混載した「システム・オン・チップ」(SoC)の新規技術開発およびその実現プロセスが必要となったのです。

図13 DRAM混載による消費電力削減

これから先のマルチメディア信号処理

今回はDRAM混載による消費電力削減の重要性について、お伝えしました。その後ビデオ撮影のできる製品は携帯電話、スマホな高解像度で撮影できる製品は増えましたが、これから先の画像処理においても、さらなる高解像度化への要求は続くはずです。特に画像圧縮/伸長、画像認識、3次元グラフィックス等が主役となるマルチメディア信号処理では、今後もメモリ中心の処理が避けられないはずです。こうしたことからも、DRAMプロセスをコアとしたDRAM・ASIC混載プロセス技術が今後重要になるのではないかと想定しています。

次は、低消費電力化を実現するアーキテクチャの工夫について、書きたいと思います。

bookmark_borderシステムLSIの低消費電力化技術(2)

こんにちは。今日はDRAM,SRAM, フラッシュメモリなどの低消費電力化についてお伝えします。

活性化領域の最小化技術とは?

DRAM、SRAM、フラッシュメモリ等のメモリでは、ワード線およびビット線分割によるアレー分割によって、その空間的活性化領域を低減し、低消費電力化を図っています。携帯機器等に使用されるプロセッサでは、プロセッサを構成する各機能ブロックへのクロックの供給を必要に応じて断続的にコントロールするパワーマネジメントによって低消費電力化を図っています。こうした活性化領域の最小化技術について説明します。

ワード線分割

ワード線分割の原理を図9※に示します。ワード線を分割してN個のサブアレーに分ける事により、1本のワード線に接続されるセル数を1/Nに減らします。1個のサブアレーのみが活性化されるので、低消費電力化が図れます。 

※原理を示したもので、現在実践されるワード線分割は多様化しています。

図9 ワード線分割方式

フラッシュメモリのプログラム動作時の様に高電圧パルスが必要な場合は、上図の副ローデコーダに増幅器の役割も担わせて、高電圧系の活性化領域を減らし低消費電力化を図る事もできる。ビット線についても同様に階層化する事により、同様の効果が得られます。

選択的ビット線プリチャージ

選択的ビット線プリチャージは、ASICにおけるRAMやROM等で用いられている技術で、その原理を図10に示します。

図10 選択的ビット線プリチャージ

本方式のコンセプトは読み出し動作において選択されたビット線のみプリチャージして、低消費電力化を図る事です。プリチャージはカラムスイッチを介してセンスアンプ側から行います。読み出し動作で選択されていないビット線は、カラムスイッチが閉じているため、プリチャージされず、活性化領域の最小化=低消費電力化が図れます。

以前に画像処理に使うMPEG2ビデオコーデックLSIを開発したことがありますが、従来版ではLSIの全消費電力の2/3をデュアルポートRAMが占めていたのですが、この選択的ビット線プリチャージ方式を用いる事によって、RAMの消費電力を1/3以下にする事に成功し、600mWという低消費電力のMPEG2ビデオコーデックチップを実現したことがあります。

バス分割

現在のMPUやDSPでは、そのメインバスがチップ全体に及んでおり、より大きな容量値を持っていることが多いです。こうしたチップではDCTやディジタル・フィルタ等の処理を行う時、積和演算がくり返し行われますが、この積和演算はALU及び乗算器とレジスタとのデータのやりとりが頻繁で、しかもそれをメインバスを介して行うため、大きな容量ノードであるメインバスの活性化率が上がってしまい、消費電力的に問題となっておりました。その解決策であるバス分割を図11に示します。

図11 バス分割

バス分割では、あたかも得意な機能の異なる右脳と左脳を脳梁で分けるように、積和演算を行うアクセスが頻繁な「演算系」とアクセス頻度が高くない「周辺系」とを分割する事によって低消費電力化が図られています。

次に、DRAM混載SOCについて事例を折り混ぜながら解説していこうと思います。