アルゴリズムのアルゴリズムの複雑さを報告するとき、基礎となる計算は、最新のCPUに近い抽象的なマシン(RAMなど)で実行されると想定します。このようなモデルにより、アルゴリズムの時間と空間の複雑さを報告できます。さて、GPGPUの普及により、消費電力も考慮することができるよく知られたモデルがあるかどうか疑問に思います。
GPUはかなりの量の電力を消費することがよく知られており、特定の命令は、その複雑さと洗練されたチップ上の位置に基づいて、異なるカテゴリの電力消費に分類されます。したがって、指示のエネルギーは、エネルギーの観点から、単位(または固定)のコストではありません。取るに足らない拡張は、操作コストに重みを割り当てることですが、操作/命令がエネルギーの一定でない単位、たとえば多項式量(またはさらに複雑な例:開始から経過した時間の関数)を要する強力なモデルを探していますアルゴリズムの;または、冷却システムの故障の可能性を考慮して、チップを加熱し、クロック周波数を遅くするなど)
自明ではないコストと障害を組み込むことができるようなモデルはありますか?