ReLUのような入力が負の場合に出力がゼロになる関数を使ったり、値が小さい要素を無視してゼロにするなどの方法で、ゼロの値を増やし、行列を疎にすることができる。34層のフルコネクトの密行列の場合、ReLUを使うことにより演算性能は1.7倍に向上し、ReLUと50%のスパース化を行うと、性能は2.4倍になる
京をはじめとする日本勢もTOP500に代表されるランキングの上位に多く入ることで注目を集めるほか、人工知能(AI)やディープラーニングでも活用が進むなど、さまざまな用途で活用されるようになったスーパーコンピュータに関わるホットな話題を詳細な説明付きで紹介します。