本記事は下記の英語記事をもとに作成しました。
http://redshiftrender.cgrecord.net/2017/12/say-hello-to-redshift-denoiser.html
NIPS 2017では、NVIDIAがRedShiftデノイザーを発表しました。 NVIDIA GPU上で実行されるRedShiftのAIアクセラレーションによるレンダリングにより、わずか数秒でノイズのないレンダリング画像が生成されます。 そして、有望な展望を探しています。 このビデオをご覧いただき、どう思ったのかか教えてください。
Redshiftユーザーグループにおいて、Panosは新しいDenoiserについて更に詳細を話しています。 Redshiftには2つのデノイザーがあり、みんなでノイズ除去アルゴリズムを訓練を手助けする必要があると言っています。
- The denoiser runs on older GPUs too, not just Volta. We have ran it on Maxwell and Pascal GPUs. Don’t know if it works on even older GPUs than these - need more testing.
-denoiser は、Voltaだけでなく、古いGPUでも動作します。 私たちはMaxwellとPascal GPUで実行してきました。 これより古いGPUでも動作するかどうかはわかりません。テストが必要です。
- The integration is not complete yet. We are not passing it all the data in needs to do the best job possible for texture and normal detail.
- 統合はまだ完了していません。 我々はテクスチャとノーマルディティールのために可能な限り最良の仕事をするために必要なすべてのデータを通過しているわけではありません。
- It’s a denoiser which means it has to make guesses. As a result, it’s not perfect! No denoiser (that we have played with) is. But for certain industries/uses, it’ll be great!
- 推測をする必要があることを意味するデノイザーです。 その結果、それは完璧ではありません! デノイザー(私たちがプレーしたもの)はありません。 しかし、特定の産業/用途については、素晴らしいでしょう!
- We have implemented it the way NVidia suggested which is to start a bit of denoising from the first pass but gradually enable it by 16 passes. After 16 passes, it’s fully enabled.
- 私たちは最初のパスから少しずつノイズ除去を開始し、徐々に16回通過させるというNVidiaが提案した方法で実装しました。 16回通過すると、完全に有効になります。
- We haven’t yet enabled it for bucket rendering, only for progressive
- まだバケットレンダリングを有効ではありません。プログレッシブのみ有効です。
- It does take some VRAM so it’s best to be used with GPUs with quite a bit of VRAM
- VRAMを利用するので、かなりのVRAMを持つGPUで使用するのが最善です。
- It’s super-fast so it can be used interactively, as can be seen in the video!
- 超高速なので、ビデオに見られるようにインタラクティブに使用できます!
- While the GPUs in the video were GP100, it runs really well on other GPUs too.
So this shouldn’t scare you into thinking that it will run really slow
or will produce bad results on lower-end hardware.
- ビデオのGPUはGP100でしたが、他のGPUでもうまく動作します。 そのため、本当に実行が遅いとか、ローエンドのハードウェアで不良な結果を生成すると思うのを恐れるべきではありません
- This AI was trained with iRay data and not Redshift. It still works nicely with Redshift but I think that, once we train it with Redshift data, it can do even better. We will probably need your guys’ help with this. The denoiser was trained with 15000 (!) iRay images. We will need both noisy and clean images. We are thinking of how to attack this problem from an engineering/crowdsourcing point of view
- このAIはRedshiftではなくiRayデータで訓練されました。 Redshiftにてうまく動作しますが、Redshiftのデータを使用して訓練すれば、さらに効果的です。 おそらくみなさんの助けが必要になるでしょう。 デノイザーは15000枚のiRay画像で訓練を受けました。 ノイズの多い画像とクリーンな画像の両方が必要になります。 私たちはエンジニアリング/クラウドソーシングの観点からこの問題をどのように攻略するか考えています。
- The denoiser was not trained with super-fine geometry. So things like hair/grass might not work that great with it
- デノイザーは、超微細形状で訓練されていませんでした。 だから、髪の毛/草のような形状ではうまく動作しない可能性があります。
- As is the case with all denoisers, the better the quality image you give it (i.e. the less noise), the less blurry or painterly result you’ll get back. This shows that the speed of the core renderer is -obviously- still important. Which is good news for Redshift, I guess! smile This is the case not only with OptiX of course, but with any denoiser.
- すべてのデノイザーがそうであるように、与えられる画像の品質の良い(ノイズが少ない)ほど、返ってくる結果はぼけやペイントしたような感じが少なるなります。 これは、コアレンダラの速度が明らかに重要であることを示しています。 Redshiftにとっては良いニュースですね。 これはもちろん、OptiXだけでなく、あらゆるデノイザーを使用した場合です。
- This is not related to OptiX but here it goes: we will also implement a better Altus integration. We will explain why on a more detailed post. While Altus is nowhere near as fast as this, it can produce really great results. We think that having both will be best for the users.
- これはOptiXとは関係ありませんが、ここではそれを示します:より良いAltusの統合を実装します。 私たちは理由をより詳細な記事で説明します。 AltusはOptiXほど速くはありませんが、本当に素晴らしい結果を生むことができます。 私たちは両方を持つことがユーザーにとって最善であると考えています。