音楽とかソフトとか

メモ書き的なものです。

DAWで作った曲を最終的にステレオwavにレンダリングするときやvstをフリーズしてwavを作るときについて、以下の疑問がありました。

・量子化ビットは何ビットが良い?
・ASIO対応のオーディオデバイスを接続してからレンダリングした方が良い?
などなど。。

量子化ビットについてですが、DAWでは大抵16、24、32bitと選べます。CDは16bitなので私はいつも16bitを選んでいたのですが、マスタリング関係のサイトを幾つか読むとマスタリング用のwavは24bitが良いとするような文をいくつか見かけます。16bitだと音量変更やコンプレッサなどの調節をしたときの劣化が大きいということのようです。確かに高音質を謳ったリマスターCD等でも"24bitマスタリング"と書いていたりします。

また、マスタリングせず直接最終版wavを作るにしても、DAWで16bitWAVを作らず24bitでレンダリングして、SoundEngineなどで16bitに落とす方が良いというご意見もありました。確かにSoundEngine等ならオフライン的に(非リアルタイム処理で)ビット変換しますので最良の精度で変換するはずです。一方DAWだと、もしかするとリアルタイム処理でビット変換も行っており、そこで何らかの劣化が生じる恐れがある(あくまで推測です)、ということかもしれません。

もう一つ、24bitか32bitかについてですが、24bitで十分という説明をいくつか見ました。ただこれは私の推測ですが、DAW内部は32bit処理かなぁと思います。そう思う理由はプログラミング言語の変数の型で24bitのものが無さそうだからです。通常float型が32bitなので内部的にはfloatで処理しているんじゃないかと。もしそうであれば32bitの方がDAWの処理結果をそのままwav化したものということになります。

--------
さて以上の事柄は推測、主観、客観が混じった内容です。私の場合別に耳が良いわけではないので主観は大して信用なりません。かといって人の意見を鵜呑みにするのも考えものです(極端な話オーディオマニア界隈には"オカルト的な"話もよくありますので)。そこで、なるべく客観的に比較検証するにはどうしたら良いかと思い、以下の手順を考えてみました。以下に手順をメモ書きしますが、自分にとってここで一番大事なのは「結論」ではなく「検証手順」だったりします。

例としてDAWの32bitレンダリングと24bitレンダリングの良しあしを比較します。

1. DAWで検証対象のプロジェクトを開く。
2. 32bitWAVでレンダリングしファイルAを作る。
3. 24bitWAVでレンダリングしファイルBを作る。
4. DAWやAudacityなどでプロジェクトを新規作成し、AとBを並べる。
5. AまたはBのいずれか一方の位相を反転する。
6. 32bitWAVでレンダリングしファイルCを作る。
7. Cの波形の波形も並べて見て劣化の度合いを判定する。

これでAとBの差分がCになりますので、Cの振幅が小さいほど客観的な劣化は少ないということになります。(もしA=BならCは振幅0になります)。

また、Cの波形を見て振幅のあるところを探し、その周辺の音をAとBとで聞き比べればポイントを絞った主観的な検証もできると思います。

--------
以上のやり方は単純なので他の検証にも使えると思います。例えばASIO対応のオーディオデバイスを接続or非接続してレンダリングするときの違いなど。。

で、実際検証してみた結果なのですが、トラック数の少ないプロジェクトで量子化ビットを検証した際にはどれも大差ありませんでした。トラック数の多い場合の検証は必要と感じたときにまたやってみようと思います。
スポンサーサイト

PageTop

コメント


管理者にだけ表示を許可する