システム移行の際ファイルシステムに何を使うかを検討するため、ZFSとUFSのパフォーマンスを計測してみました。
RAIDカードは3ware 9550SXUに1TB Drive 4本を接続して使用しました。RAIDカードのI/FはPCI-X 133MHzですが、ホスト側の都合で64bit PCI 100MHzでの計測となりました。よって、RAIDカードのパフォーマンスは最大限生かされているとは言えません。
また、計測にはiozoneを使用し、writeにはsyncオプションを使用しました。direct i/oが出来なかったので、キャッシュの影響は排除しきれていません。
UFSのブロックサイズは512kBとしました。これは、ある程度大きなファイルを扱う予定であるためと、一般に大きめにしておいた方がオーバーヘッドが少なかろうとの考えからです。zfsはブロックサイズは可変だそうです。
制約の多い中での比較ですが、ファイルシステムの影響による傾向性を見るには十分な結果が得られたと思っています。

UFS2のテスト結果

リクエストサイズが256kや512k辺りまではreadが理論値を越えたりしていますが、これはキャッシュの効果でしょう。
実際に連続I/Oした場合は、read 700MB/s、write 170MB/sというところでしょう。512MBのテストファイルを用いていますが、この程度のファイルサイズであれば、readキャッシュは非常に有効といえるでしょう。
RAID0テキスト版
RAID0 グラフ
RAID5テキスト版
RAID5 グラフ

ZFSのテスト結果

テストの前にZFSを使用する場合はカーネルパラメータの変更を行わないと、panicしてしまいベンチマークが流れませんでした。
/boot/loader.confに以下を追加。
vm.kmem_size="1536M"
vm.kmem_size_max="1536M"
kernelに次の行を追加してリコンパイル
options KVA_PAGES=512
メモリをすさまじい勢いで使用するので、メモリが十分に(最低2GB)搭載されているシステムでないと運用は難しいようです。この辺りは、今後のチューニングによって改善されていくものと思われます。
writeがリクエストサイズ16Mでも100MB/sに満たない結果になっています。また、readは400MB/s位出るようですが、リクエストサイズによってばらつきが激しく、使いにくそうな印象です。
また、RAID5上に作成した場合、readが150MB/s程度になってしまう点も興味深いです。
RAID0テキスト版
RAID0 グラフ
RAID5テキスト版
RAID5 グラフ

ZFS vs UFS2

まず、大雑把に言って、ZFSはUFSの半分しかパフォーマンスが出ないといってよいでしょう。
一部にZFSを過大評価するむきもあるようですが、パフォーマンスの悪さは致命的です。
ファイルやファイルシステムのサイズは当面64bitで足りますから128bitの優位性は感じませんし、ボリュームマネージメントもGEOMが使えるようになったので必要ありません。
さらに、現時点ではメモリも大量に必要ですし、リクエストサイズに依存した速度のバラつきもみられることから、ZFSを使うメリットはあまり無いといえると思います。
最後に、この結果は2008/07現在のものであり、将来的に改善される可能性がある点を付け加えておきます。