ソニーのAPCSセンサーは明らかに動画用のセンサー?

EOS HD に、ソニーの新しいAPCS(アクティブピクセルカラーサンプリング)センサーに関する考察が掲載されています。

New Sony sensor has 21 stops dynamic range, 5120 native ISO -- and destined for high speed cinema camera NOT a smartphone!

  • 興味深いことに、ソニーのAPCSセンサーは、全てのドライブモードが動画の規格の垂直の解像度に一致している。このセンサーは、動画機(たぶんハイスピードの動画機)に採用されることになると確信している。
  • 1.5インチセンサーはスマートフォン用には大きすぎる。720pで36000フレーム/秒のスマートフォン用のセンサーを開発しても意味がないだろう。このセンサーはスマートフォンには発熱が多すぎ、また、十分な処理能力のあるCPUを搭載できないだろう。APCSセンサーは、将来はスマートフォン用やコンパクト用に向うかもしれないが、このセンサーはそうではない。

 

ソニーのAPCSセンサーは、これまでにリークした資料(本物かどうかはまだ分かりませんが)によれば、動画で使用する解像度での高速読み出しに非常に強いセンサーのようなので、EOS HD がこのセンサーを動画用と考えるのは自然なことかもしれませんね。

このセンサーのターゲットが、ハイスピードのビデオカメラだとすると、APCSセンサーは最初は業務用の動画機に搭載されるのでしょうか。このAPCSセンサーが、一般向けのデジカメにも応用されるのかどうかが気になるところです。

2014年11月16日 | コメント(14)

コメント(14)

正直言ってカラーフィルターを動かす部分の機能のメリットがわかりません。
グローバルシャッター(アナログメモリ)と超高速読み出しはとてもリーズナブルですが、わざわざ複雑な機構をつけて、つまりお金をかけて、カラーフィルターを動かす意味が謎です。
横方向に2Kしか画素が無いようなので、それで、4K動画を撮るための仕組みなのでしょうか?
ダイナミックレンジが21EVあるといっても、高感度特性を決めるのはQE,開口率とノイズなので、この技術でなにか向上するものは無いと思います。想像ですが、高速読み出しして重ね合わせ飽和(白飛び)を回避しているのではないでしょうか?

間抜けなことに今気づきましたが、16bit読み出しで21.3EVのダイナミックレンジなのですから、多重露光による合成処理は必須ですね。16kHzで読めるそうなのでグラフの1000FPSにするのに16枚重ねているのか?とも思いましたが、16枚では4Evしか得しないので、アンプのゲインをかえながら多重露光(HDR)しているのでしょう。
5120 Native ISOをなら、グラフの左端のISO80とちょうど6Ev差なので、5120から80まで何枚か多重露光しHDRしていると想像します。

このAPCSセンサーを搭載する初号機がキヤノン機なのかどうか分かりませんが、オリンパスのE-M5の後継機に今までとは全く違ったカメラを出すようですが、4K動画搭載とからしいのでソニーと提携しているオリンパスへ4/3センサーサイズで提供するのでは?と思えてきます。

動画ではパナに遥かに離されているオリンパスとしては4Kフォトが出せるボディが欲しいのでしょうけど、そのためのソニーセンサーなんでしょう。ただ読み出しにせよHDR処理にせよ動画撮影には画像処理エンジンに相当負荷が掛かるのですが、動画が得意とは言えないオリンパスが4k動画を扱えるエンジンを自前で作れるのかちょっと?ですね*_*;。此方にもソニーの技術が導入されて、スチル撮影用の従来のオリのエンジンに動画撮影用のソニーのエンジンとを合わせた物になるのでしょうか。

もしそんなカメラが出たら凄いですが、CP+で明らかになるようなので期待半分で待ちたいですね^o^/。

SARが紹介していたドキュメントでは、

Unit cell size 9.78 μm (H) x 4.89 μm (V)

と書いてありましたが、この横長の大きな画素が広いダイナミックレンジに関係しているのでしょうか?

一方、ドライブモードの名称には、どれも「HDR」とか「WDR」という文字が入っているので、画素が大きいだけでなく、何らかのHDR合成処理を行ってダイナミックレンジを拡大しているのだろうとも思われます。

また、電荷蓄積部を有する撮像素子でダイナミックレンジを拡大するというソニーの特許を、えがみさんが過去に紹介されていましたが、このような技術もこのAPCSに活かされているのかもしれませんね。

「Sony ダイナミックレンジを拡大した撮像素子に関する特許」(エンジニアの嗜み)
http ://egami.blog.so-net.ne.jp/2011-02-28

あと、横長の画素というのは、どういうメリットがあるのか分かりませんが、動画用を前提としているのでしょうか?
動画だと横位置で撮影することが基本的には前提となっていると思いますが、そういうことも関係あるのでしょうか?
ふと、そんなことを考えてしまいました。

ダイナミックレンジ21.3EVの意味が分からなかったのですが、中村@つくばさんのコメントを見て少し感じが分かりました。

>5120から80まで何枚か多重露光しHDRしていると想像します。

グラフの右上に
Standard 2048×2160 at 1000FPS/ 16Bit: -0EV
Standard 2048×2160 at 8000FPS/ 16Bit: -3EVs
とありますが、8000FPSだと高々2枚合成なので、この2枚でHDR合成して18.3EVのデータを得てるってことでしょうね。
で、1000FPSのときは、そこから普通に8枚合成で+3EVと考えて良いのかな。

HDRありだと、やろうと思えばダイナミックレンジなんて何EVでも出せちゃうような気がしますが・・・

 おおっ、1ショットの間に複数のタイミングで読み出すなんていう技術が、特許上は既に存在していたんですね。
そんなこと良いな、出来たら良いなとは思っておりましたが、いやまあ実際には無理無理と思っていたので、感動です。
 yamaさんご紹介のリンクでは長時間露光時に困ると書かれていますが、マルチショットタイプであれば被写体の動きは次のピクセル、その次のピクセルと順次反映されていきますし、またショットごとに感度を変えられるなら1倍感度露光、1/10倍感度露光、1倍感度露光‥‥と重ねていくことが出来ますから、その発展性は素晴らしいものがありますね。
いやまあ、ソニーの新型センサーが本当にそういう感じになっているのかは、全くもってよく分かりませんが。
 なおカラーフィルターシフト式の場合、ベイヤーのデモザイク処理が必要無いので、単純にデータを読み出す場合(もしくは画像処理チップに受け渡される前に専用チップでデータの積算済みの場合)は、ノイズリダクションくらいしかしなくて済むのが良いところなんだそうです(前々回くらいの噂記事より)。
実際長いことディジックとビーナスエンジン以外はデータ処理能力が不足していたために、青と赤のデータは解像には反映されてなかったと言われていますので、これで浮くデータ処理能力は大きいと思います。
 4Kデータだってノイズリダクションだけでほぼスルーで出せるのであれば、ベイヤーの2Kデータよりも処理全体としては遥かに軽くなっちゃうのかも?
ベイヤーのデモザイクでは、周辺の沢山のピクセルを参照すると言われてますので。

元記事にあるように、超ハイスピード動画機として考えるのが正解なのかな?
1320万画素の高解像240FPS機としても使えるし、
ラインスキップも画素混合もなしで
440万画素の超ハイスピード機(1000FPS)としても使える、
ってこと?720pなら36000FPSいけるんですね。

720p:1280×720=921600ピクセル
36000フレーム/秒:16bit/画素のRAWとして、
921600×36000×2=66.36GB/秒

 どんな高速インターフェースで、センサーと信号処理ICを接続するのですか。PCI Express 3.0でも67レーン必要。最新のIntelのCPUでも取り込めそうにありません。
 66.36GB/秒の高速インターフェースを装備したら、インターフェース部分だけで、ものすごい消費電力(と発熱)になります。しかも、CPUと同等の微細プロセスでセンサーを作らないと、これほどの高速動作は出来ません。この大きさで、20nm前後のプロセスで作ったら、とんでもない高額チップになります。

 グローバルシャッターで、全画素を1/16000秒や1/32000秒で露光することが可能になったということを、単純に逆数でフレームレートに換算しているだけではないでしようか?
 ローリングシャッターなら、1/16000秒電子シャッターでも、一画面の撮影には1/60秒~1/10秒の時間がかかっていたわけですから。ローリングシャッターとの比較で速さを強調するための、誇張でしょう。
 このセンサーでは、読み出し速度(実際の連写速度)はもっと低速のはずですよ。露光時間と読出し時間は同じではありません。

 産業用の高価な特殊カメラ用の超高速度カメラなら、有り得ますけど、信号線を大量に並列に引き出して、外付けの高速A/Dコンバータを大量に使用する大掛かりな装置になります。

言いたいことを電子職人さんがすでにコメントしてくれましたし、この記事についてはあまり追求する気もないのですが、少しだけ。
例えば民生用や一般的な業務用共に、動画機として今の技術で記録出来るのはせいぜい4k60pかフルHDだと240fpsくらいではないでしょうか?
ビットレートもより高くしたらしたで、ハードの処理能力がさらに必要になります。
願わくばこの記事の推測は外れて欲しいですね。
仮にこのセンサーが業務機に採用され、その後から民生機に採用されるという筋書きもあるとは思いますが、最初からスチル機としても使える民生機に落としまれることを期待します。

動画の弱点として致命的なのはダイナミックレンジの狭さでしたがもしも、NDフィルターを不要にするほど広くなればすばらしいですね。
たくさん光をため込めるという意味ですが。
今のカメラではNDは動画には必須ですからね。

私はちゃんと撮影できれば数字などの薀蓄はどうでもいいのですが今SONYの営業の人が来てこの撮像素子のことについて話をすると本日正式に発表と言っていました。

本日発表のはExmorRSに像面AF付けただけのやつで、
APCSセンサーとは無関係でしょ。

とりあえず最初の噂にあった「高感度4倍でFOVEON超え」は言い出しっぺの勘違いということで良さそうですね。
露光を分割するんだから高感度4倍にしたかったら露光時間が4倍。そっち方面で意味のあるモノではないでしょう。

時分割露光で露光時間が1/3になっても、RGBの画素を共通化できるのだから、画素サイズはベイヤーの4倍にできますよね。

つまり単純計算ではありますが感度はベイヤーの1.3倍。

画素サイズの点ではFoveonもベイヤーの4倍になるわけですが、Foveonと違ってカラーフィルターを積層していませんから、積層ゆえの感度低下も無い。

少なくともこれまでより高感度でダイナミックレンジも広いセンサーになりそう、という点では間違い無いと思いますが。


コメントする

※コメントは承認後に表示されます。初めてコメントされる方はこちらをご一読下さい。
※同じ記事にハンドルを変更しながら投稿された場合は、コメントを削除します。
※記事の内容を無視したコメント、煽り・いやみ・皮肉・感情的なコメントは承認いたしません。

スポンサーリンク

月別アーカイブ

2019年
1月 2月 3月 4月 5月 6月 7月 8月 9月 
2018年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2017年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2016年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2015年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2014年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2013年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2012年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2011年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2010年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2009年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2008年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 

2019年9月

1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30          

このブログ記事について

このページは、2014年11月16日 に公開されたブログ記事です。

ひとつ前のブログ記事は「富士フイルムX-T1の新ファームは12月中旬にリリース?」です。

次のブログ記事は「シグマが2015年の第1四半期に24mm F1.4 Art とDCの超広角ズームを発表?」です。

最近のコンテンツはインデックスページで見られます。過去に書かれたものはアーカイブのページで見られます。

デジカメinfo topに戻る