ソニーのAPCSセンサーはカラーフィルターを動かしながら3回の露光を行う?

SonyAlphaRumors に、ソニーのAPCS(アクティブピクセルカラーサンプリング)センサーに関する噂の続報が掲載されています。

(SR4) Detailed spec sheet of the new Sony APCS sensor!

  • 匿名のソースが、APCSセンサーの図を送ってくれた。何日か前に述べたように、このセンサーは1.5インチで、2015年の早い時期に何らかのコンパクトなデバイスに導入されるようだ。このソニーのセンサーは、1つのピクセルでフルカラースペクトルを捕らえることができる世界初のセンサーだ。FoveonはRGB3層だが、ソニーの新型センサーは1層だけだ。
  • 本日、このセンサーがどのように動作するのか示す図を受け取った。「Structure 1」は、センサー上で水平に動くカラーフィルターを示している。RGBそれぞれの色で、異なる3回の露光がされる。
  • このセンサーのネイティブISOは5120で、このセッティングで127.69dbの素晴らしいダイナミックレンジだ。
  • 唯一の疑問は、動体や長時間露光で、どのようにして3回の露光を行うのかということだ。

 

ソニーのAPCSセンサーは、どうやらカラーフィルターを動かして3回露光することで1ピクセルでフルカラーの情報を得るようですね。3回露光が必要になるので、動体の撮影で問題が生じそうですが、ソニーがこの問題にどのように対処するのかが興味深いところです。 色ごとのブレさえ無ければ、非常に高画質の画像が得られそうですね。

sony_apcs_002.jpg

sony_apcs_003.jpg

sony_apcs_004.jpg

2014年11月15日 | コメント(98)

コメント(98)

sonyカッ飛ばしてますね。
連写合成的なアルゴリズム使っているのかな。
同一タイミングでは、隣接画素がそれぞれ別の色をキャプチャーしてるのがミソなのかも。
なにげに
> The sensor is also capable of Global Shutter and 2K recording at crazy 16,000 frames per second.
ってのもすごい。

風景静物専用もっさりカメラですか?

普通の露光スピードだとグダグダですよね・・


ひたすら超高速連続シャッターでとって1ピクセルごとに前後のコマで計算するのでしょうか?
そうすると手ぶれ補正も電子式?

2015年の早い時期・・・・・・ううむ、やはりこれが
「ソニーからオリンパスにもたらされる驚くようなセンサー」
で、E-M5の後継機(?)に搭載されるのでしょうか?
グローバルシャッターまで積んでいるのなら、動画にも
力を入れているらしい後継機にはぴったりでしょうし。

>ヘリコイドさん
風景静物専用であればグローバルシャッターの
必要性は薄いと思いますが・・・・・・

ペンタックスがローパスセレクターを発表した時に
ピクセルずらし撮影が出来るんならRGBをピクセルずらしで重ねてしまえば・・・なんて考えたんですが
これってそれをやるのかな?

11月13日にも同じことを書きましたが・・
http://digicame-info.com/2014/11/post-655.html#comment-208046

フィルターの振動数を16,000Hzに固定して、必要な露光時間分の加算を行うんじゃないですかね。キャパシタは1画素に3色分あって、フィルタの位置に対応して単純にスイッチで切り替えるようです。すると、フィルタは単純な往復運動ではなくて、RGBそれぞれで一旦停止して、その停止時間内だけ露光するのでしょうか。

フィルターの移動中に各画素の前でフィルターの重なりが生じる時間が発生しますが、これはグローバルシャッター等で排除している気配。

移動時間分の感度ロスは避けがたいのかな。フィルター2色が重なる割合に応じてキャパシタに電荷を比例配分するのではダメなんでしょうね。

ただ、このくらいの周波数に設定しておけば、一往復は0.0625μsecだから、ストロボでも動体撮影でも問題はなさそうです。2kで16,000なので、もしかしたら8,000Hz固定なのかもしれません。

なんとプロクジン=ゴルスキーの三色合成の時代に逆戻りか
でもあの写真好きなんだよなあ
色彩が美しくて
プロクジン=ゴルスキーにある人はググったら沢山画像が出てきますし、一部はこちらからも見られます
http://www.boston.com/bigpicture/2010/08/russia_in_color_a_century_ago.html
かなり高速で露光するんだろうし、そのために素子の1画素あたりの大きさも大きくしてるんだろうけど、前の記事で言われてたスマホから搭載っていうの疑問ですね
手ぶれのしやすいスマホ向きとは思えませんし

PENTAXのローパスセレクターと似たような理屈でしょうか。

ローパスセレクターの動作条件が、1/1000よりも遅いSSですので、
ソニーがどうやってその壁を乗り越えるのか気になりますね。

私も博多湾さんの仰るような仕組みになっているのではないかと思います。
シャッター速度を1/16000にしてもブレが発生するような特殊な撮影では問題が発生するかもしれませんが、そんな撮影は今までのカメラでも難しいですしね。

ただ、センサーの仕様を見ると、縦横比率がほぼ1:2だったり、縦幅がマイクロフォーサーズより小さかったりで、レンズ交換式カメラに載るとは思えないのがなんとも……。
まあ、まずはコンパクトカメラへの搭載でもいいので、実際の写りを見てみたいですね。

1/1万6000秒露光し、1/19万2000秒でカラーフィルタを動かし、また1/1万6000秒露光し、1/19万2000秒でカラーフィルタを動かし、また1/1万6000秒露光し、1/9万6000秒でカラーフィルタを元の位置に戻す
この短時間のサイクルを露出が得られるまで延々と繰り返すそうです。
これは1/1万6000秒露光できるグローバルシャッターの実用化によって可能となった技術です。
ちなみに動かしてるのはセンサーではなくカラーフィルタだけです。

この方法で一つのピクセルにつきRGB3色の情報が得られます。
ダイナミックレンジは現行機トップD810の14.8Evsに対して、ISO5120において21.282Evsという、これまでのセンサーの常識を遥かに凌駕する圧倒的なセンサーとなっています。
来年このセンサーを搭載するカメラはそれまでのベイヤーセンサー機とは比較にならないモンスターになるでしょう。
楽しみです。

やはりそうかという感じですね。
長時間露光とバルブ撮影を実現するには、1枚の写真の撮影中に赤青緑の露光を繰り返し何度も処理する必要があります。
小型機からリリースということは、ひょっとするとその辺がまだ出来ないから長時間露光の不要なコンデジから始めるってことなのかという不安もあります。
是非ともこれを搭載したバルブ撮影可能な一眼を出して欲しいところですけどね。

SARの画像を拡大してみると、露出は1/16ms、移動は1/192ms、3回露出後のリセットに1/96msと記載されています。1セットで5/32ms(0.15625ms)でしたね。駆動は静電? センサそのものは裏面照射型のようですね。

素人の疑問で恐縮ですが、例えばフィルターを動かす一回のルーティーンの速度が1/240s以上を出せれば、おおよそほとんど場合は影響なく動画も撮れるのでしょうか。
ただそれだと仮にグローバルシャッターを採用してもその特性を活かせない気もしますが、フィルターの速度が上がれば上がるほどそれに近い映像が撮れるのかな。

仮に1ピクセル分だけフィルターを左右に微細に連続で高速かつ静かに安定して動かす技術があるなら凄いですね。
真意のほどはわかりませんがこのセンサーの恩恵が動画撮影でも受けられることを期待します。

先ほど自分が投稿したあとにhppnss (2014年11月16日 00:50)さんのコメントをみてそれまでなかったイメージが湧いてきました。
正直記事を初見で読んだ時はまだ半信半疑だったのですが、今はこのセンサーの登場が非常に楽しみです。

なんか原始的な感じですが、凄いんですね。
こんなの出してしまって良いのでしょうか?
デメリットは何でしょう。

センサを時分割で使うと、受光面積は広くても各色の露光時間は減少します。旧来の配列だと受光面積は減っても露光時間は長くなります。

画素面積x露光時間で比較すると、このAPSCセンサの方がベイヤー配列のセンサより不利になるんじゃないですかね。

この噂の信憑性は本当にSR4として良いんでしょうか。疑わしいと思い始めました。

デメリット?
ものすごくバッテリー消費が激しそうなとこでしょうか。
EマウントはNP-FW50で一貫してきましたが、同じバッテリーで何ショット撮影できるのか、それとももっと大容量のバッテリーを投入するのか興味津々です。
同じバッテリー容量で半分しか撮影できなくなったとしても、この超絶ダイナミックレンジの恩恵は計り知れません。

DRやばいですね、1.5インチでこれは。
ネイティブ感度は三回露光するから必然的に高くなると思いますが、5120はかなり高いですね。
1/16000を三回、1/192000を二回、1/96000が一回、で1サイクルって事は1/250で適正な場合は5回繰り返すって事か。物凄く動体に弱そう。まぁフィルタを動かさないでただのグローバルシャッターとしても切れるならただのベイヤー機として動体も充分撮れそうですが。
しかしこれ、画像処理能力的にスマホに積めるんですかね。
1.5インチというセンサーサイズだけでも巨大化しそうなのに。

いずれにせよ、物凄い楽しみではありますね。

動画不可、長秒レリーズも不可、その代わり超高画質!っていうぶっとんだ仕様だったりして・・・。

でも意外とニーズはあるかもしれませんよ?私も1/80以下のSSではここ数年撮っていませんから。

センサーが小さいということは、
動かさなくてはいけないフィルターも小さく、
質量が少ないために、高速動作させられるが、
もしセンサーがフルサイズであったら、
フィルターもそれにあわせて大きく
そして重くなるため、即実用化するには
重量問題を解決しないといけない、とかいう理由で
はじめは小さなセンサーからはじめるつもりなのでしょうか。

> ネイティブISOは5120

やはりこれはカラーフィルター抜きの、素のセンサーの話でしょうか?
ライカのM9とM Monochromのベース感度の差は1段でしたので、これを仮定したとしても、APCS搭載カメラはベース感度ISO 2560で最もダイナミックレンジが広い(=最もノイズが少ない)21.3Evという、驚愕のカメラになりますね。

しかも、素のセンサーのISO 160,000(カメラではISO 80,000?)辺りでも、D810のISO 100と同等のダイナミックレンジである約14Evであり、さらに驚くべきは素のセンサーのISO 500,000辺り(カメラではISO 250,000?)でも約10Evのダイナミックレンジがあります。
(ちなみにDxOによれば、Nikon D4sのダイナミックレンジが10Evに落ち込むのがISO 6400辺りです。またSONY α7sのISO 204,800ではダイナミックレンジが6.8Evにまで落ち込みます。)

あまりにも現在出回っている製品との乖離が大きく、ここまで一足飛びに性能向上が起こるものなのか?と信じ難い数値です。

例えば天体撮影においては、レンズ収差の回避のために十分に絞り込んだり、ノイズ除去のための特殊な後処理が不要になったり、そもそも赤道儀が必要な場面すら大幅に減らせる等、革命的なメリットが考えられます。
室内スポーツや舞台撮影においても、明るいレンズへの投資やノイズへの配慮などは無用となる事でしょう。

今回は1.5型という事ですが、そのサイズですら現状のフルサイズと比べても、全く異次元の高感度耐性を備える事になります。おまけに積層センサーと同等の解像性能が得られるとすれば、従来型の比較的大きなセンサーを持つカメラの存在意義が、被写界深度や光学ファインダー像の大きさ程度に限定されてくる事になるでしょう。

仮にこれがソニーの一眼レフへ独占的に採用された場合、他社のユーザーでも買い足しや乗換えをする人は多勢いるのではないでしょうか。

単純に言ってRGB各色の露光時間がシャッタースピードの1/3になる訳で,それを補うためのISO5120という事でしょうか.
興味がないわけではありませんが,ノイズやブレ,画像処理の影響等を考えると,そのアドバンテージは果たしていかほどかという感もあります.
まあ,実際に出てきて作例が揃った時にその評価は下るので,今素人がどうこう言える話ではないのですが.

これはグローバルシャッターとのこですが、一回のリードライトの情報量が小さいからそれが可能なのでしょうか(単色情報なので)。あと、蛇足ですがベイヤー機の買い控えが心配です(クリスマス商戦に影響あるのでは?)。

物理的に動くセンサーという事でしょうか?
そうなるとシャッターの様に寿命が短くなりそうですよね

hppnssさんの解説、分かりやすいですね。
助かります。

これって原理は、昔にプロジェクターのレンズの前に三色のフィルターホイール回していたのと同じですよね?違うかなー?

ホイールの代わりにピアゾの振動のような高速な駆動でフィルターを移動させて露光させるのでしょうか?

難しい事は全く分かりませんが、
カメラを楽しく使えて、写真を楽しく撮れれば基本、問題なしです。
G1X MK2に近いスペックで登場すれば面白そうですね。
SONYであれば小型のボディにも期待できそう。

よくわかりませんが、これって「ハードウェアHDR」みたいなもの?

これなら超高性能の白黒センサーだけ作ってくれた方が嬉しいな。

動画の場合はフィルターを動かさない
方式にするなら問題無いのでは?
静止画のみ恩恵がある。

オンチップでカラーフィルター(CF)を形成できなくなるため、Y方向のアライメント精度をどう確保するのかが気になる点です。
完全に水平に実装することは困難でしょうし、また、CF側も完全に水平駆動させるのは難しいでしょう。
そうなるとセンサーのエッジ部ほど上下画素間でクロストークが発生するのでは無いかと思います。
また、CFとセンサー側とでギャップが生まれますので、やはりクロストークに対して弱い気がします。
その分入射角度を制限すると裏面照射型にしているメリットが無くなりますし、これらを踏まえた上での特性ならよく作り込んだなーという、印象です。

普通に考えて、1色あたりの露光時間はシャッター速度の1/3未満になるわけで、それだけで感度は1/3未満。
これがベイヤーのデメリットを補って余りあるものとは到底思えないんですけどね。
振動が16,000Hzということは、シャッター速度1/8000は無理ということになりますし。

こんな方法が有るんですね~。どんな画質になるのか楽しみな反面バッテリーの消費が大きくなりカメラがますます電気製品化していきそう。

1.5インチということは4/3型以上、APS-C以下のサイズですね。
最初からこのサイズで実用できるならフルサイズもそれほど難しくないのでは

素人が懸念する程度のことは技術者がとっくに取り組んでいるでしょう。
そのうえで発表と商品化の噂が出てきたことに期待したいです。

ウィリアムギブソン、ブルース・スターリングの「ディファレンス・エンジン」に出てくる超小型機械式計算機を連想しました。すごい機構ですね…
ちょっと気になるのは蛍光灯やLEDなど、高速で明滅する光源で照らされた被写体がどのように写るのか…

3回露光して合成する(HDR)のと比較して、ダイナミックレンジが広くなるのかが少し疑問です。
露光時間が3倍かかるなら、利便性は同じですよね。

単一ピクセルで全ての色が取れるのが最大の利点なのかな。

DRが異常に高いのは結果的に複数の画像を合成してるからなのかな
現在のHDR撮影みたいに

動体ブレが気になりますが、補完方法を思いついたのだろうし、グローバルシャッター搭載になるなら、大歓迎です。

革新的な技術ですね。ただただビックリです。
一日でも早く、この作例を観たいです。
記事と皆様のコメントを読んでいく内にしばらくカメラの購入は控えようと思いましたw

カラーフィルターを動かさずに、画素は減るが超高感度モードと
切り替えで使うってのも良いなぁ。

この方式だと、像面位相差センサーを組み込むには無理がありますね。
やっと、TLMにイチャモン言われなく成るのかな?

眉唾感でてきた
本来このRGB時差取得仕様では弱点になってくるはずの感度の低下が
異常なまでに既存のセンサーの常識を上回る高感度性能に支えられてるんだよね
まずこのカタログスペックが異常すぎて信じがたい

技術的には、ビデオプロジェクターの2方式、液晶式とDLPに近いですね。液晶=ベイヤー、DLP=APCS。DLPの方が、映像的に、特に動画のはクオリティが高いのはご存じの通りですから、APCSのクオリティは期待できますね。DLPは素子が小さいのでカラーフィルターを高速回転させてますが、このセンサーの場合、大きいセンサーに対応したフィルターを高速に安定して動かせるかがポイントですね。

カラーフィルタを物理的に高速駆動させているなら長時間露光の際に熱を持ってノイズが生じるとか消費電力が激増するとかありそうだと素人は考えるんですがどうなるんでしょう
いずれにせよこうした革新的技術の話はワクワクさせてくれますね

これって、ライブビューとかではどう表示されるんでしょうか?
その時は動作が違うのかな?

それとも、光学ファインダー用かな?

 センサー技術には全くもって明るくないので分かりませんが、昔々ここでソニーがモノクロのテレビからカラーテレビに変わるくらいのカメラの大革命を考えているとか何とかが有った様に記憶していますが、この技術がそれなのかな~?

センサーの進歩は常に高画素化へ向かい、ダイナミックレンジの拡大はおざなりになっていたように思うので、このセンサーの登場はとてもうれしいです。私はポートレート中心に写真を撮っているので、いつも解像感よりも諧調感の不足を残念に思っていました。もし仮にこのセンサーが静物に特化したものだったとしても十分に需要はあると思います。上で何人かの方が指摘されていたとおり、フィルターを動かさなければ、普通のベイヤーのように使えるということですよね。静物モード、動体モードなんてのがあるのかも知れませんね。
ただRGB3分割露光をするとなぜダイナミックレンジが拡大するのか?素人の私にはこの辺がまったくわかりません。単に一画素を広く取れる分、信号回路部分を相対的に小さくできるということなのかな?

ダイナミックレンジが広く高感度に強そうなのは、どういう理由によるものか分かりませんが、ブレの問題については、例えば1/2000秒の露光なら、その間を細かく分割して露光することになるだけだと思いますので、フィルター移動の僅かな時間の露光量のロスはあるものの、それほどブレを憂慮する必要はないのではないかと思います。符号化露光の技術を使えば、むしろ逆にブレをある程度除去できるのではないでしょうか?
ですから、このスペックでは1/8000秒のシャッタースピードは実現できないかもしれませんが、1/4000秒以下なら大丈夫かも知れませんし、動体撮影でもそれほど問題はないのではないかと思います。グローバルシャッターのようですし、動画も利用できるといいですね。
あくまで素人の憶測ではありますが。

①各色1/3ずつの時間シャッターを開ける
②数値化する
③各色1/3ずつの時間シャッターを開ける
④数値化して②を足す

をひたすら繰り返す仕組みだとしたら・・・・
数値の記憶さえ出来れば、事実上白飛びしなくなるんじゃないの?

もしそうならもの凄いことな気がします。

 結局、これまでの色々な噂が、このセンサーの事を言っていたということになりますね。カラーフィルターを動かすという新方式を除いても。
 グローバルシャッター、ベイヤーではない新配列、画素毎に露光時間を変えてダイナミックレンジを広げる、等全部入っています。

 画素が正方形ではなく長方形で特殊な配列なのは、カラーフィルターを動かさないで、固定して撮影しベイヤー配列センサーと同様に画素補間でカラー画像を得る方式も併用出来る設計にしたためと思います。その場合、ローパスフィルターが無いための偽色発生を少なくするために、このような特殊な配列にしたのでしょう。
 動画撮影で、常時カラーフィルターの高速切換え機構を駆動すると、耐久性や振動音の問題があるので、静止画を高解像度で撮影する時だけ、カラーフィルターの高速切換え方式を使うのではないでしょうか。(補足:モアレと偽色を混同している人も多いですが、既に指摘されているように、3層センサーでもデジタルサンプリングによる微細パターンに対するモアレの発生は、ローパスフィルターが無いと防止出来ません。実際に、カラーフィルターの無い音声録音でも、A/Dコンバータの前にローパスフィルターが必要です。)
 超高感度や、超ワイドダイナミックレンジは、カラーフィルターを固定した場合のデータと思います。時分割による感度低下が無いですし、各画素の3つの蓄積ダイオードも加算出力出来ますから。

> The sensor is also capable of Global Shutter and 2K recording at crazy 16,000 frames per second.
 これは、誤報でしょう。読み出し速度が1000倍も高速化したということは有り得ない(超高価かつ巨大な特殊カメラでは既製品がありますが)ので、単に(カラーフィルター固定の時)グローバルシャッターで、1/16000秒の高速電子シャッター撮影が可能になったというだけでしょう。他社従来製品はローリングシャッターでしたから、高速電子シャッターモードでも、高速運動物体を正確に撮影出来ません。

 円盤のカラーフィルターをセンサーの前で回転させる方式と違って、ハイテクでカラーフィルターを微細間隔で露光時間内に超高速駆動を繰り返す新方式なので、長時間露光や動体撮影にも対応可能と思います。その点が画期的です。
 

ペンタが手振れ補正をやってますがそれをフィルターでやってみるって感じでしょうかね

3回露光ということは3回シャッターを切る事と同等でしょうから
高速シャッターならいいですが低速時はどうなるのか・・・

意外に原理は原始的なんですね。でも原始的アイデアの方が実現に無理が無さそうではあります。
高速シャッターが必要なときは、普通のベイヤー配列式センサーとして動作するのかな?

ダイナミックレンジ対ISOのグラフを見て、おかしいなと思ったのですが、横軸の左端の目盛りは0じゃなくて80のはずです。
しかもその左端で、グラフが0Evに向かって収束しているのですが、これはどう考えても変ですよね。

仮に ISO 80 が存在するとしても、 0Ev という値を取りようがありません。
また ISO 80 が存在しないのであればここに計測点は取れませんし、このグラフが ISO 80 で 0Ev へ収束するという何の根拠もありません。(まともなDynamic rage versus ISOのグラフでは、存在するISOの両端でグラフが切れます。)

果たしてこういうおかしな表し方をするものでしょうか?

原理としては昔からあるのでみんな研究しているとは思うのですが
製品化にこぎつけたということは、通常撮影では問題ない程度の
レベルに達したと好意的に考えていいのかな。
システムカメラより、小さくしょぼいレンズで何とかしないといけないスマホでまず導入するというのも理に叶ってる気はします。
画質の向上というよりは高感度能力の強化に使えそうですしね。
現状でもシステムカメラはセンサーの性能をフルに活かそうとすると
一部の高級ズームもしくは高級単焦点でないと追いつかないので
そっちを急ぐ必要は無いのかも。

① 1/16000秒×3=0.0001875秒
1/192000秒×2=0.00001041667秒
1/96000秒=0.00001041667秒
0.0001875+0.00001041667+0.00001041667≒0.0002083秒
1÷0.0002083秒≒1/4800秒ですから、
このシステムは1/4800秒よりも速いSSは使えないのではないでしょうか。

② ベースISOが5120ですと、一般的なベースISO100の場合より5.7段も高いですから、ベースISOを活用する際には、一般的なSSを使うと、絞りは5.7絞りも絞ることになるのでしょうか。
1.5インチの480万画素ですから暗いレンズを搭載できて、5絞り位も絞れるということなのでしょうか。
F4位を基準に考えるとF32位が基準になります・・・・・
これですと、殆どパンフォーカス状態で撮ると云うことのなるのでしょうか・・・・・
それとも、SSを5.7段も速くするのでしょうか。
仮に、一般的なSSの1/80秒だと、1/4000秒ということでしょうか。
低速なSSではかなり高い段数の内蔵NDフィルタを活用するのでしょうか、そうでないと、一般的な動画はSSが速過ぎるためピョコピョコするものにならいのでしょうか・・・・・

③ この方式で、これほど高感度になる理屈が全く理解できないのですが・・・・・

④ ②、③を併せ考えると、もしかして、このシステムは、5EV位の効果を出す(概ね、一般的に云えば5回位の露出をする)HDRをベースにするものなでしょうか・・・・・

>ベースISOが5120ですと、一般的なベースISO100の場合より5.7段も高いですから、ベースISOを活用する際には、一般的なSSを使うと、絞りは5.7絞りも絞ることになるのでしょうか。

 ベースISOが5120、というのは一般的な意味での設定可能な最小感度ではなく、このグラフから判断すると、ダイナミックレンジが最大になる感度というこですね。ISO160で使っても十分なダイナミックレンジがあるようなので、心配しなくていいでしょう。
 感光用のフォトダイオードに比べて、電荷蓄積用のダイオードがずいぶん小さいので(通常のセンサーはフォトダイオード部が両者兼用です)、出力飽和する時の露光量も少なく、高感度モードに最適化した動作になるのではないでしょうか。飽和レベルが低い代わりに、画素毎に露光時間を変えることで、白飛びを防ぐのでしょう。白飛びする前に露光を止めるわけです。

>このシステムは1/4800秒よりも速いSSは使えないのではないでしょうか。
>この方式で、これほど高感度になる理屈が全く理解できないのですが・・・・・

 先程書いたように、カラーフィルターを固定したモードも使えて、超高速電子シャッターや超高感度は、カラーフィルターを固定したモードで実現するのだと思います。画素数が少なく裏面照射型なので、自然に高感度になるでしょう。暗い部分だけ露光時間を増やすことで、(画像処理で暗所を持ち上げるより)暗所のノイズが減りますし。

 その場合の偽色を少なくするためのベイヤーではない長方形画素の特殊な配列だと思います。
 常時、カラーフィルターを動かす方式なら、単純な正方形画素で良いでしょう。

カラーフィルタの状態は2パターン、素子はB/GRの積層が最もありそうだ、と思ったのですが、ちがうのですね。
カラーフィルタが物理的に駆動(振動)してRGBの3パターンを作る場合、露光のタイミングは素子に対するフィルタのロケーションが「完全なR」「完全なG」「完全なB」になっている時だけなので、光量としてはベイヤー型処理の1/3を大きく下回ることは間違いなく、たとえデモザイキング不要だとしても、汎用性を含めた画質としてベイヤー型処理に勝るのか、「単一ロケーションからRGBを取得する型」システムとしてFoveonに勝るのか、疑問に思うところはあります。RGBすべてがFoveonの三層目みたいな状態からフルカラーを得るようなものなのでは、という気もしてきます。
ダイナミックレンジが広いのは原理としては理解できます。これは単なる夢の話ですが、グローバルシャッターによって時分割で情報を取得できるのなら、たとえば露光中に一定のタイミングで情報を逃がしておくことで、現像時に飽和前の情報を呼び出して他の平坦な部分と合成、みたいなこともできなくはないでしょう。RAWは超巨大になりそうですが。ほとんどLYTROの世界になってきますが、今後の画像データは、より多次元的な情報になっていく予感もします。

This graph was based on the mode "Standard 2048×2160 at 1000FPS/16Bit"

APCS+HDR 6144×2160 at 240FPS/16Bit:-3.6Evs 等々

と、グラフに記されていますが、全くの素人の私には意味が分かりません。
16000FPSとの関係はどういうことなのでしょうか、も分かりません。
このようなことから、このシステムで、大きな犠牲なく、HDRを高度に活用することなく、単純に、ダイナミックレンジが超拡大する理屈が理解できません。

フィルター固定モードですと、解像度的には、一般的な画素数の、2048×2160≒442万画素になるのでしょうか。
多画素を追求してきたSONYの製品として考えると、これは、特殊な用途の、低解像度であるが高感度&高ダイナミックレンジレンジ用のもので、モニターカメラとか、夜間のフィールドでの動物の生態観察用とかに活用されるものなのかなとも思いました・・・・・

逆に、実質2048×2160×3≒1327万画素で、高度にHDRを駆使して、超小口径の大倍率パワーズームレンズを搭載するコンパクトカメラとかの製品に活用されるものなのかなとも思いました・・・・・

シグマのように生々しくて高解像度なうえに、高感度に強くダイナミックレンジも広い画像が得られるということでしょうか。これで一気に高画質化が進めばセンサーの大きさはマイクロフォーサーズでもまったく問題なくなりそうですね。パナソニックやオリンパスのボディにこうした技術が搭載されるのが待ち遠しいです。
それにニコンやペンタックスのミラーレスも実用性が大幅に向上しそう。

各ピクセルに3個のアナログメモリですから、Deadspaceが多く、1.5型でFHDやQHDのような低画素機しかしばらくはできないのではないでしょうか?

QEと開口率、ノイズに関してのコメントがないですが、カラーフィルターを入れていることに変わりはないので、アナログメモリの分開口率が下がり、ノイズに関してはベイヤー機より不利になります。

疑問なのは、グローバルシャッターと高速読み出しができるなら、フィルターを動かすより、センサー自体を動かす方がシンプルで簡単で手ぶれ補正もできる気がしますが、どうしてこういうややこしい構造にしたのでしょう?特許の問題でしょうか?

ミノルタ時代からAマウント+ミラーレスでオリンパス使ってます。紆余曲折あったけど将来を信じてAマウント使い続けてましたが、最近の流れからAマウント機の将来に嫌気がさして、ついに一式処分しようと思ってた矢先のこのニュース。高画素に耐え切れなくなった古いレンズにも再び光があたる事も期待して、話半分(以下)と思いながらも、もう少し待ってみようかと思います(笑)。期待した甲斐があったと思えるような製品が出て来てくれる事を祈って!

ペンタックスのローパスセレクターのカラーフィルターだけを動かすようなものと理解してましたが、それだけではとてもなさそうですね。

フイルムからベイヤー方式デジタル、そして、ここ数年で APCS の時代に一気に変わる様な予想さえ出来る、晴天の霹靂のような前回に続く情報ですね。

こうなるとイノベーション(革新)ではなく、レヴォリューション(革命)ですね。

もう、これから1年先さえどうなっているのか予想がつかない。

胸の高鳴りを抑えることが出来ません。

> This graph was based on the mode "Standard 2048×2160 at 1000FPS/16Bit"

> APCS+HDR 6144×2160 at 240FPS/16Bit:-3.6Evs

察するに上が通常モード、下がフィルターを動かしたモード(だから3倍になっている)でしょう。
正直言ってAPCSモードを使いたくなる場面はあまりないのではないかと想像します。
現段階ではFHDビデオ用の特殊なカメラ用のセンサーになるんじゃないでしょうか。

スゴイのは(気分で)わかった!
で、カラーフィルターは何で動かすんですか?

大井町さん
>カラーフィルターは何で動かすんですか?

RGBを生成するためです。

冗談です。(笑)

想像ですが圧電素子でしょうか?

これだと熱も電力も少なくて済みそうですが。

http://ja.wikipedia.org/wiki/%E5%9C%A7%E9%9B%BB%E7%B4%A0%E5%AD%90

>疑問なのは、グローバルシャッターと高速読み出しができるなら、フィルターを動かすより、センサー自体を動かす方がシンプルで簡単で手ぶれ補正もできる気がしますが

 たぶん、超高速で動かすためには、可動部分の質量が小さい方がよいためでしょうね。外部への引き出し線も動かさなくて良いから、断線しないし。

 静止した被写体を、三脚使用で撮影するのなら、ボディ内手振れ補正のAマウントαでも、上下左右1ピクセル分センサーシフトで(ベイヤーなので)4回連写して合成すれば、高解像度化出来る理屈になるので、ファームウェア更新で実現していただけるとよいのですが。
 シャッターショックのない、グローバル電子シャッターでないと、精度が保てないのかな。

 1画素に3個の蓄積部を持つ複雑な構造なのと、裏面照射型なので、大型化も高画素化も難しく、35ミリフルサイズ高画素センサーが、これに置き換えられて消えることはなさそうです。
 APS-Cサイズで、1200万画素クラスの、この方式のセンサーが開発されれば、かなり大きな影響がありそう。

なんだかワクワクするような新技術ですね。ちょっと考えてみたんですが、16000Hzでカラーフィルターを往復させるということは、ギリギリ聞こえるぐらいの振動音がセンサーから出ることになります。結果的にグローバルシャッター機構になる事は動画用途でメリットですが、この振動音はデメリットになるような気がします。僕ら一般人が買えるようなコンパクトなカメラではなく、シネマEOSのような音声を外部マイクで集音するようなプロ用の動画撮影機材に採用することを目指している気がします。

やっぱり時分割なんだ・・・。
でも、水平に動くカラーフィルターなるメカニカルなアプローチが斬新。
静止画をサンプルホールドしてRGB感光するのかな。

センサー自体は小型化しても、移動するフィルターの構造や大容量のバッテリーやうんぬんで結局あんまり小型化しなかったりして・・・
画像データーの処理にも時間かかりそうですし、お値段も気になるところ、流石に良い面ばかりではなさそうなきがします。
でも、メリットがどれほどの物かが気になります。

楽しみに待つしかないです。

物理的には随分と原始的な仕組みでしたね
ですが、キモは制御系でしょう
ブラックシリコンや有機センサーなどの飛び道具を使っていないと仮定すれば、超高速シャッターから得られる(ほぼ)無限インパルス信号をリアルタイムに処理してカルマンフィルタリングを行うということではないかと思います
だとすればこれだけの感度と低ノイズを説明できますし、将来的には奥行き方向のベクトルも処理出来るようになると思われるので、以前SONYのインタビューにあったdepth sensingにも対応するということとも合致します
4Kでこれだけの処理をリアルタイムで行うことを考えると対応する新型bionzはベクタープロセッサベースになるか、高性能GPUを利用できるということでスマホからということも考えられます
この仕組みなら理論的に色ズレは起こらないですし、出力SSも自在、動体ブレを残すとしてもデジタルの引っ掻き傷のようなブレ方からフイルム時代のような形にも出来ますし、取り除くことも可能でしょう
連写も自在になりますし、SSにほぼ依存せずに高感度ハイダイナミックレンジが実現されるので、露出は気にする必要がなくなるかもしれません
奥行き方向までベクタリング出来るようになれば被写界深度すら撮影時に気にすることはなくなのこともあり得ます
あとはスイングパノラマも劇的に進化出来るはずなので、念のためレベルなら超広角ズームは持たずに済むかも

 このセンサーは、
① 2048×2160が基本のようで、
 一般的なカメラ用としては、素人的には、理解できない横縦比ですが、これはシネマモードの4Kモニター(4096×2160)に、2画面を同時表示できます。
② 全くの素人的には、アンプのゲインを変えながらの16回ハードウェアHDR等で、ダイナミックレンジが6EV位も拡大するのは理解できましたが、
 同時に、ノイズの超大幅削減等でS/N比の超大幅拡大の超高感度化が理解できません。
 基本ISOが5120であり、グラフの左端がISO160から80でなくて0になっていて、ダイナミックレンジも数値なしの0になっていることは、全くの素人的には、基本ISOの5120より下(グラフの左)になるほどS/N比が悪化することを意味しているのではないでしょうか。
 より低感度側でよりS/N比が悪化しても、画質云々を求めなければ、カメラの用途によっては十分に活用できます。
③ S/N比的に、高感度側に重点を置いて、ダイナミックレンジを超拡大したとすると、①と②を考え合せて、
 全くの素人的には、監視システム等に最適なのではないかと思い始めました。

 

もしかして

こんなややこしい仕組みを作らなくても
画素数減らせば良いだけなのでは

つか中判開発にシフトすれば済む話のような…
もちろんレンズから作り直しになるわけですが

博多湾さんの計算によると、
>1セットで5/32ms(0.15625ms)でしたね
だから、振動周波数はその逆数の
(32/5) × 1000 = 6400Hz
でしょうか。耳の良い人なら良く聞こえる可聴周波数ですね。
動画撮影では、確かにマイクに雑音が入りそうです。
16000Hzならほとんど聞こえない人が多いと思いますけど。
(年を取ると高音の聴力が低下します。)

1/6400秒で、1ピクセルよりずっと小さい動きの速度の被写体であれば、色ずれが起こらないということになります。高画素化すると、条件が厳しくなるので、その点でも高画素センサーには向かない方式ですね。横6400ピクセルなら、画面を横切る時間が1秒以上の被写体用という計算になります。

まず、この方式でベイヤーより感度が上がるというのは間違った情報だと思われますね。
なぜなら、光電子量は光量×露光時間であり、その光量部分はRGBのフィルター使用なので損失がベイヤーと変わらず、むしろGを多くできない分だけ不利です。
じゃあメリットは何?って言うと、(時分割チャージをすごく高速に頑張ったとして)偽色が出ないこと。色信号の帯域がちゃんと等倍に有ること。つまりビデオの3板と同じでクロマキー合成などで要求される空間帯域性能を確保することじゃないでしょうか?

あとはちょとずつですけど、画素数は少なくて済むので開口面積率は大きく取りやすそう..とか、逆に言えばそのぶん高画素にしやすい..とか。ただし、画素数が少なくて画素の面積を大きくできるけれど電荷蓄積のコンデンサは3色ぶん持たなければならないとか3択スイッチが必要とか、素子レイアウトはやや難しくなる方向と思います。

なので総合的には、切り抜き合成などしない普通の撮影から見た場合、まあ「フォビオンが普通の色と感度になった..」ようなイメージじゃないでしょうか。いや、でもそれでも十分素晴らしい、ですよね。

このグローバルシャッター付きセンサーの場合は光量×露光時間X累積回数が正解です。
しかもマイクロレンズ自体が着色されている(60%光量アップ)ようなのでさらに増量されます。
現行のメカニカルシャッター付きのカメラのイメージから思考を切り替える必要があります。
hppnssさんの説明がわかりやすいです。
私はこの説明で理解できました。
ノイズと飽和の限界をコントロールしておくと「私、失敗しないので。」のカメラが作れそうです。

 素人で全く分からないのですが、APCSの6144×2160モードが、2048×3×2160の概念ではなくて、仮に、文字どおりに6144×2160だとすると、
 4KやFHDのアスペクト比16:9の動画等に活用すると、3840×2160位でクロップすることになりそうですが、イメージサークルを計算すると1.5型が概ね1.01型になると考えます。
 アスペクト比3:2では3240×2160位でクロップすることになりそうですが、イメージサークルを計算すると1.5型が概ね0.90型になると考えます。
 更に、レンズのイメージサークルから観ると、センサーが極めて細長くてレンズのイメージサークルを極めて不十分に使っていることになるのでしょうか。
 このようなことは私的には考え難いので、このセンサーは、あくまでも、実数値は2048×2160だと思いますが、間違っているでしょうか。
 間違いでないとすると、APCSの6144×2160モードは、2048×3×2160の概念ですから、実数値は2048×2160と考えてよいのでしょうか。
 この場合ですと、
 アスペクト比3:2では2048×1366位でクロップすることになりそうですが、イメージサークルを計算すると、1.5型が概ね1.24型になると考えます。
 アスペクト比16:9では2048×1152位でクロップすることになりそうですが、イメージサークルを計算すると、1.5型が概ね1.18型になると考えます。
 このよに考えますと、このセンサーのAPCSモードは、あまり活用したくないように感じ、少し上で書きましたように、全くの素人的には、スタンダードモードを活用した監視システム等に最適なのではないかと思い始めました。

 そもそもなことで、誠に恐縮ですが、このセンサーが(超)高感度であるというのは、元ネタのどこに書かれているのでしょうか。

ここで話題にされている新型センサーってこれでしょうか?
http://japan.cnet.com/digital/camera/35056675/?ref=rss

PC watchの方にも今日の記事として伝えていますね。

〜新開発の信号処理機能により、像面位相差処理による高速AFや、HDRでの静止画と4K動画撮影に対応した。

とあります。

CNETでは2015年度中に有効1600万画素のラインアップ展開との事ですが、これがコンパクトデジカメとかオリンパスの次期マイクロフォーサ−ズ用の高感度仕様なのかもしれませんね。

http://pc.watch.impress.co.jp/docs/news/20141117_676368.html

pcwachのはIMX230だし、1/2.4型だし、カラーフィルターを動かすなんてどこにも書いてないからAPCSセンサーとは無関係でしょう。

この1.5インチセンサーはRX100シリーズの後継機とかM4/3用として使われる可能性が高いと思います。XPERIA Z4用ではサイズ(普通1/2.3インチ程度)が大きすぎます。
ただしこのセンサーで製品を出すとフルサイズ以上のダイナミックレンジを持つことになるので画素数以外は下克上になってしまいます。
フルサイズ用も準備していると推測しますが1月発表のEマウントのFF機(噂)が注目です。
内部構造的はFoven型と比べるかなりシンプルです。
皮肉なことに噂されていた三層ではなく単層だったからこそ成功しました。(仮にこのセンサーの噂が全くのガセだとしたら見事としか言いようがありません)
動くのは、カラーフィルターとその上に乗っている着色されたマイクロレンズのみで横方向へ3ピクセル分動くだけです。ペンタックスのローパスフィルターやハッセルブラッドの50M->200Mセンサーの動きよりはかなり単純です。
量産しやすいのではないでしょうか。
湾曲センサーは少し影がうすくなった?、積層(3層)センサーも継続して開発しているのですかね?
グローバルシャッターを変幻自在に扱えるからこそ成立するセンサーだと思います。
実際の製品がこのスペックのまま発表されると買い控えが起こりそうです。

探偵さん、案山子です、コメントありがとうございます。

hppnssさんの説明は解ります、別に異議は無いです。
私が「ベイヤーに対して特に感度アップしたわけではないんじゃないの?」と言った理由をもう一度以下に書きますので、間違いがあったら指摘していただけますか?

たとえばAPCSセンサとベイヤーセンサで同じ総露光時間の撮影(使用者から見た同条件)をするとして...
先ずセンサ面積全体を覆うカラーフィルター(レンズと一体化していてロスが少ないというのは置いといて)によって、各色の補色はカットされロスしているわけですから、一定時間あたりにセンサ全体に降り注ぐ光の強さは(まあGが少ないですけど)ベイヤーと大して変わりません。
そして、フィルターをずらす時間のロスは無視するとして、総露光時間は同じなのですから、フィルターを動かそうが動かすまいがセンサ全体に降り注ぐ総光電子量は同じです。
ここでDレンジとはA/Dひとつ当たりに入ってくる入力換算の電子量で決まります。なので、光電子量が両方式で同じなら同じ画素サイズの場合、感度もDレンジも同じです。

いかがでしょう、どこが間違ってますか?

勘違いしているかもしれないので下記の話が間違いだったら指摘して下さい。


僕が思うに・・・
「このセンサーのネイティブISOは5120で、このセッティングで127.69dbの素晴らしいダイナミックレンジだ。」というのは

上記の理由としてセンサーサイズが同じFFとして、ベイヤーセンサとAPCSセンサの一番の違いはベイヤーセンサが1だとするとAPCSセンサは4倍の光量を同じシャッタースピードの時間に受け取れる。

APCSセンサのシステムの高感度とノイズが優秀なのはいままでのベイヤーに比べ受光面積が4倍あるからです。

1ピクセルごとに3色の情報を蓄積する層(メモリ)があるからです。
全画素のノイズレベルと飽和しているかを判断し飽和きりぎりまで1から3までのステップを短時間に繰り返すのでどんどん光電子量が増えてゆきます。
出力されるのはセンサーがOKと判断する時(最初から決められた一定の時間ではない)です。
これを制御するために高速のグローバルシャッターが必要になります。
現行カメラのメカニカルシャッターは一定のシャッター速度でしかシャッターを切ることができません、細かい露光時間の制御は原理的に不可能です。一方APCSのグローバルシャッターはメカニカルシャッターよりはるかに細かい制御が可能です。理想的な出力状態にならないと出力しません(おそらく)。
またマイクロレンズの形状(着色)やカラーフィルターの材料の向上も関係があるかもしれません。
私はこのように解釈しているのですがどうですか?
(補足)もちろんTime to Timeさんの意見も正しいと思いますが、1.5インチなのにフルサイズのα7sと比べても遥かに高いダイナミックレンジの説明には別の理由も必要な気がします。

 Standard 2048×2160 at 1000FPS/16bit:-0Evs
 Standard 2048×2160 at 8000FPS/16bit:-3Evs
 HDR 2048×2160 at 1000FPS/16bit:+1Evs
 HDR 2048×2160 at 8000FPS/16bit:-2Evs
 WDR 2048×2160 at 1000FPS/16bit:+3Evs
 WDR 2048×2160 at 1000FPS/16bit:-0Evs
 APCS+HDR 6144×2160 at 240FPS/16bit:-3.6Evs
 と、ダイナミックレンジのグラフに記されていますので、
 APCS+HDRモードでも、Standardと同様の1000FPSですと、-5.6Evsになりませんでしょうか。
 単なるAPCSモードですと、-6.6Evsになりませんでしょうか。
 これですと、(APCSモードに関して)高感度と判断されているであろうことの前提の高ダイナミックレンジ自体を大幅に控えめに判断しなければならないのではありませんでしょうか。
 このセンサーは、モードの如何に拘わらず1ピクセルに3個のCharge-Storage Diodeを有するグローバルシャッターで、より高感度なのは、APCSモードではなく、Standardモードなのではないのでしょうか。
 なお、高ダイナミックレンジが、即、高感度であること等を含めて、書かれていることの根拠は、元ネタの何処かに記されているのでしょうか。

何となく理解してきましたが、それでこの性能が出せるのかは疑問です

各ピクセルで露光回数もカウントすれば露光回数が多い(暗部)ほど測定回数が増えるのでS/Nが上がるのかとも思いましたが、同一のフォトダイオードで同一のSSと感度で測定する回数を増やしても誤差を減らせるかが疑問です

①測定誤差は完全な確率依存で回路やPD、蓄電素子の影響によらない
この場合はシャッターを切るほど誤差は減ります
②測定誤差は回路等の機械的な要因により生じている
この場合は多重露光して平均してもノイズは減らない

このような仕組みにするということは①の要因の方が遥かに大きいという認識でよろしいでしょうか
それならば高ISOに最適化したセンサーで多重露光した方が高感度になるのは理解出来ます
だとしても暗部階調は良好だけどハイライト部分はべったりな画が出てくる気がします

ぎりぎりハイライト部が破綻スする少し手前で露光のサイクルを止め出力すればよいのでは。飽和値はスペック表に載っています。

 私は全くの素人ですが、撮像センサーの公開特許文献を幾つか調べてみてきた感じでは、①はありえないと思いますし、むしろノイズは増えると感じています。

 ですから、そうではないということと、その理屈が、元ネタの何処に記されているのかを知りたかったものです。

 理屈が明確でないうまい話は殆どないのがこの世の常ではないでしょうか。

 Standardモードの2048×2160 at 1000FPS/16bitの基本ISO5120でダイナミックレンジが21.3Evsとグラフに書かれていますが、これが/16000秒サイクルで最大16回ものハードウェアHDRを活用したことのよるのであれば、このHDRが如何に高度な技術であったとしても、大幅にノイズが増えると考えるのが一般的ではないでしょうか。

 最大16回ものハードウェアHDRをアンプのゲインを変えたりしながら活用して超高ダイナミックレンジを得て、超高ISOを活用できるようにすれば、フラッシュなしで、暗くても動画撮影に大きな威力を発揮しますでしょう。
 この場合、より低ISOでは一般的な撮像センサーよりもノイズが大幅に増加しますが、明るければノイズを気にしないという用途であれば支障は少ないでしょう。
 一般的なセンサーとは異なり、且つ、低画素数の、2048×2160というサイズは、シネマモードの4Kモニター(4096×2160)に、2画面を同時表示できますから、あまり画質を気にしないでも良いと思われる(?)、監視カメラ、モニターカメラ、(夜間のフィールドでの)動物の生態観察用のカメラ等々に最適なものだと思い始めています。

 1.5型で2048×2160サイズでは、どう考えても、一般的なカメラの用途には適さないと思っています。

 APCSの6144×2160モードでは、Standardモードのような高ダイナミックレンジではないわけですし、

 実画素数が文字どおりに6144×2160だとすると、4KやFHDのアスペクト比16:9の動画等に活用すると、3840×2160位でクロップすることになりそうで、イメージサークルを計算すると1.5型が概ね1.01型になるでしょうし、
 アスペクト比3:2では3240×2160位でクロップすることになりそうで、イメージサークルを計算すると1.5型が概ね0.90型になるでしょうし、
 更に、レンズのイメージサークルから観ると、センサーが極めて細長くてレンズのイメージサークルを極めて不十分に使っていることになるのでしょう。

 実画素数が2048×2160であれば、アスペクト比3:2では2048×1366位でクロップすることになりそうで、イメージサークルを計算すると、1.5型が概ね1.24型になるでしょうし、
 アスペクト比16:9では2048×1152位でクロップすることになりそうで、イメージサークルを計算すると、1.5型が概ね1.18型になるでしょう。

 これでは、私的には、使いたくはありません。

 ですから、このセンサーの用途の本命はStandardモードで、APCSの6144×2160モードは付加的なものだろうと思っています。

スペック表は、何処に載っているのでしょうか。

>探偵さん
わかりますが、極端な話一回露光の部分に関しては高ISO一発撮りなわけでAPCSの恩恵にあやかれないですよね
foveonの逆パターンで暗部は救い出せるけどハイライトは現像時に露出下げてもノイジーなだけってことになる気がします
好みを言えば白飛びより黒潰れの方が避けたいので個人的にはアリですが、出てくる画として言われているだけの差が出るのかが疑問なんです

>lionskingsさん
ここの前のエントリーにスペック表出てましたよ
実画素数は有効画素数で2052×2165みたいですね

スペックシートを読むと、銅配線(copper wiring)とかいてあります。
最近発表されたサムスンのAPS-Cサイズ裏面照射型CMOSセンサーでも使われていますが、普通に使える技術になったようです。高速動作が可能になった理由の一つでしょう。
このセンサーを考案した技術者はすごく頭のいい人だと思います。
3ステップ1サイクルで1ピクセルが完全な色情報を持つことと、横方向の解像度を(画素数の)3倍にすこと(だから2Kで4K(6K)ビデオが可能なこと)を同時に達成したのですから。
8Kビデオの時代になってもAPCS方式ならば横方向の画素数は8K/3で良いことになります。
1ピクセル当たりの面積も大きくすることが出来るので画質的にも有利になります。
このセンサーの方式が可能なのは超高速グローバルシャッターの制御技術が確立したことが大きいと思います。

 このセンサーの物理サイズは、
 Image size Diagonal 23.79mm(Type 1.5)で、
 2048×2160(Number of active pixels  2052(H)×2166(V))ピクセルではないでしょうか。
 この、アスペクト比1:1への撮像を、どのようにして、
 "2Kで4K(6K)ビデオが可能"にするのでしょうか。
 6144×2160というのは、APCSモードの際は、1ピクセルに、RGBのカラーフィルターを1/16000秒毎に順次スライドさせて、各々ピクセルが完全なカラー情報を得られるというアピールから、ベイヤー配列方式でいえば、2048×2160×3相当の精細度であるという意味ではないでしょうか。
 物理サイズが6144(or4096)×2160ピクセルにならない限り、1:1(2048×2160ピクセル)への撮像を、6144(or4096)×2160の4K(6K)ビデオにはできないのではないでしようか。
 仮にできるとしても、横が3(or2)倍に太った像になりませんか。

 元ネタの何処に記されているのでしょうか。

 追記です。

 或いは、2048×2160から、2048×1080をクロップし、これを、ソフトウエア(アップスケール)処理で4096×2160の擬似4Kに変換出力するのなら、当然に、理解できます。

 11月12日の記事の元ネタの内の、何か怪しげな文字列データ7行のみの貼付け画像の中に”Provides High-Speed 4K video mode(6144H×2160V,240frame/s)”とありますが、
 Table1 Device Structureには、このようなことは記されていないのではないでしょうか。

 この11月15日の記事の元ネタには、
 Standard 2048×2160 at 1000FPS/16bit:-0Evs
 Standard 2048×2160 at 8000FPS/16bit:-3Evs
 HDR 2048×2160 at 1000FPS/16bit:+1Evs
 HDR 2048×2160 at 8000FPS/16bit:-2Evs
 WDR 2048×2160 at 1000FPS/16bit:+3Evs
 WDR 2048×2160 at 8000FPS/16bit:-0Evs
 APCS+HDR 6144×2160 at 240FPS/16bit:-3.6Evs
とのみ記されています。

 これと、上記の11月12日の”Provides High-Speed 4K video mode(6144H×2160V,240frame/s)”を併せての判断かと推測致しますが、真に、6144(or4096)×2160の6K(or4K)ビデオにできるのだとすると、一体、どのような技術が考えられるのでしょうか・・・・・

>lionskingsさん
この資料の真偽はわかりませんが、unit cell sizeが9.78μm(H)×4.89(V)
となっていますので、横長の画像の形になっています。画素数とかけると、
かなり横長になりますね。
これも推測ですが、APCSモード以外の読み出しのピクセル数の数はデモザイクされる前のピクセル数でしょうし、
APCSモードの読み出しの際も、あくまで三つのチャージストレージダイオードから別々に読みだすため、最終的な画像とは関係なく、
6144×2160という表記になってるだけだと思います。

 確かに、計算すると、撮像センサーは、横21.2mm強位、縦10.6mm強位(対角線は23.79mmとのこと)と推測できます。
 これが正しいのであれば、物理的に2048×2160ピクセルへの撮像は、一般的なセンサーと異なり、横長のアスペクト比が概ね2:1になるのでしょうか。
 すると、これを一般的なモニターに表示するには、横方向を概ね2倍にすることになるのでしょうか。
 横方向は1ピクセルを2ピクセルにしないと、横方向が概ね1/2に縮小表示されてしまうのではないでしょうか。
 この記事に触れたときから疑問だったのですが、このセンサーが、物理的に2048×2160ピクセルで、一般的なセンサーと異なり、アスペクト比が2:1という横長であるなら、4KやFHD専用に近いものではないでしょうか。
 この横長さでは、レンズのイメージサークルを、極めて不十分に使っていることになるのでしょうか。
 また、このように基本のアスペクトが2:1ですと、
 アスペクト比3:2の場合は、横を1/4カットのクロップになるのでしょうか。
 アスペクト比4:3の場合には、横を1/3カットのクロップになるのでしょうか。

 このセンサーの型番(?)は、"IMX189AEG"とのことですが、Sonyのイメージセンサーで、"IMX"が冠されているものは、産業機器用(主に低照度用?)のようですので、このセンサーも、(主に低照度用の?)産業機器用なのかも知れないのでしょうか・・・・・

>lionskingsさん
まあ、このセンサーの画像をきちんとしたアスペクト比で表示するためには
恐らく横方向への引き伸ばしが必要ですね。
地上デジタル放送や、HDCAM、HDVなどでも行われている処理です。
私はこのセンサーは動画用のセンサーだと予想しています。
有効4.44MPって、静止画用としては画素数が少ないですよね。
何かの産業用か、業務用、民生用のカムコーダーなのかは想像もつきませんが。

別方式のAPCSセンサーの特許があります。
http://goo.gl/PtGcYy
可変フィルターを使う方式です。
動画(スピード)重視用と静止画(多画素)重視用の2タイプがあるようです。
時分割多重、グローバルシャッターという観点からは同一方式に見えます。

 液晶リオフィルタからなる可変フィルタを活用するもののようでしょうか。
 私には、グローバルシャッター構造が観えませんが・・・・・


コメントする

※コメントは承認後に表示されます。初めてコメントされる方はこちらをご一読下さい。
※同じ記事にハンドルを変更しながら投稿された場合は、コメントを削除します。
※記事の内容を無視したコメント、煽り・いやみ・皮肉・感情的なコメントは承認いたしません。

スポンサーリンク

月別アーカイブ

2019年
1月 2月 3月 4月 5月 6月 7月 8月 9月 
2018年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2017年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2016年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2015年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2014年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2013年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2012年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2011年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2010年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2009年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 
2008年
1月 2月 3月 4月 5月 6月 7月 8月 9月 10月 11月 12月 

2019年9月

1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30          

このブログ記事について

このページは、2014年11月15日 に公開されたブログ記事です。

ひとつ前のブログ記事は「キヤノンEF35mm F1.4L II が早ければ2015年の第1四半期に登場?」です。

次のブログ記事は「富士フイルムX-T1の新ファームは12月中旬にリリース?」です。

最近のコンテンツはインデックスページで見られます。過去に書かれたものはアーカイブのページで見られます。

デジカメinfo topに戻る