・Big Megapixel war: Sony 46 versus Canon 50 megapixel cameras.
- 更に多くの噂によって、2015年の上半期に、高画素戦争が勃発することが確認されている。そしてこれは、大きなソニー対キヤノンの戦いだ。ソニーは50MP近い画素数のセンサーをリリースするはずで、一方、キヤノンも1機種(または2機種かもしれない)のこのようなカメラを提供するだろう。
私は、登場が近付いているソニーのα9に、この50MP近いセンサーが搭載されるかどうかはまだ確証が無い。
最近、よくソニーやキヤノンの高画素フルサイズ機の噂が流れていますが、両社が本当に来年に50MP級の高画素機を投入するのか注目したいところです。
噂が事実だとしたら、これらの機種が現行の中級機の派生モデルとして登場するのか、それともより上のクラスのプロ用(?)のモデルになるのかも気になるところです。できれば、これらの機種はアマチュアにも購入できる価格で登場して欲しいものですね。
kmyn
画素数を増やしながら、
ファイルサイズはより小さくする技術の
開発を期待しています。
m2c
もはや、うかつにカメラ変えるとパソコンまで買い換える必要があるんですよね。
ソニーの方はそれをシステムで商売できたはずなのに、どうしてああなったのか謎です。
もっとも出てしまったら、昔の画素数には戻れないんでしょうけれども。w
というか、今のテレビで表示したら2000万画素でも足りない気がします。
電子職人
1200万画素で60コマ/秒の高速連写機を開発するより、5000万画素で2~5コマ/秒の低速連写機を開発する方が、楽ですからね。高画素低速連写機の方がAFの追従速度の心配も無いですし。高画素機の方が積極的に開発されるでしょう。
>画素数を増やしながら、ファイルサイズはより小さくする技術
は、新方式でJPEGの2倍ぐらいの圧縮率は可能でも、圧縮処理に時間がかかり過ぎるので、JPEGから変更するのは困難かも。パソコンでの表示速度も遅くなるし。
それより、JPEGの規格には階調が8bitだけでなく12bitの場合も定義されていて、医療用機器には使われているそうです。せめて12bitのJPEGが採用されれば、RAW+JPEGの同時記録より、大幅にファイルサイズが削減出来そうです。JPEGの難点は、解像度のロスより階調のロスの問題の方が大きいですから。
虚弱体質
α7RII?
やっぱりα9になるんじゃないですかね?
画素数が増えると連写バッファの容量もより多く必要になるし、SDの書き込み速度も重要なのでデュアルSDとか欲しくなるでしょう。
すると値段が上がる。
ならやっぱり7R後継とするより上位モデルにすべきじゃないかと思いますがね。
攻我素
a7r II が発表されなかったところを見ると新型はこちらになりそうな
ボディ内手ぶれ補正の付くソニーに人気が集まる予感
タイヤキ
すごいですね大台の50Mですか
ゴジラ対メカゴジラみたいな大型対決ですね
ニコンはどうしたのやら
Ken
PCも含めシステムとしてこれを欲っし、実際に導入するアマチュアがどれだけいるんでしょうね?
appendix
ベイヤーで5000万画素より三層で一枚1600万画素のセンサーを作ってほしい。foveonと7D同時に使っているとベイヤー機っていつでもどこでも“そこそこ”って感じが拭えないです。一枚一枚考えて撮って結果(自己満足)が得られるカメラにしないと、4K8Kの動画切り出しに対して“写真”の意味が感じられなくなりそう。と言っても、家電化したカメラに趣味性を求めても仕方がないのでしょうけど。特にソニーには。
pon吉
今のベイヤーセンサーのままの5000万画素なら、もはや画素数を増やすしか、特徴が出せないとも言えそうです。次に多層センサーが見え隠れして控えている今、ただ画素数が多いだけだとユーザーの動きも鈍重になりそうですけどね。
もげもげ
m2cさん
TVは4Kでも800万画素ですよ
Tim
ベイヤーで高画素戦争をひとしきりやった後、三層センサーで低画素に戻る。
「これからは画素数ではなく質の時代」なんて嘯きながら。
という筋書きだとしたら最低の茶番ですが、何となくやりかねない
気がする…。
もしこの通りだとしたら、三層センサー投入にはもう少し時間が必要で、それまでの繋ぎが要るということを暗示しているのでしょう。
sonikon
高画素機のメリットは高精細な絵が得られるというだけでなく、トリミングによってより望遠域での使用用途がひろがるということもあります。高価な超望遠レンズを何本も所持したり、テレコンを介しなくてもよくなります。
ただ、そのような超望遠域を使うユーザー、及び使用用途からすると高速連写および超高感度の使用(速いシャッター速度を要求)することが多く、また三脚や一脚の使用も前提条件となってくるため、前述のような使われ方はあまりされず、スタジオや風景といった用途が主となるのではないでしょうか。
先のシフトレンズの噂も、このセンサー(及びα9?)と関係があるように思います。
Great Deceiver
メモリーカードへの記録速度は?
50MPですか…すごいですよね。
風景撮りの方には吉報になるんですかね。
黒ねこクロ
50MP!それだけ高画素化するなら,カメラのファームウェア側でビニング機能を付けてくれないかな
RGVΓ
50MP級の高画素機は魅力的ですが、その解像度に対応可能なレンズを両社が出せるのかが疑問ですね(現状ではCZのOtusかシグマのArtラインくらいしか無いのでは)。また、風景写真のコンテスト誌での入賞作品に今だに多くのフィルム中・大判機での撮影作品が選ばれている面を鑑みるに、画素の細密度だけではなく色彩や明暗の階調性の面でベイヤー機での限界があるようにも思えます。そういう意味ではCCD業務用中判機に匹敵する階調性も持つライカ判積層センサー機が真に待望されるのだと思います(シグマのフォベオン積層センサーの現状の課題は色階調性が乏しい点だと言われていますね)。
ササニシキ
科学技術の進歩には期待してますが、レンズの性能が追いついてないですよね。カメラの性能は総合的なバランスが大事だと
思います。
ななむし
電子シャッター、せめて電子先幕があれば欲しいですね。
高画素機、私は欲しいですが、2000万画素でさえほとんどの人には既に多すぎるくらいなのでどれくらい需要があるのかは難しいところでしょうね。
どりゃー
5000万画素機はペンタックス645Zも
既に市販されているように各社が
当然と手掛けていくのでしょう。
ユーザーの選択が広がって業界側にも
良いかと思います。
日常的にこんな高画素は必要ないと
言ったらそれまでですが
チャレンジ精神で選択の
ハイレベルユーザー層(人柱とも言う)
には受けるはず。
*neko*
ソニーは本当に50MPで出しそうなイメージがありますが、キヤノンのは実際はデュアルピクセルで25MPあたりなんじゃないでしょうかね?
nagawa
よく言われるPCの演算不可やレンズの解像度不足ですが、私はあまり心配していないです。PCの演算不可と言っても50Mならたかだか今の2倍程度ですし、レンズについても超望遠単焦点あたりは既に1億画素にでも対応できるくらいの解像力に見えます。
それに例えば積層センサーがベイヤーの2倍の解像力・階調を持つとしても、ベイヤーが2倍の画素数を持てば何の問題もない話になるので、私はこの方向の進化を止めて欲しいとは思わないですね。
ロナとロべ
キヤノンは今のDPをフルサイズにするとちょうど50M位になるので現実的。
レンズの解像度も上がってきてるので一応無問題。
使っているプロからも声が大きいしね。
ソニーはα7sが結構評価高いのに、仕掛けてくるのかなあ。
むしろ、ニコンに供給してD900でもさせてから自分のところでツァイス専用機みたいにする方が現実的と思う。
だって今のα7Rですらニコンやキヤノンの高級レンズで写真撮っているみたいだし。
自分の強みは解像度より色と美しさと思えば、マウントアダプター専用機ばかり作ってもしょうがないし(これも必要だけど)、レンズも含めてもっとシステムとしてトータルにしないと、魅力が半減するような。
hori
現実問題として5D4を28MBぐらいにしてもらえばそれで良いんですが、50MBの画も見てみたい気はします。しかしメカブレには神経使うでしょうね。
clou
高画素というと、やはり、645Zの登場が、特にニコンやキヤノンにとって、美術館関係から始まって一般風景関係まで導入しやすい最高機種として定着するのは恐ろしいので、そこから眼を逸らさせたいのが本音ではないかな?
APS-C 2400万画素が思っていたより受け入れられて、その程度の画素ピッチまでは画質的に受け入れられる確信があるとも考えられる・・・
電子職人
5000万画素になったら、通常のレンズの解像度が追いつかなくなるけれど、レンズがローパスフィルターの役割をするので、センサーからローパスフィルターを省いても偽色が出難くなる、というメリットが生まれます。メーカーにとっては結果的にコストダウンになりますね。
コンパクトデジカメの1/2.3インチ超小型センサーが、1600万画素以上の過剰な画素数に走ったのも、同様な理由があるような気がします。ローパスレスで低コストで作れて、カタログ上の高画質で高く売れる、のだから、ユーザーよりもメーカーのメリットが大きいと思います。
コンパクトデジカメの市場が大幅に縮小しているのは、スマートフォンの市場拡大のためだけでなくて、画素数が増えても実写の画質が全然よくなっていないことにユーザーが気付いていることもあるでしょう。それなら、新製品に買い替える必要がありません。DSC-HX1の方が、DSC-HX5VやDSC-HX100Vより画質が良いと言う人も居るようですし、さらに昔のDSC-H5の方がDSC-HX1よりも画質が良いという人も居るみたいです。
今の技術で、DSC-H5時代の700万画素に戻せば、1/2.3インチセンサーでも低ノイズになって、ノイズリダクションを少な目にしたはっきりくっきりした写真が撮れるようになるでしょう。等倍拡大表示した時に、レンズの解像度不足も目立ちませんし。
5000万画素で、低ノイズ高画質を求めるプロカメラマンは、高価な中判機を買うと思いますから、35mmフルサイズ5000万画素機は、一般ユーザーの高所得者向けになりそうです。5000万画素以後は、コンパクトデジカメの歴史と同様に、ユーザーの新製品への買い替えが減って、35mmフルサイズ機の市場が大幅に縮小するかもしれません。
餅ゼリー
既にAPS-C2400万画素ローパスレスのカメラが安価に出回っていますし、何よりそれらがローパス有りのフルサイズ2000万画素よりも(モアレが出るにしても)実際に高精細な解像を示している訳ですから、フルサイズ5000万画素ぐらいでレンズの解像性能を心配する必要はないでしょう。
それから4Kテレビ(800万ピクセル=2400万画素)で表示するにも、2000万画素では足りない、というのはある部分では理に適った話です。
ベイヤーセンサーは必ず色情報を3倍に薄めてカルピスみたいに画像を作っている訳ですし、正味で拾えるRGBの一式の組み合わせの数は、ほんの画素数の1/4でしかない訳です。(緑が2倍多いのと補間処理のおかげで、チャートや新聞紙のような白黒の線の解像だけで見れば、画素数の8割方は解像する訳ですが...)
例えば2000万画素で補間処理の水増しを差し引くと、2000/3=666.66…ピクセル分になりますので、やはり4Kテレビの800万ピクセル(2400万画素)に相当する階調再現という意味では不足するという事になります。
最近では5Kディスプレイで1500万ピクセル(=4500万画素)のモニターを採用したiMacが発売されるなど、高画素カメラによる画像を鑑賞するための環境も整いつつあると思います。
山本
あまり高画素にすると回折のために絞れなくなりますよ
D800クラスでもF8ぐらいで影響が出はじめますし
フルサイズ5000万画素ならF6〜7ぐらいになるんじゃないでしょうか
回折補正機能を付けたとしても限界はあるでしょう
hui
高画素化が進むにつれ気になる保存媒体ですが、メモリーカードやHDD,SSDの容量あたりの値下がりは止まらず続いています。
RAWを使うのであればカメラとPC、そしてモニターは世代を合わせて当然。
PCへの負荷が気になるなら低画素記録を行うかPCの更新で容易に解決可能。
既に5000万画素のカメラは珍しい存在ではないので、要は使い手次第でしょう。
西川
4Kテレビは、約800万画素(ピクセル)です。
2400万画素ではありません。RGBであっても3倍にはなりません。
大きな感違いをされています。
良吉
理論的に画素の解像度とレンズの解像力は、同等であればナイキスト周波数の限界になったとき絵が造れなくなるので、できれば画素の解像度がレンズの解像力の二倍ほど有った方がよいですね。つまり、多画素であればあるほど偽色などを防ぐことができるはずです。
本の知識ですが、うろ覚えなので間違っていたら、ごめんなさい。
S5 Ama
私は長い間高画素センサーに批判的な思いを持っていましたが、D800やα7Rの写真を見て考えを改めました。(ローパスフィルターがないことによる効果が大きいのでしょうが…)ある程度のダイナミックレンジと高感度特性を維持できるのならば高画素化はよいことでしょう。今後写真は紙に印刷するよりモニターに表示して見ることが多くなっていくと思います。そうであれば8Kモニター辺りを見越してもう一段の高画素化は必要でしょう。壁にかかったテレビと窓の外の風景の見分けがつかない。そんな時代が来たら楽しいと思います。
電子職人
>あまり高画素にすると回折のために絞れなくなりますよ
>D800クラスでもF8ぐらいで影響が出はじめますし
一方で、F1.4やF2.8のレンズも最高の解像度を発揮させるためには、F4以上に絞らなければいけないし、F8付近で周辺部を含めた解像度がピークになるレンズも多いですよね。
そうすると、5000万画素機は、使える絞りが狭い範囲になり、使いこなしが難しそうです。
餅ゼリー
>西川さん
液晶ディスプレイの仕様上の画素(=ピクセル)と副画素を混同されていませんか?
液晶ディスプレイの仕様上の「解像度」とある数値(4Kなら3840 x 2160)そのまま画素の数を表していますが、それぞれの画素はさらにRGBの副画素を内包しています。
例えばですが、テスト用の画像としてRGB=(255, 0, 0)の赤、RGB=(0, 0, 255)の青の2色を使って、1ピクセル幅のストライプが交互に繰り返される画像を用意すれば、これを確認できます。
このテスト画像を100%=等倍の拡大率で表示しても、1本1本全ての線がはっきりと描き分けられますし、例えば短辺640ピクセルのスマートフォンのディスプレイに表示しても、320本ずつ赤と青のストライプがはっきりと描き分けられます。
つまりこれは仕様上の画素それぞれに対して、RGBの副画素を個別に持っている事を意味します。
詳しくは、こちらをご覧下さい。
http://121ware.com/qasearch/1007/app/servlet/relatedqa?QID=000873
s
>>電子職人s
動画はmotionJpeg→mpeg2→mpeg4→h.264/avc→h.265
と進化していっています。
処理速度的には余裕だと思うんですどね…
どうせrawやtiffを使うだろう、という判断なのではないでしょうか。
それより、rawの莫大な容量をどうするかで頭を痛めているはずです(笑
映画の編集現場でも、4Kでは可逆を諦めて非可逆圧縮を
使ってるようですので、将来rawが非可逆になる可能性も十分あると思います。
キツツキ
APS-Cの2400万画素のピクセルの大きさをそのままフルサイズにしたら約5400万画素です。だから画質などがそのAPS-Cより劣化するということはないでしょうね。
ただ、センサー内での信号転送距離が長くなって一こま取り終える時間が長くなり、かつ消費電力が増えるから、CPUや電源により負担がかかる(分割して並列転送すれば速くはなるが、その分消費電力は増す)。
メーカーはカメラとしての全体のバランスをとるのに苦労する気がする。
s
高画素化すると回折が問題になるというのは、
高画素化すると手ブレしやすくなるというのと同じ問題ですね。
前の画素数まで縮小すれば判別できないわけですから、
単に限界が上がっただけで、解像していたものがしなくなるわけではありません。
問題となるのは、センサーサイズを縮小して画素数を据え置いた場合で、
この場合は、レンズの解像度を上げてもセンサーがついてこない
といった事態になることが考えられます。
UR
50MPは普段使いには持て余しますね。36MPが欲しいシーンすらさほどありませんので。
素人考えですが、「4画像まとめて1,250万画素モード」に切替えると高感度4段アップ!的な機能があれば便利だなあ、と思います 笑
た~
画素というのはwikipediaによると色と輝度の情報を持った点ということですので、本来はRGBのセットで1つと数えなければならないのに、カメラのセンサーも液晶パネルも別々に数えてるのが混乱のもとですね。
4kの映像は800万画素/1フレームかもしれませんが、4kの液晶パネルは2400万画素ですよ。
K2
4K動画に2400万画素必要?
パナのGH4は、1600万画素で4K動画撮れますけど???
しかし、50MP、これで十分なダイナミックレンジも確保出来るなら、凄いですね。
8×10並の解像力が手持ちで。
是非、歪みの少ない良質なレンズも出て欲しいですね。
電子職人
>動画はmotionJpeg→mpeg2→mpeg4→h.264/avc→h.265
と進化していっています。
>処理速度的には余裕だと思うんですどね…
そうでもなくて、民生カメラ用の低消費電力のH.265のハードウェアエンコード/デコードICは開発が難航していて、まだH.264で間に合わせていますね。H.265の技術を静止画にも適用すると、JPEGよりかなり優れた圧縮率になるようですけど。
H.264がパソコンで快適に扱えるようになったのは、GPUの動画圧縮・再生支援機能が対応するようになったためでして、まだintelのCPUもH.265には対応出来ていないから、H.265はかなり難易度が高いのでしょう。再生はなんとかなっても、H.265のリアルタイムエンコードはかなり難しいようです。
カメラの画像処理ICが新方式の静止画圧縮方式に対応するようになっても、パソコンのGPUが対応していないと、CPUによる処理ではデコードにJPEGの何倍もの(5~10倍かな)時間がかかります。おまけに、GPUは動画再生支援機能が内蔵されていても、なぜか静止画のエンコード・デコード専用回路は内蔵されていないみたいで。GPUでJPEGをデコードするには、CUDA等でプログラムを作らないといけないし、CPUのSSE命令を使った場合に比べて、劇的に速くなることはないみたいです(可変長符号の処理は専用ハードでないと速くならない)。例外的に1社、GPUによるJPEG超高速処理ソフトを開発・販売しているというのが見つかりましたけど、採用しているアプリは少ないのではないでしょうか。
JPEGに変わる高圧縮率の静止画圧縮方式は色々発表されていますけど、GPUが専用回路を内蔵するようにならないと、普及しないと思います。
西川
餅ゼリーさんへ。
液晶テレビの副画素を数えれば、2400万画素というのはわかりますが、
デジタルカメラの画素を置き換えるなら、主画素のほうでしょ。
MMM
この50MPのネタは35フルサイズの話なのでしょうかね?
ソニーのCMOS中判1.3倍センサーでSONYさんと某メーカーさんでカメラとレンズ出すって感じなのではないでしょうか?
キヤノンが現在の状態からほぼ倍の画素にジャンプするのはあまり考えにくいですよね。40MP弱が高画素としては現状いいサイズと言えると思います。
これ以上はプロは不要です。なぜなら印刷のワークフローで今はきれいに補間されますし、質が必要なら中判で仕事しますから。
使える機材の枠が広がるのは良いですがキヤノンの高画素は動画機の8Kモデル
からの派生でしょうね...
うな
キヤノンの判断するローパスレス可能機はこれぐらいのピクセル数なのかなと思いました。
あと、ベイヤーでも4ピクセル合成で1ピクセルにしたとしても1200万画素でなかなかの解像度になりますね。
余談ですが高画素になればなるほど等倍鑑賞する人は減りそうです。
餅ゼリー
>西川さん
た〜さんの補足の通りですが、言葉がややこしいので、3次元の色情報を「ピクセル」、1次元の輝度情報を「ドット」で統一して説明します。
ベイヤーセンサーを持つデジタルカメラのドットの一つ一つは、RGBいずれかのチャンネルの、モノクロームの輝度情報です。
1ドットあたり1次元の情報を出力できます。(R または G または B)
※ 色はRGB、HSB、Lab等で表される通り3次元の情報です。このままでは色を表現できません。
一方、液晶ディスプレイのピクセルは、RGB独立したドットを持っていますから、ピクセルの一つ一つが色を表現できます。
1ピクセルあたり3次元の情報を入力できます。(R + G + B)
長さと体積を置き換えられないのと同様に、1次元の輝度情報と3次元の色情報の置き換えはできません。
例えば、800万ドットのベイヤーセンサーを持つデジカメの場合、各ドットに対して割り当てられる各チャンネルの輝度情報の総数は下記の通りです。(あくまでもドットの合計が800万です。)
R:2,000,000
G:4,000,000
B:2,000,000
800万ピクセルの4Kディスプレイを基準に考えた場合、色情報を生成するにはRとBは600万ドット程度、Gは400万ドット程度の不足です。
通常この不足分は画像生成時の計算で水増しされて、予め800万ピクセルの画像として仕上げられているという訳です。
s
>>電子職人s
良くご存知のようで、失礼いたしました。
それならjpegと同等の演算量の形式はmotionJpegで、
Mpeg2はおろか、H.264では遥かに負荷が高いことはわかっておられると思います。
そのH.264を30fpsで処理できるのですから、現状よりかなり高い性能の
求められる圧縮技術であってもこなせるはずではないでしょうか。
例えばウェーブレット変換のような重い方式を用いても、
PC用のプロセッサなら、専用回路など用意するまでなく
力技で余裕で再生できると思われます。
秒間5枚も10枚も鑑賞するわけじゃないですしね。
余談ですが、H.265が難航しているのは、H.264の数倍という負荷もありますが、
4Kを前提としたフォーマットからだと聞いています。
4Kにするだけで、HDの4倍の負荷ですもんね…
電子職人
MMMさん。
>この50MPのネタは35フルサイズの話なのでしょうかね?
「αレンズ交換式カメラ事業においては、小型ボディに圧倒的機能を搭載し、イメージセンサー、レンズ、制御ソフトウェアという3つのイメージング技術を用いて、徹底的な差別化を図ることになる」
というSonyの発表から想像すると、中判ではなく、α7と同等のボディサイズで5000万画素機を投入してくる可能性がありそうです。小型ボディのEマウント機では、Nikon/Canonのプロ機にAF追従高速連写性能では勝てないので、高画素で勝とうとするはずです。その情報をCanonがつかんでいれば、Canonも対抗機種を開発している可能性もあるし。
過去の歴史から想像すると、その後は、6000万画素、7000万画素、8000万画素・・・と競争が続きそうな予感がします。1億画素でも、感度の低下を気にしなければ容易に作れますし。
moumou
キャノンは前に噂の出てた中版なのでは?
ソニーは中版センサーを持ってますがフルサイズの可能性も捨て切れません。
しかし無理にコンパクトにしたら熱対策や多装処理エンジンが詰めない事でのレスポンスの悪化などデメリットも大きくなる予感。
5000万画素なんて大きなデーターを扱うなら大きな中版で良いんじゃないですか。
小型にすればするほどブレや回析の影響が大きくなるだけで高画質のつもりが脚を引っ張る要素が増えすぎて大して高画質にならないなんて事になるのでは。
画素数の話ですがカメラの入力段階とディスプレイなどの出力段階を一緒に考えるのはおかしいのでは。
カメラ側ではRGGB入力を演算から各画素フルカラー出力してますから800万画素はそれぞれフルカラーの情報を持ってます。
RAWの場合でもカメラのRAW出力を直接表示できるディスプレイなら別ですがRAWから演算で各画素をフルカラーにしてそれからディスプレイに渡すのでディスプレイの画素数とカメラの画素数を一緒にするのはおかしいです。
ディスプレイでそれを分解してRGBにするから2400万画素必要なだけでカメラ側も2400万画素必要って訳じゃないですよ。
Wein
moumouさんの言うように8MPのカメラは周辺の画素から色情報を補完して「フルカラーの」800万画素を作り出せるでしょ。
カラーフィルター通ってそのまんまだったら等倍表示したときに原色のモザイク画になっちゃいますよ。
4Kには8MPあれば足ります。
西川
餅ゼリーさんへ
foveonのような3層での画素数を置き換えるのならいいのですが、
ベイヤーの場合、演算で各画素フルカラーにしてますから、
つじつまあってませんよ。
あくまで演算ですから、正確な色再現とは言えないのは確かですが。
現実的にパナソニックのGH4やSONYのα7Sは、4K対応ですし。
(α7Sは、1220万画素)
moumouさんも補足されていますので、議論は最後にしたいと思います。
404z
>電子職人さん
GPUによるJPEGのデコードは現在AMDが対応していますね。IntelもSkylake世代のiGPUではJPEGからH.265までエンコード/デコードを対応予定です。
h.265の規格化されて日が経ってないので ハードでの対応はまだ始まったばかりですが 既にサムスンのNX1では4KでH.265の記録に対応していますし国内メーカーの対応も時間の問題だと思います。
餅ゼリー
補間すれば、いくらでも情報の「量」は増やせますから、どんなに小さな画像でも事足ります。ソフトウェアの処理の話なので、800万ドットでも30万ドットでも1ドットでも絶対に足ります。
そこは私も大いに認めます。何ら異論はありません。デモザイクは必須として、超解像でもバイキュービックでも好きに選べます。
(すでに私自身このような指摘が出る事を予想して、前回の書き込みの末尾に「通常この不足分は画像生成時の計算で水増しされて、予め800万ピクセルの画像として仕上げられているという訳です。」と、予め付け加えておきました。)
しかし私が述べているのは、あくまでも情報の「質」の話であり、つまりそれはデバイス依存の物理的な入出力の話です。(なお話は全て静止画の話であって、動画の話ではありません。)
私が第一に述べたのは、4Kディスプレイが再現できる約2400万の輝度情報に対して、より少ない輝度情報から水増しされて作られた画像データでは、ディスプレイの階調再現能力に対して、階調が不足しているという事です。
第二に述べたのは、4Kディスプレイの約800万のピクセルは、RGB個別のドット(副画素)を内包しており、「デバイス依存」の仕様として2400万の輝度情報を「物理的」に表現できるという事です。
第三に述べたのは、ベイヤーセンサーを持つデジタルカメラの1ドットの出力は「1次元」の情報であり、液晶ディスプレイの1ピクセルの入力は「3次元」の情報である事です。これはデバイス依存の物理的な話です。
そして今回述べたのは、補間すれば画像サイズは足りるという事です。
辻褄の合わない部分があれば、ご指摘ください。
再びGユーザー
当面の課題として、五年を目処に最低限135業務用動画機では8K120fpsの実現が必要なわけで、これは2:3センサーだと48MPです
地ならしとしてここで50MPクラスのスチル用センサーは必要でしょう
>餅ゼリーさん
1ピクセルの出力に対して各色同数の入力が必要という話なら4:9のアスペクト比でRとBがともに8MPとなる32MPが必要になります
ただ、デモザイキングにおいて周辺画素のデータも参照するのでデータの純度を問題にするなら出入力が一対一とは言えないかと思います
そして民生用ディスプレイ環境を基準に考えた時には輝度情報としては4Kならあくまで8MPであり、色情報はそこに色差情報が8MP/4×2分追加されるのではと思います
餅ゼリー
>再びGユーザーさん
入出力の1対1対応については、私も同じ考えです。
センサー出力と画像データの輝度情報の間に、いわゆる数学の集合論で定義される「全単射」の関係は通常成り立ちませんので、厳密な1対1を考えるのは不可能ですよね。
どれだけ画素数が増えても、画像にする際に周辺の輝度情報が混じりますので、どうしても補間処理を切り離しては考えられません。
そこで試しに Imaging Resource Comparometer のサイトからα7s、D610、D800のISO 50のテスト画像を拝借して、全て4Kと同じ長辺3840ピクセルに縮小して確認してみました。
結果として、縮小した画像を等倍で見れば、元のカメラの画素数の大小の順序を明らかに特定できました。
これはつまり、800万ピクセルの画像を用意すれば、それを撮影したカメラのセンサーの画素数(1200万、2400万、3500万)の差を、「4Kディスプレイの能力で再現できる」という事を意味します。
(念のため付け加えておきますが、もちろん縮小後のどの画像も十分に適切な解像と階調を兼ね備えており、実用上の不足不満が出る内容ではありません。)
ただしD800とD610では、縮小した画像の差は僅かでした。やはり800万ピクセルまで縮小するとなると、元の2400万と3500万の差(いわゆる多過ぎると言われる部分)はかなり吸収されてしまうようです。
電子職人
kmynさん、sさん、404zさん。
NECが
JPEGと同程度の速度でJPEG2000並みの圧縮率と画質をうたう画像圧縮ライブラリー「StarPixel」を発表
していました。
http://itpro.nikkeibp.co.jp/article/NEWS/20121105/435043/
但し、「価格(税別)は、1ライセンス200万円」、とのことで、宇宙開発等の特殊な用途にしか採用されていないようです。1ライセンスの定義が良くわかりませんが。
国際標準化して、安い特許料で、広範囲に利用されるようにすれば、カメラ業界にも普及するかもしれません。
他のJPEGより圧縮率の高い新方式で問題になっている、処理速度の問題が、これなら一気に解決しそうです。
oldMan
2000万画素以下で撮ったものだと、ちょっと大きい画面で見ると見劣りしますよ
5000万画素の要求をしませんが、4000万画素前後のものをお願いしたいです。
$p$g
36MPでぼけぶれなのに50MPなんて自信がない...。
ポストみたいにじっとしてたつもりでも案外人って揺れている。高画素行くなら今以上のアシスト技術がほしい。
nagawa
>餅ゼリーさん
表示と撮像とは明らかに異なる機構でできているので、その再現能力に関して、それを撮像側だけの原因で説明をするのは間違っていると思います。画素の数だけを比較すればディスプレイの情報量の方が多く感じられますが、ディスプレイは同じ部分に3つ画素を持つため、当然ながら輝度の位置(解像度)に関する情報は少なくなります。
デジカメ3機種の画像を縮小して比較するという実験をされているようですが、この実験では「800万画素に縮小する」という過程で全機種とも明らかな情報損失があるのではないですか?
もちろんこれは実際の表示に関しても同じことが言えるはずで、「ベイヤー2400万画素でも4Kディスプレイの表示能力を100%使い切ってはいない」というのも一面の真実だと思いますが、一方で「4Kディスプレイが画像を100%再現出来るのは800万画素まで」というのもまた正しい意見なのではないでしょうか。
まこと
こんな三脚必須みたいな機種ばっかり出しても客離れ加速するだけじゃないかな…
電子職人
イメージセンサーと液晶の画素数表示の問題は複雑で、基本的には、ベイヤー配列イメージセンサーが画素補間で解像度を上げられるのに対して、通常のRGBが横にストライプ状に並んだ液晶では、画素補間による解像度向上が出来ない、という違いがあります。
でも、初期の頃の20万ドット程度の液晶は、画素が荒くて文字がギザギザになっていた割に、写真は結構きれいに見えていましたでしょう。それは、液晶でも見かけの解像度を上げるためにデルタ配列が使われていたからです。
白1画素の輝点を、横3ドットのRGBで1画素ではなく、
R G
B
あるいは
G
B R
の三角で1画素を現すと、1ドットずつ横に移動して表示出来ます。
ベイヤーの補間程うまくいかなくても、液晶でもこういう工夫をしていたのですよ。だから、カメラの液晶も20万ドット=20万画素として、仕様を表記していました。
ところが、92万ドット(VGA)の高解像度液晶が登場した頃から、デルタ配列をしなくても十分な解像度になったので、自然な横3ドットのストライプ配列になったわけです。
そうすると、デルタ配列のような解像度向上機能が無いので、92万ドットの液晶は31万画素と表記しないといけません。
これでは、消費者に液晶の画素数が少ししか向上していないように思われるので困る、というわけで、(31万画素ではなく)まぎらわしい92万ドットの表記が生まれたわけです。今は、カメラ業界の約束で、液晶のRGBを別々に数えた場合は、画素ではなくドットで表記することとなっていますから注意してください。
時々、雑誌やネットの記事で、92万ドットの液晶を92万画素と間違って表記していることがあるのは、ライターさんがこの辺の事情を知らないためでしょう。消費者も、92万ドットの液晶を92万画素の高解像度と思い込んでいる人が多いみたいですし、235万ドットのEVFが登場した時、フルHDを超えたと喜んだ人もいるようです。
テレビ業界ではドット表記は使われず、フルHDの液晶は、あくまで207万画素で、622万ドットという誇張表記はしませんね。カメラ業界も、正直に背面液晶やEVFを画素数表記して、()の中にドット数表記を追記しておけば良いと思います。
404z
>電子職人さん
JPEGの後継は他に WebPや mozjpegなどがありますが JPEG後継になるには スマートフォンなども含む全ての環境で 古いOSにも対応し 新しいOSで標準採用され 一般ユーザーが自然に扱える規格が条件となるかと思います。
しかしそれがどんなに優れた規格であっても JPEGが余りに浸透し過ぎたため もう新しい規格が入り込む余地はないように思います。
既にインターネット上の全てのトラフィックの8割以上が 動画データである今、H.264の半分のデータ量で同じ品質を実現するH.265はNETだけでなく放送業界からも歓迎され 今後急激に対応が進むと思われますが 重要性の低下したJPEGの後継争いは必要性がなく もう余計なことだという空気すら出ている気がします。
餅ゼリー
>nagawaさん
「4Kディスプレイが画像を100%再現出来るのは800万画素まで」
で言う所の画素は、センサーの画素(1次元の出力)の事でしょうか?それともディスプレイの主画素(3次元の入力)の事でしょうか?
ディスプレイの主画素の事であれば、まさにその通りだと思います。
電子職人
404zさん。
確かに、JPEGが余りに浸透し過ぎた、というのは言えてますね。処理速度の問題だけでなく、もう一つ、JPEGが国際標準規格で無料で使えたというのも大きいと思います(突如JPEGの一部機能の特許問題が浮上したけど、あれはどうなったのだろう)。静止画のビューアはフリーソフトが多いので、特許の使用許諾料が必要なら、普及が難しいでしょう。
高圧縮率の新方式の圧縮方式は、過去の色々な技術のミックスであることが多いから、特許の徹底調査をしないとカメラメーカーも安心して使えません。
それと、高圧縮率の新方式も、圧縮率を高くした場合に顕著にJPEGより画質が優れているけど、画質優先の低圧縮率の設定ではJPEGとあまり変わらないことが多いです。それなら、プロ用一眼レフカメラ用としては、JPEGで十分ということにもなります。
前にも書きましたが、通常のJPEGの問題は階調が8bitしかないことの方が大きいので、12bit階調のJPEGは(まだ対応していないソフトがほとんどですけど)カメラに搭載していただきたいですね。新方式はたいてい12bitや16bitの階調にも対応していることを長所にしていますけど、JPEGで12bit階調が可能なら、JPEGのままでもよいということになります。
餅ゼリー
>nagawaさん
連投すみません。
「4Kディスプレイが画像を100%再現出来るのは800万画素まで」
という表現を、改めて考えると
「元データに対して、ロスが0%で表示できるのは800万画素のカメラまで」
という意味に受け取れると思います。
確かにそれより画素数が多いカメラでは、縮小時のロスは必ず発生しますので、おっしゃっている表現は恒常的に正しい表現であると気が付きました。
失礼いたしました。
それから
>ディスプレイは同じ部分に3つ画素を持つため、当然ながら輝度の位置(解像度)に関する情報は少なくなります。
に関しては、当然少なくなるという「位置(解像度)に関する情報」が具体的に何を指しているのか、理解が追いつきませんでした。
私の理解では、液晶ディスプレイの全ピクセルに対してR, G, Bの輝度情報(例:
R:255, G:0, B:0)が、元の画像データに従ってコンピュータから入力される仕組みかと思っています。ピクセルの位置に関する情報とは、単純にデータの並び順が表しているのではないでしょうか?(少なくともコンピュータの中では「ピクセル位置 = データの並び順」として扱われています。例えれば、人が並んでいる順番そのままで席に座っていくイメージです。)
もしお時間あればお試しいただきたいのですが、 Imaging Resource Comparometer のサンプルでα7s、D610、D800のサンプルを4K相当の長辺3840ピクセルまで縮小して等倍表示で比べてみて下さい。
少なくとも、α7sと他の二機種については縮小後の画像で誰が見ても元の画素数の大小を判断できるだけの差があります。D610とD800の差は僅かですので、差が判らないという人も居ると思います。(ちなみにこの3機種を選んだのは、画素数に1:2:3と十分大きな差が有り、いずれも同じソニー製のフルサイズセンサーで比較的世代が近く、ローパスフィルターを持つ機種だからです。)
これは出力デバイスより前の、画像データの段階で、すでに実質的に視認可能な差がある事を意味すると思います。
再びGユーザー
>餅ゼリーさん
縮小かけて比べるというのは、スキャナで取り込むときに200dpiで取り込まず600dpiで取り込んで縮小かけたほうが視認性が良いとか、音楽収録で96khz24bitでサンプリングからマスタリングまでを完了してからダウンサンプリングでCDを作るようなものではないでしょうか
高解像の信号でサンプリングすればノイズは細かくなり縮小時に丸められますし、エッジも綺麗に出ます
スタジオでの理想条件で撮影すれば確かに餅ゼリーさんのおっしゃる通りです
ただ、低画素機では低照度下や手持ち時の再現性が上がるという利点があるわけで、あらゆる場面で高画素優位に差が出るとは限らないと思います
一つだけ確かなことは8MPのデータを4Kモニタではドットバイドットで表示出来ることだけではないでしょうか
自分は高画素の優位性が確かにあると思っていますが、総論として4Kモニタで表示するためにどれくらいの画素が必要(あるいは不要)という議論をすると各々の撮影スタイルなどにより変わるんじゃないかと思います
本筋ではありませんが液晶モニタのドット数表示はやめて欲しいですね
CIPAガイドラインでもドット数でも画素数でもOKとなっているところを変えなくてはなりませんが
餅ゼリー
>再びGユーザーさん
音楽の例は置いておきますが、カラースキャナーは3CCDまたは3ライン方式によって、全てのピクセルロケーションで(R, G, B)3次元の色情報を読み取っているようです。
そのため、ベイヤーセンサーから画像を生成するようなデモザイク処理による補間が不要ではないでしょうか?(スキャナーに関しては詳細分からず、間違っているかもしれません。)
「縮小をかけて比べる」という発想に至ったのは、あくまでもデモザイク処理の段階で「補間」処理が入り、計算によって輝度情報が水増しされているためです。
狙いとしては「可能な範囲で」デモザイクによる「補間」の影響を少なくして、約800万ピクセルの中で「視認できる正味の再現性」を比較をしたい、という所にありました。(どうしても「ダウンサンプリング」としての効果も、同時に生じてしまう訳ですが)
この流れの発端は、そもそもはm2cさんによる
「今のテレビで表示したら2000万画素でも足りない気がします。」
に対して、私から
「(4Kで)2000万画素では足りない、というのはある部分では理に適った話です。」
と賛同したのが発端です。その後は一貫して原理的な話に留めてきましたが、上記の具体例を出したのはあくまでも説明に対する補足のためです。
「4Kモニタで表示するためにどれくらいの画素が必要」かについては、原理的な話から逸れますし、現実に則したケースバイケースで良いと思います。「そこまで高画質は要らない」という意見もよくありますし、ごもっともです。
それと私も「画素」と「ドット」の言葉が、使われる文脈によって、物理的な意味(輝度なのか色なのか)がまるで異なるのは問題だと感じます。
輝度と色は次元からして異なる概念ですが、互いに密接な関係にあるため、その混乱に拍車がかかっているものと思われます。
nagawa
>餅ゼリーさん
お返事遅くなってしまい、申し訳ありません。
>ピクセルの位置に関する情報とは、単純にデータの並び順が表しているのではないでしょうか?
説明下手ですみません。
以前の餅ゼリーさんコメントで「4Kディスプレイの約800万のピクセルは、RGB個別のドット(副画素)を内包しており、「デバイス依存」の仕様として2400万の輝度情報を「物理的」に表現できる」とあったのを、「4Kディスプレイはベイヤー2400万画素を表現出来るポテンシャルがある」と私が解釈したためのコメントです。縮小ロスのことを言ったつもりでした。
>もしお時間あればお試しいただきたいのですが、 Imaging Resource Comparometer のサンプルでα7s、D610、D800のサンプルを4K相当の長辺3840ピクセルまで縮小して等倍表示で比べてみて下さい。
画像をダウンロードして、確認させて頂きました。仰るとおり布の刺繍の細かさなど、画質の違いは確かに感じることができました。この点に関しては私も始めから納得している部分で、「撮像の時点でベイヤー配列によるロスがあり、また表示の段階でさらに縮小によるロスがある」というのが前回の私のコメントを総括したものになります。
ただ比較途中にふと思ったのですが、ベイヤーのローパスフィルターはその目的を考えると、画素数によって強さが異なっているのではないでしょうか?であれば、この結果はローパスフィルターの強さがそのまま出ているようにも見えますので、ローパスレスで比較するのが本来の形なのではないかと思います。現状ローパスレスは比較できるほど多くの機種がないので、その検証は難しいですが。
電子職人
餅ゼリーさん。
>音楽の例は置いておきますが、カラースキャナーは3CCDまたは3ライン方式によって、全てのピクセルロケーションで(R, G, B)3次元の色情報を読み取っているようです。
>そのため、ベイヤーセンサーから画像を生成するようなデモザイク処理による補間が不要ではないでしょうか?(スキャナーに関しては詳細分からず、間違っているかもしれません。)
スキャナーソフトは本業なので、少し解説。
通常のイメージスキャナーは3CCD方式なのはその通りです。しかしながら、低解像度でスキャンする時は、スピードアップのため、間引き走査をしますから、細い線が読み取れずに消えてしまうことがあります。そのため高解像度でスキャンした後、スキャナソフト側で、高品質のリサイズ処理をした方がきれいに読み取れます。それで、私はソフトに、スキャンした後自動的に2分の1の解像度に縮小する機能を付けました。
「4Kモニタで表示するためにどれくらいの画素が必要」の答えは、イメージセンサーのフィルター配列によっても違ってくると思います。ローパスフィルターの付いたベイヤー配列なら、縦横比の問題は除外して、800万画素の4倍の3200万画素あれば完璧ということになりそうです。
昔のFUJIのハニカム配列なら、輝度信号の主成分となるGの画素が、45度回転の結果、ベイヤーのように斜めではなく正方形に並んでいるので、800万画素の2倍の1600万画素で、輝度情報に関しては十分な解像度になります(色情報は少し補間が入りますが、人間の目は色の解像度が輝度より低いですから、実用上問題ありません)。ハニカム配列は、センサーの画素数の2分の1の出力画素数に設定した時が、きれいな画質になります。
それで、Sonyの4KシネマカメラF65も、ハニカム配列と同様な配列の2000万画素センサーを使用しています。業務用としては、ベイヤー配列にすると、4000万画素クラスのセンサーが必要になり感度が低下するので、ハニカム配列類似配列を採用したのだと思います。
F65のセンサーが8K対応というのは、補間でセンサーの画素数の2倍の出力画素数にした場合で、これは画質が悪くてよろしくないと思います。
昔のFUJIの300万画素ハニカム配列カメラは600万画素記録モードを持っていましたが、無理しすぎで、等倍表示ではアラが目立って評判が悪かったです。ハニカム600万画素センサー時代からは、センサーと同じ画素数までの記録にとどめるようになりました。その後の1200万画素ハニカムセンサーカメラを600万画素記録で使うと、ピクセル等倍表示でも補間が目に付かずきれいです。記録画素数が600万画素あれば、A4サイズぐらいにプリントしても大丈夫ですし。
民生用カメラも将来、2400万画素ハニカム配列、4K動画対応センサーが登場すれば、業務用並みの高解像度4K動画が撮れます。1200万画素センサーの2倍の読み出し速度が必要なので、直ぐには無理ですが。
餅ゼリー
>nagawaさん
>ベイヤーのローパスフィルターはその目的を考えると、画素数によって強さが異なっているのではないでしょうか?
ここでのローパスフィルターの強さとは、フィルターでカットする空間周波数の境界を指していると思われますが、おそらく画素ピッチに反比例して(画素ピッチの「狭さ」に比例して)周波数も高く設定されているのだと思います。
そのため800万ピクセルに縮小という事で考えれば、ご指摘の通り、センサーの画素ピッチが小さい程ローパスフィルターの効果は縮小時に吸収されてしまい、3500万画素ではほとんど無視できるレベルではないかと思います。
ローパスレスで比較的画素が低いとなると、スマートフォンやコンデジになりますが、こっちも比較対象がないですよね。
>電子職人さん
そう言えば、フジのハニカム配列というのがありましたね。(FinePix S* Pro??という製品の頃??)すっかり忘れていましたが、当時その配列による効果をフジがアピールしていた記憶はあります。
ソニーの業務用4Kビデオカメラの事は全く知らず、初めて耳にしましたが、画素数を抑えて実質的な再現力を向上できるというのは、かなり魅力的な技術ですね。
スチルに採用されないのは、何か不向きな理由があるのでしょうか?
電子職人
餅ゼリーさん。
>スチルに採用されないのは、何か不向きな理由があるのでしょうか?
ハニカム配列は構造が複雑なので、イメージセンサーの製造コストが上がるかもしれませんね。特許の問題とかもあるのかな。
それと、ベイヤー配列は、センサー画素数と同じ画素数の出力画像に補間する場合に最適化されています。一方、ハニカム配列はセンサー画素数の半分の出力画素数がオリジナルの画素数で、センサー画素数と同じ画素数の出力画像に補間する場合は全画素数で2倍、縦あるいは横の倍率では2の平方根=1.4142倍に拡大しないといけないので、処理が面倒です。それも理由と思います。ベイヤー配列で、出力画素数をセンサー画素数の半分にした場合は、その逆ですね。
2400万画素ハニカム配列センサーで、1200万画素記録の場合、1200万画素3板式(あるいは3層)センサー並みの解像度になるわけですが、ピクセル等倍できっちり解像しているのなら1200万画素で十分ということを理解している人がどれだけ居るかが問題。2400万画素ベイヤー配列センサーで、2400万画素記録の方が、ほとんどのユーザーに喜ばれるので、ハニカム配列センサーは普及しないのでしょう。単純な白黒の垂直・水平線のテストパターンを撮影した解像度テストでは、ベイヤー配列が優秀な成績になりますしね。
以前、遠景の看板の文字を、ほぼ同じセンサー画素数のコンパクトデジカメで撮り比べた時、ハニカム配列の方が、ベイヤー配列より明らかに解像度が良かったです。
餅ゼリー
>電子職人さん
大変詳しい解説をいただきまして、ありがとうございました。
コスト面の他にも大変に納得のいく部分が多く、とりわけ4Kのピクセル数に特化するのであれば、ベイヤーで画素数を上げて行くよりも、原理的にハニカムの方が有利という事ですね。
確かにスチルの場合はどんな最終出力なのかは千差万別ですので、ベイヤーで画素を上げ下げする方が汎用性が高いという事で納得できました。