Monochrome eos 60D テスト撮影

下の写真は私達がマイクロレンズとCFA(= Color Filter Array)層を剥離のために様々な方法で試みていたところ、光学用研磨剤を使用して、センサーの表面を研磨し、マイクロレンズが除去された部分/ Micro lensとCFAすべて削除された部分/初めての状態で保存されている部分の3領域を比較することができる写真を撮ることができました。
マイクロレンズ層のみ除去された部分は、やはり暗く撮れました。これは、センサに記録される光の量が減ったため、当然の結果です。そして、マイクロレンズとCFAの両方が削除された部分(=中央部)は明確に紫色感を帯びmonochrome映像がしました。

Green pixelに比べて相対的に低いRed、Blueピクセルの感光効率を補償するために、Canonの画像処理アルゴリズムがRed、Blueチャンネルを基本的にはGreenチャンネルの値に到達せるほどOver developさせます。これcolor CMOS状態にある場合、極めて自然な色感を表現しますが、CFAが削除された後で、Over DevelopされたRed、Blueピクセル領域のためヅセクの合成された色=紫に発現されます。

したがって、CFA削除された黒と白のイメージセンサーは、Canonの画像処理Algorithmを通さずに、最初の黒と白のRAW dataを抽出しなければ最良の結果が得られます。

2014年1月、ついに尖っに作った竹の箸を使用して、99.5%は完全にCMOSのCFAを削除して作ったまともなMonochrome eos 60Dをテストししました。

撮影Data: Canon 200mm F1.8 L lens -> F22 , ISO100,  2sec , Auto white balance, RAW format.

客観的な比較のために、改造後にカメラにLow pass filterは削除せずにそのまま保持しました。

下の写真は、adobe Camera raw ConverterプログラムとPhotoshopを使用して、jpgに変換した後縮小しました。

やっぱりmonochromeイメージは完全に紫の系列です。しかし、私たち白黒のoriginal RAW image dataを直接抽出して使用するものなので心配ありません。

付加的な理解を助けるために先カラーイメージセンサの色再現の原理を単に説明します。

実際の各ピクセルは、光の強さの情報のみを記録することができます。すなわち、白黒の情報を画像処理プロセッサに送信します。ところが、それぞれのピクセルの前面にしたピクセルサイズのカラーフィルターを置くことによって、そのフィルタを通過した光だけがピクセルに記録するようして、そのフィルタの色ではなく光はフィルターでブロックされ、イメージセンサーに到達していません。この非常に小さなカラーフィルターをColor Filter Array(= CFA)と呼び、これは普遍的にGreen-Green-Brue-Red、4つの1 unitを縦横に繰り返し配列しました。

下の概念図があります。 5番のモジュールを例にに説明します。

R5は、Redカラーの強さが記録され、その値は150であると仮定します。
B5は、Blueカラーの強さが記録され、その値は163であると仮定します。
G5aには、Greenカラーの強さが記録され、その値は172であると仮定します。
G5bは、Greenカラーの強さが記録され、その値は141であると仮定します。
R5は、redの色情報のみを持ち、Green、Blueの色情報はありません。

R5ピクセルの周りのような距離にあるGreenピクセルはG2b、G4a、G5a、G5b4つあり、この4つのピクセルのGreenフィルタを通過して記録された光の強度の平均値が135であると仮定します。
R5ピクセルの周りのような距離にあるBlueピクセルはB1、B2、B4、B5の4つがあり、この4つのピクセルのBlueの光の強度の平均値が185であると仮定します。

R5ピクセルにない色情報であるGreen、Blueの色情報を隣接ピクセルの平均値に借用して、仮想のカラー情報を作成すると、R=150、G=135、B=185となります。こうして作られたカラーは、厳密に言えば、そのピクセル自身が記録した色ではなく、Rの値は真の値、G、Bの値は、隣接するピクセルの平均値でdataを持ってきたので、ある程度有効であると言うことができます。

上記のような方法でGreen、Blueにも適用して、CFAを通過して記録された白黒画像からカラーDataを生成します。カラーを得ることができるということは、非常に画期的なことだが、自分のカラー値をとるのではなく、隣の画素の色情報を借用するので、false clorが発生することがあります。これを防止するためにOLPFをイメージセンサーの前に設置しています。最大ピクセルサイズの2〜3倍にもなる面積に対して平均colorをとるので、解像度の損失が必然的に発生するようになります。

サンプル写真RAW fileをオープンプログラムDCRAW.exe利用して、センサに記録された白黒になった元のRaw画像を抽出し、カラーRAW画像の同一条件の比較のためにShadow基準Levelをカラー画像と同じように変更しました。

右の改造前の画像で、グレーカラーの領域を拡大してみると、斜めに向かい合うGreen2ピクセルが明るく見えBlue、Redは暗く見えることを確認することができます。改造後の画像から1。部分を拡大してみると、次の写真のとおりです。

ここでは、すべての領域が均等な明るさを維持することを確認することができます。これは、CFAが除去された後、Red、Blueセンサーの感光部に到達する光の量が大幅に増加しているGreenピクセルと同等になったという意味でです。しかし、Greenのピクセルはほとんど変化がないことを知ることができます。

Debayering後、センサの感光性変化こちらをご覧くださいためにR、G、Bの各ピクセル·の画像上の同じ領域である2。部分の明るさのレベルを測定しました。明るさのレベルの範囲は、16ビットレベルで改造前の画像は5pixel x 5pixel領域内の対応するカラーチャンネルのピクセルだけを平均し、改造後のイメージは、チャネルが統合されたため5pixel x 5pixel領域の平均値を取りました。

 

1。Greenピクセル – 改造前:14008改造後:13363……….4.6%減少
2。 Redピクセル – 改造前:7966、改装後:13363……….67.8%増加
3。 Blueピクセル – 改造前:9381、改装後:13363……….42.4%増加

Greenは、少しの損失があるが、R、Bピクセル領域は、非常に多くの改善された効果があります。

光学ローパスフィルターが画像データをXY各方向にstretchしているので、解像度の低下が発生します。しかし、これらの損失は、カラーイメージセンサの場合、CFA bayeringアルゴリズムの脆弱性であるFalse colorの発現を防ぐために選択されたものです。しかし、CFA削除モノクロイメージセンサの場合、もうOLPFは必要ありません。したがって、最善の白黒映像を得るためには、OLPFを必ず除去しなければします。この場合、XY方向の画像stretchingがなくなると非として光学系が提供する最大のresolutionの映像をイメージセンサーに記録することができます。

今回のテストでは、カメラの基本的に内包されたローパス·フィルターを装着した状態での画像の比較です。今後ローパス·フィルターを完全に除去した状態での比較テストを計画しています。 OLPF装着時に比べてはるかに高い解像度の結果を得るであろう予想します。