« 2018年5月 | トップページ | 2018年7月 »

2018年6月

2018年6月 6日 (水)

PixInsightで画像処理を始めよう ~ 第5回 花有清香月有陰(3)

【目次】

5-1. 色合いを変えてみよう
5-2. コントラストを強調しよう
5-3. 彩度を調整しよう
5-4. RAWデータから処理すると・・・


前回の第4回までで最低限の処理は終わりました。 ここから先は、お好みで、あるいは必要に応じてやる、ということで良いと思います。

5-1. 色合いを変えてみよう

第3回から始めた月の画像処理は、カメラ撮って出しのJPEG画像を元画像としてやってきました。カメラ撮って出しのJPEG画像というのは、概ね人間が目で見た通りの色合いになるように、ある程度カメラの画像エンジンで処理が施されたものです。前回までの写真を見てお解りの通り、月は全体的に黄色っぽく写っていますが、実際に望遠鏡で月を覗くと、やっぱり全体的に黄色っぽく見えるはずです。なので、あえてその色を変える必要もないのですが、黄色一辺倒というのもあまり面白みがありません。そこで、少し色合いを変えてみることにしましょう。

色合いを変えるにも様々な方法がありますが、今回は、人の目に頼らず、機械的に色調整をしてみます。

(1)  バックグラウンドをニュートラルに

色調整をするうえで、まず最初にやらなければいけないのは、背景(バックグラウンド)の色調整です。背景の宇宙はどの色にも偏っていない(ニュートラルである)はずですよね。逆に言うと、背景宇宙の色が、写真全体の色を決めるうえで一つの基準になるというわけです。なので、まずは背景宇宙の色の偏りをなくしましょう。

その準備として、図4-3 と同様の手順で、背景の一部を preview 領域で囲んでください。要は、その領域の色をニュートラルにしようというわけです。

囲む領域は背景であればどこでも構いませんが、月の光は強烈なため、地球の大気によって強く散乱されて、月のすぐ近くはニュートラルな色ではなくなっています。そこで、なるべく月から離れた領域を囲むと良いでしょう。(あまり気にする必要もありませんけどね。)

05_01_bnpreview
図5-1. ここをキャンプ地バックグラウンドとする

バックグラウンドとする領域を preview 領域で囲んだら、メニューバーから PROCESS > ALL Processes > BackgroundNeutralization と辿って BackgroundNeutralization(BN) を起動します。

05_02_bn
図5-2. BackgroundNeutralization

Reference image に先ほど囲んだバックグラウンドの preview 領域を指定して、図4-5 と同じ要領で、左下の三角マークをドラッグ&ドロップして実行します。

05_03_applybn
図5-3. BN実行

このプロセスは、Reference image の範囲のピクセルの平均(正確には中央値)がニュートラルになるように色調整します。大事なのは、バックグラウンドだけをニュートラルに色調整するわけではなく、あくまで画像全体を色調整しているという点です。バックグラウンドがニュートラルになるように、画像全体の色を等しく調整しているということです。

この画像の場合には、元々バックグラウンドがニュートラルに近いので大して変化がありませんが、元々のバックグラウンドの色が大きく偏っている画像の場合には、ここで色合いが大きく変化します。

なお、レタッチソフトを使ってこの操作をやる場合には、R/G/B のヒストグラムを見ながら手動で調整することになると思いますが、手動でやると、正確にニュートラルにすることはまず不可能です。こういった作業はコンピュータにやらせた方が速いし、なにより正確です。

(2)  明るいところを白く

背景の色をニュートラルにしたら、今度は「白」の基準を決めます。

まず、月の表面の中で、特に明るい部分を preview 領域で囲みます。囲む範囲は小さくて構いません。その領域の色を、今度は白だと仮定しようというわけです。

05_04_ccpreview
図5-4. 「ここは白い」と仮定する

もちろん、この領域が厳密に白であるはずなんかないのですが、ここは「色合いを変えてみよう」という話なので、とりあえずこの領域が白であるとした色調整をしてみます。

白の基準(white reference)とする領域を preview 領域で囲んだら、メニューバーからPROCESS > ALL Processes > ColorCalibration と辿って ColorCalibration(CC) を起動します。

05_05_cc
図5-5. ColorCalibration

CCを起動したら、一番上の White Reference の Reference image に 図5-4 で新たに囲んだ preview 領域を指定します。

次に、Structure Detection のチェックを外します。(外さなきゃいけないというわけではないんですけどね。)

そして、下の方にある Background Reference の Reference image に (1) で選んだバックグラウンド領域を再度指定します。

これでとりあえず準備はOKなので、また左下の三角マークをドラッグ&ドロップして実行します。

05_06_applycc
図5-6. CC実行

色が全体的に白っぽくなりましたね。実際に月を目で見た色合いとは少し異なると思いますが、月の表面の微妙な色の違いを表現するには、こちらの方が好都合だったりします。

ちなみに、ここでやった色調整は、レタッチソフトのレベル調整でも似たようなことができると思います。でも、レタッチソフトのレベル調整では、白や背景の基準とする領域は点でしか指定できないのがほとんどでしょう。それに対して、PixInsightは任意の領域の平均を基準とすることができます。

目次へ戻る この節のトップへ戻る

5-2. コントラストを強調しよう

ここまで、画像をシャープにしたり色合いを変えたりしてきましたが、ここで月全体をもう一度よく見ると、月の明るい部分(太陽の光が当たっている方)は、どこも一様に明るく、コントラストが低いと感じます。例えば、危難の海周辺は全体的に明るくなっていて、海がはっきりしません。

そこで、月全体のスケールでコントラストを高くしましょう。コントラストを上げる方法も幾つかありますが、今回は2つのプロセスを紹介します。

(1)  HDRMultiscaleTransform

ツールバーの PROCESS から HDRMultiscaleTransform(HDRMT)を起動します。

05_07_hdrmt
図5-7. HDRMultiscaleTransform

HDRMTは、ベタっと一様に明るくなってしまっている領域のコントラストを、各ウェーブレットレイヤーのスケールで回復させる効果があります。一番上の Number of layers はデフォルトでは "6" になっていますが、これを変えて数パターン実行してみましょう。

05_08_hdrmt
図5-8. HDRMT実行結果

人それぞれ好みもあるかと思いますが、この場合は 7 辺りが良いのではないかと思います。ベタっと明るかった危難の海周辺のコントラストが高くなり、海とそうでない部分がはっきりと区別できるようになりました。

(2)  LocalHistogramEqualization

2つ目に紹介するプロセスは、LocalHistogramEqualization(LHE)です。

05_09_lhe
図5-9. LocalHistogramEqualization

LHEは、contrast limited adaptive histogram equalization というアルゴリズムによって、所謂ローカルコントラストを上げるプロセスです。

第4回で登場した MultiscaleLinearTransform と同様、LHEにも Real-Time Preview 機能があるので、左下の白丸ボタンを押して Real-Time Preview 画面を見ながらパラメータを調整していきます。パラメータの数は少ないですし、決まった手順等はないのですが、以下のような手順で操作するのがやり易いかと思います。

  1. Contrast Limit を少し上げる (2. の効果が見やすくなる)
  2. Kernel Radius を調整する
  3. Amount (1. 2. で調整した画像と元の画像とのブレンド比) を調整する

05_10_rtp_lhe
図5-10. Real-Time Preview で見た LHE の効果

調整が終わったら、Real-Time Preview を閉じ、左下の三角マークをドラッグ&ドロップして適用します。

目次へ戻る この節のトップへ戻る

5-3. 彩度を調整しよう

画像の色が全体的に薄い場合には、CurvesTransformation(CT)を使って彩度を上げることができます。

05_11_ct
図5-11. CurvesTransformation

これは、レタッチソフト等での「トーンカーブ」に相当する変換ツールです。

3.5-2章で HistogramTransformation(HT)の説明をしましたが、あれと似ています。ただ、HTは Shadow/Midtone/Highlight を変えることで変換曲線を調整したのに対し、CT は変換曲線の形を直接変えることができます。

05_12_ct_ex
図5-12. CTでの変換曲線の例

さらに、このCTは、画像の明るさを変換するだけでなく、色の色相や彩度等も変換することができます。

CTの画面の一番右の下から4つ目の "S"(Saturation の S) をオンにすると、彩度を調整するモードになります。その状態で曲線を左上の方に反らせて実行すると、図5-13 のようになります。

05_13_applyct
図5-13. CT実行例

図5-13 のサイズだとややわかりづらいかもしれませんが、月表面の地質による色の違いがはっきりとわかるようになります。

ちなみに、図5-13で突然月の向きが変わっていますが、メニューバーの IMAGE > Geometry から画像の向きを変えることができます。

05_14_geometry
図5-14. 画像の向きを変える

目次へ戻る この節のトップへ戻る

5-4. RAWデータから処理すると・・・

ここまでは、カメラ撮って出しのJPEG画像を使って処理をしてきましたが、JPEG画像は RAWデータをカラー画像化(debayer)して、色合わせをして、さらに適度に明るくしたものです。したがって、RAWデータから処理する場合には、これらの処理を加える必要があります。具体的には、だいたい以下の通りの手順となります。 

  1. カラー画像化(debayer)
  2. 位置合わせ&重ね合わせ(FFTRegistration)
  3. 色合わせ(BackgroundNeutralization, ColorCalibration)
  4. 画像復元(Deconvolution)
  5. 明るくする(HistogramTransformation等)

色合わせは、重ね合わせ直後にやるのが望ましいです。しかし、そのままだと非常に暗いはずですので、STFで見かけ上の明るさを明るくしてから処理をしてください。実際に明るくするのは最後で結構です。

RAWデータから処理した例がこちらです。

05_15_raw
図5-15. RAWデータからの処理例 (クリックすると高解像度版が見られます)

同じように処理したはずなんですが、JPEG画像から処理したものとはまた違った色合いになっています。月表面の地質による色の違いは、こちらの方がわかりやすいかもしれませんね。

さて、第3回から計3回にわたって、月の写真を使った画像処理方法をご紹介してきました。 もちろん、他にも色々な処理方法がありますので、研究してみて下さい。

次回(第6回)からは、星野写真の画像処理方法を解説したいと思います。

目次へ戻る この節のトップへ戻る

つづく

PixInsightで画像処理を始めよう ~ 第5.5回 【補足】 Image Processing Tips

【目次】

5.5-1. Image Processing Tips のご紹介
5.5-2. BackgroundNeutralization(BN)
5.5-3. LocalHistogramEqualization(LHE)


5.5-1. Image Processing Tips のご紹介

この連載をご覧の方の中には既にご存知の方もいらっしゃるかも知れませんが、私は Google+ に Image Processing Tips というコレクションを作っています。

Ipts_title

図5.5-1. Image Processing Tips

(上図をクリックするとページを開きます。)

これは、天体写真の画像処理方法の例を Tips 形式でまとめたコレクションでして、その中に 「PixInsightでの画像処理」 と銘打ったシリーズ記事を書いています。初期のころは大した内容は書いていませんでしたが、だんだんとプロセスのアルゴリズムを絡めた詳細な解説を載せるようになってきました。今ではもう、すっかり天体写真の画像処理経験者向けの内容になっています。

この「画像処理入門」で紹介するプロセスの幾つかは、その中でやや詳細に解説しています。より詳しい解説に興味をお持ちの方は、こちらをご覧ください。

この入門の第5回に出てきたプロセスのうち、次の2つのプロセスについては Image Processing Tips でも紹介しています。

目次へ戻る この節のトップへ戻る

5.5-2. BackgroundNeutralization(BN)

Ipts_bn_title
図5.5-2. PixInsightでの画像処理(その14) - BackgroundNeutralization
 
(上図をクリックするとページを開きます。)

BNは、任意の指定領域のピクセルの中央値が R/G/B で同じになる、つまりニュートラルになるように画像全体の色を調整するプロセスです。指定領域の中に星や星雲が含まれてしまっている場合には、「この値以上明るいピクセルはバックグラウンドではないから除外しなさい」という閾値を設定することもできます。

通常、RAWデータを debayer(カラー画像化)しただけの画像は、色合わせが全くできていません。したがって、何らかの基準に基づいて色合わせをしないといけないのですが、その基準の一つが「バックグラウンドはニュートラルなはず」というものです。

このプロセスによってバックグラウンドをニュートラルにするだけで、画像が見違えるほど自然な色合いになることがあります。天体写真の画像処理においては、一度はこのプロセスを使うことになるはずですので、皆さんもお手持ちの色んな画像で試してみてください。

なお、このプロセスは、画像がリニアな状態のうちにやっておくべきプロセスです。つまり、かなり早いうちにやっておく処理です。また、一度バックグラウンドをニュートラルにしたら、以降の処理でこれを崩すような処理をするべきではありません。

目次へ戻る この節のトップへ戻る

5.5-3. LocalHistogramEqualization(LHE)

Ipts_lhe_title
図5.5-3. PixInsightでの画像処理(その16) - How to enhance constrast

(上図をクリックするとページを開きます。)

LHEは、いわゆる「ローカルコントラスト」を上げるためのプロセスです。「ローカルコントラスト」という言葉は、天体写真の画像処理で時々耳にする言葉ではありますが、その意味をきちんと理解して話をしている人は果たしてどれほどいるでしょうか。「ローカル」も「コントラスト」もそれなりに意味が解るのに、その2つが合わさると意味がよく解らなくなる。そんな言葉の好例かもしれませんね。

一般的に、同じ画像であれば、ヒストグラムの山がなだらかであるほど(山の幅が広いほど)コントラストが高い画像になります。であれば、いっその事ヒストグラムを真っ平にしてしまおう、というのが Histogram Equalization(HE)という処理で、それを発展させた Contrast Limited Adaptive Histogram Equalization(CLAHE)という処理が LHE のベースとなっています。任意のピクセルを中心とした局所的な領域でヒストグラムをとって、その領域で HE を行おう、というのが CLAHE の根本的な発想です。世の中にある、ローカルコントラストを操作するツールは、大抵この CLAHE の派生形でしょう。

それはともかく、LHE は BN と同様にパラメータの種類が比較的少ないので、いろいろと試して自分なりの使い方を模索してみてください。ただし、2点ほど注意点があります。まず、Kernel Radius を大きくすればするほど処理に時間がかかるようになります。もっとも、大抵は Real-Time Preview を見ながらやりますし、最近はハイスペックなパソコンも多くなってきましたから、あまり問題にはならないかもしれません。

2つ目は、この処理を施すとノイズが一気に目立つようになるということです。あまりノイズが目立つようなら、後でノイズリダクションも実行すると良いでしょう。

目次へ戻る この節のトップへ戻る

<つづく>

2018年6月20日 (水)

PixInsightで画像処理を始めよう ~ 第6回 嗚呼、星はいい(1) RAWデータ

【目次】

6-1. RAWデータと撮って出し画像
6-2. 最初にすべき補正処理
6-3. Pre processing (前処理)とは


「星を見ておいでですか、閣下」
「ああ、星はいい」

とは、どこぞの銀河帝国で常勝と称された天才の美青年と、その赤髪の腹心との会話だったかと記憶していますが、やはり星は見ているだけでもいいものです。それを美しい写真に残せたらもっと素敵ですよね。

ということで、第3回から第5回まで計3回にわたって月の写真の画像処理について解説してきましたので、次は星野写真の画像処理について解説しましょう。

月面写真編ではカメラ撮って出しのJPEG画像を使って説明しましたが、今度はRAWデータを使います。いきなり処理を始めても良いのですが、その前に、RAWデータを扱うのであれば知っておいていただきたい予備知識が幾つかありますので、今回はその予備知識について解説します。具体的な処理テクニックの話じゃないのでつまらないかもしれませんが、少しの間辛抱してください。

6-1. RAWデータと撮って出し画像

RAWデータと撮って出し画像に関して、画像処理初心者は(一部経験者でも)様々な誤解を抱いているケースが多いのではないかと思います。そこで、まずはその誤解を解くために、撮って出し画像とは何か、RAWデータは撮って出し画像と何が違うのか、について簡単に解説することとしましょう。

まず、RAWデータは、カメラのイメージセンサの各画素が受けた光の量、言い換えれば輝度の情報しか持っていません。したがって、これを単純に画像化すると、図6-1 のようなモノクロ画像になります。

06_01_rawimage
図6-1. RAW画像例

モノクロ画像であるとともに、非常に暗いことに気づきますね。そうなんです。RAWデータって、実は凄く暗いんです。右下にヒストグラムを表示していますが、山が左の方に寄っていますね。

(注) PixInsight で RAWデータを "Pure Raw" 表示すると、実際にはもっと暗く表示されます。 これは、PI の画像表示が 16bit表示なのに対し、RAWデータが 14bitであることに起因します。 つまり、1/4倍に逆ストレッチされているような形になっているのです。 したがって、RAWデータそのものの明るさを再現するには、PI で開いた直後の RAWデータを4倍に線型ストレッチしないといけません。 図6-1は、4倍に線型ストレッチした後の画像です。これが RAWデータの明るさです。

この画像の一部を拡大すると次のようになっていまして、とりあえず何かが写っていることくらいは分かると思います。

06_02_raw_l
図6-2. RAW画像の拡大図(12倍)

何やら格子状に見えていると思いますが、これは12倍に拡大したものでして、この格子1つ1つが1つのピクセルに相当します。これらの画像を見て何が写っているのかピンと来た人は、たぶん横浜の方でしょう(笑)。

さて、撮って出し画像とは、こうした RAWデータに対して主に以下の処理を施した画像のことです。(本当はノイズ処理等も行われますが、ここでは省きます。)

  1. Debayer(De-mosaic)
  2. 色調整(色調補正)
  3. 明るさ調整

順に見ていきましょう。

(1)  Debayer (De-mosaic)

一般的なデジタルカメラはイメージセンサの前面に 図6-3 のような特殊なカラーフィルターを置き、各画素が R/G/B のいずれかの色のフィルターを通った光だけを受けるようにしてあります。

06_03_bayer_layout
図6-3. カラーフィルターのイメージ図
(あまりじっと見ていると目がチカチカしてきますよ。)

つまり、図6-2 で格子状に見えていた各ピクセルは、それぞれ R/G/B いずれかの色に対応していて、そのフィルターを通った光の輝度情報のみを持っているわけです。こうして撮影されたRAWデータから R/G/B それぞれの画像を生成し、カラー画像化する処理のことを debayer もしくは de-mosaic と言います。詳細はここでは割愛しますが、この辺りのことはインターネット上の様々なサイトで解説されていますので、興味のある方はそちらをご参照ください。図6-1 の RAWデータを debayer した画像が次の 図6-4 です。

06_04_raw_debayer
図6-4. RAWデータ+debayer

(2)  色調整(色調補正)

相変わらず暗いままですが、debayer することでカラー画像にはなりました。しかし、これを見ると、暗いだけではなく、色調(色合い)がおかしいことに気が付きますね。人間が目で見た通りの色合いにはなっていません。そこで次に、debayer で生成された R画像と G画像と B画像の「配合」を調整することによって色合いを調整します。このときに参照されるのが、カメラで撮影するときに設定されていたホワイトバランスです。

ホワイトバランスは、「太陽光」とか「日陰」とか「電球(白熱球)」とかいろいろな値に設定できると思いますが、これらの設定それぞれで3色の画像の配合の仕方が違っています。「太陽光」ならこの配合、「電球」なら別の配合、という具合に。だからホワイトバランスを変えると違う色合いになるわけですね。この配合の仕方はカメラメーカによって予め決められています。図6-4 を「太陽光」のホワイトバランスで色調整するように模擬したものが、次の 図6-5 です。

06_05_raw_debayer_cc
図6-5. RAWデータ+debayer+色調整

(3)  明るさ調整

色合いを調整して、なんとなく自然な色合いになってきました。しかし、これだと依然として暗いままです。そこで、この画像を次のように明るくします。

06_06_raw_debayer_cc_s
図6-6. RAWデータ+debayer+色調整+明るさ調整

これでやっと普通の写真らしくなりましたね。このように、画像を明るくすることを stretch(ストレッチ)と呼ぶことがあります。ヒストグラムを引き延ばすような処理だからそう呼ばれるのでしょう。また、ここまでやってきたような処理をまとめて「現像」と呼びます。フィルム写真の「現像」に倣った呼び方ですね。そして、カメラの画像エンジンでこのように現像された画像が、撮って出し画像というわけです。通常、JPEG形式で保存されることが多いので、「JPEG撮って出し」と言われたりもしますね。

ここで、図6-5 と図6-6 を比較すると、随分と強くストレッチしていることがわかりますね。「わざわざこんなに強くストレッチしなければならないほどに元の画像が暗いのなら、もうちょっと露出時間を長くすれば良いんじゃないの?」と思う人もいるかもしれません。しかし、デジタルカメラが登場するまでは、カメラと言えばフィルムカメラでした。そのフィルムカメラでは、「この明るさの被写体ならこの絞りとこの露出時間でちょうど良いくらいに写った」という経験があったわけで、デジタルカメラでもそれを継承しなければなりません。ところが実際にデジタルカメラでその設定で撮ってみると暗くて仕方がない。だから強くストレッチしている。そういうことなんだと思います。

デジタルカメラで撮影すると、すぐに背面モニタにこの画像が表示されるので、RAWデータもこの撮って出し画像のような色合いと明るさに最初から記録されているのだ、と誤解している人が多いのではないかと思いますが、ここまで見てきたように、実はそうではありません。RAWデータを単純にカラー画像化しただけでは、色調は滅茶苦茶ですし、しかも非常に暗いのです。それをカメラの画像エンジンが瞬時に現像処理して背面モニタに表示しているのです。その撮って出し画像を見て「あ、飽和しちゃった」と思っても、RAWデータそのものは実はまだまだ露出アンダーな状態にあることがほとんどなのです。

レタッチソフトで RAWデータを開いても、これとほぼ同じ画像がポンと表示されますよね。レタッチソフトも、最初に RAWデータを開くときに現像処理をして、現像後の画像をユーザに表示するわけです。でも、レタッチソフトはそんな処理をしているなんて逐一言ったりしない(というより「言う必要が無い」)ので、ユーザはそれに気づかないだけなのです。レタッチソフトでのレタッチ(加工)とは、こうした現像処理が行われた画像を基準として、それに対して追加で行う処理のことです。風景写真や人物写真といった一般的な写真を加工する場合にはそれで十分なのですが、天体写真の場合にはもっと深いレベルから加工する必要があります。そして、そのためにはやはり RAWデータが必要なのです。ちなみに、レタッチソフトで開いた直後の画像は、カメラの撮って出し画像とは色合いも明るさもほんの僅かに違っていると思います。それは、上記の処理(例えば色調整での3色の配合の仕方)がカメラの画像エンジンとレタッチソフトとで僅かに異なるからです。

それともう一つ。ホワイトバランスは撮影時に設定するものではありますが、実は現像時に使われる情報なので、撮影時にどんなホワイトバランスに設定していても、RAWデータそのものは変わりません。したがって、RAWデータを使って画像処理し、色調整を自分でするのなら、撮影時のホワイトバランスの設定に意味はありません。

目次へ戻る この節のトップへ戻る

6-2. 最初にすべき補正処理

天体写真が、一般的な風景写真や人物写真と異なる点(特徴)は何でしょうか。風景写真や人物写真では、カメラから被写体までの距離が様々で、ピントはそれに合わせて変えなければいけないのに対し、天体写真の被写体は常に無限遠にある、ということも特徴の一つですね。それに加えて、最も大きな特徴といえば、何といっても「被写体が暗い」ということでしょう。月や惑星くらいならまだ明るいのですが、星雲や星団といった所謂「星野写真」となると、被写体が非常に暗いので露光に長い時間をかけないと写りません。しかも、写ったところでコントラストが非常に低く、明るさのメリハリがあまりありません。天体写真はこのように暗く低コントラストな写真なので、画像処理して最終的には明るく高コントラストな写真に仕上げなければなりません。しかし、暗く低コントラストな写真を明るく高コントラストにするためには、幾つかの困難を解決する必要があります。

(1)  ノイズ

露光時間が長くなると、困った問題が発生します。それは、ノイズです。ノイズのある写真を明るく高コントラストな写真に処理しようとすると、ノイズまで強調されてしまいます。もちろん、ノイズが目立ったって天体写真には違いないのですが、ノイズが目立つと汚らしく見えてしまいますので、やはりノイズは除去するか、あるいは可能な限り減らした方が良いでしょう。

ノイズにもいろいろな種類があって、これらを分類するには、発生原因で分類する方法とノイズの出現形態で分類する方法があるかと思います。後者で分類するのであれば、主要なノイズとして以下の2つが挙げられます。

  • ランダムノイズ(Random Noise)
    • ランダムノイズという言葉は、月面写真編(第3回)でも出てきましたね。
      ランダムノイズは、全く同じ場所で、カメラの諸設定を全く同じにして撮影しても、毎回異なる位置の画素に不規則に発生するのでランダムノイズと呼ばれます。 センサに光が当たっていなくても素子自体の熱等によって勝手に電流(暗電流)が流れることに起因して現れたり、光が微弱なために計測に揺らぎが発生すること(ショットノイズ/フォトンノイズ)等に起因して現れたりします。 他にも、信号読み出し回路から混入されるランダムノイズもあります。

      発生原因にもよりますが、露光時間が長くなるほど振幅が大きくなるランダムノイズがあるので厄介です。このランダムノイズを画像処理によって減らすには、第3回でも述べたように、沢山の写真を重ね合わせる必要があります。何枚重ね合わせてもランダムノイズを完全に0にすることはできませんが、重ね合わせる枚数が多いほどノイズの振幅を小さくすることができます。

      ただし、複数の画像を重ね合わせる際には、一つ注意が必要です。
      月面写真編でも、月の位置を合わせてから重ね合わせましたよね。あれと同じように、星野写真でも各画像に写っている星の位置を合わせてから重ね合わせる必要があることを覚えておいてください。

  • 固定パターンノイズ(Fixed Pattern Noise)
    • 特定の画素が不自然に明るかったり暗かったりすることで現れるノイズです。例えば下図のようなものです。

      06_07_hotpixel
      図6-7. ホットピクセル

      中央やや右下に1ピクセルだけ非常に明るいピクセルがありますね。周囲に写っている星像と比べると明らかに不自然です。これはどの写真にも常に同じ位置に現れます。こうした固定パターンノイズを特にホットピクセルと呼びます。固定パターンノイズにも発生原因は複数あり、振幅が露光時間に比例する固定パターンノイズもあれば、振幅が露光時間には比例しない固定パターンノイズもあります。しかし、いずれにしても、このノイズは発生する画素の位置が特定できるので、パターンがわかってしまえば画像処理で比較的容易に修正できるノイズと言えます。

      ただ、例えばホットピクセルを含む RAWデータをそのまま現像すると、図6-8 のように、ホットピクセルだけでなくその周囲のピクセルまで滲んだように影響が及んでしまいます。

      06_08_hotpixel
      図6-8. ホットピクセルを現像すると・・・

      これは、debayer時に周辺ピクセルから足りない色情報を集めることでそのピクセルの色情報を補完しているからです。したがって、固定パターンノイズの修正処理は、現像後の画像にではなく、現像前の RAWデータに対して行う必要があります。

(2)  周辺減光

こうしたノイズの他にも困った問題(できれば補正したいもの)があります。光学系(レンズや望遠鏡)の特性に起因する周辺減光がそれです。

06_09_vignetting
図6-9. 周辺減光(少し強調してあります)

写真の中央付近に比べて周辺部は光量が少なくなるため、どうしても暗く写ってしまいます。風景写真や人物写真等では、中央付近のメインの被写体以外はピントが合わずにボケて写っていることが多く、こうした周辺減光は一つの味わいとされることがありますが、天体写真では写野内に写っている天体はすべて被写体であり、ピントは写野全面で同じように合っているはずなので、周辺部でも中央付近と同じ明るさで写っていないと見苦しく感じられてしまうことが多いです。この周辺減光も補正したいものの一つです。

(3)  バイアス

ノイズと周辺減光の他にもう一つ、これは困難というほどのものではないのですが、取り除いておきたいものがあります。

カメラのセンサーに光を当てずに、露出 0 秒で撮影することができたとしたら、それには何が写るでしょうか。現実的には露出 0 秒で撮影することはできないので、そのカメラの最短露出時間で撮影したものが、次の図6-10 です。

06_10_bias
図6-10. バイアス(EOS 6D)

光を当てず、最短露出時間で撮影しても、実は完全に真っ黒な画像にはなりません。これを bias(バイアス) と言います。バイアスは「読み出しノイズ(readout noise)」と言われることもあり、その名の通り、実はこれもノイズの一種なのですが、後の説明のためにここではあえて別出しにします。

デジタルカメラでは、たとえ露出0秒でも常にこのバイアスが「写り」ます。すべての写真は、このバイアスの上に光の情報が記録されたものです。つまり、デジタルカメラで写した写真はすべて、常に下駄を履いた状態になっているのです。本当の伸長を測るには、その下駄を脱いでもらわないといけません。この余分な下駄も除去しましょう。

目次へ戻る この節のトップへ戻る

6-3. Pre processing (前処理)とは

ということで、星野写真を画像処理するのであれば、まず最初に主に以下の補正を目的とした処理を行います。

 ・ ランダムノイズの低減
 ・ 固定パターンノイズの除去
 ・ 周辺減光の補正
 ・ バイアスの除去

これらの補正を施す処理のことを、まとめて pre processing あるいは「前処理(まえしょり)」と呼びます。一般的な画像処理の世界でも、何らかの目的で画像処理を行う前に、ノイズを取り除くこと、および次の工程の処理の準備をすることを目的として行われる処理のことを前処理と言うことがありますから、それと同じです。

これらの補正処理は、どんな天体を写した写真であっても共通の方法と手順で処理することができます。つまり、人間がやる必要はなく、クリック一発でパソコンに処理させることができるということです。パソコンは元々そういうこと(決められたことを決められた手順でやること)が得意ですから、人間様がやるよりよっぽど手早くきれいに処理してくれます。

さらに、これらの補正処理と同様、debayer も決まり切った処理なので、debayer も加えて前処理と言います。PixInsight には、この前処理を自動的に実行してくれるプログラムが備わっていますので、次回は PI での前処理のやり方を説明しましょう。

目次へ戻る この節のトップへ戻る

つづく

« 2018年5月 | トップページ | 2018年7月 »