« 2018年6月 | トップページ | 2018年8月 »

2018年7月

2018年7月 4日 (水)

PixInsightで画像処理を始めよう ~ 第7回 嗚呼、星はいい(2) 前処理

【目次】

7-1. 千億の星の在り処
7-2. Pre processing の準備
7-3. Pre processing の手順概要
7-4. Pre processing 実行
7-5. できた画像を見てみよう


7-1. 千億の星の在り処

今回からいよいよ星野写真の画像処理を始めますが、その素材はこの画像にします。

07_00_lightjpeg
図7-1. 素材画像(JPEG撮って出し)

[撮影データ]
 カメラ:CANON EOS kiss X5(改造)
 レンズ:CANON EF40mm F2.8 STM
 絞り:F3.5
 ISO感度:1600
 露出時間:240秒
 赤道儀:SWAT-200(ノータッチガイド)

撮影カメラは、かつてAPS-Cサイズのエントリーモデルとしてロングセラーを誇った機種なので、お持ちの方も多いのではないでしょうか。レンズは、小さい・軽い・安いと三拍子揃った「パンケーキレンズ」です。軽いので、散歩のお供に持ち歩くのにも最適ですね。この組み合わせを、自由雲台を介して SWAT-200 に載せ、ノータッチで追尾させただけという、大変お気軽な方法で撮影したものです。しかも、三脚まで含めて総重量はわずか 5kg 。別段、特別な機材もソフトも必要ありません。一千億の星があると言われる天の川銀河の中心部は夜空の中で一番明るい対象なので構図も確認しやすく、ピントや露出時間等の設定を間違えなければ(まあ、それが難しいんですけど)、初心者がいきなり撮れてもおかしくないかもしれませんね。しかし、それでもJPEG撮って出しだと、このように色も薄く低コントラストにしか写りません。これを、見違えるような画像に仕上げていきましょう。

目次へ戻る この節のトップへ戻る

7-2. Pre processing の準備

前回、天体写真を明るく高コントラストな画像に仕上げる前に、pre processing(前処理)として主に以下のことを目的とした処理をしましょう、というお話をしました。

 ① ランダムノイズの低減
 ② 固定パターンノイズの除去
 ③ 周辺減光の補正
 ④ バイアスの除去
 ⑤ debayer

このうち、①~④の処理を行うには、必要な写真が幾つかあります。まずは、その説明をしておきましょう。念のため言っておきますが、以下の写真はすべて RAWデータとして撮影してください。

(1) Light Frame(ライトフレーム)

天体を撮影した写真のことです。さすがにこれを撮り忘れることは無いでしょう(笑)。

07_02_lightframe
図7-2. ライトフレーム(ストレッチ有)

このライトフレームに対して①~⑤を目的とした処理を施すことを前処理と呼びます。このうち、ランダムノイズを減らすため(目的①のため)には、ライトフレームをたくさん重ね合わせる必要がありますので、なるべく沢山撮影しておきましょう。今回は、27枚のライトフレームを使用します。
なお、図7-2 はストレッチして適度に明るくしてあります。以下、とくに断りがない限り、適度にストレッチした画像を掲載します。

(2) Calibration Frame(キャリブレーションフレーム)

ライトフレームに対して、とくに②~④の処理を施すために必要な写真がライトフレームとは別に3種類あります。これらをまとめてキャリブレーションフレームと呼びます。面倒ではありますが、これらも撮影しておいてください。

  • Bias Frame(バイアスフレーム)
    • 第6回でも触れましたが、カメラのセンサーに光を当てずに、理想的には露出0秒で撮影した写真です。現実的には露出0秒で撮影することはできないので、そのカメラの最短露出時間で撮影します。光を当てず、最短露出時間で撮影しても、完全に真っ黒な画像にはなりません。これは余分な情報なので、ライトフレームからこれを差し引くわけですね。これが、目的④です。

      ただし、バイアスフレームにもランダムノイズが含まれるので、まずは沢山のバイアスフレームを重ね合わせて平均化することでランダムノイズを減らさないといけません。最短露出時間で撮れば良いので、短時間で沢山のバイアスフレームを撮影することができますね。ちなみに、私は100枚程度のバイアスフレームを使うことが多いです。沢山のバイアスフレームを平均化したフレームを master bias(マスターバイアス) と呼びます。

      07_02_masterbias
      図7-3. マスターバイアス(EOS kiss X5)

  • Dark Frame(ダークフレーム)
    • カメラのセンサーに光を当てずに、ライトフレームと同じ露出時間をかけて撮影した写真です。
      光を当ててはいませんが、これにはライトフレームと同じ固定パターンノイズが「写って」いるはずですので、これを使ってライトフレームに含まれる固定パターンノイズを除去(目的②)します。ただし、ダークフレームにもランダムノイズは含まれるので、ダークフレームも沢山撮って重ね合わせなければなりません。沢山のダークフレームを平均化したフレームを master dark(マスターダーク) と呼びます。

      07_03_masterdark
      図7-4. マスターダーク

      上の画像はマスターバイアスと同じ強さのストレッチをすることでノイズを強調した画像ですが、マスターバイアスに比べてかなりザラザラしていますね。このマスターダークからマスターバイアスを取り除けば、原理的には固定パターンノイズだけを取り出すことができます。その固定パターンノイズをライトフレームから引き算すれば、目的②が果たせます。これを「ダーク減算」と呼びます。(単純にダークフレームを引くことをダーク減算と呼ぶこともあります。)

      しかし、図7-4 のザラザラのほとんどは、実はランダムノイズの残りであることが多いです。ランダムノイズは、引き算すると逆に増えてしまうので、沢山のダークフレームを撮ってランダムノイズを可能な限り減らさないといけないのですが、ダークフレームはライトフレームと同じ露出時間をかけなければならないので、それを沢山撮るとなると大変な時間と労力が必要となります。しかも、最近のデジタルカメラでは固定パターンノイズはあまり目立たなくなってきており、とくに目立つものは他の方法で除去することもできるので、ダークフレームを使っても使わなくても最終画像における効果が変わらないことが多いです。したがって、撮るのに時間がかかるばかりか、苦労して撮ってもそれに見合う効果がないのなら最初から撮影しない(使用しない)、という選択をする人も増えてきています。

  • Flat Frame(フラットフレーム)
    • 光学系(望遠鏡やレンズ)による周辺減光や、センサ前に付いたごみの影による減光の様子だけを捉えた写真です。
      光学系に入ってくる光がムラのない一様な光となるように、通常、白色半透明なアクリル板やトレーシングペーパー、半透明なビニール袋等で対物レンズを覆い、ピント位置や絞り等の光学系に関する条件はすべてライトフレーム撮影時と同じ条件にして撮影します。

      そして、これにもランダムノイズが含まれていますので、沢山撮影して重ね合わせる必要があります。私はこれもまた100枚程度撮影することが多いです。

      さらに、バイアスと固定パターンノイズも含まれていますので、マスターバイアスとマスターダークを使ってこれを取り除きます。ただし、ダークフレームとフラットフレームとでは露出時間が異なることが多いので、フラットフレームに含まれる固定パターンノイズを取り除くには、露出時間分の補正をしてから取り除きます。

      このようにして、バイアスと固定パターンノイズを除去したフラットフレームを沢山重ね合わせて平均化したフレームを master flat(マスターフラット) と呼びます。

      07_04_masterflat
      図7-5. マスターフラット

      これを使ってどうやって光学系の周辺減光を補正するのでしょうか。それは簡単です。

      07_05_flatcorr
      図7-6. 周辺減光の補正

      例えば、図7-5 で中心付近の点 A と周辺部の点 B を考えましょう。点 A の明るさを1としたとき、点 B の明るさが 0.8 だったとしたら、点 B の明るさを 0.8 で割れば点 A と同じ明るさになりますよね。つまり、ライトフレームの各ピクセルの明るさを、マスターフラットの同じ位置のピクセルの明るさで割れば良いのです。PIの場合、正確には、[マスターフラットの同じ位置のピクセルの明るさ]/[マスターフラットの中央値] で割ります。

      こうして、目的③の周辺減光の補正を行うことができます。ちなみに、マスターフラットによって、周辺減光だけでなくセンサ前に付いたゴミの影による減光も補正して、写野全面にわたって同じ明るさの画像にすることができます。マスターフラットは、これが無いと綺麗な写真に仕上げることができないと言い切っても良いほど、非常に重要なフレームです。

      ただし、物理的に光量が足りないところを無理やり増幅させているだけなので、周辺部は中心部に比べてノイズが多くなる等、画質が下がることは間違いありません。あまり周辺減光が大きい光学系の場合には、フラット補正しても周辺部はクロップ(トリミング)する思い切りが必要かもしれません。

以上、3種類のキャリブレーションフレームを用意したら、いよいよ前処理開始です。なお、何度も言っていることではありますが、これらのフレームには、すべてランダムノイズが含まれています。キャリブレーションフレームの枚数が少なくてそのランダムノイズが大きいままだと、せっかくライトフレームを沢山撮っても意味がなくなってしまいますので、ご注意ください。

目次へ戻る この節のトップへ戻る

7-3. Pre processing の手順概要

前処理は以下の手順で行われます。

(1) Calibration(キャリブレーション)

前処理の5つの目的のうち、ライトフレームに対して上記の ②~④ を目的とした処理を施すことを calibration(キャリブレーション) と言い、細かく以下の処理に分けることができます。

  1. マスターバイアスの生成
  2. マスターダークの生成
  3. マスターフラットの生成
  4. 各ライトフレームのキャリブレーション

1~3 でそれぞれのマスターファイルを作り、それらを使って 4 で ②~④ の処理を行います。

(2) debayer

次は前処理の目的 ⑤ の処理です。
キャリブレーションが終わったライトフレームをカラー画像化します。第6回でも説明した通り、debayer しただけでは色調は滅茶苦茶なのですが、前処理では色合わせ(色調補正)は行いません。

(3) Registration(位置合わせ)

第3回の月の写真を重ね合わせるときにも説明しましたが、各ライトフレームに写っている星の位置は微妙にずれることが多いです。どうしてもずれてしまうケースもあれば、わざとずらして写すケースもあるのですが、いずれにしても星の位置がずれて写っています。

07_07_starshift
図7-7. 星の位置がずれている(6:1拡大)

最終的にはこれらを重ね合わせるわけですが、星の位置がずれたまま重ね合わせてしまうと、星が線状に連なって写ってしまったり、重ね合わせ方によっては星が消えてしまったりします。それではせっかく写した天体写真が台無しですので、重ね合わせの前に星の位置をきっちり合わせておく必要があります。

(4) Integration(重ね合わせ)

位置合わせが終わったライトフレームを連続して表示すると次にようになります。

07_08_after_reg
図7-8. 位置合わせ後のライトフレーム(3:1拡大)

こうして見ると、不規則なランダムノイズの様子がよくわかりますね。最後にこれらのランダムノイズを減らすために(目的 ① のために)重ね合わせを行います。これで、最初に述べた前処理の5つの目的の処理はすべて行ったことになります。

目次へ戻る この節のトップへ戻る

7-4. Pre processing 実行

本来、前処理は前節のように幾つもの手順を踏んで行われる処理なのですが、どんな天体を写した写真であっても、やり方は全く同じなので、これらの処理を全部まとめてクリック1発で行えるように、PI には BatchPreprocessing(BPP) というスクリプトが用意されています。
メニューバーから、SCRIPT > Batch Processing > BatchPreprocessing と辿って起動してください。

07_07_startbpp
図7-9. BatchPreprocessingを起動

07_08_bpp
図7-10. BatchPreprocessing

大抵の場合はこの BPP がきれいに処理してくれるので、基本的な使い方だけ知っていれば大丈夫でしょう。

07_09_how2usebpp
図7-11. BPPの基本的な使い方

最低限の設定手順は以下の通りです。以下の (a)~(f) は、図中の (a)~(f) に対応します。

(a) "Add xxxx" ボタンからライトフレームとその他のキャリブレーションフレームを入力
(b) カラー画像なら "Global options" の "CFA images" をチェック
(c) 入力したキャリブレーションフレームがマスターフレームなら、該当するものにチェック
(d) 位置合わせの基準とする画像を選択
左側のファイルリストの中にある場合は該当ファイルをダブルクリックすれば OK
(e) 処理されたファイルを出力するディレクトリを指定
(f) 実行!

たったこれだけです。 難しいことは何一つありません。

なお、前処理の手順や内容等について、以下の動画でもう少し詳細に解説しています。文字情報を読むより、動画を見た方が理解しやすいと思いますので、こちらもご覧いただけると幸いです。どちらの動画も各40分と長いので、お時間のある時にご覧ください。

● Pre processing 前編

  • BPPの使い方を中心に説明しています。PI 初心者でもわかるように丁寧に解説したつもりです。まずはこちらからご覧ください。

● Pre processing 後編

  • BPP を使わずに pre processing を行う方法を解説しています。一つ一つの処理についてかなり詳細に解説していますので、中級~上級者向けですね。PI での Pre processing の詳細な内容も知りたいという方は、こちらをご覧ください。

それから、処理速度も気になるところですよね。天体写真の前処理には非常に沢山の写真を使うので、処理に長い時間がかかるのが普通です。私もキャリブレーションフレームを含めるとかなりの枚数を使って前処理することが多いので、いつも相当な時間がかかります。しかし、何時間もかかってしまうと流石にうんざりしますよね。そこで、参考のために、前処理専用のフリーソフトとして有名でユーザも多い DeepSkyStacker (DSS) と処理時間を比較しました。PC は以下のようなスペックです。

 OS: Windows 10
 CPU: AMD Ryzen 7 2700X (8コア16スレッド)
 メモリ: 32GB
 ストレージ: SSD

計測に使った画像は EOS 6D で撮影したもので、今回素材として使っている画像(図7-2等)ではありません(紛らわしくて済みません)が、以下の枚数を前処理するのにかかった時間を計測しました。

 ライトフレーム: 10枚
 キャリブレーションフレーム: 各10枚

結果は次の通りです。

BPP v1.46  3 分 48 秒
DSS 4.1.1(64bit)  8 分 57 秒(*)

(*) 最後に画像を表示する時間は含みません。

PixInsight はマルチスレッド効率が高いので、マルチスレッドな CPU で処理するとかなり速いです。キャリブレーションフレームにマスターフレームを使えば、さらに時間は短縮できます。ただし、キャリブレーションの処理はシングルスレッドで動く時間が長く、ライトフレームだけでなく、フラットフレームの枚数が多いと時間がかかる傾向が顕著です。

目次へ戻る この節のトップへ戻る

7-5. できた画像を見てみよう

BPP で前処理が終わったら、BPP の output directory に指定したディレクトリ(フォルダ)の下を見てください。master というディレクトリができていて、その下に以下のファイルがあるはずです。

 ・ bias-BINNING_1.xisf
 ・ dark-BINNING_1-EXPTIME_xxx.xisf ("xxx"は露出秒数)
 ・ flat-BINNING_1.xisf
 ・ light-BINNING_1.xisf

上から3つが、順にマスターバイアス、マスターダーク、マスターフラットです。そして、最後のファイルが前処理された目的の画像です。これを開いてみましょう。

メニューバーの FILE > Open... から開いてもいいですし、ファイルを PI に直接ドラッグ&ドロップしても開けます。

07_10_fileopen
図7-12. ファイルの開き方

開くと、次のように非常に暗いことにまず驚くと思います。

07_12_light_binning_1
図7-13. pre processing直後の画像

この画像がこんなに暗い理由は2つあります。一つは、第6回でも説明した通り、もともと RAWデータが暗いということ。そして、もう一つは、PI の画像表示方法にあります。PI が画像を表示するときには、その画像を 16bit化して表示するのですが、デジタルカメラの RAWデータはほとんどが 14bitですよね。ここに4倍の情報量の差があります。

大抵のレタッチソフトや画像表示ソフトで 14bit画像を 16bit化して開くときには、14bit画像を4倍にストレッチして 16bit画像にすると思います。一方、PI は、14bit画像の情報はそのままにして、後ろに空の 14bitを3個くっつけて 16bitにします。したがって、見かけ上、明るさが 1/4 になるわけです。暗くはなりますが、14bit画像の情報はそのままにしているので、別に圧縮しているわけではありませんよ。この辺りのことは、上で紹介した動画(前編)でも最初に説明しています。

いずれにしても非常に暗いので、このままでは何が何だかわかりません。そこで、ScreenTransferFunction(STF)で明るくしましょう。

STF は第3回でも登場しましたが、画像を見かけ上明るくするツールです。この左側にあるマークのうち、鎖マークをオフにしたうえで、原子力マークに似たマークを押すと、自動的にある程度の色調整をしながら適度に明るくしてくれます。これを auto stretch(オートストレッチ)と言います。

07_12_stf
図7-14. STF でオートストレッチ

鎖マークのオンとオフは、R/G/B を合わせて(リンクして)ストレッチするか、それともバラバラに(リンクしないで)ストレッチするか、ということを意味します。鎖マークをオンにしてオートストレッチすることを linked auto stretch(リンクト・オートストレッチ)、オフにしてオートストレッチすることを unlinked auto stretch(アンリンクト・オートストレッチ)と言います。前処理直後の画像は色合わせが未調整なので、リンクせずにオートストレッチしないとおかしな色に表示されてしまいます。

このオートストレッチを使って、BPP で前処理した画像と、ライトフレーム1枚を debayer しただけの画像とを比べてみましょう。

07_15_comparison
図7-15. pre processing の効果

いちいち解説するまでもなく、ひと目で違いがわかりますね。前処理によってノイズが劇的に減り、周辺減光も修正されて綺麗な画像に生まれ変わりました。前処理が如何に重要か、お解りいただけたかと思います。

なお、前回(第6回)もお話した通り、pre processing(前処理)という用語は、天体写真の世界、あるいは PI の中だけで使われる特別な用語というわけではありません。何らかの処理を行う前にノイズを取り除くこと、および次の工程の処理の準備をすることを目的として行われる処理のことを、広く一般的に pre processing(前処理)と呼びます。今回説明した処理は、まさにその前処理と呼ぶに相応しい処理なので、そう呼ばれているわけです。覚えておきましょう。

次回(第8回)からは、この前処理後の画像の処理について解説していきます。

目次へ戻る この節のトップへ戻る

つづく

2018年7月13日 (金)

PixInsightで画像処理を始めよう ~ 第8回 嗚呼、星はいい(3) 光害除去

【目次】

8-1. Post processing(後処理)
8-2. リニア画像
8-3. 光害除去
8-4. DBEや光害除去に関するその他の注意点


8-1. Post processing(後処理)

前回は pre processing(前処理)と呼ばれる一連の処理を行いました。あの前処理は、これから先に行う処理のための準備の処理です。だから「前」処理なんですね。

それに対して、ここから先の処理は post processing(後処理:あとしょり) と呼ばれます。処理する人の技量が問われる腕の見せ所が沢山あって、慣れると大変楽しいのですが、この後処理には実に多くの種類の処理があって、一体何からやれば良いのかわからないという声をよく聞きます。しかし、後処理にもある程度の順序というものがあるので、この入門ではその順番通りに解説していこうと思います。ただ、その前に1つ説明しておかなければならないことがあります。

目次へ戻る この節のトップへ戻る

8-2. リニア画像

天体写真の画像処理において、よく耳にする言葉として「リニア(linear)」という言葉があります。「リニア」とは「線形(線型)」のことですが、別の言葉で言い換えれば「比例」という意味になります。比例をグラフで表現すれば直線を引くことになるので、「線形」とも言うわけですね。つまり、リニア画像とは、簡単に言えば、被写体の明るさが2倍(3倍)なら画像上でも明るさが2倍(3倍)であるような画像のことを言います。例えば、RAWデータはリニアです。厳密には違うみたいですが、ほぼリニアだと言われています。そして、そうだとすればそれを使って前処理した直後の画像もまたリニアです。

対して、撮って出し画像のような画像は、通常、リニアではありません。なぜでしょうか。第6回の話を思い出してください。撮って出し画像は、RAWデータをカメラ内で現像したものですが、その現像には明るさ調整(ストレッチ)が含まれていましたね。あのストレッチは、通常、非線形なストレッチだからです。例えば 図8-1 のようなトーンカーブを見てください。

08_01_ct
図8-1 非線形なトーンカーブの例

変換曲線がその名の通り曲線である場合、それで変換された画像はすべて非線形画像になります。非線形なストレッチを行うとどんな問題が起こるのでしょうか。一例として、図8-2 を見てください。

08_02_non_linear_s
図8-2. A と B は同じ色なのに・・・

A は R と G と B の明るさがそれぞれ 0.1、0.2、0.3 です。これを A(R, G, B) = (0.1, 0.2, 0.3) と表しましょう。一方 B はと言うと、B(R, G, B) = (0.2, 0.4, 0.6) です。どちらも R:G:B の比率が 1:2:3 なので、A と B は明るさが違うだけで色相も彩度も同じです。つまり、A と B は同じ色 なのです。このような色と明るさの星があったと仮定します。

これに対して 図8-1 のような非線形な変換をかけてストレッチします。変換後の画像をそれぞれ A'、B' とすると、A'(R, G, B) = (0.289, 0.524, 0.675)、B'(R, G, B) = (0.524, 0.771, 0.896) となります。R を 1 としたときの R:G:B の比率を計算すると、A' は 1 : 1.81 : 2.33、B' は 1 : 1.47 : 1.71。つまり、比率が違うわけですから、A' と B' は 同じ色ではない ということになります。もちろん、A と A'、B と B' も違う色ですし、明るいほど色が薄くなります。

元々は同じ色だったのに、非線形ストレッチをすると違う色になってしまう。だから、天体写真の画像処理でも、非線形ストレッチをしてから星の色合わせをしようとすると、

 A'の星で色合わせを行うと B'の星の色がおかしくなる
 B'の星で色合わせを行うと A'の星の色がおかしくなる

ということが起きてしまうのです。非線形ストレッチを伴う現像をしてしまうと、厳密にはもはや色合わせはできなくなります。したがって、色合わせをするなら画像がリニアな状態のうちにやらなければなりません。

この他、画像がリニアだからこそできる(しやすい)処理が色々あります。まずはそういった処理から行っていく必要があります。しかし、前処理直後の画像は非常に暗く、そのままでは処理がしづらいです。したがって、処理をするにもある程度明るくする必要があります。でも、それだとリニアではなくなる・・・。

こうしたジレンマを解消してくれるのが、この入門で既に何度も登場している STF です。STF でのストレッチはすべて非線形ストレッチなのですが、見かけ上明るくしているだけで本当にストレッチしているわけではありません。だから、STF で明るくしてからリニア画像でなければできない処理を行っても問題ないのです。STF はこのためにあるのです。

以降、特に断りが無ければ、STF でオートストレッチしていると思ってください。

目次へ戻る この節のトップへ戻る

8-3. 光害除去

さて、前処理直後の画像をもう一度見てみましょう。

08_03_afterbpp_ulas
図8-3. 前処理直後の画像

前処理によって、ノイズが激減し、周辺減光も修正されました。しかし、これで天体本来のあるべき姿が露わになったかというと、そうでもありません。まだ取り除いておくべき「余分なもの」があります。それが、光害です。

図8-3 を見ると、画像の下の方が僅かにぼんやり明るくなっていますね。この画像は伊豆の天城高原で撮影したものです。天城高原から南側には街はほとんどなく、南天は非常に暗いのですが、それでも光害が完全に0というわけではありません。その僅かな光害が含まれてしまっています。もっとも、これだけ低空になると必ずしも光害のせいだけではないかもしれませんが、いずれにしても、余分なものが含まれていると以降の処理が正しくできなくなるので、まず最初にこれを取り除きましょう。

ちなみに、光害というのは、天体の光に足し算で加えられた光です。ですから、光害を除去するには、元の画像から光害分の光を引き算するわけですが、厳密なことを言うと、引き算で光害の光を除去することができるのはリニア画像だけです。一旦非線形なストレッチをして非線形画像にしてしまうと、そこから光害分の光だけを引き算して除去することができなくなります。したがって、光害除去も画像がリニアな段階でやるべき処理です。

さて、この光害の除去に苦労している方は非常に多いと思いますが、光害等に起因するバックグラウンド(背景)の明るさの勾配を補正する強力なツールが PI にはあります。その1つが DynamicBackgroundExtraction (DBE) です。

08_04_dbe
図8-4. DynamicBackgroundExtraction (DBE)

この DBE もまた PI を代表する「優れものプロセス」の一つで、これを使いたいがために PI を買うという人もいるくらいです。もちろん、PI 以外にもこれと同じような機能を持つプログラムはあります。例えば AstroPixelProcessor (APP) にも同じような機能があります。しかし、両者を比べると(私がまだ APP を使いこなしていないだけかもしれませんが)、やはり DBE に一日の長があるように思います。それほどに強力で優秀なツールです。初めて見る方は、その効果にきっと驚かれることでしょう。

では、DBE の使い方から説明します。と言っても、これと決まった手順があるわけではないので、あくまで一つの方法くらいに考えてください。

(1) バックグラウンドサンプルを打点する

DBE で光害を除去するには、まず、どこがバックグラウンドであるかを DBE に教える必要があります。バックグラウンドとは、星も星雲も何も無い領域です。それを小さな background sample(バックグラウンドサンプル) としてポイントしていきます。対象画像をクリックすればポイントできます。

08_05_bgsample
図8-5. バックグラウンドサンプル

このバックグラウンドサンプルを画像上に何点か打つことによって、バックグラウンドの色や明るさの分布を推定できるようになります。そうして推定された分布を background model(バックグラウンドモデル) と言い、そのバックグラウンドモデルを使って、光害等に起因するバックグラウンドの勾配を補正・除去するというわけです。
ただ、困ったことに、図8-3 の画像の場合、厳密にバックグラウンドと言える領域はほぼありません。なぜこんな画像を素材として選んでしまったのか、ここで早速後悔するわけですが、もう遅いですよね(苦笑)。

図8-3 を見ると、ほぼ全面に天の川が写っていて、そこからなるべく離れた右上あたりをバックグラウンドと思いたいところですが、そこには大きな赤い輝線星雲 Sh2-27 が微かに写っていますからダメです。また、天の川に広範囲に存在する暗黒帯も、厳密にはニュートラルなバックグラウンドではありません。銀河中心部には星間物質が多く存在しています。星間物質の多くは、水素原子や水素分子などの非常に小さな粒子です。その中を光が通過すると、レイリー散乱によって青い光ほど強く散乱されてしまい、通過してくるのは赤っぽい光が多くなります。星間物質の密度が高くなればなるほど、また、厚さが厚くなればなるほどその傾向は強くなります。天の川中心部が赤っぽく見えるのはそのためですね。暗黒帯はその星間物質がとくに濃い部分ですから、これも完全な黒ではなく、厳密には「赤に偏った黒」と考えるのが妥当でしょう。

しかし、そうは言っても、他に無いのなら仕方がありません。暗黒帯の中でも、とくに暗いところなら、事実上バックグラウンドとして扱っても大きな問題は無いでしょう。そういったところを注意深く狙って打点していきます。

なお、サンプルの大きさはデフォルトでは半径5に設定されていますが、"Default sample radius" の値を変えると、それ以降に打点するサンプルの大きさが変更されます。既に打ってあるすべてのサンプルの大きさを一律に変更したければ、"Resize All" ボタンを押してください。

08_06_changebgr
図8-6. サンプル半径を変更

この内側に入るピクセルがバックグラウンドのサンプルとなりますので、小さすぎると十分なサンプル数が確保できずに正確な計算ができなくなる可能性がありますし、大きすぎると逆にバックグラウンドではない星雲等が入り込んでしまうことが多くなります。多くの場合、10 から 15 くらいで良いと思いますが、すべてのサンプルが同じ大きさである必要はありませんし、その画像や打点位置に応じて適宜調整してください。

今回の例の場合、以下のようにサンプルを打点しました。

08_07_bgsample_all
図8-7. バックグラウンドサンプル打点完了

(2) パラメータを調整する

バックグラウンドサンプルを打つと、サンプルが赤く表示されることがあります。これは、有効なピクセルが少なすぎる bad sample であることを意味していて、そのままではバックグラウンドサンプルとしては使えません。

08_08_bad_sample
図8-8. Bad sample

その場合には、"Tolerance" の値を大きくしてください。光害が酷くなるほど Tolerance を大きくしないといけなくなります。ただし、あまり大きくしすぎると、バックグラウンド以外のピクセルもバックグラウンドとして扱われてしまうので、要注意です。

08_09_tolerance
図8-9. Tolerance

今回の場合は、Tolerance 値はデフォルトの 0.500 がちょうど良さそうでした。

(3) 補正方法を選択する

打点したすべてのバックグラウンドサンプルが有効になるようにパラメータを調整出来たら、"Correction" で "Subtraction"(引き算)を選択し、"Discard background model" が無効になっていることを確認して実行します。先ほども述べた通り、光害は天体の光に足し算で加えられた光ですから、それを "Subtraction"(引き算)で補正するわけです。また、バックグラウンドモデルはこのあと検証のために使いますので、discard(捨てる)しないようにしてください。

08_10_targetimagecorr
図8-10. Target Image Correction

実行は、左下の三角マークをドラッグ&ドロップするか、緑のチェックマークを押すか、どちらでも可能です。

(4) バックグラウンドモデルを検証する

実行すると、補正された画像とバックグラウンドモデルの2つの画像がポップアップされると思います。このうち、window名に "xxx_background" と書かれたバックグラウンドモデルを STF で unlinked auto stretch してください。

08_11_bgmodel
図8-11. バックグラウンドモデル

これが、推定されたバックグラウンドの色や明るさの分布です。これが光害の光の分布として妥当かどうかを検証します。ポイントは2つあります。

明るさの勾配は、なだらかで、どちらかに向かって単調であること
光害は地表に近いところほど強くなりますから、上下左右どこかの端が最も明るくなるはずです。端以外の部分(例えば中央付近)が周囲より明るくなっていたとしたら、光害の光源が空中にあることになってしまいますから、明らかにおかしいですよね。また、条件にもよりますが、勾配が急激に変化するというのも、光害としては不自然です。
全面にわたってほぼ同じ色合いであること
光害の色が局所的に変わるということはまずありえませんよね。大きなスケールで見れば多少変わることはあり得るとしても、一部分だけが赤っぽくなったり青っぽくなったりするなどということはないはずです。

このような観点で 図8-11 を見ると、上から下に向かって単調に明るくなっていて、部分的に不自然に明るくなっているようなところは見当たりません。色合いについては、よぉ~く見ると、中央付近がなんとなぁ~くぼんやり赤っぽく見えなくもないですが、この程度であれば問題ないと言って差支えないでしょう。

図8-11 のバックグラウンドモデルでバックグラウンドの勾配が補正されたものが次の画像です。

08_12_afterdbe_ulas
図8-12. 光害除去された画像例

もちろん完璧ではありませんが、厄介と思われた光害が非常にきれいに除去されたと思います。前処理直後の 図8-3 と比較するとこんな感じです。

08_13_dbe_comp
図8-13. DBE前後の比較

かなり印象が変わることに驚くと思います。光害を除去すると薄い光の幕が取り除かれることになるので、コントラストが一気に向上します。また、光害には光害特有の色があるので、それを取り除くことによって初めて天体本来の色を再現できるようになります。

(5) DBE の失敗例

(4) で見たように、DBE による光害除去の効果は絶大です。しかし、バックグラウンドサンプルの打ち場所が非常に重要で、これを上手く設定しないとバックグラウンドモデルがおかしくなってしまい、結果、正しく補正できなくなります。バックグラウンドサンプルをどこに打つべきか。慣れると短時間で設定できるようになりますが、慣れるまでは多少苦労するかもしれません。

では、ここで失敗例を見てみましょう。先ほどの 図8-7 に加えて、1点だけ余分に M16(わし星雲)の上にバックグラウンドサンプルを打点しました。

08_14_fail_bgsample
図8-14. 失敗例(バックグラウンドサンプル)

これで実行したところ、バックグラウンドモデルは次のようになりました。

08_15_fail_ex_bgmodel
図8-15. 失敗例(バックグラウンドモデル)

ひと目でわかる通り、左上が部分的に赤く明るくなっています。(4) の検証ポイント ① ② のいずれにも反していますね。この失敗例では、バックグラウンドサンプルを赤い星雲上に打ちました。バックグラウンドサンプルで与えられた領域は、バックグラウンドですから本来ニュートラルで暗いはずです。にもかかわらず、何かしらの色が特徴的についていたり、明るくなっていたりすると、DBE はその色や明るさを余分なものとしてバックグラウンドモデルにまとめ、それを "Subtraction"(引き算)しようとするわけです。そのため、補正後の画像は次のようになってしまいました。

08_16_fail_ex_afterdbe_ulas
図8-16. 失敗例(補正後の画像)

M16付近の赤い色が不足し、やや暗くなっています。バックグラウンドモデルが赤く明るくなっていた部分ですね。あの分の赤さと明るさが引かれてしまったのです。たった1点誤ったサンプルをとってしまったためにこれだけ見事に失敗します。

DBE を実行したら、バックグラウンドモデルが光害の光の分布として妥当かどうかを検証し、不適当と判断したら、バックグラウンドサンプルの位置を見直して実行しなおしてください。

目次へ戻る この節のトップへ戻る

8-4. DBEや光害除去に関するその他の注意点

DBE はバックグラウンドにある明るさの勾配を補正するツールですので、光害除去だけでなく、周辺減光補正すなわちフラット補正もある程度できます。前処理でフラット補正をしていない場合、"Correction" で "Division"(割り算)を選択してください。そこそこきれいにフラット補正してくれます。

08_17_dbe_division
図8-17. フラット補正する場合には "Division" を選択

ただ、DBE でフラット補正するより、やはりフラットフレームを使って補正する方が正確な補正ができます。とくに、センサ前に付いたゴミの影による減光は、DBE では補正困難です。ゴミの影による減光のような、局所的な勾配の変化をモデル化することは不得手なのです。フラット補正をするのなら、面倒でもやはりフラットフレームを使った方が良いですね。

また、フラットフレームとして実際の夜空を対象としたスカイフラットを撮影する人もいますよね。もちろんそれ自体は別に悪いことではありませんが、注意してほしいことがあります。

実際の夜空を対象にフラットフレームを撮れば、それには光害の明るさも含まれるので、前処理時のフラット補正で光害除去も同時にできると思われるかもしれません。しかし、結論から言うと、それは誤りです。理由は簡単。上に述べた通り、光害の光は天体の光に足し算で加えられます。一方、7-2節で説明した通り、フラット補正は割り算で行われます。足し算で加えられたものを割り算で除去することはできません。それが理由です。

確かに全体としてフラットにはなるでしょう。しかし、補正後の画像には光害の光が含まれたままになります。写っている光の何割かは光害の光で、その分、天体の光が弱められることになります。光害の光を含んだフラットフレームを使ってフラット補正するのは、厳密には(あくまで「厳密には」です)望ましくありません。

目次へ戻る この節のトップへ戻る

つづく

2018年7月25日 (水)

PixInsightで画像処理を始めよう ~ 第9回 嗚呼、星はいい(4) 色調整、倍率色収差補正

【目次】

9-1. 測光的手法による色調整
9-2. 倍率色収差の補正


9-1. 測光的手法による色調整

前回 DBE で光害を除去して、やっと天体本来の姿が露出するようになりました。

09_01_afterdbe_las
図9-1. 光害除去後の画像

次にやるべき処理は、色合わせです。前処理の段階で色合わせをしていなかったのは、まだ光害を除去していなかったからでもありますが、いずれにしても 8-2節で説明した通り、色合わせは画像がリニアな段階でやっておかないといけません。

ちなみに、この 図9-1 は STF で linked auto stretch したものです。R/G/B でストレッチの強さを変えると色が変わってしまうので、色合わせ以降のオートストレッチは R/G/B をリンクして行うことになります。したがって、これから行う色合わせの効果を前後比較したければ、この段階から linked auto stretch しておきましょう。この段階では、全体的にやや紫色っぽく見えますね。

ところで、カメラやレタッチソフトで現像するときには、予め決められた割合で R/G/B を配合するわけですが、果たしてそれは本当の色なのかというと、そんな保証はありません。それに、例えば「太陽光(昼光)」というホワイトバランスは、太陽の光を受けた状態で白が白に見えるということですよね。でも、天体(月や惑星を除く)は別に太陽の光を受けて見えているわけではありません。ですから、カメラのホワイトバランスなんか、厳密には当てにならないわけです。

もっと厳密で直接的な色合わせの方法はないものでしょうか。それが天体写真の場合にはあるんです。天体写真には、色の基準となるものが写っているからです。それは「星」です。

天文学の世界では、2つの異なる色フィルターを通して星の明るさ(等級)を測り、その差を color index(色指数)と呼んで星の色を表す物差しとして使っています。例えば、青系の光だけを通すフィルターで星を見た等級が B で、緑系の光だけを通すフィルターで測った等級が V だったとします。このとき、"B-V" をこの星の色指数とするわけです。

ちなみに、緑を V と表すのは、人間の目にとって最も感度の高い波長の光が緑であるためで、"Visual" からとった V を用います。B や V だけじゃなく、赤の R や、青より短い波長(紫外域)の U を測って、R-V とか、U-B なんかも色指数になります。これらの値は、カタログ(星表)にまとめられていて、インターネット等で広く公開されています。

その中で、とくに APASS という全天光度測量カタログに記載されている r'(Sloan r')、V(Johnson V)、B(Johnson B) の値に着目し、B-V と r'-V の2つの色指数を調べます。ここで、この r'、V、B をそれぞれ R、G、B に対応するものと見立てれば、B-V と r'-V はそれぞれ、デジカメで撮影した星の B:G ならびに R:G の比率に対応することになりますから、両者を合わせることによって、正確な色合わせができるはずですよね。こうした考え方で色調整をしてくれるプロセスが、PhotometricColorCalibration (PCC) です。

09_02_pcc
図9-2. PhotometricColorCalibration (PCC)

PCC は R/G/B の比率をカタログと比較して合わせようというプロセスですから、画像がリニアでないと正しくできません。PCC での色合わせを画像がリニアな段階でやる理由はここにもあります。

では、使い方を見ていきましょう。あ、そうそう。PCC はインターネットでカタログを検索するので、当然ネット環境が必要です。注意してください。

(1) パラメータ設定(位置同定)

星の色指数を利用するからには、まず、写真に写っているのがどの星なのか(どこを撮った写真なのか)を特定する必要があります。これを plate solving と言ったりするのですが、そのために以下の情報を入力します。

09_03_pcc_imageparams
図9-3. Image Parameters

(a) 写真に写っている任意の点の赤経・赤緯
いきなり値を入力するのは難しいので、写真に写っている天体名からその位置を検索することで入力することが可能です。"Search Coordinates" ボタンを押すと 図9-4 のような検索画面がポップアップされます。Object 欄に天体名を入力して Search ボタンを押すと、検索が行われて天体の位置座標等が表示されます。今回の画像の場合、M23 が中央付近に写っていたので、その座標を検索しました。位置座標が表示されたら、Get ボタンを押すと PCC の方に反映されます。

09_04_searchcoor
図9-4. 座標検索

(b) 撮影日
歳差運動が影響を及ぼさない範囲で、だいたいの日付を入力すれば大丈夫です。
(c) 望遠鏡やレンズの焦点距離 (mm)
(d) カメラ(センサ)の画素サイズ (μm)
(c) と (d) は、写真の画角を求めるのに必要な情報です。画素サイズは、センサの大きさと画素数がわかれば求められますね。

入力が必須なのはこれだけです。

(2) パラメータ設定(Background Neutralization)

今回はこれに加えて Background Neutralization も入力することにします。DBE実行後であれば、してもしなくてもそれほど大きく変わらないとは思いますが、一応解説ですから念のため。Background Neutralization (BN) というプロセスは月の画像処理(第5回)でも使いましたが、指定したバックグラウンド領域の色をニュートラルにしてくれます。

09_05_pcc_bn
図9-5. Background Neutralization

「ここはバックグラウンドだろう」と思われる領域を preview 領域で囲んで、"Region of Interest" の "From Preview" ボタンからその領域の範囲を入力します。ただし、今回の画像の場合、明確にバックグラウンドだと言える領域はないと言っても過言ではありません。そんなときには、とくに暗そうな領域を慎重に選んでそこをバックグラウンドとみなしても大丈夫でしょう。

09_06_bn_area
図9-6. ここをバックグラウンドとする

そして、その領域の中でとくに「この値以下のピクセルをバックグラウンドとみなしなさい」という値を "Upper limit" に設定します。例えば、バックグラウンド領域として囲んだ領域の中にも微光星が写っているかもしれません。微光星はもちろんバックグラウンドではありませんから、それを除くわけです。任意のピクセル値を確認するには、ツールバーの "Readout Mode" をオンにして画像上をマウスでクリックすると、Readout Preview 画面が表示されるので、それで確認することができます。

09_07_bnupperlimit
図9-7. Readoutモードでバックグラウンドの値を確認

今回の場合、"0.006" 以下のピクセルをバックグラウンドとみなせば良さそうだったので、図9-5 の "Upper limit" にはそのように設定してあります。

(3) 実行、および "Limit magnitude" の調整

ここまで設定すれば、あとは実行するだけです。実行すると、前述の通り、その写真がどこを撮った写真なのか(写っているのはどの星か)を特定する処理(plate solving)から始まります。その plate solving が正常に終わると、以下のような解析結果が console に出力されるので、それが目安になりますね。

09_08_pcc_solve_console
図9-8. plate solving 成功

Plate solving が終われば個々の星が特定できるので、続けて色指数の比較が始まります。

が、ここで一つ注意が必要です。写真に写っている星ひとつひとつの R/G/B の比率は決して正確なものではなく、カタログの値と比較するとどうしてもある程度のバラつきが出てしまいます。したがって、なるべく沢山の星の色指数を比較して、それらの統計をとらないと正しい色合わせができません。

沢山の星を比較対象とするには、"Photometry Parameters" の "Automatic limit magnitude" を無効にして、"Limit magnitude" の値を大きくしてください。すると、その等級の星まで調べてくれることになっています。

09_09_pcc_photometryparams
図9-9. Limit magnitude を変更

ただし、2018年6月末現在のバージョンだと、Limit magnitude をあまり大きくしすぎると PCC はエラーで終了してしまいます。それでエラー終了してしまうのは、プログラムとして如何なものかと思いますが、PCC は開発されて日が浅いプロセスですから、今後改善されていくのではないかと期待しています。とにかく、Limit magnitude は、エラー終了しない範囲で、なるべく大きな値を指定すると良いでしょう。

ちなみに、Automatic limit magnitude を有効にしたままで実行すると、検索する星の数が少なすぎるケースが多いと思います。なので、最初から Limit magnitude を 12 ~ 15 くらいにして実行すると良いかもしれません。この辺は画像によって違うので一概には言えませんが、それで一度実行してみて、plate solving はできているのに、その後、エラー終了してしまうようなら、Limit magnitude を少し小さくして再実行してみてください。

PCC で処理した結果、図9-1 は以下のようになりました。

09_10_pcc_comparison
図9-10. PCC で色合わせ完了

色合いが変わっているのがわかりますね。なお、これは STF でオートストレッチしたものです。オートストレッチのような非線形ストレッチをすると、8-2節で見た通り、色が薄くなります。色が薄くなってこのくらいに変わるということは、実際の色は、もっとはっきり変わっているということを理解しましょう。

なお、処理をやり直す場合には、ツールバーの Undo ボタンを押すことで一つ前の状態に戻すことができます。また、Undo/Redo を繰り返し押すことで処理前後の画像を連続表示して比較することもできます。

10_25_undoredo
図9-11. Undo/Redo

さて、ここまでご覧になってお分かりの通り、PCC での色合わせには、人それぞれの好みや思い込みといった主観が入り込む余地はほとんどありません。自分の好みを反映できないというところに、不満を感じる人も中にはおられるかもしれませんが、天体写真において、正確な色の再現が一つのテーマであることは間違いありません。もちろん、PCC で完全に正確な色を再現できるわけではありませんが、非常に科学的で優れたアプローチと言えます。

また、第6回で述べた通り、カメラで現像したり、あるいは RAWデータを直接現像できるプログラムで現像する場合、R/G/B を既定の比率で配合することで色合わせを行います。それに対して PCC は、言わば「現物を見て」、カタログという基準と照らし合わせたうえで R/G/B の配合を調整します。ここでは、どちらがより正しいのかという議論はしませんが、少なくとも PCC によるアプローチは、大きな「可能性」を感じさせてくれますね。

これまでレタッチソフト等を使った色合わせに苦労していた人は多いでしょう。あれこれ弄っているうちに何が何だか分からなくなった、という経験も数多くされていることでしょう。PCC は、そんな苦労からあなたを解放してくれる強い味方です。PCC で色調整して「これはこんな色をしていたのか」と驚くことも多いかと思います。ぜひ一度、試してみてください。

目次へ戻る この節のトップへ戻る

9-2. 倍率色収差の補正

PCC を使って色合わせは終わりましたが、周辺部に写っている星をよく見ると、放射方向に赤い光と青い光が少し分離して写っています。こういうのを倍率色収差と言い、屈折レンズを使った光学系の場合には、ある程度避けられない収差です。

09_11_magnification
図9-12. 左下周辺部の倍率色収差(2:1拡大)

もちろん、倍率色収差は、光学性能の高い高級な光学系を使えばほとんど目立たずに済むことが多いです。この画像でも、2:1に拡大してこの程度なので、そんなに酷く目立つというほどではないのですが、補正できるものなら補正したいですよね。

倍率色収差を補正する方法は幾つかありますが、まずは画像を R/G/B それぞれのチャンネルに分けて見てみましょう。メニューバーから IMAGE > Extract > Split RGB Channels を選択して3つのチャンネルに分割してください。

09_12_splitrgb
図9-13. R/G/Bに分割

分割すると、名前が "XXXX_R"(R画像)、"XXXX_G"(G画像)、"XXXX_B"(B画像)という画像が3つ出力されます。これら3つの画像を比較すると、星が写っている位置が僅かにズレていることがわかります。

09_13_magnificationrgb
図9-14. R/G/B画像を比較(2:1拡大)

このように3色で星の位置がズレているから色が分離したように見ていたわけです。なら、この位置のズレを補正することができれば、倍率色収差を無くすことができるはずですね。そこで、StarAlignment (SA) プロセスを使います。

09_14_staralignment
図9-15. StarAlignment

SA はその名の通り、自動的に星の位置を揃える、すなわち位置合わせ(registration)をするためのプロセスで、主に前処理(pre processing)で使われます。第7回で紹介した BPP も、内部で SA が動いています。この SA もまた PI を代表する優れものプロセスの一つです。今回はこれを使って倍率色収差を補正しましょう。

やり方は簡単です。今回は、G画像を基準(reference)として、R画像と B画像の星の位置を補正することとします。まず、"Reference image" に先ほど分割した G画像を入力します。右側の三角マークから選択することができます。設定は基本的にはこれだけです。これで、一番下の三角マークを R画像と B画像にドラッグ・アンド・ドロップしてください。

09_15_apply_sa
図9-16. SAを実行

すると、"XXXX_registered" という名前の画像が新たに出力されます。これが、補正後の画像です。R画像と B画像を補正できたら、ChannelCombination プロセスでそれらを再合成します。

09_16_channelcombination
図9-17. ChannelCombination で再合成

R および B には、先ほど補正された画像を入力します。入力する画像は、右端の四角いボタンから選択することができます。R/G/B それぞれの画像を指定したら、左下の丸ボタン(Apply Global)を押せば合成できます。合成後の画像を元の画像と比べてみましょう。

09_17_correctmag
図9-18. 補正前後の画像比較(2:1拡大)

もちろん完璧ではありませんが、かなり奇麗に補正されているのがわかると思います。

なお、パラメータの中にはさらに精度を上げられるパラメータがありますが、今回の画像の場合、パラメータをすべてデフォルトのまま実行したケースと比較してほとんど結果が変わりませんでした。パラメータがデフォルトのままでも大抵良い結果が得られるというところが、SA の優れた点の一つだと思います。

【補足】天体写真の色についてはこちら

目次へ戻る この節のトップへ戻る

つづく

PixInsightで画像処理を始めよう ~ 第9.5回 【補足】 天体写真の色

【目次】

9.5-1. 星の色に着目
9.5-2. 色指数
9.5-3. 銀河の色は星の色


9.5-1. 星の色に着目

観賞用の天体写真は芸術写真とも言えますから、どんな色に仕上げても表現の自由として許されるべきだと思うのですが、本来の色の再現を目指すのであれば、留意すべきことがあります。

まず、天体写真の色調補正の際に基準となるのは星です。星雲ではありません。もちろん、原理的には星雲も基準になりうるのですが、今のところ基準となるのは星だけです。まず最初に星を見ましょう。星はほぼ完全な黒体放射(黒体輻射)で輝いていると考えられるため、その色は表面温度によって決まります。温度が高いと青白く、低いと赤っぽく輝きます。緑色やピンク色の星は存在しません。

一方、真っ赤な星はどうでしょう。赤いということは、星としては表面温度が非常に低いということです。表面温度が低い星と言えば、そのほとんどが質量の小さい赤色矮星です。赤色矮星は、数の上では宇宙で最も多く存在するタイプの星と考えられていますから、一番沢山写ってもよさそうに思えますが、実はそうではありません。

質量が小さくなると明るさは急激に暗くなります。太陽系から最も近くにある恒星として知られるプロキシマ・ケンタウリは、4.25光年という至近距離にあるにもかかわらず、見かけの明るさは11等星で、とても肉眼では見えません。これより小さくなれば、色はさらに赤くなりますが、明るさはどんどん暗くなります。遠くにあれば一層暗くなります。ということで、真っ赤な星はたくさん存在するものの、天体写真にはところどころに暗く小さくポチっと写る程度に過ぎなくなります。

ある種の色収差や最微光星を除いて、多くの星の色がそのような存在しないはずの色やほとんど写らないはずの色になっていた場合には、色調補正に失敗しているということを意味します。

目次へ戻る この節のトップへ戻る

9.5-2. 色指数

第9回でも述べた色指数は、個々の星の色を推定するのに重要な情報です。星の色指数は、例えば stellarium といったプラネタリウムソフトでも調べることができます。

色指数の元となる B とか V とかいう値は、その色のフィルターを通して測った星の等級(明るさ)ですから、暗いほど大きな値となります。V(緑)より B(青)が暗ければ、B の方が大きな値ですから、色指数 B-V は正の値となります。青が暗いということは、その星は赤っぽい星だろうと推察できますよね。したがって、色指数 B-V が大きな値であるほど、その星は赤っぽい星ということになります。

この色指数の説明でよく例として挙げられるのが、はくちょう座のサドル(Sadr)という星です。サドルは、はくちょう座の十字の交点の星で、はくちょうのお腹にあたる星ですが、この星の色指数 B-V は、0.67 もしくは 0.68(カタログによって多少の違いはあります)です。

09_05_01_stellarium
図9.5-1. stellarium で見たサドル

対して、私たちの太陽の色指数 B-V は 0.65。つまり、サドルは太陽とほぼ同じ色であり、白もしくは薄っすら黄色だろうと推測することができます。実際、PCC で色調補正を行ったサドル周辺の写真を見てみるとこんな感じです。

09_05_02_sadr
図9.5-2. サドル周辺 (クリックすると高解像度版に飛びます)

この写真は薄曇りの条件下で撮影したので、出来はあまり良くありませんが、中央付近に見える輝星がサドルです。ほぼ白ですよね。高解像度版で見るとよくわかると思います。他にも、オレンジ色と思われる星はしっかりオレンジ色に写っています。もちろん、これが正しい色だなどと言うつもりは毛頭なく、ツッコミどころもあって全体的な出来は良くないので、この写真を全面的に信じてはいけませんが、一つの参考にはしていただけると思います。

ところで、皆さんの中に、青が嫌いという人はほとんどいないでしょう。天体写真も青っぽく仕上げたくなる人は多いと思います。とくにこの領域は、この写真を見てお分かりの通り赤が非常に目立つので、色のバランス的にもついつい青を入れたくなりますよね。しかし、そうして青が目立つように処理し過ぎると、サドルが青くなる、オレンジ色のはずの星が黄緑色になる、といったことが往々にして起こります。

また、地球の大気を通して天体を見ると、大気によって青い光が散乱されて少なくなるはずなので、宇宙から見たらもっと青いはずだ、と考える人もいるでしょう。もちろん、その考察自体は正しいと思いますが、これにも注意が必要です。大気によって減衰するのは青い光だけではありません。水蒸気や二酸化炭素による吸収等もあって、他の色の光もまんべんなく減衰しています。果たして大気中で R/G/B がそれぞれどの程度減衰しているのか、定量的な考察が無いと問題です。定量的な考察のないまま、たった一つの定性的な考察を根拠に青だけを強くしていると、結局は自分の感性の赴くままに、自分の好みの色になるまで青くしてしまいがちで、何の根拠もないまま色合わせをするのと同じことになってしまいます。

目次へ戻る この節のトップへ戻る

9.5-3. 銀河の色は星の色

天体写真の主要なターゲットの一つに系外銀河(私達の銀河系ではない別の銀河)もありますね。とくに長焦点の大砲をお持ちの方には最大の獲物かもしれません。ご存知の方も多いと思いますが、銀河は星の集まりです。ということは、その色はそこに含まれる星によって決まります。

一口に銀河と言っても、渦巻き銀河や楕円銀河など幾つかの種類があるのですが、実は銀河の色も、その種類に応じた傾向があります。楕円銀河やレンズ状銀河(S0銀河)には、共通的に星形成領域がほとんどないことが知られています。つまり、ほとんど星が新しく生まれていないということです。

青い星は質量が大きいのですが、質量が大きいと寿命が短くなります。反対に、赤っぽい星は質量が小さく、寿命が長い星です。青い星はすぐに寿命を終えて消えてしまうので、それがたくさん存在するには、常に新しく生み出され続けなければいけません。

したがって、楕円銀河やレンズ状銀河に星形成領域がほとんどないということは、これらの銀河には寿命の短い青い星はほとんどなく、長寿命の赤っぽい星が多いということが推察できます。ほとんど赤っぽい星だけが含まれるのなら、その銀河は赤っぽくなりますよね。そうなんです。楕円銀河やレンズ状銀河は、黄色からオレンジ色をしているのです。春の銀河祭りの主役「おとめ座銀河団」を写すと、そうした銀河が沢山写ります。

09_05_03_virgocluster
図9.5-3. おとめ座銀河団 (クリックすると高解像度版に飛びます)

これはかなり彩度を上げた画像ではあるのですが、楕円銀河やレンズ状銀河は、黄色あるいはオレンジ色っぽく写っています。PCC を使うと、こうした色合いも如実に再現されて驚きます。

もちろん、最初に言った通り、芸術作品ですから星やその他の天体をどんな色に仕上げても自由ですし、それは別に構いません。そもそも、天体改造カメラで写せば、とくに赤い星雲なんかはもはや人間が目で見た通りには土台写りません。(Hα線は、人間の目には感度がそれほど良くないので、どす黒い赤に見えるはずです。)

フォトコンの厳しい審査員等から星や銀河の色についての指摘を受けたとしても、「偉い人にはこの美しさがわからんのですよ!」と言って意に介さないくらいの気骨の持ち主には、ある種の好感を持ちます。あまり厳しいことばかり言っていると、新海誠監督の作品は見られません(笑)。

しかし、「写真である以上、人間が目で見た通りの色の再現に努めるべき」というのも一理ある主張であって、天体写真にとって本来の色の再現が大きなテーマの一つであることは間違いありません。星の色を正しく調整出来れば、それに伴ってその他の天体の色も本来の色に近くなりますから、まずは星の色に気を付けてみてください。

また、天体写真を上手に仕上げるには、物理学や天文学の知識が多少必要となることがあります。そうした知識も敬遠せずにどんどん吸収するように心がけましょう。

目次へ戻る この節のトップへ戻る

<つづく>

« 2018年6月 | トップページ | 2018年8月 »