2018年6月 6日 (水)

PixInsightで画像処理を始めよう ~ 第5.5回 【補足】 Image Processing Tips

5.5-1. Image Processing Tips のご紹介

この連載をご覧の方の中には既にご存知の方もいらっしゃるかも知れませんが、私は Google+ に Image Processing Tips というコレクションを作っています。

Ipts_title

図5.5-1. Image Processing Tips

(上図をクリックするとページを開きます。)

これは、天体写真の画像処理方法の例を Tips 形式でまとめたコレクションでして、その中に 「PixInsightでの画像処理」 と銘打ったシリーズ記事を書いています。初期のころは大した内容は書いていませんでしたが、だんだんとプロセスのアルゴリズムを絡めた詳細な解説を載せるようになってきました。今ではもう、すっかり天体写真の画像処理経験者向けの内容になっています。

この「画像処理入門」で紹介するプロセスの幾つかは、その中でやや詳細に解説しています。より詳しい解説に興味をお持ちの方は、こちらをご覧ください。

この入門の第5回に出てきたプロセスのうち、次の2つのプロセスについては Image Processing Tips でも紹介しています。
 

5.5-2. BackgroundNeutralization(BN)

Ipts_bn_title
図5.5-2. PixInsightでの画像処理(その14) - BackgroundNeutralization
 
(上図をクリックするとページを開きます。)

BNは、任意の指定領域のピクセルの中央値が R/G/B で同じになる、つまりニュートラルになるように画像全体の色を調整するプロセスです。指定領域の中に星や星雲が含まれてしまっている場合には、「この値以上明るいピクセルはバックグラウンドではないから除外しなさい」という閾値を設定することもできます。

通常、RAWデータを debayer(カラー画像化)しただけの画像は、色合わせが全くできていません。したがって、何らかの基準に基づいて色合わせをしないといけないのですが、その基準の一つが「バックグラウンドはニュートラルなはず」というものです。

このプロセスによってバックグラウンドをニュートラルにするだけで、画像が見違えるほど自然な色合いになることがあります。天体写真の画像処理においては、一度はこのプロセスを使うことになるはずですので、皆さんもお手持ちの色んな画像で試してみてください。

なお、このプロセスは、画像がリニアな状態のうちにやっておくべきプロセスです。つまり、かなり早いうちにやっておく処理です。また、一度バックグラウンドをニュートラルにしたら、以降の処理でこれを崩すような処理をするべきではありません。
 

5.5-3. LocalHistogramEqualization(LHE)

Ipts_lhe_title
図5.5-3. PixInsightでの画像処理(その16) - How to enhance constrast

(上図をクリックするとページを開きます。)

LHEは、いわゆる「ローカルコントラスト」を上げるためのプロセスです。「ローカルコントラスト」という言葉は、天体写真の画像処理で時々耳にする言葉ではありますが、その意味をきちんと理解して話をしている人は果たしてどれほどいるでしょうか。「ローカル」も「コントラスト」もそれなりに意味が解るのに、その2つが合わさると意味がよく解らなくなる。そんな言葉の好例かもしれませんね。

一般的に、同じ画像であれば、ヒストグラムの山がなだらかであるほど(山の幅が広いほど)コントラストが高い画像になります。であれば、いっその事ヒストグラムを真っ平にしてしまおう、というのが Histogram Equalization(HE)という処理で、それを発展させた Contrast Limited Adaptive Histogram Equalization(CLAHE)という処理が LHE のベースとなっています。任意のピクセルを中心とした局所的な領域でヒストグラムをとって、その領域で HE を行おう、というのが CLAHE の根本的な発想です。世の中にある、ローカルコントラストを操作するツールは、大抵この CLAHE の派生形でしょう。

それはともかく、LHE は BN と同様にパラメータの種類が比較的少ないので、いろいろと試して自分なりの使い方を模索してみてください。ただし、2点ほど注意点があります。まず、Kernel Radius を大きくすればするほど処理に時間がかかるようになります。もっとも、大抵は Real-Time Preview を見ながらやりますし、最近はハイスペックなパソコンも多くなってきましたから、あまり問題にはならないかもしれません。

2つ目は、この処理を施すとノイズが一気に目立つようになるということです。あまりノイズが目立つようなら、後でノイズリダクションも実行すると良いでしょう。
 
<つづく>

PixInsightで画像処理を始めよう ~ 第5回 花有清香月有陰(3)

前回の第4回までで最低限の処理は終わりました。 ここから先は、お好みで、あるいは必要に応じてやる、ということで良いと思います。
 

5-1. 色合いを変えてみよう

第3回から始めた月の画像処理は、カメラ撮って出しのJPEG画像を元画像としてやってきました。カメラ撮って出しのJPEG画像というのは、概ね人間が目で見た通りの色合いになるように、ある程度カメラの画像エンジンで処理が施されたものです。前回までの写真を見てお解りの通り、月は全体的に黄色っぽく写っていますが、実際に望遠鏡で月を覗くと、やっぱり全体的に黄色っぽく見えるはずです。なので、あえてその色を変える必要もないのですが、黄色一辺倒というのもあまり面白みがありません。そこで、少し色合いを変えてみることにしましょう。

色合いを変えるにも様々な方法がありますが、今回は、人の目に頼らず、機械的に色調整をしてみます。

(1)  バックグラウンドをニュートラルに

色調整をするうえで、まず最初にやらなければいけないのは、背景(バックグラウンド)の色調整です。背景の宇宙はどの色にも偏っていない(ニュートラルである)はずですよね。逆に言うと、背景宇宙の色が、写真全体の色を決めるうえで一つの基準になるというわけです。なので、まずは背景宇宙の色の偏りをなくしましょう。

その準備として、図4-3 と同様の手順で、背景の一部を preview 領域で囲んでください。要は、その領域の色をニュートラルにしようというわけです。

囲む領域は背景であればどこでも構いませんが、月の光は強烈なため、地球の大気によって強く散乱されて、月のすぐ近くはニュートラルな色ではなくなっています。そこで、なるべく月から離れた領域を囲むと良いでしょう。(あまり気にする必要もありませんけどね。)

05_01_bnpreview
図5-1. ここをキャンプ地バックグラウンドとする

バックグラウンドとする領域を preview 領域で囲んだら、メニューバーから PROCESS > ALL Processes > BackgroundNeutralization と辿って BackgroundNeutralization(BN) を起動します。

05_02_bn
図5-2. BackgroundNeutralization

Reference image に先ほど囲んだバックグラウンドの preview 領域を指定して、図4-5 と同じ要領で、左下の三角マークをドラッグ&ドロップして実行します。

05_03_applybn
図5-3. BN実行

このプロセスは、Reference image の範囲のピクセルの平均(正確には中央値)がニュートラルになるように色調整します。大事なのは、バックグラウンドだけをニュートラルに色調整するわけではなく、あくまで画像全体を色調整しているという点です。バックグラウンドがニュートラルになるように、画像全体の色を等しく調整しているということです。

この画像の場合には、元々バックグラウンドがニュートラルに近いので大して変化がありませんが、元々のバックグラウンドの色が大きく偏っている画像の場合には、ここで色合いが大きく変化します。

なお、レタッチソフトを使ってこの操作をやる場合には、R/G/B のヒストグラムを見ながら手動で調整することになると思いますが、手動でやると、正確にニュートラルにすることはまず不可能です。こういった作業はコンピュータにやらせた方が速いし、なにより正確です。

(2)  明るいところを白く

背景の色をニュートラルにしたら、今度は「白」の基準を決めます。

まず、月の表面の中で、特に明るい部分を preview 領域で囲みます。囲む範囲は小さくて構いません。その領域の色を、今度は白だと仮定しようというわけです。

05_04_ccpreview
図5-4. 「ここは白い」と仮定する

もちろん、この領域が厳密に白であるはずなんかないのですが、ここは「色合いを変えてみよう」という話なので、とりあえずこの領域が白であるとした色調整をしてみます。

白の基準(white reference)とする領域を preview 領域で囲んだら、メニューバーからPROCESS > ALL Processes > ColorCalibration と辿って ColorCalibration(CC) を起動します。

05_05_cc
図5-5. ColorCalibration

CCを起動したら、一番上の White Reference の Reference image に 図5-4 で新たに囲んだ preview 領域を指定します。

次に、Structure Detection のチェックを外します。(外さなきゃいけないというわけではないんですけどね。)

そして、下の方にある Background Reference の Reference image に (1) で選んだバックグラウンド領域を再度指定します。

これでとりあえず準備はOKなので、また左下の三角マークをドラッグ&ドロップして実行します。

05_06_applycc
図5-6. CC実行

色が全体的に白っぽくなりましたね。実際に月を目で見た色合いとは少し異なると思いますが、月の表面の微妙な色の違いを表現するには、こちらの方が好都合だったりします。

ちなみに、ここでやった色調整は、レタッチソフトのレベル調整でも似たようなことができると思います。でも、レタッチソフトのレベル調整では、白や背景の基準とする領域は点でしか指定できないのがほとんどでしょう。それに対して、PixInsightは任意の領域の平均を基準とすることができます。
 

5-2. コントラストを強調しよう

ここまで、画像をシャープにしたり色合いを変えたりしてきましたが、ここで月全体をもう一度よく見ると、月の明るい部分(太陽の光が当たっている方)は、どこも一様に明るく、コントラストが低いと感じます。例えば、危難の海周辺は全体的に明るくなっていて、海がはっきりしません。

そこで、月全体のスケールでコントラストを高くしましょう。コントラストを上げる方法も幾つかありますが、今回は2つのプロセスを紹介します。

(1)  HDRMultiscaleTransform

ツールバーの PROCESS から HDRMultiscaleTransform(HDRMT)を起動します。

05_07_hdrmt
図5-7. HDRMultiscaleTransform

HDRMTは、ベタっと一様に明るくなってしまっている領域のコントラストを、各ウェーブレットレイヤーのスケールで回復させる効果があります。一番上の Number of layers はデフォルトでは "6" になっていますが、これを変えて数パターン実行してみましょう。

05_08_hdrmt
図5-8. HDRMT実行結果

人それぞれ好みもあるかと思いますが、この場合は 7 辺りが良いのではないかと思います。ベタっと明るかった危難の海周辺のコントラストが高くなり、海とそうでない部分がはっきりと区別できるようになりました。

(2)  LocalHistogramEqualization

2つ目に紹介するプロセスは、LocalHistogramEqualization(LHE)です。

05_09_lhe
図5-9. LocalHistogramEqualization

LHEは、contrast limited adaptive histogram equalization というアルゴリズムによって、所謂ローカルコントラストを上げるプロセスです。

第4回で登場した MultiscaleLinearTransform と同様、LHEにも Real-Time Preview 機能があるので、左下の白丸ボタンを押して Real-Time Preview 画面を見ながらパラメータを調整していきます。パラメータの数は少ないですし、決まった手順等はないのですが、以下のような手順で操作するのがやり易いかと思います。

  1. Contrast Limit を少し上げる (2. の効果が見やすくなる)
  2. Kernel Radius を調整する
  3. Amount (1. 2. で調整した画像と元の画像とのブレンド比) を調整する

05_10_rtp_lhe
図5-10. Real-Time Preview で見た LHE の効果

調整が終わったら、Real-Time Preview を閉じ、左下の三角マークをドラッグ&ドロップして適用します。
 

5-3. 彩度を調整しよう

画像の色が全体的に薄い場合には、CurvesTransformation(CT)を使って彩度を上げることができます。

05_11_ct
図5-11. CurvesTransformation

これは、レタッチソフト等での「トーンカーブ」に相当する変換ツールです。

3.5-2章で HistogramTransformation(HT)の説明をしましたが、あれと似ています。ただ、HTは Shadow/Midtone/Highlight を変えることで変換曲線を調整したのに対し、CT は変換曲線の形を直接変えることができます。

05_12_ct_ex
図5-12. CTでの変換曲線の例

さらに、このCTは、画像の明るさを変換するだけでなく、色の色相や彩度等も変換することができます。

CTの画面の一番右の下から4つ目の "S"(Saturation の S) をオンにすると、彩度を調整するモードになります。その状態で曲線を左上の方に反らせて実行すると、図5-13 のようになります。

05_13_applyct
図5-13. CT実行例

図5-13 のサイズだとややわかりづらいかもしれませんが、月表面の地質による色の違いがはっきりとわかるようになります。

ちなみに、図5-13で突然月の向きが変わっていますが、メニューバーの IMAGE > Geometry から画像の向きを変えることができます。

05_14_geometry
図5-14. 画像の向きを変える
 

5-4. RAWデータから処理すると・・・

ここまでは、カメラ撮って出しのJPEG画像を使って処理をしてきましたが、JPEG画像は RAWデータをカラー画像化(debayer)して、色合わせをして、さらに適度に明るくしたものです。したがって、RAWデータから処理する場合には、これらの処理を加える必要があります。具体的には、だいたい以下の通りの手順となります。 

  1. カラー画像化(debayer)
  2. 位置合わせ&重ね合わせ(FFTRegistration)
  3. 色合わせ(BackgroundNeutralization, ColorCalibration)
  4. 画像復元(Deconvolution)
  5. 明るくする(HistogramTransformation等)

色合わせは、重ね合わせ直後にやるのが望ましいです。しかし、そのままだと非常に暗いはずですので、STFで見かけ上の明るさを明るくしてから処理をしてください。実際に明るくするのは最後で結構です。

RAWデータから処理した例がこちらです。

05_15_raw
図5-15. RAWデータからの処理例 (クリックすると高解像度版が見られます)

同じように処理したはずなんですが、JPEG画像から処理したものとはまた違った色合いになっています。月表面の地質による色の違いは、こちらの方がわかりやすいかもしれませんね。

さて、第3回から計3回にわたって、月の写真を使った画像処理方法をご紹介してきました。 もちろん、他にも色々な処理方法がありますので、研究してみて下さい。

次回(第6回)からは、星野写真の画像処理方法を解説したいと思います。

<つづく>

2018年5月21日 (月)

PixInsightで画像処理を始めよう ~ 第4.5回 【補足】 Layerとは? Deconvolutionとは?

4.5-1. レイヤー

第4回の Deconvolution や MultiscaleLinearTransform の処理の説明で Layer(レイヤー)という言葉が出てきました。この Layer とは、正確に言えば Wavelet Layer(ウェーブレット・レイヤー)なんですが、そんなこと言っても余計にわかりませんよね。
ちゃんと理解するには、Wavelet解析を知らないといけないのですが、とりあえずそんなもの知らなくても、簡易的に画像を各レイヤーに分解することはできます。

メニューバーから SCRIPT > Image Analysis > ExtractWaveletLayers と辿って ExtractWaveletLayers スクリプトを起動します。

45_1_ewlscript
図4.5-1. ExtractWaveletLayers

Target image に 図4-4 の Preview01 を選んでこのまま OK ボタンを押すと、次のように計6枚の画像が出力されます。

452_layers_all_l
図4.5-2. 分解されたレイヤー画像

ここで、Layer00 という画像がウェーブレット・レイヤーの Layer1 に相当します。以下、Layer01 が Layer2 に、Layer02 が Layer3 に・・・と、それぞれ相当します。
これらのうち、小さなレイヤーの画像を見ると、微細な構造は見えていますが、大きなスケールの構造は消えているのがわかると思います。逆に大きなレイヤーの画像を見ると、微細な構造は見えなくなって、大きなスケールの構造が写るようになっています。一言で言うと、各レイヤーには、月の表面の構造の輪郭が色んなスケールで写っていると言い換えても良いでしょう。

前回の 4-1.(2) MultiscaleLinearTransform の処理では、 MLT の Bias の値をプラス方向に少し動かしましたが、これは、そのレイヤーの比重を大きくして、そのレイヤーを強調するという処理です。図4-10 の例の場合、Layer2 と Layer3 の Bias を大きくしました。このレイヤーには、クレーター等の輪郭がとくにはっきりと写っていますので、それが強調されたというわけです。ちなみに、Layer1 にはより微細な構造が写っているので、これも強調した方が良いんじゃないかと思うかもしれませんが、一般的には、このレイヤーにはピクセル単位のノイズも写っていますので、Layer1 の Biasを大きくすると、そうしたノイズも強調されてしまうということに注意が必要です。
図4-10 の月の画像の場合には、実はそんなにノイズは含まれていなかったので Layer1 を強調しても良かったのですが、通常は、小さなレイヤーを扱う時には常にノイズを意識しなければならないということを覚えておきましょう。
 

4.5-2. Deconvolution

第4回でも紹介した通り、Deconvolution は、PI を代表する優れものプロセスの1つです。このプロセスの原理と言いますか、基本的な考え方について、ここで極簡単に解説しましょう。1つだけ数式が出てきますので、数式を見ると隣の人の首を絞めたくなるという人は読み飛ばしてください。(笑)

さて、これまで何回か言っている通り、地球上で分厚い大気や何らかの光学系を通して見る像はぼやけています。しかし、本来はシャープな像だったはずです。

図4.5-3 を見てください。

45_3_deco
図4.5-3. Deconvolution の考え方

理想的な点光源像が大気や光学系を通した結果、h(x) で表されるような広がりを持つぼやけた像になるとします。すると、本来 f(x) で表されるはずだった天体の像は、式(1) のような g(x') として観測されることとなります。

この式(1) が convolution で、日本語では畳み込み積分とか重畳積分とか言われるものです。そして、h(x) のことを point spread function(PSF)、日本語では点像分布関数等と言います。
ここで、知りたいのは天体の本来の像である f(x) で、これがよくわからないわけです。しかし一方、g(x') は観測された像なのでよくわかっています。なら、あとは h(x) がわかれば、あるいはこれを何らかの形に仮定すれば、f(x) もわかるでしょう、というのが Deconvolution の発想です。発想自体はそんなに難しくはありませんね。

第4回で調整した Deconvolution のパラメータ StdDev は、この PSF の標準偏差です。例えばこれが 0 だとすると、PSF はδ関数ということになり、本来の理想的な点光源像のままで全くぼやけていないという意味になりますから、Deconvolution をしても変わらないということになります。PI の Deconvolution では、StdDev に 0 は指定できませんが、これを小さくすると、Deconvolution を実行しても元の画像のままに近くなる(ほとんど変わらなくなる)、というのはすぐに理解できると思います。
もう1つのパラメータ Shape は PSF の尖度のことで、デフォルトの 2 が正規分布であることを意味しているようです。尖度というと、0 を正規分布とするのが普通だと思いますが、ここは注意が必要です。

ともかく、パラメータを調整するときには、まず StdDev から調整し、次に Shape のスライダーを動かすという手順で、両パラメータのスイートスポットを追い込むと良いでしょう。なお、画像に星が写っている場合には、その星像を元に PSF を推定する DynamicPSF というプロセスもありますが、ここでは紹介だけに止めておきます。

<つづく>

PixInsightで画像処理を始めよう ~ 第4回 花有清香月有陰(2)

4-1. 画像復元

第3回では、FFTRegistration によって沢山の画像を重ね合わせることでノイズを減らし、滑らかな画像を得ることができました。
しかし、図3-7 や図3-8 をよく見ると、確かに滑らかにはなったものの、なんだか少しぼやけていますよね。これは、第1回でも触れたように、主に地球の大気の影響です。地上から分厚い大気の層を通して撮影する以上、どんなにピントを合わせても多少ぼやけて写ってしまうものなのです。でも、元々ははっきりくっきりした像だったはずです。それが、地球の大気によってぼけた像になってしまったのです。地球の大気だけでなく、レンズ等の光学系の収差によっても、ぼやけたり歪んだりすることがあります。
そのように光学系や大気等、様々な影響によって劣化した画像を修正し、元のはっきりくっきりした画像を再現することを「画像復元」と総称したりします。今度は、この少しぼやけた月の写真を画像復元して、はっきりくっきりした画像にしましょう。

(1) Deconvolution

画像復元にはいろいろな方法がありますが、今回ご紹介するのは、Deconvolution というプロセスです。この Deconvolution は、PI を代表する「優れものプロセス」の一つでして、一言でいえば Convolution の逆です。「じゃあ、Convolutionって何だ?」ということになりますが、これを単純に翻訳すると「畳み込み積分」とか「重畳積分」という日本語訳が出てくると思います。どっちにしても頭の上に「?」マークが2万個くらい出てきそうですね。(笑)
Deconvolution の考え方については、第4.5回の補足で少しだけ詳しく解説していますので、興味のある方はそちらを見ていただくとして、ここではそんな数学的な難しいことは置いといて、とりあえず使ってみることにしましょう。

メニューバーから、PROCESS > Deconvolution > Deconvolution と辿って起動してください。

04_01_select_deconvolution
図4-1. Deconvolutionを起動

もちろん、PROCESS > All Processes > Deconvolution でも構いません。
すると、下図のような画面が立ち上がります。

04_02_deconvolution
図4-2. Deconvolution

さっそく Deconvolution を実行してみたいところですが、Deconvolution をいきなり画像全体に適用すると処理に少々時間がかかるので、その前に一部分だけを切り取って、その中だけで、いわば「試し処理」をしてみることにします。

ツールバーの "New Preview Mode" をオンにして、どこでも良いのであまり大きくならない範囲を選択してください。

04_03_select_preview
図4-3. Preview領域を選択

すると、画像のウィンドウの左側の枠に "Preview01" というタブが現れます。そして、それをクリックすると、先ほど選択した preview 領域だけが表示されるようになります。

04_04_preview01
図4-4. Preview領域だけを表示

この領域に対して、Deconvolution の試し処理を施してみます。
Algorithmオプションは、まあどれでも良いんですが、デフォルト通り "Regularized Richardson-Lucy" を選択してみましょう。Richardson-Lucy法というのは、光学設計に詳しい方なら馴染み深いのではないでしょうか。他のオプションも、まずはデフォルトのままで実行してみます。
プロセスの実行は簡単で、プロセス画面の左下にある四角マークを押すか、もしくは下図のように三角マークを処理対象の画像にドラッグ&ドロップするだけです。

04_05_deco_dd
図4-5. Deconvolution実行

これだけでも画像が少しくっきりとしてくると思います。

ここで、Preview画面に対しては、ツールバーの下図の矢印マークを押すことでプロセス実行の Undo/Redo を繰り返し表示することができます。これで、プロセス実行前後の画像の変化を見て、その効果を確認することができるわけです。

04_06_undoredo
図4-6. Undo/Redo Preview

デフォルトパラメータでどの程度の効果があるかがわかったら、次に、StdDevShape の値を少し変更して再度実行してみてください。この2つのパラメータを変えて何度か実行して Undo/Redo を繰り返していると、そのうち2つのパラメータのスイートスポットがわかってくると思います。どこがスイートスポットなのかは、画像によっても違いますし、人それぞれの好みもあるかと思いますが、私は下の画像くらいが良いのではないかなと思います。

04_07_deco_sweetspot
図4-7. Deconvolution実行例

ぼやけていた画像がだいぶくっきりしてきましたね。2つのパラメータのスイートスポットがわかったら、Iteration を 30~50くらいに上げて再度確認し、それで良ければ今度は画像全体のタブに切り替えて、画像全体に対して実行してください。画像の画素数が大きくなればなるほど、また Iterationの回数が多くなればなるほど、処理には時間がかかるようになるので、そのおつもりで。

04_08_deco_doall
図4-8. パラメータが決まったら画像全体に実行

これで、Deconvolution 完了です。
 
(2) MultiscaleLinearTransform
 
Deconvolutionで画像復元したら、今度は画像の輪郭を強調しましょう。輪郭を強調すると、画像がシャープに見えるようになります。

使うプロセスは、MultiscaleLinearTransform(MLT) です。UnsharpMask というプロセスでも似たような効果が得られるのですが、今回は MLT を使ってみます。

04_09_mlt
図4-9. MultiscaleLinearTransform

これも Deconvolution 同様、なんだかパラメータやオプションがいっぱいあって、見ただけで「もうわけわからん!」と言いたくなりますが、この MLT は、画像をシャープにしたりぼかしたり、あるいはノイズを減らしたりと、色々な用途で万能的に使えるプロセスです。おまけに MLT には Real-Time Preview 機能がついていて、いちいち実行しなくてもリアルタイムで効果を確認することができます。
まず、図4-4と同様に月のPreview領域だけを表示するようにし、MLTの左下の丸印のボタンを押して、Real-Time Preview 画面を表示します。
そして、2もしくは3くらいの比較的小さな Layer(レイヤー)で Bias のスライダーを右に動かします。

04_10_mlt_beforeafter
図4-10. Real-Time Preview上での MultiscaleLinearTransform実行例

Bias をプラス方向に動かせば、そのレイヤーが強調されます。
このレイヤーについても補足でもう少し詳しく解説しますが、この処理で月のクレーター等の輪郭が強調されます。人間の目は、物の輪郭が強調されるとシャープになったように見えるから不思議ですね。それはともかく、Real-Time Preview を使えば、パラメータ値を変えるとその都度すぐに効果が確認できるので便利です。Real-Time Preview で Bias値のスイートスポットがわかったら、Deconvolutionのときと同様、月の画像全体に MLT を実行します。なお、さきほども言った通り UnsharpMask でも似たような効果が得られるので、気になる方は UnsharpMask も試してみて、気に入った方のプロセスを選択してください。

では、ここまでの画像処理によって、撮って出し画像がどのように変わってきたのか、繋げて見てみることにしましょう。

04_11_sofar
図4-11. MLTまでの処理結果

どうですか?だいぶ印象が変わって見えるようになったと思います。

今回は、Deconvolution にしろ MLT にしろ、必要最小限のパラメータしか変更していませんが、それでもかなりの効果が見られます。どちらのプロセスもパラメータが沢山ありますので、色々とパラメータを変えて試してみて、自分の好みに合ったパラメータセットを見つけてみて下さい。

<つづく>

2018年5月 7日 (月)

PixInsightで画像処理を始めよう ~ 第3.5回 【補足】 Histogram と HistogramTransformation

3.5-1. ヒストグラム

画像処理をする上で、まず知っておかなければならないものの一つとして、histogram(ヒストグラム)があります。ヒストグラムは「度数分布図」と和訳されることがありますが、その名の通り、その画像の中にどの明るさのピクセルがどのくらいあるか、その分布をグラフにしたものです。

35_01_histogramex
図3.5-1. HistogramTransformationで見たヒストグラムの例
 
上図がそのヒストグラムの例で、R/G/Bの3つの色ごとにグラフとして表示されています。このグラフの横軸がピクセルの明るさを表し、0 から 1 までの値で表現されています。一方、縦軸はその明るさのピクセルの数を表しています。

ヒストグラムは一つの統計情報なので、ヒストグラムを見ても、具体的に何が写っている画像なのかはわかりませんが、これを見れば、どの明るさのピクセルが多い画像なのか(全体としてどのくらいの明るさの画像なのか)、あるいはコントラストが高いのか低いのか等、その画像に対する様々な情報が得られます。

この情報が画像処理においては非常に重要なので、画像を見たら、まずヒストグラムを調べる癖をつけておくと良いでしょう。

 

3.5-2. HistogramTransformation(HT)での変換

HistogramTransformation の Transformation とは「変換」のことです。HT は、ヒストグラムを参照しながら、画像の各ピクセルの明るさを変換して、画像全体の明るさやコントラストを変えるためのツールです。下図を見てください。

35_02_smh
図3.5-2. Shadows/Midtones/Highlights
 
まず、ヒストグラムを左下から右上に斜めに走っている一本の直線が目に付くと思います。さらによく見ると、ヒストグラムの下に白い三角マークが3つありますよね。左から、シャドウ、ミッドトーン、ハイライトと呼びます。これらの位置を適当に変えてみましょう。

35_03_transcurve
図3.5-3. 変換曲線
 
すると、上図のように、それまで斜めに走っていた直線が曲線になります。この曲線が変換曲線です。変換曲線を見るときには、横軸が変換前のピクセルの明るさ、縦軸が変換後のピクセルの明るさを表していると考えます。

例えば図3.5-3の A の明るさのピクセルであれば、A' の明るさに変換される、ということを意味しているわけです。

シャドウポイントよりも左側にある B の明るさだったピクセルは、変換後に 0 の明るさ(真っ暗)になります。反対に、ハイライトポイントよりも右側にある C の明るさだったピクセルは、変換後に 1 の明るさになることがわかりますね。

シャドウポイントやハイライトポイントを動かして変換することをクリッピング(clipping)とも言います。シャドウクリッピングであれば、それ以下の明るさのピクセルは、全て 0(真っ暗)になりますし、ハイライトクリッピングであれば、それ以上の明るさのピクセルは、全て 1(飽和)になってしまいます。

クリッピングは、ピクセルが持っていた情報を捨てることを意味します。一度捨てられた情報はもう戻ってこないので、慎重にやる必要があります。天体写真の画像処理においては、とくにハイライトクリッピングはほとんどしません。HT を使った明るさ調整は、ミッドトーンを左右に動かすことを基本とし、それに加えて、クリップされるピクセル数があまり多くならない程度にシャドウクリッピングをして行うもの、と覚えておいてください。

<つづく>

PixInsightで画像処理を始めよう ~ 第3回 花有清香月有陰(1)

3-1. きれいなお月さんは、好きですか。

星雲や星団といった一般的な天体写真は大変暗いので、長時間にわたる露光が必要となります。したがって、それなりの機材構成が必要となる等、初心者には少々ハードルが高いものです。それに比べて、月は明るく、ある程度の面積があるので、 比較的初心者でも対象としやすい天体と言えるでしょう。 それに、気候がだんだん暖かくなってくると、夜に月を撮影するのも苦ではなくなってきます。かの蘇軾でなくとも、花有清香月有陰(花に清香有り、月に陰有り)と詠みたくなる季節です。

月は私たちにとって最も身近な天体でもありますし、皆さんの中にも、月の写真なら撮ったことがあるという人は少なくないと思います。ということで、この連載では、まず月の写真を画像処理してみましょう。

上記のとおり、月は明るいので、数十分の1秒から数百分の1秒程度の露出で撮れます。最初に撮って出しのJPEG画像を見てください。

03_01_moon_s
図3-1 月の撮って出し画像(上:全体、下:一部拡大)

撮影日:2018/3/25
撮影地:横浜市
レンズ:BORG71FL、Tele Vue 3x Barlow(合成焦点距離1200mm)
架台:SWAT-200
カメラ:SONY α6000
ISO感度:400
露出:1/100秒

写真上が全体写真で、下がその一部(緑枠部分)を等倍に拡大したものです。(いずれも少し明るくしてあります。)よく写っていると思いますが、拡大部分をよく見ると、ザラザラしているのがわかりますね。これはノイズです。
ノイズにもいろいろと種類がありますが、このザラザラの主たる原因は、一般的に「ランダムノイズ」といわれるノイズによるもので、ISO感度や露出時間等のカメラの設定が同じでも、撮るたびに出方が違います。

こうしたランダムノイズを減らす方法としてよく用いられているのが、何枚も撮影してそれを重ね、画素ごとに平均をとるという方法です。次の図を見てください。

03_02_ave_comb
図3-2. 加算平均概念図

これは、画像のノイズの量を棒グラフであらわしたものです。上のA~Dの4つの画像のノイズはすべて出方がバラバラで、そのばらつきも大きいです。しかし、この4つを重ね合わせて平均をとると、下のグラフのように、ばらつきが小さくなります。ここでは4枚でしたが、10枚、20枚と重ね合わせる枚数が多くなればなるほど、原理的にはばらつきが小さく(ノイズが少なく)なります。

この原理を利用して、ノイズを減らしましょう。そのために、まずは写真をたくさん撮っておいてください。

 

3-2. FFTRegistrationで重ね合わせ

撮影が終わったら、いよいよ PixInsight で画像処理です。
ところで、一般的に、デジタルカメラの出力形式には JPEG と RAW の2種類があるかと思います。天体写真の画像処理には、RAWデータの方が都合が良いことが多く、月でもそれは同じです。ただ、「初めてだったから JPEGで撮っちゃった(てへっ)」という人も多いでしょうし、JPEGでも処理できないわけではないので、今回は JPEG画像を使うこととします。

さあ、まずはノイズを減らすために、沢山の月の写真を重ね合わせることから始めましょう。しかし、撮った写真を何枚か見比べてみると分かると思いますが、下図のように月が写っている位置が微妙にズレていることがあります。
 
03_03_slide
図3-3. 月が写っている位置がわずかにズレている

重ね合わせるときには、月がしっかりと重なるように位置を合わせてから重ね合わせなければ意味がありません。月の位置を合わせ、それらを重ね合わせるのによく使われるのが、FFTRegistration というスクリプトです。FFTとは、Fast Fourier Transform(高速フーリエ変換)の略です。大学の工学系の学部で学ばれた方にはお馴染みの言葉だと思いますが、詳しいことはわからなくてもとりあえず処理はできますから、身構えなくても大丈夫ですよ。

月の位置合わせは StarAlignment という別のプロセスを使ってもできるのですが、少々面倒くさいので、ここでは FFTRegistration を使うこととします。メニューバーから、SCRIPT > Utilities > FFTRegistration と辿って起動してください。
 03_04_select_fftr_s
図3-4. FFTRegistrationを起動
 
すると、次のような FFTRegistration の画面が立ち上がります。
 03_05_fftr
図3-5. FFTRegistration
 
Add ボタンを押して、Target Images に月を撮った画像を入力してください。
 
03_06_fftr_select_images
図3-6. FFTRegistrationへのデータ入力
 
ただ、位置合わせのためには、どれかの画像を基準としなければなりません。その基準画像を1つ選んで Reference Image に入力してください。右側の Select ボタンから選択できます。基準画像は、なるべくブレが少なくて綺麗に撮れているものを選ぶと良いでしょう。

それから、写真によって月が写っている位置が大きくズレてしまっている場合には、画面下の Registration Options から、Enable large translations を有効にした方が良いでしょう。また、写真によって月が回転してしまっている場合には、Correct for rotation も有効にした方が良いかもしれません。もっとも、SWATのような赤道儀にカメラを載せて、月を追尾しながら撮影していれば、普通は上の2つのオプションは不要かと思います。これらのオプションを付けると、処理に時間がかかるようになるので、要注意です。OKボタンを押して実行すると、しばらくして次のような画像が画面上に出力されます。
 03_07_fftred_s
図3-7. FFTRegistration後(上:全体、下:一部拡大)
 
FTTRegistrationで重ね合わせる前の画像と比較すると、ノイズが減って滑らかになっていることがわかると思います。2倍拡大した次の画像の方がわかりやすいですね。
 03_08_fftr_beforeafter
図3-8. FFTRegistration前後の画像比較(2倍拡大)
 
なお、これと同様の機能を持つプログラムとして、Autostakkert! (AS)というフリーソフトがあります。AS はフリーであるにもかかわらず非常に優れたプログラムでして、品質の悪い画像を捨てて、品質の良いものだけで重ね合わせを行うことができる等、使い勝手が良く、なにより処理速度が速いので、この処理だけであれば AS を使う人が多いと思います。

私もこの処理だけであれば AS を使う派ですが、FFTRegistration も決して悪くはありませんし、複数のプログラムを使ってその間でデータをやり取りするというのは、不便な面もあります。そのときの都合や好みに応じて、使うプログラムを変えて処理するというのも良いでしょう。

 

3-3. Crop(クロップ)

ところで、この月の画像は背景宇宙の黒い部分が少々広いです。処理したいのはあくまで月であって、背景宇宙は余分なので、これから色んな処理を施す前に、この余分な部分をある程度切り取って(クロップして)おきましょう。

メニューバーから、PROCESS > All Processes > DynamicCrop と辿って、DynamicCropを起動します。

そして月の画像上にマウスポインタを移動させると、マウスポインタが十字になります。その状態で、切り取りたい範囲をマウス操作で選択します。

03_09_dynamiccrop_select
図3-9. DynaimcCropで任意の範囲を選択
 
選択した範囲は、マウス操作で広げたり狭くしたり、あるいは回転させたりすることも可能なので、適宜調整します。

03_10_dynamiccrop_rotate
図3-10. 範囲を回転
 
範囲が決まったら、DynamicCrop の一番下の左から二番目のチェックマークをクリックすると、選択した範囲のとおりにクロップされます。

03_11_dynamiccrop_apply
図3-11. 実行してクロップ
 
クロップ後、ウィンドウ左下の Fit View ボタンを押すと、画像の表示サイズに合わせて(1/4サイズで表示しているのなら 1/4サイズに合わせて)ウィンドウサイズが変わります。

03_12_fitview
図3-12. Fit View でウィンドウサイズを調整
 
Fit View はよく使うので、覚えておくと便利です。

 

3-4. 明るさを調整しよう

ところで、写真の全体的な明るさは、その写真によって異なります。これから様々な処理を施すことになりますが、その度に明るさが変わることもあります。明るすぎたり暗すぎたりすると、処理の効果がわかりづらくなります。ですから、ここで PI で最も基本的な明るさの調整方法を学習しておきましょう。

メニューバーから PROCESS > All Processes > ScreenTransferFunction と辿って、ScreenTransferFunction(STF)を起動します。

03_12_stf
図3-12. ScreenTransferFunction
 
まず、明るさを調整したい画像をアクティブにして、STFの右下のチェックマークをオンにします。さらに、左上の鎖のマークをオンにします。その状態で、R/G/Bのバーの真ん中にある三角マークを左右に動かしてみてください。鎖マークをオンにしていると、R/G/B/の三角が連動して動きます。

0313_stf
図3-13. STFでの明るさ調整
 
左に動かすと明るくなり、右に動かすと暗くなります。これで、ちょうど良い明るさにしてください。しかし、ここで注意が必要です。STFで明るさを調整しても、それは画面上で(見かけ上)明るさが変わっているだけで、画像の情報自体は変えていません。ですから、暗い画像を STF で明るくしても、それだけの状態で画像ファイルに保存すると、暗い画像のまま保存されてしまいます。いわば、処理を実行する前の Real-Time Preview みたいなものです。

STFで調整した明るさを実際に反映するには、HistogramTransformation(HT)というプロセスを使って、次のような手順で行ないます。

0314_ht
図3-14. HistogramTransformation
 
① STF左下の三角マークを HT の一番下の少し色が違う枠にドラッグ&ドロップ
② HT左下の三角マークを画像にドラッグ&ドロップ
③ STF右下の Reset をクリックして、STFの設定をリセットする

0315_applystf
図3-15. STFで調整した明るさをHTで反映する手順
 
こんな風に明るさを調整するのはなんだか面倒くさいと思うかもしれませんが、慣れるとなんでもなくなってきますし、STF のようなプロセスが必要な理由は後々わかることになりますので、今は我慢してください。なお、STF で調整した結果を反映するのは、画像を保存するときに最後に1回だけすれば良くて、それまでは STF で見かけ上の明るさを調整するだけで構いません。今後、処理を続ける途中で明るさを調整したくなったら、その都度 STF で見かけ上の調整をしてください。
 
ここまででひとまず準備完了といったところです。次回(第4回)からいよいよ画像処理っぽくなってきますよ。乞う、ご期待!
 
<つづく>

2018年4月23日 (月)

PixInsightで画像処理を始めよう ~ 第2回 PixInsightの導入

2-1. 画像処理にはプログラムが必要

前回は、画像処理をすると天体写真が見違えるほど綺麗になるというお話をしましたが、そもそも画像処理をするにはプログラムが必要です。

世の中には様々なプログラムがありますが、画像処理プログラムと言えば、まず Photoshop が有名ですね。天体写真の画像処理にも Photoshop を使っている人は大勢います。しかし、Photoshop は一般的な写真を修正・加工(レタッチ)するプログラムであって、天体写真専用に作られた画像処理プログラムではないので、これだけで天体写真の画像処理を全部行うことはできず、どうしても他のプログラムの力を借りなければなりません。また、料金は月額制なので、長期間使用するとかなりな高額となります。

天体写真の画像処理専用のフリーソフトもあります。例えば、DeepSkyStacker、AutoStakkert!、Registax などが有名です。ユーザも非常に多く、むしろ天体写真ファンの中でこれらを使ったことが無い人の方が少数派ではないか言えるほどです。しかし、これらのフリーソフトは、ある特定の目的や機能だけに限定した処理プログラムで、これだけですべての処理を行うことはやはりできません。

一方、天体写真専用の総合的な画像処理プログラムもあります。日本では StellaImage(ステライメージ)が有名で、ユーザも多いと思いますが、私が使っているのは、PixInsight (以下、「PI」と略します)というヨーロッパのプログラムです。前回ご覧いただいた写真もすべて1から PI で画像処理したものです。

02_01_pixinsighthp
図2-1. PixInsight ホームページ

PI は、StellaImage に比べて日本ではまだまだユーザ数が少ないのですが、世界的にはむしろ PI を使っている人の方がはるかに多いです。先駆的で秀逸な処理ツールが揃っていて、非常に強力なプログラムと言えます。

この連載では、この PI を使った基礎的な画像処理方法をお教えしたいと思います。

ちなみに、上記ホームページの背景に凄い天体写真が次々と表示されてちょっとビビりますけれども(笑)、つい最近まで大きな天文台の望遠鏡でないと撮れなかったような写真がアマチュアレベルでも撮れるようになりました。めざましい技術の進歩の賜物ですね。

2-2. PixInsight をインストールしよう

PI をダウンロードするには、まずライセンスを入手する必要があります。

正式な商用ライセンス(Commercial License)とトライアルライセンス(Trial License)の2種類がありますが、ここではトライアルライセンスの入手方法をご紹介しましょう。

トライアルライセンスの有効期間は45日間。トライアルとはいえフル機能を使えます。また、他のプログラムの試用版でよくあるような、画像の保存ができないとか、保存した画像に妙な透かしが入るとか、そのような厄介なこともありませんので、まずはこちらで試用してみて、気に入ったら商用ライセンスを購入するというのが良いでしょう。

ちなみに、商用ライセンスの価格は 230ユーロ。130円/ユーロなら、約3万円ですね。決して安価とは言い難い価格ですが、望遠鏡やカメラ、赤道儀といった物理的な機材に比べれば、数分の一から数十分の一程度の価格ですし、一度購入すれば追加料金は不要で、複数台のパソコンにインストールできます。また、将来的なメジャーバージョンアップでない限り、アップデートは無償で受けられます。

(1) ライセンスを入手

まず、pixinsight.com のホームページのメニューバーにある LICENSES から Request Free Trial License をクリックします。
商用ライセンスを入手したければ、Purchase Commercial Licese を選択して、指定された手続きに従って購入してください。

02_02_pixinsighthp_licenses
図2-2. Request Free Trial License

Request Free Trial License を選択すると、次のようなリクエストフォームが表示されますので、これに必要事項を入力し、一番下の Submit ボタンを押します。

02_03_requestform
図2-3. Trial License Request Form

すると、リクエストフォームに入力したメールアドレスにメールが届きます。
1通目は、リクエストを受け付けたという内容のメールで、これはすぐに届くと思います。そして、ライセンスが発行されると2通目のメールが届きます。ただし、申請内容に対して Pleiades Astrophoto社で人の手による簡単な確認が行なわれるようなので、2通目のメールが届くまで数時間程度かかると思います。2通目のメールには、プログラムをダウンロードしてライセンスを有効にする手順等が書かれていますので、確認してください。

(2) プログラムをダウンロード

ライセンス発行を知らせる2通目のメールが届いたら、ホームページのメニューバーの DOWNLOADS から Software Distribution をクリックします。

02_04_pixinsighthp_downloads
図2-4. Software Distribution ページへ

すると、次のようなログインページが表示されます。
Username と Password は、先ほどの2通目のメールに書かれていますので、それを入力してログインします。

02_05_softwaredistribution
図2-5. Software Distribution ログインページ

ログイン後に表示されたページから、お使いの PC の OS に合ったプログラムをダウンロードします。
ダウンロードが終わったら、インストールしてください。

(3) ライセンスを入力

初めて PI を起動すると、以下の情報を入力するよう要求されます。

 - User identifier
 - Activation code

これらも先ほどの2通目のメールに書かれていますので、それを入力します。
入力すると、PI が使えるようになるはずです。

02_06_pixinsight
図2-6. PixInsight 1.8.5

最初はどうやって使うのかわからないと思いますが、よく考えれば、初めて使うプログラムというのはみんなそういうものです。この連載では、初めて使う人でも操作できるように解説するつもりです。

それでは、次回からいよいよ PI で画像処理を始めましょう。

<つづく>

 

2018年4月 8日 (日)

PixInsightで画像処理を始めよう ~ 第1回 画像処理の威力

1-1. はじめに

皆さん、こんにちは。または、こんばんは。そして、初めましての方は初めまして。
今回から、ユニテックさんのブログの場をお借りして、天体写真の画像処理方法の解説を連載させていただくこととなりました。不定期の連載になるかと思いますが、どうぞよろしくお願いいたします。

さて、このブログをご覧になっているということは、皆さんは雑誌やインターネットで美しい天体写真を見たことがあって、天体写真にそれなりに興味を持っておられるということでしょう。ここ、ユニテックさんのブログや SWATユーザさん達の Photo Galleryにも素晴らしい写真が沢山掲載されています。
あんな写真が自分にも撮れたら素敵ですよね。

でも、望遠鏡やレンズにカメラを取り付けて、ただ撮っただけではあんなに綺麗な写真は撮れません。実は、皆さんがよくご覧になる綺麗な天体写真は、程度の差こそあれ、ほぼすべて画像処理が施されたものなのです。今や天体写真に画像処理は、なくてはならないものと言っても過言ではありません。

 でも、画像処理ってなんだか難しそう。
 それに、どうせ画像処理したって、元の画像と大して変わらないでしょ?

と思っているアナタ。

そんなことありませんよ。
まずは、撮った写真が画像処理でどれほど変わるのか、その変わりっぷりに驚いてください。

最初は、明るくて一番身近な天体、月の拡大写真です。

●月面
01_01_moon_movie_3
図1-1. 月面

処理後の画像の高解像度版は こちら からご覧いただけます。

カメラの撮って出し画像は、ザラザラでなんだかぼやけてしまってますよね。皆さんの中にも、月の写真なら撮ったことがあるという人はいらっしゃるでしょう。その写真を拡大して見てください。この例のように、ザラザラで少しぼやけているはずです。

ザラザラなのはノイズのためです。
そして、ぼやけているのは、ピントが合っていないからでは決してありません。

ぼやけているのは、地球に大気があるからです。
月に限らず、遠くの建物や山の写真を撮ったり望遠鏡で覗いたりすると、遠くにあるものほどぼやけてしまって、はっきりとは見えなくなりますよね。あれと同じです。さらに、上空には強い風が吹いていて、光が揺らいで見えてしまいます。星が瞬いて見えるのはそのためですが、そうした地球の大気の影響によって、どんなにピントを合わせても月の表面はどうしても少しぼやけて写ってしまいます。

ところが、画像処理した方は、滑らかではっきりくっきりとし、表面の微細な構造が見えるようになっています。例えば、処理後の画像には、中央から少し左下に「へ」の字形をした細い筋みたいな地形が見えますね。カメラ撮って出しの写真には、この筋はあまりはっきりとは写っていないのですが、画像処理するとくっきり見えるようになっています。

これは「ヒギヌス谷」と呼ばれる谷で、この谷の幅はだいたい 2~3kmだそうです。単純に 3㎞だと仮定して、この日の地球と月との距離から単純計算すると、東京日本橋から見て、浜松市あたりにいる人の身長が、だいたいこの谷の幅と同じくらいに見えることになります。凄い解像度ですよね。わずか 7cmの望遠鏡でもこのくらいには撮れます。もっと大きな望遠鏡を使えば、もっと解像度を上げることも可能ですが、それでも撮ったばかりの画像はぼやけているので、いずれにしても画像処理が必要となります。

では、続いて次の写真を見てください。

●アンタレス周辺
01_02_antares_movie
図1-2. アンタレス周辺

処理後の画像の高解像度版は こちら から。

これはちょっと極端な例ですが、これに至っては、撮って出し画像と処理後の画像はもはや別物と言いたくなりますね。元が同じだとは、にわかには信じられないくらいに違います。

皆さんの中には、Photoshop か何かで風景写真やポートレート写真をレタッチ(修正・加工)したことがある人もいらっしゃるかもしれませんが、これはもはや「レタッチ」というレベルではありません。初めて見る方は、きっと驚かれることでしょう。

撮って出し画像が全体的にピンク色っぽいのは、天体改造したカメラで撮ったためにカラーバランスが崩れているからなんですが、それを除いても、撮って出し画像は全体的にほぼ一様に明るく写っていて、コントラストが低いですね。

この例に限らず、天体写真は暗い宇宙空間にある淡い天体を撮るものなので、撮ったばかりの写真はどうしてもこの例のように低コントラストに写ってしまうものなのです。

ところが、画像処理すると、漆黒の宇宙に淡い星雲が広がっている様子が高いコントラストで写し出され、色彩も実に鮮やかな画像になっています。

ちなみに、これはさそり座の頭部、1等星のアンタレス周辺の写真です。肝心のアンタレスが写っていない等、構図が悪いのは、本当はこの上下(南北)にもう1パネルずつあって、それらを繋げた作品を撮った時の素材だからです。(上下に3パネルを繋げた写真は こちらから ご覧いただけます。)

この辺りは、全天で最もカラフルで美しい領域として天体写真ファンの間で大人気で、春から初夏にかけてたくさんのファンの標的になります。ただしこれらの星雲は非常に淡いので、初心者がいきなり挑戦するとかなりの確率で撃沈してしまう、難度の高いターゲットではあります。しかし、ここを上手に撮れたら感激すること間違いなしですので、臆せず果敢に挑戦してください。

では、続いてもう一枚。今度は冬の星雲の写真も見ていただきましょう。

●魔女の横顔星雲
01_03_witchhead_movie
図1-3. 魔女の横顔星雲周辺

処理後の画像の高解像度版は こちら から。

これも先ほどと同じように、撮って出し画像とはまるで別物のような写真になっていますね。こんな星雲どこに写っていたんだ、と思いたくなるほどです。

ちなみに、この写真の左下にひときわ明るく写っている星は、オリオン座の一等星のリゲルです。皆さんも一度は見たことがある星じゃないでしょうか。
そして、この写真の下半分に細長く白っぽく写っている星雲を逆さまにしてみると・・・

01_04_witchhead_s_2
図1-4. 毒リンゴをお食べ

悪い魔女の横顔そっくりに見えませんか?
こんな人にリンゴを渡されそうになったら全力でお断りしたいですね(笑)。
この星雲は、このような形をしているところから、その名も「魔女の横顔」(英語では "Witch Head")星雲と言われていて、これまた天体写真ファンに人気の星雲です。こちらの星雲も淡いので、初心者がいきなり写すのは難しいかもしれませんが、こんなものが写せたらこれまた楽しいですよね。

どうですか。これが画像処理の威力です!

これほど劇的に変わるものなら、画像処理をやってみようという気になってきませんか?
画像処理で、あなたの撮った(あるいはこれから撮る)天体写真を劇的に美しく仕上げてみたくなりませんか?

この連載では、そんな皆さんを華麗なる画像処理の世界へご案内いたします。

なお、当然のことながら、天体写真の画像処理をするには、まず天体写真を撮らなければいけませんよね。しかし、天体写真の撮り方とか、4月10日発売のSWAT-310の恒星時目盛環の使い方とか、そういったことはユニテックさんがやさしく解説してくれると思いますので、その辺りのことはこの連載ではさらっと華麗に丸投げするスタイルでやっていくことにしましょう(笑)。

<つづく>