■プロフィール

ぷろどおむ

Author:ぷろどおむ
元サッカー少年。今はしがない化学屋です。

■最近の記事
■最近のコメント
■最近のトラックバック
■月別アーカイブ
■カテゴリー
■FC2カウンター

■ブロとも申請フォーム
■ブログ内検索

■RSSフィード
■リンク
スポンサーサイト
上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。


スポンサー広告 | --:--:--
アナログとデジタル,正確なのはどちら?
さて,久々の投稿になるわけですが,今回はこんな話題を少し。

今回の話題をまとめてみようかな?と思ったきっかけは知人との会話の最中に「最近の子供はデジタルな世界になれすぎているせいか,すぐに正確な回答が出てくることばかり求めていて,自分でぐちゃぐちゃ考えるという作業が足りてない。」という発言が出てきたことでした。

一瞬聞き流したのですが,微妙な違和感がぬぐえずにしばらく悩んでいたのですが,その過程でいろいろ考えていたら,ちょっと面白くなったので,頑張ってまとめてみました。あいかわらずそこそこの長文ですが,ご興味があればお付き合いください。

さて,この発言をきっかけに世の中を眺め回していると,やはり世間一般には「デジタルの方が正確」というイメージが定着しているように感じます。でも,その一方でいわゆる「モノ作り」の現場では「職人の感覚」というアナログが高精度な部品や製品の決め手になるなんて言う話も聞きます。ということは,実はぱっと見のイメージとは逆に,意外とアナログの方が正確だったりするんでしょうか?

あ,でも,コンピュータ制御により作られた高精度の金型により部品精度が向上したなんて言う話もやっぱり聞こえてきますよね。それに「デジタル制御」とか「コンピュータ制御」されたものの方が,手作業よりもやっぱり正確なモノが作れそうな気がしますし,そうで無ければ,今現在こんなに普及しているるわけもありませんよね?

さて,なんだか,日頃はさらりと流している部分なんですが,よくよく考えてみるとだんだんわからなくなってきてしまいます。いったいどちらが正確なんでしょう?

では,どちらがどうなのかと言う事を考える前に,まずは「デジタル」って何だろう?と言うことを考えてみましょう。

「デジタル」というと,「0か1か」みたいな二進数的な世界を想像する人が多いかもしれませんが,実質的には「数字」で何かを表現することすべてが「デジタル」であると言う事が出来ます。辞書的な表現だと「離散的な」数値として表現することみたいなことが書かれていたりしますが,ちょっと科学っぽく別の表現で言いかえますと「ある有効数字を持った数値で表現する」という言い方もできるかと思います。

例えばその辺に生えている木の枝の長さを,mmのオーダーまで測ろうと思います。でも,木の枝がきちんと1 mm単位で成長してくれるわけがありませんから,当然ぴったり○○ mmなんて表現ができるわけがありません。ですから,より正確に枝の長さを表現しようと思えば,0.1 mmの桁やそれ以下の桁で表現する必要があるわけですが,どこまで行ってもぴったりそこまでの桁で表現できるかどうかわかりません。もちろん使う道具が定規やメジャーなら0.1 mmの桁が精一杯でしょうし,レーザー計測器なんて使っても必ず最後の桁には正確では無い部分が残ってしまい,きちんと意味を持つ数字の桁はどうしても有限なものになり,厳密な意味で同一化することは不可能です。つまり,程度の差こそあれ,「デジタル化」=「近似」でしか無く,結果的に最後の桁には曖昧さ(=誤差,不確かさ)が残ります。

これに対し,アナログの世界では量は具体的に数値として表さずに連続した量として取り扱います。ですので,ある意味無限の有効数字を持つのに等しい世界になりますから,曖昧さとか「最後の桁」という概念すら無くなります。なのでデジタルのように「近似」ではなく,厳密な意味での「複製」により近いところまでたどり着くことができるわけです。

実際のところ,現実世界に存在するモノが持っている性質のほとんどは連続量,つまりアナログ量です。しかし,アナログの世界では量を数値で表現できませんので,今この値がいくつなのかを表現できません。表現すると言うことはすなわち「デジタル化する」ことです。すなわち「計測する」とか「計量する」という作業は,アナログ量をデジタル量として表現することになりますが,こうしてしまうともはやデジタルの世界です。ですから,アナログの世界の中だけでは前回の事象を客観的に表現することができす,結果的にその再現も非常に困難な仕事になってしまいます。

これに対し,デジタルの世界では(基準さえそろっていれば)0.1と言えば0.1ですから,前回0.1であったものを再現しようと思えば,(ある精度の範囲内で)再現できます。0.1で精度が足りなければ,0.134235…と有効数字を増やしてあげれば,より高い精度で正確に再現することができます。

さて,ここで知らんぷりして重要なキーワードを使わせていただきました。そう「精度」という言葉です。

実はよくよく考えてみると,「デジタルの方が正確だ」といいたくなる場面とは,実はこの「精度」が求められている場面なのです。

「精度」とは,以前にも説明したことがあるかもしれませんが,言い換えれば「どのくらい精密に再現できるか」ということを意味します。

師匠から弟子に伝えられるアナログな「技」の伝授は,残念ながらその再現性に問題があることは感覚的にご理解いただけると思いますが,デジタル的な数値でその技術を表現できれば,その有効数字の桁数に応じた精度によりなんかいでも同じように再現することができます。ですから,ある事象をある一定の精度の範囲内で複製する際には,圧倒的にデジタルの方が「正確に」再現できます。

これに対し,「どのくらい正しく表現できるか」という意味を表す「確度」という言葉があります。有限な有効数字を持つ「デジタル」の世界では,どうしてもある一定以上の「確度」を持つことができません。ある一定レベル以上のところに来ると,「曖昧さ(不確かさ)」の影響が無視できなくなってしまうからです。それに対し無限の有効数字を持つアナログは,無限に真実(正解)に近づくことが可能です。ですから,時に現時点での最高精度を持つデジタル機器を,人間の「アナログ」的な感覚は凌駕し,より「確度の高い」表現を可能にします。

現在国際度量衡委員会において審議されている「キログラム原器を置き換えた質量の再定義」という命題において,その鍵を握るモノの一つである「シリコンの真球結晶」は,ある磨き職人の手による逸品です。現在最高精度を持つどんな工作機械を用いても,彼が磨き上げたシリコン結晶以上の真球度を得ることができていません。つまり,「より確度の高い」真球は,アナログで無ければ作れないのです。

もちろんより有効数字を多くすることにより,いつの日かデジタルがアナログを凌駕することができる日が来るかもしれませんし,すでにデジタルがアナログを凌駕している分野もあります。しかし,デジタルには必ず「曖昧な部分(不確かさ)」が残ってしまうという宿命が存在するため,それを理解した上で扱う必要があることを,我々は決して忘れてはいけないのです。

現実に存在する様々なモノをデジタル化(=数値化)して表現することは,そのモノを理解する上でとても大切な作業です。しかし,中途半端にデジタル化されたことにより「わかったような気分」になってしまうことが様々な弊害をもたらすことは,肝に銘じておかなければなりません。もちろん,一番理解しておかなければならないのは,「デジタル化された数値には必ず不確かさ(誤差)が含まれている」という点ですが,それ以上にどのようにして「デジタル化(=数値化)」された値なのかと言う点を理解することもとても重要です。

「デジタル化」とは,何かを「近似」する作業であると同時に,自然界に存在する事象の一部を何らかの形で「切り取って」表現する作業でもあります。ですから,どのような事象のどのような部分を切り取った時の数値なのかということは極めて重要です。ですから,もしこの点が明らかになっていないと,大きな誤解をしてしまうことが多々あることには注意しなければいけません。

たとえば,最近話題になりやすい例で言いますと,A沼とB沼の底質に含まれる放射性セシウムの放射能を調べたところ,A沼では20,000 Bq/kgと言うデータが,B沼では1,000 Bq/kgであったというデータがあったとします。この時,より除染の必要性が高いのはどちらの沼でしょうか?

おそらく「当然A沼でしょう」と思われる方がたくさん居ると思います。でも,我々がこのような情報を得た時に取るべき正しい判断は,「これだけの情報では判断できないので,さらなる情報が必要である」と言うものなのです。

では,先ほどの情報には,どのような情報が足りていないのでしょうか?

この場合には非常に簡単で,「測定に用いた試料の採取条件」が決定的に足りません。

もちろん測定機器の種類や測定条件なども効いてくるわけではありますが,それよりなによりどういった素性の試料を「デジタル化」しているのかという,一番重要な情報が欠落しているのです。

先ほどの事例でいきますと,実はちゃんと調べてみると,A沼の試料は排水口の出口付近の底質を10 gだけ採取して測定しただけのデータ,B沼の試料は沼底全体から,その表面1 cm程度の底質を100 kg集めて測定した場合だったとすると,どうなるでしょう?

この場合,A沼の試料中に200 Bqの放射性セシウムが含まれていれば「20,000 Bq/kg」という測定値が出てきてしまいますが,じつはその沼に含まれる放射性セシウムはその200 Bqだけかもしれません。それに対し,B沼の場合には,少なくとも採取した試料中だけでも1,000 x 100 = 100,000 Bqの放射性セシウムが確実に含まれているわけです。

もちろんよっぽど恣意的に何かをしたい場合で無ければ,同一の組織や団体がこのような極端に違う測定を行うことは考えにくいわけですが,違う組織や団体が行った測定結果を比較する場合には,こういった部分にまで注意を払わなければ値を比較することなんてできないわけなんですね。

と,すっかり話が(いつものように(^^; )ずれてしまいました。

今回のお話しをまとめますと,最初の「デジタルとアナログの比較」という点については,

  • 自然界に存在する様々なものが持つ量のほとんどはアナログ量(連続量)である。
  • デジタル化とは,そのようなアナログ量をあるレベルで近似した数値として表現することである。
  • 「デジタル」と「アナログ」では求める「正確さ」が違う。

ということになるでしょうか。

また,その次に触れさせていただいた「デジタル化された数値を理解する」ために必要なことと言う話については,

  • デジタル化(計測,計量,数値化)には,かならず曖昧さ(不確かさ)が付属する。
  • 何かをデジタル化する際には,必ず「切り取り」条件が発生している。
  • デジタル化した値の意味を理解するためには,「どのように切り取られ」て「どの程度近似された」値なのかという情報が必要不可欠である。


と言うことになるかと思います。

…………,エントリ二つに分けた方が良かったですかね(^^; まぁ,とりあえず今回はこんなところで。



スポンサーサイト

テーマ:自然科学 - ジャンル:学問・文化・芸術

雑学 | 13:14:58 | Trackback(0) | Comments(0)
続・測定器の表示はどのくらい信用できるのか
それでは前回の予告通り検出限界などについての話をしたいと思います。ただ,私自信が専門にしている都合上,どうしても化学分析における機器分析をイメージした話が強くなってしまいますので,ご了承ください。重さや長さなどの物理測定では,また別のファクターが関与する場合が多いのですが,今回はあえてその辺を追求しません。ご希望があれば,別の機会にでも解説させていただきたいのですが,今回は割愛します。

さて,「検出限界」という言葉の響きから「その装置(もしくは方法)が測定対象を検出できるかどうかの限界(下限)」という意味である事はすぐに想像できると思いますが,一つ質問してみたいと思います。

もし,目的とする分析対象物が検出限界以下であるような試料を測定した場合,測定している装置は測定している間,どんなシグナル(信号)を出していると思いますか?

「検出限界以下なんだから,当然シグナルなんて何も出てこないはずじゃないの?」と思われている方が多いのかなぁ?などと想像しているのですが,いかがでしょうか。

直感的には,確かに何となくそうなるのが正しいような気はするんですが,実際には

「一定量のシグナルが常に出続けている」状態
になっています。

この,常に出続けている「一定量のシグナル」を,普通「ノイズ」と呼びます。

ノイズが発生する理由は様々で,検出器に流れる電気的なノイズなどはその代表的なものです。また,測定装置によっては原理上避ける事ができない(例えば,常にシグナルを発生するようなガスや溶液を流し続けなければいけないもの)バックグラウンド由来のノイズもあります。

測定対象が一定量以上存在していた場合,それを示すシグナルがこのノイズの中からひょっこり顔を出してきます。つまり,検出限界とは「ノイズの山の中から頭を出してきたシグナルを,きちんと間違えずに見つけることができる境界線」ということになります。実際には,慣例としてノイズの大きさを基準として,測定したい値(例えば物質量)が与えるシグナルの大きさがノイズの3倍の大きさを示すような場合(シグナル・ノイズ比 S/N=3)として設定される場合が多いです。

ですから,原理的にノイズが小さいことが期待される測定器の方が検出限界が小さくなるのが一般的です。たとえば,化学分析で良く用いられる光を使った検出器の場合も,白色光から特定の波長の光が減少した事を測定する吸光分析よりも,測定対象が入射した特定の波長とは異なった波長の光を出す蛍光分析の方が,そしてそれよりも分析対象自身が光を放出する発光分析の方が,検出限界は低くなります。また,放射線測定の検出感度が高いのも同様の理由です。

ただ,これは測定器の精度が十分に高い場合でして,もし測定器の精度がノイズよりも悪い場合には,同じ試料を測定した時に示す測定値の標準偏差を基準として,その3倍の大きさのシグナルが示す値を,検出限界値と設定します。

この辺は前回の精度や確度の話ともちょっと絡んでくるのですが,具体的な例を挙げてみましょう。

たとえばある測定器Aは,動作中ずっと0.1の桁が上下に変動し続けているけれども,測定中は同じ試料であれば1以上の桁は毎回同じ値を示すとします。このような場合であれば1以上の値が出れば確実に検出されているだろう,と判断することができます。しかし,常に0.1の桁まで全く動かないけれども,測定しなおす度に1の桁の値が変化するような測定器Bの場合には,1の桁の数字が動いても検出できたかどうか判断するのは危ない,と考えなければいけない(=測定対象が存在しない場合でも,1の桁が動いてしまっている可能性を否定できない)ということになります。

一見すると,測定時に0.1の桁まで安定した値を出してくれる測定器Bの方が,最後の桁がふらついて安定した値を表示してくれない測定器Aよりもすばらしい測定器のように見えてしまいます。また安定した値を表示してくれますので,ついつい一回しか測定していないのに最初に測定器Bから出てきた値を信用してしまいがちです。しかし,前述した通りより信用できる値を出してくれているのは測定器Aの方なのです。

実際こういうことは良くあったりしますので,自分が使っている測定器の素性をしっかり把握するという事は,正確な測定を行う上で非常に大切な事なのです。

ちょっと話がずれてしまいました。がんばって本題に戻りましょう。

このようにそれぞれの測定器には検出限界というものがあるわけですが,これは検出器そのものについての問題であると同時に,検出限界よりも大きなシグナルさえ得られたとしても,「表示された測定値が正確であることを保証しない」ことにも注意が必要です。

それは,もちろん前回お話しした「校正」の問題もあります。また,検出した物理量から物質量を推定する化学測定の場合には,測定器自身について「検出限界」とは別に「定量限界」という値があり,それ以上の測定値が得られない場合には,正しい物質量を推定する事ができません。定量限界は検出限界に準じた考え方でS/N=10(もしくは標準偏差の10倍)となるような値が設定される場合が多く,検出限界とは別に設定されています。

しかし,これらとはまた別の重要な要因もあります。それは「試料自身に由来するノイズ」です。

特に土壌や空気,水や食品など自然界に存在する試料では,「試料の均一性」が大きな問題となります。

人工的に制御して作られたものの場合は,きちんと条件さえ揃えれば均質なほぼ同一と言っても過言ではないような試料の集合を作成する事が可能です。これには,人工的に合成した化合物や溶液だけではなく,遺伝子的な均質性を保たれた実験用の細胞や,実験動物,実験植物なども含まれます。

しかし,制御された環境下で生み出されたわけではない,いわゆる天然試料には,当然ですがある一定量のばらつきが存在します。極端な例を挙げれば,関東地方における空気中の粉塵を評価しようとして筑波山の山頂や那須高原などの空気を採取し,「関東地方の空気はこんなに綺麗です」と言っても意味がありません。同様に東京のど真ん中を走るトンネルの中の空気を採取して「関東地方の空気はこんなに汚れています」といっても意味はありません。これは,土壌にしろ環境水にしろ同じことです。人間の体だって,手足や髪の毛とでは元々の構成成分も,有害物質の蓄積状態も全く異なります。なので,通常は「何のどのような状態を知りたいのか」という目的に応じて,必要な対象範囲から可能なかぎり数多くの試料を採取し,その平均とばらつきを評価します。もちろん可能な限り1カ所当たりの採取量を大きくするのも,測定値の精度を上げるためには重要です。

また,今一番の話題である空間線量のようにバックグラウンドにシグナルが常に存在し続けている場合も問題になります。このような場合に今現在の値が示している意味を評価するためには,通常値として採用可能な過去のデータの存在が必要不可欠です。そして,それらの値がどの程度ばらついているのかを確かめ,バックグラウンド値として考慮に入れる必要があります。

たとえば,通常の状況でも空間線量が年間を通した平均として0.10 μSv/h程度の平均値と±0.08 μSv/h程度の変動がある地域において,0.15 μSv/hの測定値が出たからと言って「通常の1.5倍の空間線量が測定された!!」と騒いでも全く意味がないですよね。つまりはそういうことです。

また,目的によっては変動値のみに注目するために,得られた実測値からバックグラウンドを差し引いた値を(正味の)測定値として出す場合もあります。このような場合には当然測定値としてマイナスの値が出てくる可能性もあります。

ちなみに,普通は検出限界以下のシグナルしか得られなかった場合は不検出(Not Detectable; ND)と表現します。なぜこのような表現になってるかというと,その検出器(あるいは測定方法)で検出されなかったからと言って,検出対象が存在していないとは言い切れません。たまたまこの検出器や測定方法で検出できなかっただけであって,異なる全ての検出器や全ての測定方法で同じ試料から測定対象を検出できる可能性がゼロであるということを意味しないからです。要するに今話題の「ゼロではない」ということです。困った事にこの表現が,現在批判対象とされてしまっているわけですが,私自身は科学者がこういった表現を好むのは,科学者自身が誠実に自らの限界を認知しながら活動している証拠だと思っていますので,たぶんこの先も使い続けると思います。

また脱線しかかりましたね。本題に戻りましょう。

先ほどのようにバックグラウンドを差し引いた場合には,「きちんと検出されたけれども,通常値より低い」というケースが十分あり得ます。ですので,「測定値」として表示された値がマイナスになる可能性があるわけです。もちろんこのような差異を示したい場合には,通常マイナスの値を持った測定値には意味が無くなる(=通常状態からの異常は検知されないと判断できる)わけではありますが,測定結果としては前述の「ND」とは意味が全く異なりますので,より正確な情報を提供するために,あえてマイナスの値を表記する場合があります。

さらに,このような場合には,差し引かれて出てきた測定値が意味を持っているのかどうか(=有意差を持つかどうか)を評価しなくてはなりません。そのため通常時における測定値の変動をノイズとみなし,その変動(ノイズ)の山から十分大きく頭を出しているような値であるかどうかを判定します。要するに検出限界の亜種みたいなものなんですが,このようにして出した値は検出下限濃度(Minimum Detection Concentration; MDC)なんて呼ばれ方をしたりします。つまり,MDC以下の値を示した測定値は,ばらつきの中に埋もれてしまう=通常の検出限界以下の値として見なす事ができますので,意味を持たない値つまりゼロであると判断されます。

このような表現は,大気中核実験や今回のような原子炉事故により環境中に放出された放射性核種による放射能や空間線量への影響を見る場合のように,通常状態と非かくて大きな変動があるのかどうかを表現したい場合によく用いられる傾向があります。ですので,表などに出ている値を読み取る際には,このような表現方法が用いられている可能性も考慮に入れつつ,十分に注意して読み解く事をお勧めします。

さて,ここからはちょっと余談になります。

皆様ご存知の通り,福島第一原発の事故により低線量放射線の健康影響についての議論が様々な場所で見られるようになりました。しかし,それらの議論を聞いていると,今回の検出限界にまつわる話でも出てきた

ばらつきの中に埋もれてしまう程度の増分

をどう扱うべきか,と言う認識が非常に危ういのではないかというような印象を感じてしまいます。

具体的な例を挙げて考えてみましょう。こちらのページでは,ガンによる死亡率の統計データが公開されています。ここで公開されている2009年度の都道府県別悪性新生物死亡率(人口10万対)データから,この値が各都道府県間でどのくらいばらつきがあるかを計算すると相対標準偏差で約12.3 %となりました。要するに,日本国内だけでも地域によって一年間でこのくらいのばらつきが地域差として存在するという事です。かなり大きいですよね。

また,こちらの2005年罹患・死亡データに基づく「累積がん罹患・死亡リスク」統計(PDF)によれば,生涯における全がんの罹患リスクは男性で53.6 %,女性で40.5 %,2009年死亡データに基づくがんによる生涯死亡リスクは男性で26.1 %,女性で15.9%となっています。

それに対し低線量放射線によるガン死亡リスクの増加分は0.005~0.006 % / mSvとされており,仮に年間で20 mSvを連続的に浴びてしまったとしても「リスクの増分」は生涯において0.1~0.12 %です。また,こちらの図に示されている不確かさを加味しても上限で0.00884 %/mSV,20 mSvでも約0.18 %の増分です。

もちろん前述した生涯リスク算定の不確かさがどの程度あるのかについての情報がありませんので何とも言えませんが,20 mSv/年におけるリスク増分0.1 %は男性の死亡リスク26.1 %に対する相対値で0.38 %,女性の15.9%に対しても0.63 %の変動でしかありません。不確かさの上限である0.18 %を用いても,それぞれ0.69 %,1.13 %の変動でしかありません。ですので,どちらの場合を取っても普通は統計処理上十分無視できる範囲として処理されてしまうレベルの変動なのです。

しかし,世の中の論調を見ていると,こういうより大きな変動の中に増分が埋もれてしまうと言う事象が,感覚的に理解できない(あるいはしたくない?)方が,かなり多いように見受けられます。個人的には,そういった極めて微少な変動を意識しすぎる事で,ストレスなどの別要因が増大する方が,健康上良くないのではないかと心配しております。

余談が長くなってしまいました。

様々な測定値が各所であふれかえっている極めて混沌とした状況ではありますが,このエントリが様々な数字を正しく理解するための一助となれば幸いです。いつものようにご質問,あるいはここの理解間違っているだろというご指摘大歓迎です。どうかよろしくお願いいたします。

テーマ:科学・医療・心理 - ジャンル:学問・文化・芸術

雑学 | 18:37:17 | Trackback(0) | Comments(7)
測定器の表示はどのくらい信用できるのか
すっかりご無沙汰してしまいました。福島の方は,残念ながら炉心が融けてしまっているのがほぼ確定となった上に,水棺形成作業も極めて困難であるという報告があり,ますます予断を許さない状況になっております。

このような状況の中では不安になるなと言うのが無理な話ですが,より正確な状況が把握された事はより正確な対処を行える可能性が高まったという事でもあります。また,こんな事を言うとお叱りを受けるかもしれませんが,現場の人間に正確な情報が行ってないのは困りますが,現場の人間に必要な情報が提供されているのであれば,原子炉内部の状況に関して言えば外部の人間に情報が出てようが出て無かろうが,どちらにしろ我々ができる事は何もないのは一緒です。なので,できるだけ冷静に事態の推移を見守りたいと思います。ただ,周辺の空間線量や農作物の放射能レベルについては,我々でも可能なアクションが必要になる場合がありますので,その様な情報についてはしっかり注目していきたいと思っています。

しかし,ネット上に流れ飛ぶ様々な測定値から正しく不安を感じ,現在の状況を正しく理解するためには,やはり測定器に表示される測定値はどういう意味を持っているのか,そしてその信頼性を確保するためにはどのような作業が必要なのか,についてを十分理解する必要があると感じました。

というわけで,そもそも測定器一般が持っているエラーについて基本的な部分,つまりガイガーカウンタなどに限らない一般的な測定機器が持つエラーについて説明をさせていただきたいと思います。

さて,先ほどから私は測定の「誤差」と言わずに測定の「エラー」という表現をしています。これはどうしてかというと,そもそも「誤差」という言葉の定義である「真の値からのずれ」を成立させるために必要な「真の値」を知る事は,神ならぬ人の身には不可能だからです。

そのため,現在測定科学の領域では「不確かさ(uncertainty)」という言葉を用いて,その測定値の持つ信頼性を表現しています。たとえば「(0.52 ± 0.03) mg/kg」などと書かれた分析結果の場合には,真の値が0.55から0.49の間にある一定の確率(通常は95%)で存在する事を保証した分析値である事を意味しています。

この「不確かさ」がどのように導かれるのかについてはこの後順に説明していきたいと思っていますが,より簡便な表記方法とも言える「有効数字」という概念についても,もう一度復習していただきたいと思います。

「有効数字」というのは,文字通り「有効」つまり「十分な意味がある」数字と考えてください。よく例として用いられるのは,「5」と「5.0」では意味が違う,と言う話です。

有効数字を正しく理解して表現されている場合,「5」と1桁で表記された場合,この数字は「5.4から4.5」の間の幅を持つことを意味しますが,「5.0」と表記された場合にはこの数字は「5.04から4.95」の間の幅を持つことを意味します。また,「5」と書いている時は「有効数字が一桁」であると言い,「5.0」の時は「有効数字が二桁」であると言います。

では,この不確かさや有効数字の桁数はどのようにして求められているのでしょうか。

測定値は当然何らかの測定器を用いて求められますが,得られる測定値には大ざっぱに言って

ズレとばらつき

の2種類が含まれています。そして,それぞれがどのくらいの大きさを持っているのかを表現する言葉として「確度(ズレ)」と「精度(ばらつき)」があります。

「ばらつき」や「精度」という言葉には皆さん結構聞きなじみがあるのではないでしょうか。ちなみにここで言う「ズレとばらつき」は,より専門的な用語を使うと「系統誤差(systematic error)」と「偶然誤差(random error)」にあたります。また「ズレ」は「バイアス(bias,かたより)」という呼び方をする場合もあります。「ズレ」という語感から意味もなんとなく想像はできるかと思いますが,その測定器(もしくは測定方法)において本質的に発生してしまうエラーのことです。

そして,時々誤解されがちなのできちんと理解していただきたいのは,この両者の間には本質的には相関関係は存在しないということです。もちろん,ぞんざいに行われた測定はズレもばらつきも大きくなりますし,丁寧に行われた測定はズレもばらつきも小さくなるのは良くある事ですので,一見するとこの両者には関係がありそうに見えます。しかし,ばらつきが小さいからと言ってズレも小さいとは限りませんし,例えばらついていたとしてもその平均値や中央値が真値に限りなく近い(と考えられる)なんて事も良くある話なのです。

しかし,実は「ズレ」や「ばらつき」なんかよりも重大で測定を全てやり直さなければならない大きなエラーの原因として測定の教科書やJISなどでもあげられているのは,「gross error(まちがい)」と呼ばれる要因です。

まぁ,要するに装置の故障・装置や分析対象の不適切な取り扱い・分析手法の選択ミス・試料や装置の汚染などのことです。

つまり,目的とする測定値に対して「間違った装置の選択」「間違った手法の選択」「間違った操作」「間違った試料の取り扱い」などが存在したら,すべておしまいという事です。まぁ,当たり前ですね(^^; だからこそ「測定値」を真剣に考える人は,「どのようにして測定されたか」を重要視するんです。

たとえば,「間違った装置の選択」のわかりやすい例として重さを量る場合を考えましょう。人間の体重を測るのであれば,0.1 kgの桁まで表示できる秤があれば普通は十分です。でも,その様な秤で50 gのおもりと40 gのおもりの重さを区別する事ができるでしょうか?もちろんできませんよね?50 gと40 gの重さを区別したければ,最低でも10 g単位まで表示される秤が必要です。さらに50 gが51 gか49 gなのかを区別したければ1 g単位まで,50.1 gか49.9 gなのかを区別したければ,0.1 g単位まで表示できる秤が必要になります。もちろん表示される最後の一桁は信用できるかどうかわかりませんので,0.1 g単位まで信頼できる値として知りたいと思ったら,0.01 gまで表示される秤が必要になります。要するに,同じ「重さ」を測る場合であっても,測る対象と知りたい値の精度によって使う測定器(秤)は異なってくるという事です。

もちろん昨今話題のガイガーカウンタについても,太陽や岩盤から生じているバックグラウンド値を適切に取り除けているか,あるいはそれらが測定に与える影響を防げているか,前回の測定時に装置自身が汚染されていないか,測定レンジは適切か,線源との距離は適切かどうかなど,考えなくてはならない要因がたくさんありますので,これらの測定の妨害となる要因に関する知識と測定対象に関する知識,あと可能であれば測定原理に関する知識などが要求されます。

さて本題に戻ります。ある測定全体においてこのようなズレとばらつきから生じるエラー(不確かさ)は測定に関わる作業一つ一つについて発生します。私の専門の化学分析で話をすれば,サンプリングした試料の均質性に関わる不確かさ,サンプリングした瞬間から測定するまでの間の安定性に関わる不確かさ,試料の重さを量る時の不確かさ,測定に必要な前処理操作に関わる不確かさ,検量線を書くために使った標準物質の純度の不確かさ,測定器自身が持つ不確かさ,ありとあらゆる作業で不確かさが生じます。そして,これらの作業一つ一つについて発生した不確かさを積み上げることで,分析や測定全体で生じる不確かさを見積もることが可能になります。

このようにして得られた不確かさから,最終的な測定値がどの桁まで信用できるかということが判断され,測定値の有効数字が出てくるわけですが,当然それぞれの測定で用いられた測定器の精度が悪ければ,信用できる有効数字の桁数は小さくなりますし,適切な測定器を使わなければさらに有効数字の桁数は小さくなります。

それではばらつきとズレをなるべく抑えるにはどうすればよいのでしょう。

もちろん性能の高い測定器を使うというのが簡単に思いつく事かもしれませんが,「ばらつき」は,「偶然誤差」という呼ばれ方からもわかるとおり,真の値に対して正側にも負側にも或る一定の確率でばらまかれますので,測定回数を増やす事である程度のレベルまで下げる事は可能です。しかし,「ズレ」はその測定を行う事で本質的に生じるものですので,測定回数をいくら増やしても消える事はありません。そこで必要なのが「校正」と呼ばれる作業です。

校正(calibration)は,どんな測定器でもそれを正しく利用したい時には必ず必要な作業です。

どのような作業を行うかは,その測定器により様々ではありますが,本質的には「答えのわかっているものを測定して答え合わせをする」のが基本です。

その「答え」の究極はSI(国際単位系)であり,具体的にはキログラム原器や様々な物理量の定義となっている物理現象だったりするわけですが,実際にはそれぞれの測定器用に上位の標準(最終的にはSIにたどり着けるモノ=SIトレーサビリティが取れたモノ)により校正された実用標準と呼ばれるモノを使って校正を行います。校正を行う事により,その測定器が持つズレ(=系統誤差)の存在を明らかにし,得られた測定値に修正を加える事でより確かな測定値を得る事が可能になります。

さて,だいぶ昔に学生から「10 mLのホールピペットで1回測定するよりも,1 mLのホールピペットで10回測定する方が,ばらつきが抑えられてより正確に測れるのではないか」という質問をされた時がありました。ちなみにガラス体積計の許容差はJIS R3505-1994に規定されており,今話の出たホールピペットの場合は2 mL以下のもので±0.01 mL,10 mL以下のものですと±0.02 mL。一見すると,2 mL以下のものの方がより精度が高いように感じますが,彼のアイディアは正しいでしょうか?間違っているでしょうか???



それでは一緒に考えてみましょう。最近のガラス器具は非常に性能が高いので,実際にはこれより小さい不確かさしかないかもしれませんが,規格上ではここまでの不確かさは存在する可能性があると考えられます。また,確かに絶対量で表現すると2 mL以下の方が精度が高いように感じますが,測定する全体量に対する相対比で表すと2 mL以下のものが±0.5 %であるのに対し,10 mL以下のものですと±0.2 %となり,実は10 mL以下のものの方がより精確度(=精度+確度)が高い測定器であると言えるのです。

また,前述したとおりこの規格で許容されているエラーには系統誤差が含まれています。仮に±0.01 mLのうち,+0.003 mL分が系統誤差であるとすると10回繰り返し測定を行う事で,系統誤差由来のものだけで純粋に0.03 mL分のずれが生じてしまい,10 mLのホールピペットが持つ不確かさより大きくなってしまいます。

もちろんばらつき(偶然誤差)がより大きな場合には,そのばらつきの中に吸収されてしまうかもしれませんが,その保証はありませんし,どちらがどのくらい大きいのかを確かめるためには校正を行って,測定で生じるばらつきとズレを確認する必要があります。もしかするとそこまでやって確かめれば非常に精度の高い神様のような1 mLホールピペットを見つける事ができるかもしれませんが,そこまでするメリットが無さそうなのはご理解いただけるかと思います。

最初の方で話したガイガーカウンタやこのようなガラス器具は,一見すると最新鋭のコンピュータによる制御や処理の必要な大型装置よりも簡便で簡単に値が出るように見えます。しかし,実際にガラス器具で正確に水の体積を量り取ろうと思うと,実験環境での温度変化やガラス器具の洗浄具合,ホールピペットなどでは水を排出させる速度や,大ざっぱに排出させた後の待ち時間など気をつけなければならない要因がたくさんあります。しかも,原理が簡単なだけに,出てきた表示や目盛りを無意識に信用してしまいがちになるという罠まであります。

なので,実はコンピュータなどで測定環境や測定条件を精密に制御されている最近の大型測定装置よりも,単純な測定装置であればあるほど,測定者本人がしっかりと頭と体を使わないと正確な値を測定する事は非常に困難な,とても厄介な代物になる。ということは,十分に理解していただきたいと思います。

ただし,測定原理やエラーの原因となる要因を知り尽くしている熟練の分析技術者がこれらのより原理原則に近い測定法を使うと,その辺の大型装置ではかなわないような精密なデータを出したりするのも事実です。だからこそ「職人」と呼ばれるような人の存在が様々な分野で重要視されるわけなのですが,その辺は本題とはまた違う話になってしまいますし,長くなりましたのでとりあえずこの辺で一旦終了します。次回は検出限界とか,その辺りについてお話ししたいと思います。

テーマ:科学・医療・心理 - ジャンル:学問・文化・芸術

雑学 | 19:08:25 | Trackback(0) | Comments(0)
キレート化・錯体化,植物が必要としている栄養とは?
ワイルドベリーさんからコメントをいただきました。非常に興味深いお話をいただきありがとうございます。本当は,一つ一つお話をさせていただきたいのですが,ちょっと時間が取れそうにないので取り急ぎ以下のご質問についてだけ対応させていただきたいと思います。

私のところでは米ぬか、落ち葉などを原料に微生物を培養した発酵肥料なるものを作るのですが、そのとき微生物による有機物の分解過程で鉄やカルシウムなどのキレート化、錯体化が起こり、吸収率が飛躍的に高まるとの説を耳にしました。そのキレート化、錯体化というのがよくわかりません。調べ方が悪いのかネットで検索してみても今ひとつ理解できません。そこでキレート化、錯体化についてわかりやすく解説していただけませんでしょうか。


とりあえず化学で言うところの「キレート化」「錯体化」について説明させていただきますと,基本的にこの両者は同じ現象を表現していると思っていただいて結構です。

いわゆる金属と呼ばれる元素が自然界に存在する場合,単独の結晶として存在することは非常にまれで,ほとんどの場合は何らかのイオンの形で存在しています。当然,電荷が偏った状態で存在するのは非常に不安定ですので,普通は逆の電荷を持ったイオンと結びついた形で存在します。

そして,非常に大ざっぱな説明をすると,結びついている相手のイオンがいわゆる無機物であれば,「鉱物」と呼ばれる状態になり,有機物と結びついていると「(有機金属)錯体」と呼ばれます。鉱物の場合は結晶の状態で存在することになりますので,色とりどりの石などとして我々の目に触れることになりますが,錯体の場合は一般的には嵩高い有機物のごく一部として取り込まれ,自然界に様々な形で分散しているため,その姿を意識することはかなり難しいですが,ごくごく一般的な状態です。

もちろん植物・動物を問わず生物の体の中にも様々な錯体が存在しています。一番有名なのは,植物で言えば葉緑素であるクロロフィル(マグネシウムの錯体),動物で言えば血液中に含まれるヘモグロビン(鉄の錯体)などでしょうか。また,土壌中ではフミン酸と呼ばれる高分子化合物と様々な金属が錯体を形成していることが知られています。

さて,先ほどから「錯体」としか言っておりませんが,「キレート」はどこに行ったのでしょう。実は,化学用語では「金属と結びついている有機物」のことを「配位子」と呼ぶのですが,「キレート」というのは,この配位子の中でも特に「複数の配位座を持っている配位子のこと」を指します。簡単に言えば,複数の手で金属と結びつくことのできる有機化合物,とイメージしていただくのがよいかと思います。たとえば酢酸なども,配位子として働くことの出来る有機化合物ですが,これは配位子として働くことのできる場所(配位座)が一ヶ所しかありませんので,一般的には「キレート」とは呼ばれません。しかし,この酢酸が二個くっついたような構造を持つシュウ酸やマロン酸などは,配位子として働く場所が二ヶ所あるので「キレート」の一種と言えます。そして,金属イオンがこのような配位子やキレートと結びつくことを「キレート化」「錯体化」と呼び,できあがった化合物を「(金属)錯体」とか,「キレート錯体」と呼びます。一般的に複数の手で結びついている「キレート錯体」の方が,手を一本しか持たない配位子との錯体よりも構造的に安定で壊れにくいです。

と言ったところが,化学における「キレート」および「錯体」の説明になるのですが,ご質問いただいた「発酵肥料」に関わる「キレート化」「錯体化」について調べてみようと思って多少検索をしてみたところ,正直私の持っていた常識とは少々違う話が散見されていて,いったい何の話をしているのかかなりわからなくなってしまいました。

まず第一点として,これはいわゆる「有機農法」を信奉されている方が時折誤解されているようだとは認識していたのですが,
植物は基本的に無機栄養しか吸収しません

ので,「キレート化」により植物への吸収量が増大,とか言われると「?????」となってしまいます。

確かに動物の場合は,有機物を体内に取り込むシステムがありますので,場合によっては錯体化された構造の方が吸収されやすい場合もあるのは確かです。しかし,植物の持つ栄養吸収のシステムは,基本的に根の先端部分にある細胞膜の薄いところから浸透圧の原理により無機イオンを水と共に吸収します。その後,植物自身が細胞内に配位子となる構造のものを作って準備しておくことにより,水と共に細胞の中に入ってきた金属イオンを選択的に錯体化して捕集するという形が基本になるので,最初から錯体化,特にキレート化した状態で入ってこられると,まずそのキレート錯体を分解する手間が必要になり,コスト的に不利になります。というか,そもそもそんなに大きな有機物は直接取り込めません。

ただ,このような機構で無機栄養分が吸収されていますので,アミノ酸のような両性イオン(水の状態により,プラスの電荷とマイナスの電荷の両方を持つことが出来るような構造を持つ分子)と結びついている場合には,通常の状態よりも水に溶けやすくなりますので,吸収率が向上する可能性はあります。

この場合,例えばアミノ酸のカルボン酸の部分(-COOH)がカルボン酸イオン(-COO)の形でマイナス電荷を持つことで金属と結びつき,アミノ基(-NH3)の部分が(-NH4)の形になってプラス電荷を持つことで水に溶けやすい性質を得ることになります。決してこちらのページにあるような「キレート水」なんて科学的にあり得ないようなシステムが存在しているわけではありません。水に溶けにくいような構造のキレート錯体なんてなおさらです。



ただ,嵩高い構造のキレート錯体になりますと,現在私が知っている範囲のシステムでは取り込みにくくなる方向にしか働かないような気がしますので,どこかに良い説明があることをご存じの方がいらっしゃいましたら,私もぜひ教えていただきたいと思います。

というか,個人的には「発酵肥料」のように微生物などを使って肥料を作成することの意義は,意図的に発酵(腐敗)の過程を促進させることにより,それこそ非常に嵩高い構造を持ったキレート錯体などの有機化合物を分解し,植物が利用しやすいような形を持つ無機栄養分を大量に作成させることにあると思っているので,どうしてこういう説明がなされているのかが非常に疑問です。

邪推をすれば,「有機物を無機物に分解している」という字面のイメージが悪いものであると感じる風潮に迎合しているのか,あるいは「どうせ無機物にするんであれば,最初から無機物の化学肥料でもいいんじゃないの?」という批判を避けたいのかな?等と思いますが,実際なんでこういう説明をしているのかは,正直推測しかねています。

植物にはそれぞれの種類により,必要とする無機栄養分の割合が異なっており,もし特定の無機イオンが大量に存在しているような土壌だと,本当に必要としている無機栄養分を吸収できなくなってしまったりすることがあります。そのため,特定の無機物を中心とした化学肥料を用いる場合には,本当はより慎重に目的とする植物と利用している土壌の特性を考えてその混合比を見極めなければいけません。しかし,簡単そうに聞こえても実際にはかなり経験と知識の必要な難しい作業であり,素人が一朝一夕で適切な量の肥料を与えられるものではないように思います。そのため,特に家庭菜園などでは,特定の無機養分に偏っているわけではない有機物由来の肥料(充分に分解・発酵されたものであれば)を用いた方が,比較的容易に良い作物を育てることが出来ているのではないか,と思います。

しかし,戦前までのように植物から得た栄養分を最大限畑に戻すことが出来た時代とは異なり,現代の日本では植物から得た栄養素の大部分(=排泄物,死体)は焼却処分され,元の畑に十分に戻されているとは言い難い状況です。

もちろんこれらを焼却処分することにより得られた衛生面のメリットは非常に大きいものですので,肥だめを日本各地に復活させるべきだ,なんてことは言いません。でも,現実がそのような状況である以上は,日々田畑の土壌から減少している無機栄養分を何らかの形で補填する必要があり,より効率よく失われた栄養分を補充するためには,化学肥料を蛇蝎のごとく嫌って全否定し,生産量が決して多いわけではない有機由来の肥料にだけ頼っていくという姿勢を持ったりなどしたら,とてもやっていけるものではないと思います。

このブログで書いている問題のほぼ全てに言えることなんですが,結局のところいわゆる化学肥料も,有機物由来の肥料も,
正しく使えているかどうかが最大の問題

であって,どちらを使っているかなんていうのは,本質的には些細な問題に過ぎないのではないかと思います。有機物由来の肥料を使っていたとしても,その肥料が十分に発酵(=腐敗・熟成?)されたものでなければ,いわゆる「肥料焼け」を起こしますし,吸収効率も悪くなりますから,まともに成長してくれるかどうかはかなり怪しいものです。その辺はワイルドベリーさんのコメントにもあった「もちろん例外もあって慣行栽培でも上手な人が作ったものは甘みもあって何ともいい味がしますし、有機栽培といっても全然おいしくないものもあります。」という部分なのだと思います。結局のところ,化学肥料も有機肥料も万能ではない,というありふれた事実があるだけなんだと思います。もし化学肥料がそんなに悪いだけの物であるのだとしたら,化学肥料が大々的に導入後,農作物の生産量が大幅に増加したという現実とどう折り合いをつけるのか,という素朴な疑問もわいてきます。

ですから,有機肥料を用いるにしろ化学肥料を用いるにしろ,今自分はどういう成果を求めてどういう行動を行い,その結果として何が起きているのか,と言うことを一つ一つ理解して行動の指針とすることが,一番大切なのではないでしょうか。

といった感じで,ある程度回答になりましたでしょうか。ワイルドベリーさんが行われている発酵肥料による農業は,ある意味昔ながらの方法(肥だめによる熟成)を現代科学の知識(発酵学・微生物学)などで磨き上げたものだと認識しています。ですが,一点だけ。ここまでもいろいろ書きましたが,「土中の微生物によって分解されあるいは再合成されたビタミン類」が植物の生育に有意義な効果を発揮しているとは,少々考えにくいものがあります。そもそも「ビタミン」がなぜ人間にとって珍重されているかと言えば,ビタミンとは「人間が生命活動を行う上で必ず必要なものだけれども,体内で生合性することが出来ない化合物」であるからです。なので,「人間にとってのビタミン」が植物にとっても有効である=「植物のビタミン」である理由は全くありません。というか,そもそも彼らは私たちにとっての「ビタミン」を自分たちで生産し蓄積することが可能なんですから,わざわざ外部から苦労して取り入れる必要がありません。

もちろん微生物が「彼らにとってのビタミン」を生産し,供給していることは充分考えられますし,ある意味微生物が生産してくれる無機栄養分こそが「彼ら(=植物)にとってのビタミン」であるとも言えます。そう言う意味では,前述したとおり発酵肥料を利用した農業は,伝統的な手法を現代科学により向上させた好例となり得る事例だと思うのですが,発酵肥料に関するWebの中には,微妙に現代科学を否定する方向に走っているページが混じっているのが少々残念なところです。

というわけで,相変わらず長くてすいません。何かご意見・ご質問などありましたら,ぜひよろしくお願いいたします。

テーマ:自然科学 - ジャンル:学問・文化・芸術

雑学 | 17:25:35 | Trackback(0) | Comments(7)
雑学:続々・メートルのお話
前回の続きです。

前回書いた通り,光速が「定義」として設定されたことにより,波長(=長さ)を求めるためには「光の周波数」を厳密に求めさえすれば良いことになりました。

しかし,光の周波数は数百THz(テラヘルツ=10^12ヘルツ)の領域であるため,現在ある測定器で直接測定するのは非常に困難です。マイクロ波領域の周波数をカウントすることは技術的に可能となっているのですが,せいぜい100GHz(ギガヘルツ=10^9ヘルツ)までですので,両者の間には数千倍の開きがあります。そのため,これまで国家標準として使われてきた「よう素安定化 He-Ne レーザー」の周波数を求める際にも,「周波数チェイン」と呼ばれる技術を用い,測定したい「よう素安定化 He-Ne レーザー」の波長から,セシウム133原子の基準周波数である9193MHz(メガヘルツ=10^6ヘルツ)までの間に,「よう素安定化 He-Ne レーザー」よりも周波数の低い様々な波長のレーザーやマイクロ波を挟み込み,それぞれを比較しながら値をつけていくというある意味アナログ的なやり方で測定が行われたりしました。

そのため,理論上は時間測定の精度と同等のものが得られるはずの長さ測定の精度は,実際の測定により発生する不確かさに足を引っ張られてしまっていた(現在,時間は15桁の精度で測定可能)のも事実だったりします。

しかし,このような技術的な問題を見事に解決する非常に画期的な新しい技術が開発されました。それが

光周波数コム

と呼ばれる技術です。

レーザーに関する応用技術として,パルスレーザーと呼ばれるものがあります。パルスレーザーには,大まかに分けてモード同期型のパルスレーザーと,Qスイッチ型のパルスレーザーがあります。この技術は,光の持つエネルギーが非常に短い時間に濃縮されるために非常に高いエネルギーを簡単に得られるようになるため,化学の世界では通常では起きにくいような反応を引き起こすために用いられたりします。また,非常に短い時間だけ光が照射されますので,極短時間に起きている化学反応の様子を観察するのに使われたりします。

今回注目するのは,前者の「モード同期型パルスレーザー」です。

波には「うなり」と呼ばれる現象があります。これは,微妙に周波数の異なる波が混ざり合うことによりそれぞれの波が干渉し合い,結果的にある一定の周期で振幅が増減するという現象です。微妙に音程の違う音を同時に鳴らすと,音の強弱が変化しているように聞こえます。この現象がうまくいくと,結構いい感じの音に聞こえたりするため,音楽業界などではフランジャーと呼ばれる装置を使って,意図的にこのような現象を起こしたりします。

そして,光も音と同じく「波」としての性質を持っていますので,同じような現象が起きます。つまり,微妙に周波数を変えた光を同じタイミングで混ぜてあげると,時間的に光が強められたり弱められたりします。

さらに面白いことに,混ぜる光の種類を増やせば増やしていくほど,強められる時間がどんどん短くなり,極めて瞬間的な時間に非常に高い強度の光が発生するようになります。これがモード同期型パルスレーザーと呼ばれる技術です。

この時発生するパルスは,その間隔が非常に精度良く等間隔なのが特徴です。しかも,このパルスの間隔は混ぜ合わせる光の種類が多くなればなるほど短く,しかも前述した通りパルス光そのものが発生している時間も短くなります。この時発生するパルス光の様子が,まるで櫛(comb)のようであることから,このような現象を「光周波数コム」と呼ぶようになりました。

そして,この光周波数コムを「ものさしの目盛り」として利用することで,光周波数の絶対測定が非常に高精度で行えることがわかりました。

測定したい光(測定光)をこの光周波数コムと混ぜ合わせます。すると,当然ですがこの測定光と,この測定光に最も近い周波数成分の光との間にうなりが発生します。

ある種の光学結晶はその中を通過した光の波長を正確に半分にすることが知られています。つまり,先ほどの測定光の一部をこの光学結晶に通してから光周波数コムの光と同期させてあげると,半分の波長=2倍の周波数に相当するうなりが検出されることになります。

この時,元々の測定光の周波数(A)と光学結晶を通過した光の周波数(B)の差(つまり,元々測定したかった光の周波数)は,それぞれの光に関連したうなりの周波数と(AとBの間に存在する光周波数コムの数 x 光周波数コム目盛りの幅)の和で表現できます。

この場合に発生するうなりの周波数や,光周波数コムの目盛り幅はせいぜい1GHz程度ですので,従来のマイクロ波用の技術を使うことが出来ます。また,AとBの間に発生している光周波数コム目盛りの数は,普通の波長計などで簡単に測定することが出来ます。

さらに,この光周波数コムの周波数と,仮想的にそのまま等間隔で低周波数側にシフトした時,最もゼロに一番近い周波数(オフセット周波数)を時間の基準である「協定世界時」に同期させると,測定光の絶対周波数を厳密に求めることが出来るようになります。

これにより,従来は非常に大がかりな装置(部屋一個分くらいの設備が必要,しかも測定対象によりまったく異なる装置が必要)が必要だった光周波数の絶対測定が,非常に簡便かつ小型の装置で実現できるようになりました。

そして,ちょうど一ヶ月ほど前にこれらの装置が国家標準として認定され,運用が開始されています。この装置によって得られる精度はなんと13桁。これまでよりも300倍も高い精度で測定できるようになったのです。

もちろん実際にこの装置を使って校正できるのは,長さ測定用に使われているレーザー,具体的には,633 nm(よう素分子吸収線波長安定化ヘリウムネオンレーザ-),532 nm(よう素分子吸収線波長安定化レーザ-),1.5 μm帯(Cバンド)(アセチレン分子吸収線波長安定化レーザー),1.5 μm帯(Cバンド)(シアン化水素分子吸収線波長安定化レーザ-)の4種類のレーザー波長です。光波長コム装置によって校正されたこれらの波長安定化レーザーは特定二次標準器と呼ばれ,これを使って次のレベルの標準器(普通のヘリウムネオンレーザーや,Nd:YAGレーザーなど)が校正されます。そしてその次はその標準器により,ブロックゲージや他の様々な測定器具が順々に校正され,光周波数コムにより求められた正しい長さの値が,我々の使っているメジャーや定規の目盛りに繋がっていくことになります。

このような標準器から連なる測定の比較による一連の流れを「計量トレーサビリティ」と呼びます。

計量トレーサビリティは,長さだけではなく,SI(国際単位系)に属する7つの基本単位すべてにおいて構築され,すべての計量がSIへと繋がる道筋が,世界各国の国家計量機関により整備されています。日本では,産業技術総合研究所の計量標準総合センター(略称NMIJ)がその国家計量機関にあたり,計量に関する様々な活動を行っています。

というわけで,いきなり三回連続というすごい長さになってしまいました(^^; 最後まで読んでいただけた方には大感謝です。

それにしても,難しかった(X_X) 私も今回の一連のエントリ書くので勉強し直したんですが,光速が定義値になった辺りの一連の流れの辺りで混乱してしまい,思わず無かったことにしようかと思ってしまいました。

こんなありさまですので,わかりにくいところはもちろん,いろいろ嘘が混じっている可能性は非常に大きいです。いつものように,ご指摘・ご質問大歓迎ですので,どうかよろしくお願いいたします。

ちなみに,この光周波数コムの関連技術を開発したテオドール W.ヘンシュ博士(ドイツ)とジョン L.ホール博士(アメリカ)は,2005年にノーベル物理学賞を受賞しています。これもちょっとした雑学というか豆知識として覚えていても面白いかもしれません。

正直,がちがちの物理なんて言う専門外の領域に手を出してしまったことを猛烈に後悔している今日この頃なのですが,出来る範囲で続けていきたいと思います。

次回は,今回のキーポイントでもあった「時間」について書いてみようかと思います。

テーマ:科学・医療・心理 - ジャンル:学問・文化・芸術

雑学 | 22:04:19 | Trackback(1) | Comments(0)
次のページ

FC2Ad

上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。