■プロフィール

ぷろどおむ

Author:ぷろどおむ
元サッカー少年。今はしがない化学屋です。

■最近の記事
■最近のコメント
■最近のトラックバック
■月別アーカイブ
■カテゴリー
■FC2カウンター

■ブロとも申請フォーム
■ブログ内検索

■RSSフィード
■リンク
スポンサーサイト
上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。


スポンサー広告 | --:--:--
測定器の表示はどのくらい信用できるのか
すっかりご無沙汰してしまいました。福島の方は,残念ながら炉心が融けてしまっているのがほぼ確定となった上に,水棺形成作業も極めて困難であるという報告があり,ますます予断を許さない状況になっております。

このような状況の中では不安になるなと言うのが無理な話ですが,より正確な状況が把握された事はより正確な対処を行える可能性が高まったという事でもあります。また,こんな事を言うとお叱りを受けるかもしれませんが,現場の人間に正確な情報が行ってないのは困りますが,現場の人間に必要な情報が提供されているのであれば,原子炉内部の状況に関して言えば外部の人間に情報が出てようが出て無かろうが,どちらにしろ我々ができる事は何もないのは一緒です。なので,できるだけ冷静に事態の推移を見守りたいと思います。ただ,周辺の空間線量や農作物の放射能レベルについては,我々でも可能なアクションが必要になる場合がありますので,その様な情報についてはしっかり注目していきたいと思っています。

しかし,ネット上に流れ飛ぶ様々な測定値から正しく不安を感じ,現在の状況を正しく理解するためには,やはり測定器に表示される測定値はどういう意味を持っているのか,そしてその信頼性を確保するためにはどのような作業が必要なのか,についてを十分理解する必要があると感じました。

というわけで,そもそも測定器一般が持っているエラーについて基本的な部分,つまりガイガーカウンタなどに限らない一般的な測定機器が持つエラーについて説明をさせていただきたいと思います。

さて,先ほどから私は測定の「誤差」と言わずに測定の「エラー」という表現をしています。これはどうしてかというと,そもそも「誤差」という言葉の定義である「真の値からのずれ」を成立させるために必要な「真の値」を知る事は,神ならぬ人の身には不可能だからです。

そのため,現在測定科学の領域では「不確かさ(uncertainty)」という言葉を用いて,その測定値の持つ信頼性を表現しています。たとえば「(0.52 ± 0.03) mg/kg」などと書かれた分析結果の場合には,真の値が0.55から0.49の間にある一定の確率(通常は95%)で存在する事を保証した分析値である事を意味しています。

この「不確かさ」がどのように導かれるのかについてはこの後順に説明していきたいと思っていますが,より簡便な表記方法とも言える「有効数字」という概念についても,もう一度復習していただきたいと思います。

「有効数字」というのは,文字通り「有効」つまり「十分な意味がある」数字と考えてください。よく例として用いられるのは,「5」と「5.0」では意味が違う,と言う話です。

有効数字を正しく理解して表現されている場合,「5」と1桁で表記された場合,この数字は「5.4から4.5」の間の幅を持つことを意味しますが,「5.0」と表記された場合にはこの数字は「5.04から4.95」の間の幅を持つことを意味します。また,「5」と書いている時は「有効数字が一桁」であると言い,「5.0」の時は「有効数字が二桁」であると言います。

では,この不確かさや有効数字の桁数はどのようにして求められているのでしょうか。

測定値は当然何らかの測定器を用いて求められますが,得られる測定値には大ざっぱに言って

ズレとばらつき

の2種類が含まれています。そして,それぞれがどのくらいの大きさを持っているのかを表現する言葉として「確度(ズレ)」と「精度(ばらつき)」があります。

「ばらつき」や「精度」という言葉には皆さん結構聞きなじみがあるのではないでしょうか。ちなみにここで言う「ズレとばらつき」は,より専門的な用語を使うと「系統誤差(systematic error)」と「偶然誤差(random error)」にあたります。また「ズレ」は「バイアス(bias,かたより)」という呼び方をする場合もあります。「ズレ」という語感から意味もなんとなく想像はできるかと思いますが,その測定器(もしくは測定方法)において本質的に発生してしまうエラーのことです。

そして,時々誤解されがちなのできちんと理解していただきたいのは,この両者の間には本質的には相関関係は存在しないということです。もちろん,ぞんざいに行われた測定はズレもばらつきも大きくなりますし,丁寧に行われた測定はズレもばらつきも小さくなるのは良くある事ですので,一見するとこの両者には関係がありそうに見えます。しかし,ばらつきが小さいからと言ってズレも小さいとは限りませんし,例えばらついていたとしてもその平均値や中央値が真値に限りなく近い(と考えられる)なんて事も良くある話なのです。

しかし,実は「ズレ」や「ばらつき」なんかよりも重大で測定を全てやり直さなければならない大きなエラーの原因として測定の教科書やJISなどでもあげられているのは,「gross error(まちがい)」と呼ばれる要因です。

まぁ,要するに装置の故障・装置や分析対象の不適切な取り扱い・分析手法の選択ミス・試料や装置の汚染などのことです。

つまり,目的とする測定値に対して「間違った装置の選択」「間違った手法の選択」「間違った操作」「間違った試料の取り扱い」などが存在したら,すべておしまいという事です。まぁ,当たり前ですね(^^; だからこそ「測定値」を真剣に考える人は,「どのようにして測定されたか」を重要視するんです。

たとえば,「間違った装置の選択」のわかりやすい例として重さを量る場合を考えましょう。人間の体重を測るのであれば,0.1 kgの桁まで表示できる秤があれば普通は十分です。でも,その様な秤で50 gのおもりと40 gのおもりの重さを区別する事ができるでしょうか?もちろんできませんよね?50 gと40 gの重さを区別したければ,最低でも10 g単位まで表示される秤が必要です。さらに50 gが51 gか49 gなのかを区別したければ1 g単位まで,50.1 gか49.9 gなのかを区別したければ,0.1 g単位まで表示できる秤が必要になります。もちろん表示される最後の一桁は信用できるかどうかわかりませんので,0.1 g単位まで信頼できる値として知りたいと思ったら,0.01 gまで表示される秤が必要になります。要するに,同じ「重さ」を測る場合であっても,測る対象と知りたい値の精度によって使う測定器(秤)は異なってくるという事です。

もちろん昨今話題のガイガーカウンタについても,太陽や岩盤から生じているバックグラウンド値を適切に取り除けているか,あるいはそれらが測定に与える影響を防げているか,前回の測定時に装置自身が汚染されていないか,測定レンジは適切か,線源との距離は適切かどうかなど,考えなくてはならない要因がたくさんありますので,これらの測定の妨害となる要因に関する知識と測定対象に関する知識,あと可能であれば測定原理に関する知識などが要求されます。

さて本題に戻ります。ある測定全体においてこのようなズレとばらつきから生じるエラー(不確かさ)は測定に関わる作業一つ一つについて発生します。私の専門の化学分析で話をすれば,サンプリングした試料の均質性に関わる不確かさ,サンプリングした瞬間から測定するまでの間の安定性に関わる不確かさ,試料の重さを量る時の不確かさ,測定に必要な前処理操作に関わる不確かさ,検量線を書くために使った標準物質の純度の不確かさ,測定器自身が持つ不確かさ,ありとあらゆる作業で不確かさが生じます。そして,これらの作業一つ一つについて発生した不確かさを積み上げることで,分析や測定全体で生じる不確かさを見積もることが可能になります。

このようにして得られた不確かさから,最終的な測定値がどの桁まで信用できるかということが判断され,測定値の有効数字が出てくるわけですが,当然それぞれの測定で用いられた測定器の精度が悪ければ,信用できる有効数字の桁数は小さくなりますし,適切な測定器を使わなければさらに有効数字の桁数は小さくなります。

それではばらつきとズレをなるべく抑えるにはどうすればよいのでしょう。

もちろん性能の高い測定器を使うというのが簡単に思いつく事かもしれませんが,「ばらつき」は,「偶然誤差」という呼ばれ方からもわかるとおり,真の値に対して正側にも負側にも或る一定の確率でばらまかれますので,測定回数を増やす事である程度のレベルまで下げる事は可能です。しかし,「ズレ」はその測定を行う事で本質的に生じるものですので,測定回数をいくら増やしても消える事はありません。そこで必要なのが「校正」と呼ばれる作業です。

校正(calibration)は,どんな測定器でもそれを正しく利用したい時には必ず必要な作業です。

どのような作業を行うかは,その測定器により様々ではありますが,本質的には「答えのわかっているものを測定して答え合わせをする」のが基本です。

その「答え」の究極はSI(国際単位系)であり,具体的にはキログラム原器や様々な物理量の定義となっている物理現象だったりするわけですが,実際にはそれぞれの測定器用に上位の標準(最終的にはSIにたどり着けるモノ=SIトレーサビリティが取れたモノ)により校正された実用標準と呼ばれるモノを使って校正を行います。校正を行う事により,その測定器が持つズレ(=系統誤差)の存在を明らかにし,得られた測定値に修正を加える事でより確かな測定値を得る事が可能になります。

さて,だいぶ昔に学生から「10 mLのホールピペットで1回測定するよりも,1 mLのホールピペットで10回測定する方が,ばらつきが抑えられてより正確に測れるのではないか」という質問をされた時がありました。ちなみにガラス体積計の許容差はJIS R3505-1994に規定されており,今話の出たホールピペットの場合は2 mL以下のもので±0.01 mL,10 mL以下のものですと±0.02 mL。一見すると,2 mL以下のものの方がより精度が高いように感じますが,彼のアイディアは正しいでしょうか?間違っているでしょうか???



それでは一緒に考えてみましょう。最近のガラス器具は非常に性能が高いので,実際にはこれより小さい不確かさしかないかもしれませんが,規格上ではここまでの不確かさは存在する可能性があると考えられます。また,確かに絶対量で表現すると2 mL以下の方が精度が高いように感じますが,測定する全体量に対する相対比で表すと2 mL以下のものが±0.5 %であるのに対し,10 mL以下のものですと±0.2 %となり,実は10 mL以下のものの方がより精確度(=精度+確度)が高い測定器であると言えるのです。

また,前述したとおりこの規格で許容されているエラーには系統誤差が含まれています。仮に±0.01 mLのうち,+0.003 mL分が系統誤差であるとすると10回繰り返し測定を行う事で,系統誤差由来のものだけで純粋に0.03 mL分のずれが生じてしまい,10 mLのホールピペットが持つ不確かさより大きくなってしまいます。

もちろんばらつき(偶然誤差)がより大きな場合には,そのばらつきの中に吸収されてしまうかもしれませんが,その保証はありませんし,どちらがどのくらい大きいのかを確かめるためには校正を行って,測定で生じるばらつきとズレを確認する必要があります。もしかするとそこまでやって確かめれば非常に精度の高い神様のような1 mLホールピペットを見つける事ができるかもしれませんが,そこまでするメリットが無さそうなのはご理解いただけるかと思います。

最初の方で話したガイガーカウンタやこのようなガラス器具は,一見すると最新鋭のコンピュータによる制御や処理の必要な大型装置よりも簡便で簡単に値が出るように見えます。しかし,実際にガラス器具で正確に水の体積を量り取ろうと思うと,実験環境での温度変化やガラス器具の洗浄具合,ホールピペットなどでは水を排出させる速度や,大ざっぱに排出させた後の待ち時間など気をつけなければならない要因がたくさんあります。しかも,原理が簡単なだけに,出てきた表示や目盛りを無意識に信用してしまいがちになるという罠まであります。

なので,実はコンピュータなどで測定環境や測定条件を精密に制御されている最近の大型測定装置よりも,単純な測定装置であればあるほど,測定者本人がしっかりと頭と体を使わないと正確な値を測定する事は非常に困難な,とても厄介な代物になる。ということは,十分に理解していただきたいと思います。

ただし,測定原理やエラーの原因となる要因を知り尽くしている熟練の分析技術者がこれらのより原理原則に近い測定法を使うと,その辺の大型装置ではかなわないような精密なデータを出したりするのも事実です。だからこそ「職人」と呼ばれるような人の存在が様々な分野で重要視されるわけなのですが,その辺は本題とはまた違う話になってしまいますし,長くなりましたのでとりあえずこの辺で一旦終了します。次回は検出限界とか,その辺りについてお話ししたいと思います。

スポンサーサイト

テーマ:科学・医療・心理 - ジャンル:学問・文化・芸術

雑学 | 19:08:25 | Trackback(0) | Comments(0)

FC2Ad

上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。