--.--
--
上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

02.04
Wed

The Information: A History, a Theory, a FloodThe Information: A History, a Theory, a Flood
(2012/03/01)
James Gleick


邦訳: インフォメーション―情報技術の人類史 (2013/01) ジェイムズ グリック



これぞポピュラーサイエンスの力作という感じの大著.情報理論を拓いたクロード・シャノンをはじめとして,数多くの数学者・計算機科学者・生物学者・物理学者を紹介しながら,人類が情報概念をいかにつくり,育て,その影響を受けてきたのかを描いている.

今では,情報は多くの分野で最重要といってもよいような基本的な概念とされる.なにも「情報科学」(あるいは「IT」「コンピュータ科学」でもいい)などにとどまらず,情報概念は生物学や物理学等の伝統ある学問のなかでも,かなり中心的な役割を果たしている.この本では,生物の本質をDNAの運ぶ情報であるとしたリチャード・ドーキンスや,“It from bit”という言葉に象徴されるように情報論的な物理学を展開したジョン・ホィーラーを紹介している.本書を読むと,情報概念の応用範囲の及ぶ広さに驚く.

でも,この本の一番の面白さは,情報概念がどう登場したかの歴史を描いている部分にあると思う.忘れがちだが,情報という考え方は,実はそんなに古くない.情報を工学の対象にできるほどにしっかりとした定義が登場したのは,ほんの60年前のことだった.ラルフ・ハートレーやクロード・シャノンなど,当時ベル研究所にいた研究者がその立役者だった.

シャノンたちがいかに「情報量」概念に辿り着いたのかを,本書では以下のように説明している.本書の第1章は,アフリカの「太鼓」の話から始まる.アフリカには,太鼓のリズムで意味を伝える「トーキングドラム」という文化があったのだそうだ.続く章では,時代は一気に下って,話題は産業革命後のフランスで発明された電信(telegraph)におよぶ.アフリカの太鼓とフランスの電信では,まったく違う仕組みではあるけれど,メッセージをなにかに載せて届けているという意味では共通している.つまり,違う「言語」(符号)を使って同じ内容を伝達できる.電信や電話の技術が進歩してくると,「どの符号を使うと一番多くのことを伝えられるか?」という工学的問題が次第に浮上してくる.ベル研究所のラルフ・ハートレーらが,情報を意味内容に関係なく定量化した「情報量」概念に行き着いたのは,そんな問題意識からだった.たとえば,はじめから信号の種類が2個しか無いことが分かっているのと,100個あるのとでは,一つの信号単位から受け取られる情報が違う.ハートレーが導いた定義では,情報量は記号種数の対数に比例する.こうして,情報量の単位“bit”が誕生した.シャノンは,さらに,記号列のなかにある冗長性に着目した.たとえば,ある記号列のうち出やすいものと出にくいものがある(たとえば英文の“q”のあとには高い確率で“u”になるなど)と,「情報量」は減るはずである.シャノンは,1948年の論文“A Mathematical Theory of Communication”で「情報量=エントロピー(不確実さ)」という定義を打ち出した.シャノンが作った情報理論は,さまざまな方面へ波及した.心理学では心の働きを情報の観点で記述する“informational turn”と呼ばれる転換が起こったし,物理学では,熱力学の「マクスウェルの魔のパラドックス」を解く鍵が「情報量」にあることが明らかになった.

こうして情報の科学が花開いていくわけだけど,それで僕らは「情報」を十分に理解したことになるのか? そうではないと著者は言う.シャノンが捨てた“意味”をどうするかという問題は残されている,と.

たとえば,(個人的な関心にひきつけて言えば)「本」.ある本に含まれる「シャノンの意味での」情報量を多くするには,各ページに掲載する内容を全くランダムにすればいい.そうすると,読者がページ毎に得られる「サプライズ」は最大化されるのだから.しかし,そんな本が意味が無いことは明らかだ.どうすればある本に含まれる情報が,「読者に有用」だという意味で最大化されるのか,などという問題には,情報理論の枠組みでは答えようもない.(「情報は情報『量』だけでは捉えられない」といってもいいのかもしれない.)無機質な情報概念を乗り越え,情報の「意味」や「価値」を扱うにはどうすればいいのか? 情報の洪水(flood)の時代を生きる僕らにとって,情報のbitで捉えきれない要素をどう理解するかは重要になってくるはすだ.この本では未解決問題として残されているが,本書で触れられていたIBMのCharles Bennettという人の研究はヒントになりそうな気がした.

***

数学や言語学,複雑系科学など,いろんな話が詰め込まれていて,必ずしも「情報」だけ焦点が絞られていなかったのがややもどかしい気もした.だが,情報量という一つの概念が,歴史上の具体的な工学的関心から登場し,それ以前の人間の暮らしや学問の捉え方までをも飲み込んでしまうというのが凄まじく,こういう本を読んでこそ理解できることだと思った.
スポンサーサイト

comment 0 trackback 0
トラックバックURL
http://rmaruy.blog.fc2.com/tb.php/64-f005f8fd
トラックバック
コメント
管理者にだけ表示を許可する
 
上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。