LIFE Mailinglist Archive for the Origins of Life Study

ID
1003
DATE
02/24/1999 10:59:33 AM
TITLE
[life:01003] Re: 間接度の意味
AUTHOR
Masayuki HIRAFUJI <hirafuji@***.***>
BODY


平藤です。

Kazuhiro Iida-san wrote:
>飯田:
>平藤さんご指摘の,「間接段階を設けることによる」情報のフィードバック制限
>というアイデアは,ラマルキズムVS自然淘汰という視点よりは,翻訳系の起原
>にという視点で面白いと思います.翻訳系が存在すると組み合わせの数のぶん間
>接度が大きくなります.このことが翻訳系の起原と何か関係がないでしょうか?
>
>DNA(←)→RNA→蛋白質というできあがった流れを見ると,酵素反応が方向性を
>もっているのだから当たり前に思えるかもしれませんが,ATPのエネルギーを
>つかって,やっと方向性を生み出しているとも言えます.そうした系ができる前
>後,RNAワールドとかRNPワールドとかいう段階では必ずしも配列→構造の向きだ
>けに流れていたとは限りません.そもそも配列と構造を分離しにくい世界です.
>具体的な機構は,次あたりで考えるとして間接度の高さと情報の流れる方向に何
>かの関連があったとすると,間接度が高い反応経路が選択された結果として翻訳
>系ができたなんて,面白いストーリーも考えられます.


うーん。なかなか詰め将棋のようにいかないですねえ。それだけ,生き物がやや
こしいシステムなのだということでしょう。
翻訳系が間接度が高い反応系として選択されるとすると,間接度が高い反応系の
有利さって何?


Kazuhiro Iida-san wrote:
>平藤さん:
> 1昨日,昼食を食べながら,淘汰がなぜ起こるかの物理的起源をちょうど議
>論してました。突き詰めると,2つのフェルミ粒子が同じ場所にいることがで
>きないという「パウリの排他律」に行き着くんですね。パウリの排他律がある
>ためにいす取りゲームを強いられるわけです。物質とエネルギーの総量(リソ
>ース)が一定というエネルギー保存則ももう一つの原因ですが。
>
>飯田:
>この帰結はすごいですね.もう少し解説していただけませんか.
>まず,上で淘汰はどのように定式化されるでしょうか?

「電磁相互作用がなかったらテレビは動かない」式のはなしです。電磁相互作用
からテレビの動作を定式化するのはものすごい作業になってしまうのと同様,こ
こまで遡ってしまうと,定式化はよほどの幸運がないかぎりムリです。
ややこしい議論に疲れた頭をリシュレッシュさせるための結論ですので,そのよ
うに使ってやって下さい。


Kazuhiro Iida-san wrote:
>飯田:
>ええと,ある1分子の量子状態を,0か1に相当する基本量子状態の重ね合わせ
>か何かで表現なさるわけですか?この場合,もう一つの分子との相互作用はど
>うなりますか?どちらかが観測系に相当しますか?

2つの安定状態がある系だと,まさしくその通りです。
僕も驚いたのですが,量子コンピューティング研究の世界ではかつてのファジィ
理論のようなバロック化が進んでいて,情報理論の世界のほとんどの概念を量子
情報の世界で定式化してしまっているようです。
ファジィ理論の世界では何年も上かけてファジィ情報量,ファジィ相互情報量,
ファジィ平均相互情報量,ファジィ・エントロピ等々が整備されましたが,量子
コンピューティングの世界ではあっという間に量子「なんたらかんたら」が定式
化されてしまいました(量子「重回帰分析」,量子「数量化理論第3類」なども
あります。...というのは冗談です)。
これまでは長らく「入力->情報処理->出力」という規範で脳や行動,生物,社
会,経済システムなどがモデル化されて来ましたが,上記のように道具立てが充
実して来ると,「量子/古典情報->量子情報処理->量子/古典情報」という規範
に誘惑されます(具体的にどうするか?は宿題)。

対象系と観測系は一つの系で分けられません。量子計算でいう「デコヒーレン
ス」操作などは気持ちとしては観測系と見なしたいところですが,下手に分ける
と難問の「観測問題」を抱え込んでしまいます。



Kazuhiro Iida-san wrote:
>平藤さん:
> 例えば,晴れかどうかが五分五分(すなわち事前確率が0.5)のときの「70%
>の確率で晴れ」という天気予報は0.7の事後確率を与えます。このときの相互
>情報量はlog(0.7/0.5)=0.49ビットとなり,「天気予報は0.49ビットの情報を
>もたらしてくれる」というように使います。
>
>飯田:これって,ベイズ推定の問題で,

鋭い指摘です。
まさしく,相互情報量はベイズの定理から導出される「正味の情報量」のことで
す。
MPEGなどの情報圧縮技術では「正味の情報量」をいかに抽出するかを追求してい
ますが,同様のスタンスで「生物系内部での生物らしさを表す正味の情報量とは
いったい何か?」を追求すると,「ランダムでもなく決定論的でもない」情報量
と考えたい訳です。


>上の0.49という値は,相互情報量じゃ
>ないと思います.(間違ってたらご指摘下さい.)

長い説明を嫌って大幅に圧縮したので,相互情報量の例に見えなかったのかも知
れませんね。元の長い説明は「情報論I−情報伝送の理論−(瀧保夫,岩波全
書)」をご参照下さい。元々古い本なので,上記の説明は用語を現代風にして大
幅に圧縮したものです。

多分,飯田さんがイメージしていたのはエントロピーと直接関係する平均相互情
報量のことと推察します。そうだとすると,元の話に戻って,平均相互情報量か
らは複雑な反応系全体の「ややこしさ」みたいなものが定量化されますね。エン
トロピーや平均相互情報量はマクロな指標なので,反応系の類型化などに使える
かもしれません。


Masayuki HIRAFUJI (hirafuji@***.***)
Computational Modeling Lab.(http://model.narc.affrc.go.jp/)
NARC Tukuba 305-8666 Japan
Phone:+81-298-38-8986 FAX:+81-298-38-8551
-----
Go to page top