Archive for 11月 26th, 2015

人工知能とモラル

木曜日, 11月 26th, 2015
自動運転をはじめ人工知能がいよいよ人間社会に出てくる可能性があります。
その場合,人工知能にどのような道徳をプログラムするのか,最近読んだ本にそのような問題意識が書いてありました。

この問題は,私が大学の卒業論文を書いた際の大きな問題意識のひとつなので感慨深いです。
私が卒業論文のテーマとして考えたのは,道徳を整合的に組み立てるための基本条件のようなものです。

人はものごとをよいとか悪いとか,すべきとかすべきでないとか,色々道徳的な話をします。
その場合,よい理由を述べたり,「それは矛盾している」と言ってみたりしますので,道徳に論理が介在していることは間違いないのですが,実際に論理的に整理していくとかなり支離滅裂です。
これを支離滅裂でなく,整合的,一義的に善悪等を把握するためには,どうすればよいのか,というのが問題意識です。

これは,古くからある問題なのですが,一般に哲学史の中では決疑論と呼ばれていて軽視されている分野です。
それでも,自立的に動くアンドロイドのようなものに,行動の判断基準をプログラムするとなると一義的に明瞭な善悪の判断基準が必要となるのではないか,なんて考えて追究してみようと思ったわけでした。

もちろん追究の結果,善悪を一義的に把握的出るようになったわけではなく,そのようなことを学問として研究するための形而上学的な基礎を考えるというものです。

形而上学というと,いかにもグロテスクな感じがするもので,多くの哲学者は形而上学がいかに無意味かということを論じながら過去の哲学者を批判しています。
でも,その結果として,自分自身の形而上学を組み立てていくわけです。

道徳を整合的に理解する上でも,おそらくは形而上学的な問題にケリをつける必要があります。
たとえば責任という概念は,ある人の行動がある結果を招いたという因果の法則と,その人は自分の意思で判断したという自由意思の双方を内包しています。ところが,双方は矛盾した概念です(いわゆる決定論と自由意思の問題)。そこを整合的にどう処理するかを決めない限りは,整合的な判断は不可能です。法律学では,責任についてなんたら責任説といった色々な学説がありますが,結局のところ形而上学レベルの矛盾がそのままバラバラな意見に結びついているわけです。おそらく責任というのは形而上学レベルで矛盾した概念であって,そういう矛盾した概念を利用して道徳を考える限りは整合的に道徳を考えることは不可能となります。
形而上学レベルでケリをつけていくといのは,そういう部分を処理していくということです。

結論としては,
①道徳の問題を自分の現在の意識決定の問題に絞り込む,つまり過去の出来事や他人の行為を道徳判断の対象からはずすことで,決定論と自由意思のような矛盾は回避できる。
②一義的に道徳を決めるという条件をみたす道徳理論は,功利主義といわれる道徳理論,つまり幸福計算や快楽計算によって善悪を把握する理論に絞り込まれる。一般的に指摘される功利主義の欠陥の多くは,立場の交換可能性を係数として付け加えて計算することで回避できる。
③道徳判断の枠組みと自然科学的に想定される世界との関係は,自然科学的な世界に一次元追加する枠組みを考えることになる。空間の3次元に時間を加えて4次元が自然科学的な世界とした場合,道徳的な望ましさの値として5次元目を考えることになる。現在aの選択をした場合の将来の世界Aと,bの選択をした場合の世界Bは,同じ時間にあらわれる異なった世界ということになるので,もう一次元を考えることになる。その複数の選択肢について,どのように道徳的な値を与えていくのか(功利主義であればそれぞれの世界の快楽計算をすることになる)が,道徳を整合的に理解するということになる。

というようなことだったと思います。
中身のないカラですね。このカラのことを考えてみたということです。

ふと昔のことを思い出して書いてみましたが,なんだか文章がわかりにくいですね。
哲学者になるのをやめて,とりあえず何をしようかなあと色々な業種に就職活動をしていたときに,NHKのセミナー(実際は就職試験)で文章を書く試験がありました。
返ってきた結果は不合格で,コメントは「極めて論理的で難解な文章です。一般の方むけのマスコミの文章として不適切です」なんて書かれたことも思い出しました。