AIクライシス

 年度末の本当は忙しい時期、離任式も欠席して、娘と京都・奈良に行っていた。一応「定年」ではあるが、来年度以降も再任用教諭という肩書きで、今とまったく同様に勤務を続ける私としては、辞令が切り替わるという「大人の事情」で、わざわざ離任者として紹介されるのが嫌だったし、一つのけじめではあるし、娘が間もなく海外に出るので、日本の文化財の最もいいところを見せておきたいという気持ちもあったし・・・というわけで、強引に休みを取って出掛けた。実質、つまり、現地にいたのは28日の午後から31日の午前まで、正味3日間に過ぎないが、その間、狂ったように歩き回り、私自身にとって懸案だったところも含めて、かなりの数の寺院を訪ねた。が、その話は長くなるので後回しにし、まずは困った社会問題から。

 先月27日、理化学研究所理研)が、量子コンピューターの稼働開始を宣言し、ニュースになった。まだまだ安定性に問題があり、試験運転、もしくは実験的稼働といったものらしいが、テレビや新聞で見ると、担当者はニコニコ顔だ。マスコミの取り上げ方も、これで新薬の開発や災害発生時のシミュレーションが飛躍的に向上する、といった全面歓迎調だ。
 「みんなこぞって」同様の態度を取っている時に限って、眉間にしわを寄せるのは私の哀しい性である。だってそうでしょ。計算能力が飛躍的に向上して、新しい技術の開発が加速するということは、人間にとって「善」であるものだけでなく、「悪」であるものについても同様に言えるのである。画期的な新薬もできるかも知れないが、人類に終末をもたらすような兵器の開発にも力を発揮する、ということだ。善用だけで済む、ということはあり得ない。
 困った困った、と思っているうちに、今度は、イーロン・マスク氏ほか、1000人以上のテクノロジー関係者が、少なくとも今後半年間、AIの開発を停止するよう求める公開書簡に署名した、というニュースが流れた。とりあえず朝日新聞の記事から彼らの言い分を拾ってみる。

「人間と競合する知能を持つAIは、社会や人類に深刻なリスクとなり得る。」
「(AI開発者は)自分たちでさえ理解できないデジタル知性を開発する統御不能な競争に陥っている。」
「影響がポジティブで、リスクが管理可能だとの自信を得られてから開発を進めるべきだ。」

 この上で、外部の独立した専門家が監査できる形で、高度なAIに対する安全基準を作るように求め、開発が止められない場合は、政府が介入する必要があると指摘している、という。 
 一方、公開書簡に署名しなかった人の言い分も紹介されている。私の意見と最も近いのは、メタのチーフAIサイエンティストであるヤン・ルカン氏のもので、それは「開発の停止は、秘密の開発とイコールだ」というものだ。
 私はかつて、核兵器禁止条約を日本が批准しないことについて一文を書いた(→こちら)。なんと、私は「批准しない」に賛成派である。私は全ての国に核兵器を手放して欲しい。しかし、この世の全ての国がそうすることは考えにくい。良心的な国が核兵器を放棄すれば、それを好機到来と考える悪辣な国は絶対に存在する。「正直者が馬鹿を見る」世の中を作るわけにはいかない。従って、核兵器は持った上で、牽制し合いながら平和状態を維持していくしかない、というような理屈である。
 これと同じことが、量子コンピューターについてもAIについても言える。有史以来、人間は一切賢くなっていないにもかかわらず、持っている力ばかりが飛躍的に大きくなっている。とても危険だ。また、今以上に便利な世の中など、そもそも必要ない。だからAIにしても、量子コンピューターにしても開発はしない方がいい。
 だが、理性的、良心的な人間がそうする一方で、悪い人間がそれらの技術を進化させたらどうなるのか。核兵器と同様、「正直者が馬鹿を見る」世の中が生まれ、悪い人間に世界が支配されるということが起こるに違いない。
 だとすれば、全地球規模での強力な警察組織があり、違法行為、脱法行為を力尽くで取り締まることができない限りは、新技術の開発は全力で行い、牽制によって悪の暴走を止めるしかないのである。本当に哀しい人間の性だ。
 本当は、悪い人にとってもいい人にとっても重要なのは、環境問題(主に温暖化)を克服して、人間が今後数百年、数千年と生きて行けるようにすることで、そう考えれば、戦争などしている暇はなく、量子コンピューターやAIの悪用もなくなるのだけれど、おそらく、悪い人達はそんなことにも思いは及ばないだろう。全人類が環境問題の克服という目標で一致する。現実を見る限り至難ではあるけれども、他のいかなる危機回避の方法よりも、それが分かりやすいはずだ。