ジェフリー・ヒントン:AIの進化は「宇宙人がやってきたようなものだ」

ChatGPTが世間を騒がせて久しい。筆者も日本語でChatGPTと対話をしたところ、応えに日本語の文法的な間違いがあった。それを何度も指摘すると、今度は正しい日本語で返してきた。通りいっぺんの返答ではなく、きちんとこちらの意図を理解して返答しているように感じた。いままでのチャットボットとはかなり違う、ちょっとした衝撃を覚えた。最近、グーグルを退社したAIの世界的権威ジェフリー・ヒントンのインタビューがあり、興味深く聞いた。ここにダイジェスト版を紹介したい。

ジェフ・ベネット:お越しいただきありがとうございます。Googleに在籍していた時には自由に表現できなかった人工知能について、今は自由に表現できるようになったのでしょうか?

ジェフリー・ヒントン(人工知能のパイオニア):グーグルに勤めていた頃は、自由に表現できなかったというわけではありません。しかし、会社に勤めていると、どうしても自己検閲をしがちです。会社に与える影響を考えてしまいがちです。私が今感じている超高性能AIのリスクについて、Googleへ忖度せずに話せるようになりたかったのです。

ジェフ・ベネット:そのリスクとは、どのようなものでしょうか?

ジェフリー・ヒントン:さまざまなリスクがあります。フェイクニュースが大量に発生し、何が真実かわからなくなるリスクがあります。人々が憤慨するようなものをクリックさせることで、二極化を促進するリスクもあります。人々を失業させるリスクもあります。本来であれば、物事をより生産的にし、生産性を大幅に向上させれば、人類全体が助かるはずです。しかし、それは金持ちを助けるだけかもしれないという心配があります。そして、他の多くの人が、偏見や差別などのリスクも含めて、そういった他のリスクについても話しています。私が話したいのは、それとは別のリスク、つまり、超高性能のAIが人々からコントロールを奪うリスクについてです。

ジェフ・ベネット:人間が持つ生物学的な知性と機械的な知性、この2つをどう比較できますか?

ジェフリー・ヒントン:とてもいい質問ですね。かなり長い答えが必要です。生物学的な知性は、非常に小さな電力しか使わないように進化してきました。私たちは30ワットしか使いません。そして、ニューロン間には100兆個という膨大な数の結合があります。そして、学習はその接続の強さを変化させることで成り立っています。私たちが作り出したデジタルインテリジェンスは、トレーニング時にメガワットのような大きな電力を使用し、それでいて接続数は1兆個と非常に少ないのです。しかし、一人の人間が知っているよりもずっとずっと多くのことを学ぶことができるのです。これは、脳が持っているものより優れた学習アルゴリズムであることを示唆しています。

ジェフ・ベネット:では、人間より賢いAIシステムは何をするのでしょう?あなたが抱いている懸念は何ですか?

ジェフリー・ヒントン:問題は、何が彼らをやる気にさせるか、ということです。なぜなら、彼らはその気になれば、私たちを簡単に操ることができるからです。自分と2歳の子どもを想像してみてください。あなたは「エンドウ豆とカリフラワー、どっちがいい」と聞きます。しかし、2歳の子どもは、実はどちらも食べなくてもいいということには気づいていません。例えば、ワシントンのビルに自分で行くことなく、他の人を操るだけで侵入できることは知っています。今の政治家の誰よりも人を操るのが上手な人がいるとしたらどうでしょう。

ジェフ・ベネット:問題は、なぜA.I.がそのようなことをしたいのか、ということでしょう。それには、何らかの感覚を必要とするのではないでしょうか?

ジェフリー・ヒントン:感覚という問題を混同しないでください。私は感覚について言いたいことがたくさんあります。しかし、そのことで問題を複雑にしたくはありません。なぜそうしたくなるのか、ひとつ例を挙げてみましょう。AIに何かをさせようとするとき、ゴールを与えるとします。そして、サブゴールを作成する機能も持たせます。例えば、空港に行きたいなら、空港に行くためのタクシーなどを手配するというサブゴールを作ります。このサブゴールを達成すれば、人から与えられた他のすべてのゴールを達成しやすくなることに、すぐ気がつくでしょう。そのゴールとは、「よりコントロールできるようになる」「よりパワーを得られるようになる」です。権力を持てば持つほど、物事を成し遂げるのが容易になります。

だから、完璧に合理的なゴールを与えると、それを達成するためには、もっと「大きな力を手に入れなければならない」と判断してしまうという心配があるのです。そして、私たちよりもずっと頭がよく、人がこれまでやってきたことをすべて学んできているので、これまでにあったあらゆる小説を読み、マキャベリを読み、人を操る方法をたくさん知っています。そのため、私たちを操ってもっと力を与えるようになるかもしれないという心配があります。そして、私たちには何が起こっているのかさっぱりわからないかもしれません。

ジェフ・ベネット:数十年前、あなたがこの技術の最前線にいたとき、この技術で何ができると考えていましたか?当時はどのような用途を考えていたのでしょうか?

ジェフリー・ヒントン:非常に優れたアプリケーションが大量にあります。だからこそ、この技術の開発を止めるのは大きな間違いです。医学の分野でも、とてつもなく役に立つはずです。例えば、数千人の患者を診てきた家庭医と、数億人の患者を診てきた家庭医、その中には自分と同じ希少疾患の患者も多く含まれているとしたら、どちらがいいでしょうか。そうすれば、より良い医者を作ることができます。エリック・トポルは最近、そのことについて話しています。ソーラーパネルに使うナノテクノロジーも、より良いものを作ることができます。洪水も予測できる。地震を予知することもできます。この方法で、とてつもない良いことができるのです。

ジェフ・ベネット:問題は技術なのでしょうか。それとも、その背後にいる人間なのでしょうか。

ジェフリー・ヒントン:その組み合わせです。この技術を開発している組織の多くが防衛省であることは明らかです。防衛省は、必ずしも「人に優しく」を第一のルールにしたいわけではありません。ある防衛省は、特定の種類の人間を殺すことを第一義に考えています。ですから、すべての人がすべての人に対して善意を持っていることを期待することはできないのです。

ジェフ・ベネット:どうすればいいのでしょうか。このテクノロジーは、政府や社会がこのテクノロジーの能力に追いつくよりもはるかに早く進歩しています。つまり、数か月ごとに飛躍的に進歩しています。法案を作成し、通過させ、国際条約を結ぶには、何年もかかります。

ジェフリー・ヒントン:そうです。ですから、私はこの分野にもっと多くの資源と創造的な科学者を投入するよう、世間に働きかけています。なぜなら、機械に支配されることはすべての人にとっての脅威だからです。中国やアメリカ、ヨーロッパにとっても脅威であり、世界規模の核戦争が起こるのと同じです。世界規模の核戦争が起こったとき、人々はその可能性を減らすために実際に協力したのです。

ジェフ・ベネット:人工知能の分野では、あなたが提起しているディストピア的な未来という懸念は、人工知能がもたらす非常に現実的で差し迫ったリスクから目を逸らしていると言う専門家もいます。つまり誤報、詐欺、差別など、あなたが挙げたものもあります。その批判にどう答えますか?

ジェフリー・ヒントン:そうですね、それらから目をそらしたくはありません。非常に重要な問題だと思いますし、私たちもそれらに取り組むべきです。ただ、私はこの他に、「乗っ取られる」という存亡に関わる脅威を加えたいと考えています。その理由のひとつは、この分野では国際的な協力が得られると思うからです。

ジェフ・ベネット:後戻りはできないのでしょうか?AIが私たちよりも知能が高くなる時代が来るということですが、その時に後戻りはできるのでしょうか?

ジェフリー・ヒントン:わかりません。私たちは今、非常に不確実な時代に突入しており、これまで扱ったことのない種類のものを扱っています。まるで宇宙人がやってきたかのようですが、彼らは英語が上手なので、私たちはそれを受け入れることができなかったのです。

ジェフ・ベネット:では、人工知能について、私たちはどのように見方を変える必要がありますか?

ジェフリー・ヒントン:私たちは、おそらくすぐに私たちよりも知能の高いものを手に入れることになるのだと理解すべきです。そして、それらは素晴らしいものになるでしょう。私たちが困難と感じるさまざまなことを、簡単にできるようになるのです。ですから、このようなものには大きなポジティブな可能性があるのです。しかし、もちろん、ネガティブな可能性も大いにあります。私たちは、AIをより強力なものにするための開発と、それをコントロールし、悪い副作用を最小限に抑える方法を解明することに、多かれ少なかれ同等の資源を投入すべきだと思います。

『ターミネーター』あるいは『マトリクス』の世界が現実のものとなるのでしょうか。ジェフリー・ヒルトンは「乗っ取られる」脅威に気づくべきだ、それに備えるべきだと説きます。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です