AIと人類 ヘンリー・キッシンジャー(元米国務長官) エリック・シュミット(グーグル元CEO ダニエル・ハッテンロッカー(MITシュワルツマン・カレッジ・オブ・ コンピューティング初代学部長) 土方奈美訳(その2)

2022年8月16日1版1刷

 

昨日に続いて、本書の指摘の中で私が重要だと感じたことを以下に抜粋する。

・AIが進歩し、その利用が広がるなかで、人類は新たな視野を獲得し、これまでは実現不可能だった目標も射程に入ってきた。自然災害を予測し、被害を抑えるためのモデル、数学的知識の深化、宇宙とそれを取り巻く現実をより完全に理解することなどがその例だ。だが、このような可能性と引き換えし(そして私たちの知らぬ間に)、人間と理性、人間と現実との関係性は大きく変わろうとしている。既存の哲学的概念や社会制度では対処できないような革命的変化が今、起ころうとしている(38p第1章 今何が起きているのか)

・従来型の教師あり学習からの大きな転換といえるのが、言語翻訳の研究者らが足用した「パラレルコーパス」という方法だ。訓練において、インプットとアウトプットの正確な対応関係(たとえば複数の言語で書かれた文章の意味の合致)を必要としない。グーグル翻訳がパラレルコーパスを使って訓練したディープニューラルネットワークを取り入れたところ、性能がそれまでより60%改善し、その後も向上し続けている(90~91p第3章 チューリングから現在、そして未来へ)

機械学習の方法によって、AIは人間のトップクラスのチェスプレーヤーに勝利するというレベルから、まったく新しいチェスの戦略を発見するレベルへと進化した。しかもAIの発見能力は、ゲーム分野に限られたものではない。すでに見てきたとおり、ディープマインド社が開発したAIはグーグルのデータセンターのエネルギー支出を、同社の優秀な技術陣が知恵を絞ってたどり着いたレベルから40%削減することに成功した。このような進歩によって、AIはチューリングが「リューリングテスト」で想定していたレベルを超えた(95p同)

・AIに意識はない。自分が何いを知らないかを知らない。したがって人間には明らかな失敗に気づき、避けることができない。AIは一見自明な過ちを自ら正すことができないという事実は、人間がAIの能力の限界を確認し、AIが提案する対策を見直し、AIが失敗しそうな状況を予測するための検証方法を開発することの重要性を示している。AIが期待どおりの性能を発揮するか、評価する手続きを策定することがきわめて重要だ。あらゆる人は直感的に行動するので、自分が何をどのように学習したのか、明確に説明できないことが多い。この曖昧さを克服するため、社会は様々な職業に対して認定制度、規制、法律をつくってきた。AIに対しても同じ方法を当てはめるべきだ。たとえば開発者が評価手続きを踏み、信頼性を証明できるまでAIの使用を認めないという仕組みを社会がつくればいい。開発者の資格制度、法令順守の監視、AIに対する監視計画、さらにはそうした業務に求められる監査能力を整備していくことは社会にとってきわめて重要な取り組みとなる(103~104p)

・本書執筆の時点で、EUはAI規制案の概要を示している。プライバシーや自由といったヨーロッパの価値観と、経済発展やヨーロッパで生まれたAI企業の支援を両立させることを目的としている。EUの規制は、国家が監視用も含めたAIに積極的に投資する中国と、AIの研究開発をほぼ民間部門に委ねているアメリカの中間を行くものといえる。EUが目標としているのは、企業や政府のデータやAIの使用方法に制限をかけ、それと同時にヨーロッパでのAI企業の誕生と成長を促すことだ」(244p)