こんにちは。IT/経済ジャーナリストで投資家の渡辺です。
人工知能(以下AI)が悪用されたら、あるいは暴走したら、という懸念が最近あちこちで沸き起こってきました。
確かに古くから多くのSFで、AIが発達しすぎて人間は何もする必要がなくなり、AIは永世大統領となって、恐ろしいまでに世の中を効率化・最適化し、人間はAIに支配されて家畜のように生きる世界を描いています。
また、映画「ターミネーター」のアーノルド・シュワルツェネッガーが演じた、逃げても破壊してもどこまでも追いかけてくるロボットも、ほとんどAIというよりホラーでしたが、なかなか鮮烈な印象でした。
●そもそもロボットは人類の幸福に貢献するものである
AIを利用した製品やサービスの大半は、人間型、動物型、単機能型、実体はなく文字や音声のみのものなど形態を問わず、ロボットという概念に括られるものだといえます。
そのカテゴリーでいえば、科学者であり、いくつもの名作を残した偉大なSF作家でもあったアイザック・アシモフが作品中で示した「ロボット三原則」が思い起こされます。
第一法則:ロボットは人間に危害を加えてはならない.またその危険を看過することによって,人間に危害を及ぼしてはならない
第二法則:ロボットは人間に与えられた命令に服従しなくてはならない.ただし,与えられた命令が第一法則に反する場合はこの限りではない
第三法則:ロボットは前掲の第一法則,第二法則に反するおそれのない限り,自己を守らなければならない
なぜロボットを作るのか。技術者の知的好奇心や経営者がコストを減らしたいなど直接の動機があるにせよ、大目的は明白で人類の幸福に貢献するためのものです。
●人間に危害を加えるAI
では全てのAIやその土台である情報技術が、常に人類の幸福に貢献しているのか。
たとえば、大規模な機関投資家がもつAI自動売買システム。何かネガティブなイベントがあると一斉に売りを出し、実体以上にマーケットを激しく動かします。
システムは何の感情も感じず、条件が揃ったので損切りのシグナルに沿って売り注文を出しているだけでしょうが、我々生身の投資家は冷や汗かきつつ心臓をバクバクさせながら右往左往させられます。
また殺人の道具である兵器の世界。戦艦、飛行機、戦車、装甲車などの乗り物に加え、自動追尾するミサイル、魚雷、銃のスコープなど多くの機器の制御用に使われています。
いずれも人類という視点で見た場合には害になるものですが、「自国」とか「自社」という限られた範囲で見た場合には、前者は利益をもたらし、後者は人間の犠牲を最小化できるという意味では、当事者のみには役に立つという訳です。
●AIの倫理学やリスク管理へ
テクノロジーと倫理という議論は、医療分野をはじめ社会的に重要ないくつかの分野ですでに確立されています。
今後の重要な方向性としては、工学や人文科学の一分野として、「AI倫理学」が湧き上がってくることになるでしょう。これはすでに今議論をリードする専門家や識者の著作を見ると、ほぼ触れられているので、動き始めています。
もう1つ、AIシステムをデザインする時のリスク管理の問題として、期待しない動作、予期せぬ動作、人間に害を与える動作をした場合にどう対応するのか。
たとえば禁止の概念をあらかじめ設定しておいて自律的に修正するのか、荒っぽい方法だとバイクのキルスイッチみたいに強制的に動作を止める仕組みを実装しておくのか、などが必須になるでしょう。
●悪意を持った人間に利用される場合
AIの倫理やリスク管理に関する議論を進め、実際の設計に反映させていくのはこれから着々と進展していくでしょう。
それでも、(これもベタな映画や小説にありがちな世界ですが)世界征服を企む悪の独裁者やマッドサイエンティスト、とまで行かなくても、最初から悪意のある人間が確信犯としてAIを悪用するというリスクは残ります。
また明白な悪意がなくても、人の言葉や行動から学ぶAIロボットがサイコパスのような異常人格の人をモデルとして学習した場合、かなり社会にとっては迷惑となる存在になることは容易に想像できます。
現実性の高いところでは、AIを活用した賢いコンピュータウィルスも、ほどなく出てくるはずです。
ウィルス対策ソフトもAI技術を活用して臨機応変に対応できるようになりつつあり、やがてサイバー空間でAI vs. AIの攻防が日々行われるようになりそうです。
これまでも、ネットでの犯罪や迷惑行為について、法制化は後から追いかけてきていました。
AIを安全に活用するためには、倫理やリスク管理の問題だけでなく、法律学も巻き込んだ議論が今後必要になってくるでしょう。
コメント