2024.03.21
- 2016年6月21日
- IT・科学
不安? 便利? もう始まっている人工知能が働く社会
福地 健太郎 明治大学 総合数理学部 教授インフラ化する人工知能
人工知能が十分に高い能力を持つためには、人工知能の仕組みそのものに加えて、それを動かすための膨大なコンピュータパワーと、人工知能を訓練するための膨大な学習用データが不可欠です。幅広くサービスを提供しようとなると、現在、これらを思うように揃えられるのは一部の大企業に限られています。こうした組織に合意形成のプロセスのコントロール権が集中することは、社会に新たな格差をもたらしかねません。
例えば、人工知能の開発においては、広くデータを集められる事業者が有利となる傾向があり、データの一極集中を招く怖れがあります。そのため、高度な人工知能をサービスに組み込める事業者は限られてしまい、寡占状態を招くことも考えられます。少なくとも公共性の強いサービスに直結するデータについては、社会インフラであるとみなし、誰もが利用できるよう整備する必要があるのではないでしょうか。
別の危惧は、前述した“割り切り”の合意形成において一方的な押し付けがまかり通ってしまうことです。事業者間の競争が健全に働いていれば、利用者はより割り切りの少ない、自分に都合のよいサービスを選んでいくことができます。しかし前述のような理由で事業者の数が限られてくると、事業者側に都合のよい割り切りを強要されることになるでしょう。
そうした割り切りの中でも特に注視しなければいけないのが、人工知能の思考プロセスのブラックボックス化です。すでに囲碁プログラムなどでは、どうしてプログラムがうまく着手を選べているのか、人間には判断できなくなりつつあると言われています。人工知能を動かすデータや計算資源が膨大になればなるほど、その挙動を人手で解明するのは困難になっていきます。そのため、ある段階から、なぜうまく動くかはよくわからないが、よい結果が出ているから、便利だからこれを使い続けよう、という判断が働くようになるでしょう。ここまでは人工知能を搭載しない従来の機械やサービスでも同じなのですが、人工知能が昔からあるそれらと異なるのは、序々に成長をする点です。与えられた学習用データを元に構築された人工知能は、使用されるにつれさらにデータを吸収し、成長していきます。しかしその成長の過程で、都合の悪い結果が出ていてもちょっとくらいなら目をつぶろうということは十分に起きえます。あるいは、都合の悪い結果がフィルタリングされ、気がつくことすらないということも起きるかもしれません。これが繰り返されると、人工知能の予測に沿った、都合のよいデータによってさらに学習が進み、過剰適応を起こしてしまいます。人間の認知能力は、内在するバイアスに気づきにくい性質を持っています。ブラックボックス化した人工知能はそのバイアスの強化をもたらします。特定の組織や体制を利するよう、気づかぬうちにコントロールされでもしたら大変です。それを防ぐためにも人工知能の画一化・寡占化の起きぬよう社会制度を整えることが求められます。