
成長を続けるAI市場のなかでも、生成AIの領域は年平均で成長率47.2%という驚異的な伸びを見せ、2030年には1兆7700億円に達するとの予測もあります。より信頼性と品質を向上させるためには、生成AIのふるまいを説明する技術も必要です。結果を導きだすプロセスにも出された結果にも、利用者が理解し納得できるだけの説得力がますます重要になってくるでしょう。
生成AIが越えるべき障壁は、“理解でき納得できる”品質への信頼性
AI市場が急成長している背景の一つには、労働生産性の向上が強く求められていることがあります。少子化が進む日本では、労働者人口が短期間に大きく増えることは期待できません。労働生産性を向上させるためのAIの活用と、それを実現するための現実的かつ迅速な政策が必要で、日本も国を挙げて取り組んでいます。有力コンサルティング会社アクセンチュアの調査によると、2035年にはAIの活用によって労働生産性が、スウェーデンで37%、アメリカで35%、日本で34%高まると予測されています。
一方で注意すべきは、オンラインフリーランスの世界で、すでに生成AIがホワイトカラーの職と賃金を奪い始めているという統計が出ていることです。生成AIは、プログラムを書くことも可能です。ソフトウェア会社は、単純なプログラミングに人員を充てたくありません。企業内においても同様のことが起きると考えるべきでしょう。ホワイトカラーの人が誰でもできるような仕事しかできないと失業することすらあり得ます。個人が固有のスキルを上げる必要があります。
急成長の予測がある一方で、超えるべき大きな障壁もあります。
生成AIの信頼性をいかに担保し、ソフトウェアの品質をいかに管理するかは重要な課題です。生成AIの基盤になっている大規模言語モデル(LLM)は膨大で複雑なため、出力の正確さを十分に検証することは困難です。製造業における品質管理であれば、サンプルを取って統計的に処理することが可能ですが、生成AIはそう簡単にはいきません。正しいかどうかの検証ができていない状況で、たとえば人の生死に関わるがん細胞の病理診断をするようなハイリスクな判断に用いるのは十分な慎重さが求められます。
生成AIの信頼性を高める方向に国も動き始めていて、既に経済産業省の産業技術総合研究所からガイドラインが示されています。しかし、具体的にどのようなアクションをとれば目標とする品質を実現でき、信頼できるAIシステムにつなげられるかは、業種・業態によって異なるので、依然として一般論を固有のノウハウに落とし込む高度な技術課題です。
※記事の内容は、執筆者個人の考え、意見に基づくものであり、明治大学の公式見解を示すものではありません。
