責任あるAIってなんぞや?
2023.04.30
【経済・経営】2023
群馬県高崎市で開かれたG7(先進7か国)デジタル・技術相会合では、近年の個人情報の流出問題などを踏まえて「責任あるAI」の実現を目指す行動計画を掲げました。
ところで、「AIに“責任”を求めるって、どういうこと?」と混乱された方もいるのでは・・
相手はプログラム・コードであり、責任を問われる生身の人間ではありません。
でも「そのプログラムを作った人間の責任だよ」と言われるかもしれませんね。
それも一理ありますが、AI型のプログラムは、設計した人間本人の思惑を超えた結果をもたらしていきます。
私は、50年前に携わった軍事システムのプログラム開発で、そのことを痛感しました。
自分で設計したシステムが出す答えが自分の認識範囲をどんどん超えていくことに背筋が寒くなっていったのです。
いったんシステム開発から身を引き、建設会社に転職した理由のひとつでもあります。
そうした責任の重さに押しつぶされる自分を想像したからです。
しかし、結局、システム開発の世界に戻ってきているのですから、逃れることは出来ない運命(?)だったようです。
余計な話をしましたので、本題に戻ります。
G7各国のデジタル・技術政策のトップたちの頭の中も、同様の混乱状態にあるようです。
結局、「人権尊重、民主主義の価値観を守るなどの共通ルールを作ること」そして「G7が連携し安心して利用できる環境を整える方針を確認する」との玉虫色の宣言になりました。
しかし、法律でAIを規制する方針のEUに対し、規制を少なくして関連産業を育成する方針の日本が対立した構図になっています。
松本総務相は「人類の可能性を広げる新しい技術に道を閉ざすべきではないとの認識は共有できた」などと、言葉は悪いですが、かなり“能天気”な記者会見を行なっていました。
今回の“極めて浅い”レベルと思える共同宣言の背景にあったのは、突如出現した感のある「チャットGPT」に代表される対話型生成AIなどの登場です。
こうした生成AIに対しては、制御はおろか機能の理解すらも進んでいないのが現状です。
G7では、こうしたAIに対し「社会に与える影響が重大であることを指摘し、民主主義に基づく人間中心の信頼できるAIを目指す」と浅いレベルの言及に留まっています。
現在は法制度や事業者とのやり取りを通じて各国がそれぞれ個別に規制していますが、G7間で整合的な技術や評価の基準を共有し、一貫性あるガバナンスを目指し、その上で急速に進展するAIの可能性とリスクへの懸念を表明するということです。
さらに、「潜在的な影響力に対する分析と研究」を加速していくことを確認し、「事業者を含む関係団体とも連携し、今後見込まれるAIの課題に対処していく方針」を盛り込みました。
もう一つの大きな議題は、フェイクニュースなど偽情報に対する対策です。
こうした偽情報対策などを強化する「信頼あるインターネットの促進」を盛り込みました。
G7は、こうした声明に基づき、AIのガバナンス(統治)のほか、ネット空間における信頼性のある自由なデータ流通や、次世代の高速通信6Gの未来像などについて複数の別文書を策定する方向を打ち出しました。
この流れの中で、「国をまたぐデータ移転が信頼性ある自由な形で行われるように、実現に向けた新たな枠組みを作る方針」が盛り込まれましたが、いま日本で騒いでいるDXというデータ交換の仕組みは、こうした世界の方針に沿って発展させていかないと、この世界でも日本の仕組みは「ガラパゴス」と化します。
大丈夫でしょうか、現内閣の顔ぶれを見ていると心配になります。
今回のG7冒頭に「河野大臣のアバター」が登場しましたが、私の心配は倍増されました。