12月21日の第7回AI戦略会議で、政府は「AI事業者ガイドライン」を示し、生成AIの安全性など研究する国の機関を1月めどに設立するとしました。
ガイドラインはAIによるリスクを未然に防ぐ判断基準にはなりますが、EUや米国では拘束力を持つ法令をつくる議論が進んでいます。 日本は「AI事業者ガイドライン」だけで良いのでしょうか? AI戦略会議 第7回 https://www8.cao.go.jp/cstp/ai/ai_senryaku/7kai/7kai.html 生成AIの安全性など研究する国の機関 1月めどに設立へ 首相 2023年12月21日 https://www3.nhk.or.jp/news/html/20231221/k10014294821000.html 生成AIのリスク「民主主義ゆがめる懸念も」 政府が新組織で対応へ 2023年12月21日 https://digital.asahi.com/articles/ASRDP5TPQRDNULFA04D.html A I 事業者ガイドライン案の主な内容 【共通の指針】 ①人間中心②安全性③公平性④プライバシー保護⑤セキュリティー確保⑥透明性⑦アカウンタビリティー(説明責任)⑧教育・リテラシー⑨公正競争確保⑩イノベーション ・人間の意思決定や認知・感情を不当に操作することを目的としたAIの開発・提供・利用は行わない ・AIが生成した偽情報が社会を不安定化・混乱させるリスクが高まっていることを認識し、必要な対策を講じる ・AIの出力結果が公平性を欠くことがないよう、人間の判断を介在させる利用を検討する 【AI開発者】 ・学習時のデータに、第三者の機密情報や個人情報などが含まれる場合は法令に従って適切に扱うことを確保する ・データ収集や使用されたアルゴリズムを第三者が検証できるよう文書化する 【AI提供者】 ・不適切な出力などのリスクを最小限に抑える方法を検討する ・AI開発者が設定した範囲でAIを活用する 【AI利用者】 ・公平性が担保されたデータの入力を行い、バイアス(偏り)に留意して、責任を持ってAI出力結果の事業利用判断を行う ・個人情報を不適切に入力しないよう注意を払う 【具体的リスク例】*別添資料より ・AI人材採用システムで、女性を差別する機械学習面の欠陥が判明した。学習に使用した過去の履歴書がほとんど男性だったことが原因とされる ・選挙支援活動で、収集した個人情報を基に「陰謀論に傾きやすい集団」などの分類をし、自陣営に有利になる記事が大量に投稿され、民主主義をゆがめると懸念された ・医療現場のトリアージでは、特定の人群に差別的な医療判断が行われる可能性がある ・AIで合成された娘の声で助けを求める電話があり、身代金を要求された AIの安全性確保と活用促進に関する緊急提言 https://note.com/masanao_ozaki/n/nbd4dd013a5cb ・・・・・これらの政府による迅速な取組みは高く評価したい。一方で、世界はルールメーキングの次を見ている。AI の安全性の確保に向けて、安全保障、サイバーセキュリティも含む幅広い関係者を巻き込み、より具体的な検討が始まっている。英国でのAI サミットの開催、米英の AI 安全研究所の設立、英米はじめ 18 ヶ国の政府機関による「セキュア AI システム開発ガイドライン」の策定、「AI の安心、安全で信頼できる開発と利用に関する米国大統領令」などは、その表れであろう。 ・・・・・更に、当該ガイドライン遵守の履行確保のため、法制化に向けて検討を進めること。
0 Comments
Leave a Reply. |
著者萬秀憲 アーカイブ
April 2025
カテゴリー |