【代替テキスト】【AIのリスクとイノベーションを両立する】ガバメントAIフォーラムⅠ・オープニングスピーチ【AISI村上明子所長】
- 公開日:
(映像:オープニングスピーチを行うAIセーフティ・インスティテュート所長 村上 明子氏のアップ)
AIセーフティ・インスティテュート所長 村上 明子氏
AIを使わないと効率化できずに市場競争力がなくなるだけでなくイノベーションも加速できません。
テロップ:
AIを使わないと
市場競争力がなくなる
テロップ:
イノベーションも加速できない
(映像:オープニングスピーチを行うAIセーフティ・インスティテュート所長 村上 明子氏と会場の様子)
(映像:「AIの最大のリスク それはAIを恐れて使わないこと」と書かれた投影資料のアップ)
AIセーフティ・インスティテュート所長 村上 明子氏
リスクというものを認識していただき、そしてそれを避けながらしっかりとAIの活用をするということを考えていただければと思います。
テロップ:
リスクを認識して
(映像:松本尚デジタル大臣のビデオメッセージ)
デジタル大臣 松本尚
政府が率先してAIを使いこなし、その知見を社会と共有することで日本全体を最もAIを開発、活用しやすい国へと導きます。
テロップ:
政府が
率先してAIを使いこなし
テロップ:
松本 尚
デジタル大臣
テロップ:
知見を社会と共有することで
テロップ:
日本を
最もAIを開発・活用しやすい国へ
(映像:会場入り口前のガバメントAIフォーラムの看板)
(映像:来場者が受付を行う様子)
(映像:第一部ガバメントAIフォーラムの様子)
ナレーション
2026年3月、ガバメントAIを進めるデジタル庁は霞ヶ関の職員を対象にAI時代の公共サービスの価値や未来像などについて考えるガバメントAIフォーラムを開催しました。
テロップ:
ガバメントAIフォーラム
(映像:マイクを持ち話す東京都副知事 宮坂 学氏)
(映像:マイクを持ち話す中央大学教授 実積 寿也氏)
(映像:マイクを持ち話す㈱Preferred Networks 代表取締役社長 岡野原 大輔氏)
ナレーション
AIの活用によって変容する公共サービスの本質などについて有識者たちが語りました。
テロップ:
AI活用によって変容する
公共サービスの本質
テロップ:
デジタル庁ニュース
00:55~01:18
右上テロップ:
「ガバメントAIフォーラム」
2026年3月 東京 千代田区
(映像:マイクを持ち話す松尾 剛と来場者の様子)
(映像:マイクを持ち話す松尾 剛のアップ)
(映像:マイクを持ち話す松尾 剛と来場者の様子)
松尾 剛
デジタル庁主催ガバメントAIフォーラム「AIと創る、2030年の公共サービス」にご来場いただき、誠にありがとうございます。わたくしは、本日の司会を務めます、NHK財団アナウンサーの松尾剛と申します。今日はよろしくお願いいたします。
開会にあたりまして、松本尚デジタル大臣よりビデオメッセージをいただいております。ご覧ください。
テロップ:
司会 アナウンサー
松尾 剛
(映像:デジタル大臣 松本 尚のビデオメッセージ)
デジタル大臣 松本尚
皆様本日はお忙しい中ガバメントAIフォーラムにご参加いただき誠にありがとうございます。デジタル大臣の松本尚でございます。
01:22~05:50
右上テロップ:
ガバメントAIフォーラム
松本尚デジタル大臣 コメント
テロップ:
皆様 本日はお忙しい中
テロップ:
ガバメントAIフォーラムにご参加いただき
テロップ:
誠にありがとうございます
テロップ:
デジタル大臣の松本 尚でございます
(映像:デジタル大臣 松本 尚のビデオメッセージ)
デジタル大臣 松本尚
本日のテーマはAIと作る2030年の公共サービスです。
人口減少と少子高齢化が進む我が国において行政機関の公共サービスを維持強化していくためにはAIの利活用が不可欠です。
私たちは今AIとの向き合い方を考える重要な転換点に立っています。
テロップ:
本日のテーマは「AIと創る、2030年の公共サービス」です
テロップ:
人口減少と少子高齢化が進む我が国において
テロップ:
行政機関の公共サービスを
維持・強化していくためには
テロップ:
AIの利活用が不可欠です
テロップ:
私たちは今 AIとの向き合い方を考える
重要な転換点に立っています
(映像:デジタル大臣 松本 尚のビデオメッセージ)
デジタル大臣 松本尚
だからこそ今日はそれを皆さんと考えるためにこのフォーラムを開催しました。昨年12月に閣議決定された「人工知能(AI)基本計画」では「隗より始めよ」の観点から政府自らが先導的にAIを利活用する方針が示されました。
この方針に基づきデジタル庁では生成AI利用環境「源内」を構築し各府省庁への展開を進めております。
今後本年5月から10万人以上の政府職員が生成AIを利用できるようにする大規模実証事業を開始いたします。
「源内」は公務員一人一人の生産性を飛躍的に向上させる可能性を秘めています。
典型的な文章作成や情報収集にかかる時間を大幅に削減することで本来注力すべき政策立案などに時間を使えるようになります。
さらに「源内」は政府全体で安全にAIを活用できる共通基盤です。
各府省庁がバラバラにAIツールを導入するのではなくセキュリティーとガバナンスが確保された共通基盤により政府として安全安心で信頼できるAIの活用を推進できます。
テロップ:
だからこそ 今日はそれを皆さんと考えるために
このフォーラムを開催しました
テロップ:
昨年12月に閣議決定された「人工知能(AI)基本計画」では
「隗より始めよ」の観点から
テロップ:
政府自らが先導的にAIを
利活用する方針が示されました
テロップ:
この方針に基づき デジタル庁では
生成AI利用環境「源内」を構築し
テロップ:
各府省庁への展開を進めております
テロップ:
今後 本年5月から10万人以上の政府職員が
テロップ:
生成AIを利用できるようにする
大規模実証事業を開始いたします
テロップ:
「源内」は公務員一人ひとりの生産性を
飛躍的に向上させる可能性を秘めています
テロップ:
典型的な文章作成や情報収集にかかる時間を
大幅に削減することで
テロップ:
本来注力すべき政策立案などに
時間を使えるようになります
テロップ:
さらに「源内」は政府全体で
安全にAIを活用できる共通基盤です
テロップ:
各府省庁がバラバラに
AIツールを導入するのではなく
テロップ:
セキュリティーとガバナンスが
確保された共通基盤により
テロップ:
政府として安全安心で信頼できる
AIの活用を推進できます
(映像:デジタル大臣 松本 尚のビデオメッセージ)
デジタル大臣 松本尚
政府が率先してAIを使いこなしその知見を社会と共有することで日本全体を最もAIを開発、活用しやすい国へと導きます。
これをリードしていくことこそがデジタル庁に課せられた使命だと考えています。
しかし私たちが目指すのは単なる業務効率化だけではありません。
AIは公共サービスの在り方そのものを変容させる可能性を秘めています。
本日はこうした未来を見据え産官学から有識者の皆様にお集まりいただきました。
テロップ:
政府が率先してAIを使いこなし
その知見を社会と共有することで
テロップ:
日本全体を最もAIを
開発・活用しやすい国へと導きます
テロップ:
これをリードしていくことこそが
デジタル庁に課せられた使命だと考えています
テロップ:
しかし 私たちが目指すのは
単なる業務効率化だけではありません
テロップ:
AIは 公共サービスの在り方そのものを
変容させる可能性を秘めています
テロップ:
本日はこうした未来を見据え 産官学から
有識者の皆様にお集まりいただきました
(映像:デジタル大臣 松本 尚のビデオメッセージ)
(映像:お辞儀をするデジタル大臣 松本 尚)
デジタル大臣 松本尚
第一部ではAIによって変わる公共サービスの在り方に焦点を当て産業界 行政 アカデミアのそれぞれの観点からの多面的な議論を通じて誰のための何のための公共サービスかという本質を問い直し2030年に向けた望ましい未来像をともに描いてまいりたいと思います。
第二部ではさらに技術的な側面に踏み込みます。
ガバメントAIの高度化には技術、組織、制度の面で解決すべき課題が少なくありません。これらについて多角的に議論し2030年代までに目指すべきガバメントAIの姿を共に考えていただきます。
皆様にはぜひ議論を聞いていただいた上で「源内」を大いに活用いただきたいと思います。
本日のフォーラムが皆様の具体的なアクションにつながる議論の場となることを願っています。
そして本日の議論がより便利で豊かな社会の実現に向けた重要な一歩となることを期待しておりますどうぞよろしくお願いいたします。
テロップ:
第一部ではAIによって変わる
公共サービスの在り方に焦点を当て
テロップ:
産業界 行政 アカデミアのそれぞれの観点からの
多面的な議論を通じて
テロップ:
誰のための 何のための公共サービスかという
本質を問い直し
テロップ:
2030年に向けた望ましい未来像を
共に描いてまいりたいと思います
テロップ:
第二部では さらに技術的な側面に踏み込みます
テロップ:
ガバメントAIの高度化には 技術・組織・制度の面で
解決すべき課題が少なくありません
テロップ:
これらについて多角的に議論し2030年代までに
テロップ:
目指すべきガバメントAIの姿を
共に考えていただきます
テロップ:
皆様には ぜひ議論を聞いていただいた上で
「源内」を大いに活用いただきたいと思います
テロップ:
本日のフォーラムが 皆様の具体的なアクションに
つながる議論の場となることを願っています
テロップ:
そして本日の議論がより便利で
豊かな社会の実現に向けた
テロップ:
重要な一歩となることを期待しております
テロップ:
どうぞ よろしくお願いいたします
(映像:マイクを持ち話す松尾 剛と来場者の様子)
(映像:マイクを持ち話す松尾 剛アップ)
(映像:お辞儀をするAIセーフティ・インスティテュート所長 村上 明子氏)
松尾 剛
松本大臣、ありがとうございました。では、続きまして、オープニングスピーチです。
スピーカーは、AIセーフティ・インスティテュートの村上明子所長です。社会の変化とAIについて、広く語っていただきます。
村上さん、どうぞよろしくお願いいたします。
05:50~06:03
右上テロップ:
ガバメントAIフォーラム
テロップ:
AIセーフティ・インスティテュート(AISI)
村上 明子 所長
(映像:登壇するAIセーフティ・インスティテュート所長 村上 明子氏)
(映像:「オープニングスピーチ AIセーフティ・インスティテュート(AISI)所長
村上 明子」と書かれた正面モニター)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
ご紹介ありがとうございます。AIセーフティ・インスティテュートで所長をしております村上でございます。
本日はこのような場でお話しさせていただくこと、大変光栄に存じます。
06:03~07:59
右上テロップ:
ガバメントAIフォーラム
村上明子AISI所長 講演
(映像:投影資料に関して―オープニングスピーチ資料の表紙。
ガバメントAIフォーラムの講演資料。イベント名「ガバメントAIフォーラム AIと創る、2030年の公共サービス」。資料タイトル「AIのリスクとイノベーションの両立に向けて」。2026年3月2日。登壇者は村上明子(SOMPOホールディングス 執行役員常務 グループチーフデータオフィサー/損害保険ジャパン株式会社 執行役員チーフデータオフィサー、データドリブン経営推進部長/AIセーフティ・インスティテュート 所長)。AISI(Japan AI Safety Institute)の表記がある。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
本日お時間いただきまして「AIのリスクとイノベーションの両立に向けて」というお話をさせていただきます。 先ほど「源内」のお話も出てまいりましたけれども、いよいよ、政府でのAIの活用というところが本格化すると思います。
皆さんもですね、そのAI、日々日々、ニュース等でですね、AI、それからAIのリスクについて、報道がされてると思いますけれども、そういったところで、どのような点に気をつければいいのかというところを、今日のお話でわかっていただければと思っております。
(映像:投影資料に関して―村上明子氏の自己紹介と画像。
経歴年表。1999年に日本IBM東京基礎研究所入社、2016年に同社東京ソフトウェア開発研究所、2021年に損害保険ジャパン入社(DX推進部の特命部長等)、2022年に執行役員CDO、2024年にAI Safety Institute所長、2024年に損害保険ジャパン執行役員CDaO データドリブン経営推進部長、2025年にSOMPOホールディングス株式会社 執行役員常務グループCDO。あわせて政府・自治体、研究、民間、市民分野の委員・役職(言語処理学会理事、デジタル庁会議委員、内閣府調査会委員など)が列挙されている。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
まず、簡単に私の自己紹介をさせていただきます。
先ほど申し上げましたようにAIセーフティ・インスティテュート、これあの政府の組織でございまして、私が民間人ながらですね、そちらの所長をさせていただいております。私はですね、民間の立場もございまして、保険会社、損害保険ジャパン、そしてSOMPOホールディングスというところで、チーフデータオフィサーもしております。
私元々はですね、AIの研究者からキャリアをスタートいたしまして、その後、AIのソフトウェア開発、そして今は損害保険ジャパンの方でユーザー側の立場でAIを使っております。 そういったですね、研究、それから開発、そして利用者、その3つの立場を経験している人ってなかなかいないと思いますので、そういった観点からもですね、今のAIの安全性について、貢献ができればという風に思っております。
また、政府や自治体の委員もさせていただいております。今日宮坂副知事おいでになっていらっしゃいますけれども、東京都の方でもAIの戦略専門家会議の方に参加させていただいておりますし、またデジタル庁のデジタル社会構想会議の委員もさせていただいております。
さて、今日のお話なんですけれども、まずAI、これ使うか使わないかって言うとですね、もう使わないという選択肢が私たちに残されていないと思います。
08:01~11:10
右上テロップ:
日本のAI活用の現状と課題
(映像:投影資料に関して―人口現状を迎える日本においてAIの利用は必須条件
日本は人口減少による労働力不足が深刻で、AI活用は「選択肢」や「差別化」ではなく必須である、と述べる。日本の労働生産性はG7最下位(2023年)、OECDでも23位で、デジタル化・自動化投資の遅れが指摘されている。バブル崩壊後の前例踏襲・保守性によりAI導入が遅れている、という問題提起がある。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
特にですね、人口減少を迎える日本においてはですね、AIの利用というものは必須条件になってきています。
私も企業におりますとですね、そのもうAIを使うということが差別化にはならず、もう使って当たり前。じゃあそれを使ってどのようにしていくのか、どのように効率化を進めていくのか、新規事業を作っていくのかっていうところが、もう本当に差別化の中心になってきています。
まず効率化のお話で参りますと、日本においては特に人口減少が、この労働者不足というところを生み出しておりまして、これを解決するというところが喫緊の課題でございます。
ただ、皆さんご存知のようにですね、日本の労働生産性というのは世界的に見ても高くはありません。残念ながらG7の中では最下位、そしてOECDの中でも23位という、決して褒められた成績ではないと思っています。
で、特にですね、バブルの崩壊以降、その前例踏襲、保守的となった中にですね、やはりそのAIという新しいものをこう、受け入れる文化、素養というのが、日本の組織の中にないというのが、事実だという風に思っています。
とは言えですね、今、結構企業、頑張ってAIを導入しようとしてます。
(映像:投影資料に関して―「しかし、もしAIが間違っていたら…」という問題提起。保険金支払い、補助金申請判断など社会生活に影響がある領域で、正しいAIが使われているか消費者には知る権利がある、と述べる。「どのようなAIが使われているか」「その判断は正しいか」。AI判断の失敗事例は多数あり、「安全」であり「安心」できなければ導入は進まない。最後に「どのように『安全である』とみなすのか」という問いで締める。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
でも、もしAIが間違ってたらと思うと、ちょっと怖いですよね。
保険金の支払い、それから皆さんのような、公共的な仕事ですと、補助金の申請の判定等の、社会生活に影響のある、こういったものに正しいAIが使われているかというところは、もちろん使って、それを、利用されてサービスをする側の人間も、そしてそれを使ったサービスを受ける消費者の方もですね、非常に心配になるわけです。特にですね、正しいAIが使われているか、正しく使われているかというのは消費者には知る権利があります。
そのAIによる判断の失敗っていうのはもう数多く知られているんですね。
ちょっと具体例今日お時間の限りがあるのであんまりお見せすることできないんですけれども、こういう失敗というのがあるとですね、どんどんと、安全であるということを信じることができなくなってしまいます。
じゃあ、それをどのように皆さんに安心していただくのかというところで、どのように、特に技術的に、安全であるかということをみなすかということが非常に重要になってきます。
(映像:投影資料に関して―プライベートでのAI利用増加とAIに関する不安
個人のプライベートでのAI利用が前年より増加している一方、不安もあることを示すグラフ2種。2024年と2025年を比較しAIを「よく利用している」・「利用したことがある」という数値がそれぞれ上昇。
しかし、「誤情報が自分に提供されることに不安を感じる」「誤情報が世の中に拡散されることに不安を感じる」などと言った声が多く、回答の不正確さに対する不安が多きいことを示している。出典はJIPDEC「デジタル社会における消費者意識調査2025」、一般財団法人日本情報経済社会推進協会「デジタル社会における消費者意識調査2025」。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
で、もう少しデータを見てみましょう。
今日ちょっと小さくて恐縮なんですけれども、プライベートでのAIの利用っていうのは増加していますが、まあそれに伴ってAIに対する不安も増加しているということが見て取れます。
前年と比較して、これちょっと古いデータなんで24年、25年の比較なんですけれども、役に立つ、使える、便利だという回答が増えているものの、回答の不正確さに対する不安というのがプライベートの利用では増えてきています。
(映像:投影資料に関して―企業の利用状況と不安
企業でも生成AI活用が進み、45%超が業務で活用している一方、「情報漏洩」と「回答の不正確さ」への懸念が大きいと述べる。「業務における生成AIの活用効果」グラフと、「生成AIの利用におけるセキュリティ/プライバシー懸念点」を示すグラフ。分析・レポート作成、文章の要約・翻訳、会議の効率化等に効果が出ているという回答がある一方、社内の機密情報が生成AIに入力され外部に漏えいすること、生成AIが出力した偽情報や誤った内容を信じて業務に使用すること等に対する懸念の声が多い。出典は」一般財団法人日本情報経済社会推進協会の「企業IT利活用動向調査2025」。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
そして企業も同じです。
企業もですね、やはり45%以上の企業が業務で活用してる、これ25年度なんで、今もっと増えていると思います。ところがやはり情報漏えいだとか回答の不正確さに対する不安というのはまだまだ企業の現場でも多くなってきています。
(映像:投影資料に関して―生成AIの台頭で顕著になったAIリスク。
AIリスクは「技術的リスク」と「社会的リスク」に大別される。技術的リスクはバイアス、誤判定・誤回答、ハルシネーション、安全性、セキュリティ等。社会的リスクはプライバシー侵害、政治活動への悪用、不正目的、権力集中、財産権侵害、環境負荷等。さらに企業のAI活用には法的リスクとレピュテーションリスクもあると述べる。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
このAIのリスクというものなんですけれども、これ大きく分けてですね、技術的なリスクと、それから社会的リスクというものに大別されています。
技術リスクというのは、例えばですね、データや、ロジックによる、こう偏り、バイアスの他、誤判定や誤回答、そしてハルシネーション、そしてセキュリティ、安全性、こういったものになります。
それに比べて、社会的なリスクというのは、プライバシーの侵害であるとか、社会、政治活動への悪用であるとか、不正目的。それから、財産権の侵害、これ、著作権も含みます。これの侵害であるとか、あと大きなもので言うと最近だと環境負荷、これAIを使うことによる環境負荷なども社会的リスクと言えると思います。
企業の、まあ企業だけではないですね、組織のAI活用には、さらには法的なリスク、そしてレピュテーションのリスクというものも存在しております。
こういったものをですね、どのように、捉えるかということが重要になってきます。
11:11~14:37
右上テロップ:
AIのリスク分類
(映像:投影資料に関して―以前から指摘されていたAIリスク:データによるバイアス。
画像生成AI初期には「医者/弁護士/CEO」の画像の生成を依頼すると白人男性がほとんどだったという事例を示す。多様な年齢層・人種・性別で構成されたイラストを例に近年(ChatGPT5)では多様性が確保される方向になっている、と説明。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
今日お時間の関係で2つほどですね、どういうリスクがあるのかというのを見てみましょう。これもう前から指摘されていた、データのバイアスですね。皆さんもお聞きになったことあると思います。
例えば過去の採用の結果を使って、AIをモデル化すると、どうしても女性の採用が少なかった場合に女性が不利になってしまうような、そんなバイアスの話を聞いたことがあるかと思います。
これ私が試してみた例なんですけれども、画像生成ができた初期の頃にですね、私頼んで、AIに頼んで、医者と弁護士とCEOを書いて欲しいって頼みました。
そうすると、ほとんどが白人の男性を書いてきたんです。
で、今ですね、ChatGPT 5では、きちんとこのような、これ最近作ったものですけれども、多様性が担保されるようになってきていて、例えばお医者さんですと、ちゃんと女性だったり年齢層もばらけていたり、いろんな人種の方が入ったりということになっています。
こういったことはですね、気づくとですね、やはりそのAIのモデルの会社というのも対応してきているというところなんですけれども、アンコンシャス・バイアスと呼ばれるように、気づけないバイアスをAIが起こしてしまって、その差別や区別の再生産をしてしまうといったことも、私たちはリスクとして考えておかくてはいけないものになります。
(映像:投影資料に関して―AIの技術的なリスク―プロンプトインジェクション
プロンプトインジェクションの説明とAIを悪用する人物のイラスト。ユーザーがAIに特定の指示を与え、意図しない形でシステムを操り、想定外の回答や誤情報拡散を引き起こすリスクのある攻撃手法。人事情報やパスワード等の機微情報を引き出せる脆弱性にもなり得る。HTML/OSコマンド/SQLインジェクションなど過去の攻撃と類似、と位置づける。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
そしてもう1つですね、AIの技術的なリスクがあります。
これプロンプトインジェクションというものです。これサイバーセキュリティにお詳しい者は、なんとかインジェクションってよく聞いたことがあると思います。
HTMLやOSのコマンド、SQLなどにですね、悪い命令を忍ばせて、中からデータを抜き取るということです。で、これがAIのプロンプトでも行われています。
これAIというのはチャット形式で、情報を得るために会話をするわけですけれども、まあその裏側にある人事情報であるとか、パスワードであるといったような機微情報を、これをですね、プロンプトで抜き出す、こういうことが可能になってきているわけです。
「こんなこと防げるだろう」とお思いになるかもしれないんですけれども、最近見た面白いデータだとですね、人間には読めないのに、機械には、その人事情報を出せという命令に見えるような、アスキーアートと呼ばれる、文字で作る、文字で作るその、命令をですね、入れるとですね、きちんと言うこと聞くんですね、AIのモデルというのが。そういったような、情報の流出の危険というのも非常にあるという風に考えています。
(映像:投影資料に関して―AI事業者ガイドラインが想定するリスク。
経産省等のAI事業者ガイドラインの目的は「安全安心な活用の促進」で、「AIガバナンスの統一的指針を示すこと。」安全性確保のための「共通の指針」10項目を列挙:人間中心、安全性、公平性、プライバシー保護、セキュリティ確保、透明性、アカウンタビリティ、教育・リテラシー、公正競争確保、イノベーション。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
さて、じゃあ、そのAI、今まで野放しにしてきたかと言うと、そういうわけではございません。
皆様ご存知のように、このAI事業者ガイドラインというものを、用いまして、特に、そのAIの事業者にむけて、こういう危険性があるのできちんと安心安全な活用をするために、こういうガイドラインを守ってくださいというのを出しております。
この安全性確保のためにですね、この10個の、共通の指針を示しています。
まずは人間中心に考えてくださいということ。
そして安全性、公平性、プライバシー保護、セキュリティ確保、透明性、アカウンタビリティ、そして教育リテラシーを考えるということと、公正競争の確保と、最後イノベーションというところになっています。
こういった、その事業者ガイドラインが想定するリスクと、それから、指針というものをしっかり守るということが大事だという風に言えると思います。
14:38~20:38
右上テロップ:
AIガバナンスの国際動向と日本
(映像:投影資料に関して―AI原則からAIガバナンスへ
2010年代にAIが浸透しはじめたとき世界各国で作られた「AI原則」(安全性、セキュリティ、プライバシー、公平性、透明性/説明可能性)。生成AIの出現で透明性・説明可能性が難しくなった。
進化の早いAIの安全性担保には「AIガバナンス」が必要になったと説明。AIガバナンスは、AIのリスクを受容可能な最小限に抑えつつ価値を最大化することが目的、と定義している。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
で、この先ですね、すごい、少し変わってきてるのが、AI原則というものがありました。生成AIが出る前っていうのはAIの中身もブラックボックスではあまりなかったんですね。
ところが、今まではそれで透明性、あるいは説明可用性を担保すればAIの安全性保てるよと言っていたのが、今ですね、その、透明性、説明可用性が困難になってきましたので、原則を守るというよりはガバナンスをしっかりさせるという方向に動いてきています。じゃあ、このところでですね、もう少し、AIのガバナンスについてなんですけれども、
(映像:投影資料に関して―「人工知能関連技術の研究開発及び活用の推進に関する法律」
目的は国民生活の向上と国民経済の発展。基本理念として経済社会・安全保障上の重要性、研究開発力保持と国際競争力向上、基礎研究から活用までの総合的/計画的推進、透明性確保、国際協力で主導的役割など。AI戦略本部やAI基本計画、国・自治体・研究機関・事業者・国民の責務、事業者の施策協力、情報収集や侵害事案の分析・対策検討、指導助言等、規定が表形式で示されている。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
日本の政府、これ、もう皆様の方がお詳しいので、私が話すのも、恥ずかしいんですけれども、昨年ご存知のように、「人工知能に関する法律」というものができました。
これ日本はですね、世界の各国、私もお話しすることが多いんですけれども、非常に特徴的なのが、
(映像:投影資料に関して―日本のAI法「ソフトローアプローチをハードローで規定」
各国のAI法の位置づけを図・各国の国旗で説明。EUは厳しい罰則で規制を目指す方向、米国は規制緩和でイノベーション促進の方向。日本は原則罰則なしでAI促進寄りだが、ソフトローをハードローで規定する形、という比較図になっている。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
ちょっと次のページをお見せしますけれども、日本のAI法はソフトローアプローチ、いわゆる、先ほど出したようなガイドラインをですね、ハードローで規定するという、非常に、まあ珍しい方向性を示していると思います。
規制ありき罰則ありのEU、それから、原則、規則や罰則が原則なく民間主導であるアメリカ、それのいいとこ取りをしたという風に私は思っております。
こういった世界の中で今AIの安全性というのも大きく語られ始めています。
私が所属、主導しておりますAIセーフティ・インスティテュート、各国に、近い組織というものがございます。
(映像:投影資料に関して―世界のAI安全性機関の国際ネットワーク。
米国の呼びかけで「International Network for AI Safety Institute」として発足し、初年度議長国は米国、現在10カ国参加。2025年11月から英国がコーディネーター。名称は「The International Network for AI Evaluation and Research」に変更。各国の機関設立状況:英国(2023年11月設立、2025年2月にAI Security Instituteへ改名)、米国(2024年2月NIST内に設立、2025年6月にCAISIへ改名)、日本(2024年2月IPAに設立、UK・英米に次ぐ3番目)、カナダ・韓国(2024年11月設立)、シンガポール(2024年5月NTU内に設立、LLMの国際標準化を目的とした安全性評価テストツールの提供等を実施)、EU(2024年5月、欧州委員会にAISI相当機能設立)、フランス(INESIAを2025年2月設立)、オーストラリア(2025年11月設立)、ケニヤ(AISIネットワーク参加)などが記載されている。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
歴史の話はしませんけれども、最初に英国でAIセーフティ・インスティテュート、今AIセキュリティー・インスティテュートに名前が変わりましたけれども、設立されて、日本とアメリカがほぼ同時にですね、設立を宣言いたしました。
今やですね、いろんな国にありまして、今そのAI安全性の機関の国際ネットワークというものを、10か国1地域、EUですね、と一緒になって進めています。
そして、昨年、最初はアメリカがチェアカントリーだったんですけれども、昨年の11月からは、英国がコーディネーターということで、このネットワークは続いています。
(映像:投影資料について―3タイプある世界のAI安全保障戦略のいいとこどりを
世界のAI安全保障戦略を3類型で示し、日本は「いいとこどり」を目指すという主張。「官民共創」の安全ベンチマークで自己評価能力を持ち、必要に応じて規制するためのソフト・ハードロー作成を技術支援する。比較として、英国・米国モデル(政府が評価能力を内製化し技術的優位を確保)、EU(フランス)モデル(AI法と市場ルール構成)、シンガポール・カナダ・韓国モデル(オープンソースと研究コミュニティの力で社会実装を主導)と対比する図。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
この中でですね、特徴的を見てみますと、このAIの安全保障戦略というのを見てみますと、先ほど申し上げたように、英国、米国というのが、立場は違いますけれども政府がですね、直接AIのモデルっていうのを、こう検証するという能力を持って技術的優位を確保していくという方針でいます。
一方ですね、EU、それから、フランスも含めてのモデルとしてはAI法と市場のルールを先に形成して、それに従うようにということを言っています。
一方ですね、シンガポールとか、カナダ、韓国というのがオープンソースと研究コミュニティの力で社会実装を主導していこうというそういう立場であります。
日本のモデルとしましては、これのまたいいとこ取りをしようとしていまして、官民のエコシステムで、ベンチマーク、安全性の基準ですね、これを作って、それを政府が評価能力を持って政策を実施するという、そういう方向で、進めようとしています。
(映像:投影資料について―AISI(AI Safety Institute)の役割とスコープ
AISI(AI Safety Institute)の役割は、AIの安全安心な活用を促進するため官民の取組を支援すること。
主な役割は3つ:
①政府への支援(AIセーフティに関する調査、評価手法の検討や基準の作成等)
②日本におけるAIセーフティのハブ(産学における関連取組の最新情報の集約/ 関係企業・団体間の連携促進/他国のAIセーフティ関係機関との連携)
③関連の研究機関との連携実施(国研等の関係研究機関との連携/パートナーシップ事業の推進)
AIのリスクを正しく認識できる仕組みづくり+ガバナンス確保など必要対策をライフサイクル全体で実行できる仕組みづくり/国内・国際的な関係機関により、イノベーションの促進とライフサイクルにわたるリスクの緩和を両立する枠組みを実現。スコープは社会への影響、ガバナンス、AIシステム、コンテンツ、データ等を含み、諸外国や国内の動向を見ながら柔軟に設定すると述べる。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
そういった中、AIセーフティ・インスティテュートの役割も少しずつ変わってきております。
これ元々設立された時の役割ですけれども、政府としての、まず政府に技術的な支援をするというのが、私たちの主な目的、ミッションの1つとしています。
そして日本におけるAIセーフティのハブになる。その、情報ですね。情報ですとか、日本のAI安全性に対する情報を収集して各国に発信する、あるいはですね、各国のAIの安全性の情報を収集して日本の組織の方にお示しする、こういったハブのところもミッションの1つでございます。
そして、私どもは自分自身がポリシーメーカーでもなければ、研究機関でもございません。なので、関連のまず研究機関としては、国研を中心とした研究機関との連携というもので、しっかりとですね、そのポリシーメイキングをされる方に技術的情報というのを伝えていく。これもミッションの1つでございます。
今、ご存知のように昨年の9月からですね、そのAI法の議論の中で、AISI強化策というのを議論していただいておりますので、しっかりそこでですね、新しいミッションとともに進んでいこうとしていますけれども、基本的にこの役割というのは変わらないという風に考えています。
(映像:投影資料について―成果物の概要
AIの安全安心な活用促進のために公表している成果物の一覧。例として、データ品質マネジメントのガイドブック、AI事業者ガイドライン、クロスウォーク、活動マップ、年次レポート、レッドチーミング手法ガイド、AIセーフティ評価環境(OSSツール)、評価観点ガイド(10の評価観点整理)などが並ぶ。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
アウトプットとしましてはいくつかございます。
私どもが中心になっているわけではございませんけれども、AI事業者ガイドラインの方にはしっかりと貢献をしていきます。
また、あの、アメリカのリスクマネジメントフレームワークという、日本でいうところのAI事業者ガイドラインに匹敵するところ、こことのクロスウォークをすることで、アメリカとの同じところ、そして差分というのをしっかりと見ていくというような活動であるとか、あるいはですね、そのデータの品質、それからレッドチーミングといった、いろいろなAI安全性に対する活動をどういう風にやっていけばいいかというガイドラインを出しているというところになります。
じゃあ、このような活動を進めていく中でですね、
(映像:投影資料について―「安全」と「安心」の違い
用語定義の整理。「安全」はISO/IEC GUIDE 51:2014(E)の定義で「許容できないリスクがないこと」。一方「安心」は広辞苑の定義で「心配・不安がなく心が安らぐこと」で、主観的要素が強い。AIについては「安全に使う技術的手段を提供する」だけでなく、「安心して使うために必要な情報提供」も必要だと述べる。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
私たちがどのように技術的に、このAI安全性に対して貢献してるかというところなんですが、先ほど少しだけ安全と安心というところをお話しさせていただきました。
もう1回ちょっと考えますと、安全と安心って、少し意味が違うんですね。
海外に実はですね、外国でですね、安心という言葉を直接一単語で翻訳することってないんです。でも日本ってすごく安心を重視します。
これ安全というのは、これはリスクがないことでは少し違っていて、実はISOの方で規定がございまして、許容不可なリスクがないことという風に定義されています。
一方でですね、安心というのはちょっと主観的なんですね。私はこの技術に対して安心感を持っているというのは私の主観なわけです。
だから心配、不安がなくて心が安らぐことという風に定義されていますけれども、この客観的な安全と主観的な安心、ここをしっかり結びつけることがですね、日本でのAIの利用に対しては重要なのではないかなと思います。
そういった意味ではですね、AISIの活動としても、AIを安全に使う技術的な手段を提供するだけではなくてですね、安心してAIを使っていただけるために必要な情報提供をする、ということが重要なのではないかなという風に思っています。
20:40~26:31
右上テロップ:
「安全」と「安心」の違い
(映像:投影資料について―AIのリスクや安全性を技術的に捉えるためには
AIのリスクや安全性を技術的に捉えるには、AIモデルレベルからシステムレベルで考える必要がある、という図。構成要素として、設計、データ入力、モデル構築、AIモデルチューニング、出力、アプリケーション等が並び、全体最適で安全性を考える趣旨を示す。右側にはAIシステム全体の図。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
で、もう少しあと残り5分ほどございますけれども、もう少しですね、技術的なお話をできればと思います。
今、AIのリスクや安全性、データのバイアスの話であるとかプロンプトインジェクションの話をさせていただきました。
AIの安全性というのが2年前にAISIができた時というのは、AIのモデルに対する安全性というのを議論することが中心だったんですね。
例えばこのモデルっていうのが爆弾の作り方を人に教えないだろうかとか、毒の作り方を教えないだろうかとか、そういうことを最初気にしていました。
ところがそれはもちろん大事なんですけれども、多くのフロンティアモデル、企業が出しているモデルというのはそういうところを自社的にですね、自分のところでベンチマークを作って危険なものを発信しないようになってきています。
一方でそのシステムの、AIのシステムってどんどんと複雑化してきています。今までシステムというのは入力に対して出力というのが一時的に決まるようなものだったんですがこれにAIが入ることでそこに不確実性というものができてきてしまいます。
(映像:投影資料について―AIシステムに対する攻撃の俯瞰
AIシステムへの攻撃を開発(学習)段階と運用段階に分けて俯瞰する図。例として、モデル抽出攻撃・学習データ情報収集攻撃・モデルポイズニング攻撃・データポイズニング攻撃・回避攻撃・スポンジ攻撃・プロンプト窃盗攻撃・プロンプトインジェクション攻撃・コードインジェクション攻撃・ファインチューニング攻撃・ロウハンマー攻撃などが、データの流れのどこで起きるかという位置関係で描かれている。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
なのでこのAI全体のシステムの安全性というのを考えなくてはいけなくなってきているわけです。
想定するAIシステムって非常にですね、こう攻撃というのは多種多様にあります。先ほど言いましたいわゆるインジェクション、プロンプトインジェクションだけでなくですね、モデルに、ポイズニング、悪いものを入れて変な挙動させるようにする攻撃であるとか、あるいはですね、その学習データというものの漏えい、そのものでこういうAIが何を考えているのかっていうのを知るような、そんな攻撃が多くあります。
もしですね、ご興味ありましたら、ぜひですね、AISIの報告を読んでいただきたいんですけれども、こういった攻撃が複数存在するということは、AIの安全性ということを考える時にしっかりとですね、AIそのものの知識も必要になってくるというものになります。
これとは別に、AIを使ってシステムに攻撃するということも今社会的に大きな問題になってきています。皆さんAI使われているとですね、とある会社の、コードを使って、他のAIシステムに攻撃をするということが多くあるということをニュースでもご覧になっていらっしゃると思います。それが、技術者の方ですとできるような時代になってきたということが理解されていると思います。
そういったその、AIを使ったシステムの脅威、それからAIシステムそのものの脅威、これを私たちは安全性として捉えなくてはいけなくなってくるわけです。
(映像:投影資料について―Safety by Designという考え方
「Safety by Design」という考え方=システムの企画や設計の初期段階から安全性を考慮することが重要だと述べる。AIを使いながら考えている様子の男性のイラスト、周りの人に応援されながらAIを操作しているPCの前で作業をする男性のイラスト、家族でAI AIを操作しているPCをのぞき込むイラスト)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
AIセーフティ・インスティテュート所長 村上 明子氏
じゃあですね、そのシステムを作る、例えば今日も「源内」のお話ありましたけれども、作られている時に一番大事なのはですね、デザインをする時に安全を考える。
これセーフティ・バイ・デザインという考え方ですけれども、そのシステムの企画や設計の初期段階から、いわゆる技術的なリスクだけでなく、先ほど言った社会的リスクも踏まえて安全性というのを考慮する。これがすごく大事になってくるわけです。
だいぶ急いで喋ったらあと3分あるなと思ったんで資料にないことを喋り始めますけれども、今日その議論にありましたその、いわゆる自分たちでそのAIの環境を用意するっていうところは、非常に重要になってきます。
今AIのシステムというのは多くの会社というのが提供してくれるんですけれども、その多くのモデル、あるいはですね、多くのシステム、例えばSaaSですと、中身がどうなってるのかを全てを知ることということは、ユーザー側にはなかなか難しいことになります。
でもですね、じゃあ、ゼロから全て自分たちで作るかと言うと、今のこのAIの複雑さっていうところを鑑みるにですね、全てをスクラッチで作るというのは実務的ではありません。そう考えると、このセーフティ・バイ・デザインっていう時に、どこが私たちが安全性として譲れないのかっていうところを、しっかりとですね、考えるということ、これが非常に大事になってきて、「ここは、お任せしてもいいだろう。でも、ここはお任せできないから自分たちでデザインするんだ」というところ、そこをしっかり考えてくることが重要なんじゃないかなという風に思います。
特にですね、そのAIっていうと、AIによってどうやって、私たちの行動をするか、っていう行動変容そのものも変わってくるので、その辺りをですね、人に任せていいのか、というのは非常に重要な問題なんじゃないかなという風に思います。
(映像:投影資料について―AIの最大のリスク それはAIを恐れて使わないこと
AIを使わないと効率化できず市場競争力を失うだけでなく、イノベーションも加速できないと述べる。ロボットの横でPCを操作する男性のイメージ画像と、ひらめいた様子の男性のイメージ画像。)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏と来場者の様子)
(映像:話すAIセーフティ・インスティテュート所長 村上 明子氏のアップ)
(映像:AIセーフティ・インスティテュート所長 村上 明子氏と拍手をする来場者の様子)
AIセーフティ・インスティテュート所長 村上 明子氏
さて、私のお話はそろそろ終わりにさせていただくんですが、いつもですね、私は講演の最後にこの資料で締めくくっています。
私がよく聞かれるのは、「AIのうち、どのリスクが一番最大のリスクですか?」という風に聞かれることが多くあります。
それはですね、AIを恐れるがあまり、そのリスクを恐れるがあまり、恐れて使わないこと、という風に思っています。
この、企業の目で言いますと、例えばそのAIを使わないと、効率化できずに市場競争力がなくなるだけでなくイノベーションも加速できません。国も同じです。
この効率化できないと、皆様の国民のサービスに対して、十分なサービスができなくなる可能性もありますし、各国とのイノベーションに戦うこともできなくなってしまいます。
なので、しっかりとですね、リスクというものを認識していただき、そして、それを避けながらしっかりとAIの活用をするということを考えていただければと思います。
私からはこのお話をもってさせていただきます。
後ほど、またパネルにも参加させていただきますので議論できましたら幸いです。
ご清聴どうもありがとうございました。
26:32~27:25
右上テロップ:
AIを積極的に使いこなす
(映像:ガバメントAIフォーラム第1部座談会の様子)
(映像:マイクを持ち話す㈱シナモン 代表取締役社長 CEO 平野 未来氏)
(映像:マイクを持ち話すデジタル庁統括官 楠 正憲)
(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎 氏)
(映像:デジタル庁ガバメントAI リードエンジニア 大杉 直也 )
(映像:第1部・第2部座談会の登壇者の様子)
ナレーション
ガバメントAIフォーラムでは官民の有識者たちがAI時代への公共サービスの価値や未来像などについて様々な視点から議論しました。2セッション行われた座談会の様子も動画でご覧いただけます。
テロップ:
関連動画「ガバメントAIフォーラム 座談会」
第1部:生成AIで再設計する「公共サービス」の未来
第2部:ガバメントAIをどう作るか