本文へ移動

【代替テキスト】【人間にあってAIにないものは‘‘意思’’】ガバメントAIフォーラムⅡ・座談会1部&2部【官民のトップランナーが議論】

(映像:マイクを持ち話す東京都副知事 宮坂 学氏)

左上テロップ:
デジタル庁ニュース

東京都副知事 宮坂 学氏
AIを使ってどんな公共サービスにしたいのかって
「意志」というか「ビジョン」というか
それをもうちょっと公務員皆で議論して

テロップ:
AIを使って
どんな公共サービスにしたいのか
「意志」「ビジョン」みんなで議論

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

NICTフェロー 鳥澤 健太郎氏
政府は何のためにあるんだっけとか
霞が関の人達は何のために働いているんだっけ
考え直す良いきっかけ

テロップ:
政府は何のためにあるのか
霞が関の人たちは
何のために働いているのか
考え直す よいきっかけ

(映像:ガバメントAIフォーラムの看板)
(映像:ガバメントAIフォーラムの会場と聴講する来場者たちの様子)
(映像:ガバメントAIフォーラムの登壇者たちが議論をしている様子)

ナレーション
2026年3月 ガバメントAIを進めるデジタル庁は、
霞が関の職員を対象にAI時代の公共サービスの価値や未来像などについて考える
『ガバメントAIフォーラム』を開催しました。

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)
(映像:マイクを持ち話す株式会社シナモン 平野 未来氏)
(映像:マイクを持ち話す中央大学教授 実積 寿也氏)

ナレーション
AIの活用によって変容する「公共サービスの本質」などについて
有識者たちが語りました。

テロップ:
AI活用によって変容する
公共サービスの本質

テロップ:
デジタル庁ニュース

00:43~01:22
右上テロップ:
「ガバメントAIフォーラム」
2026年3月 東京 千代田区

(映像:マイクを持ち話す松尾 剛と来場者の様子)

松尾 剛
デジタル庁主催「ガバメントAIフォーラム:AIと創る、2030年の公共サービス」を再開いたします。続いては、第一部の座談会「生成AIで再設計する『公共サービス』の未来 ~目的と価値を問う~」です。
では、パネリストの皆さんに登壇していただきます。拍手でお迎えください。

テロップ:
司会 アナウンサー
松尾 剛

テロップ:
第一部座談会
生成AIで再設計する「公共サービス」の未来 〜目的と価値を問う〜

(映像:マイクを持ち、登壇者を招き入れる松尾 剛と拍手をする来場者)

松尾 剛
宮坂学さん、村上明子さん、平野未来さん、実積寿也さん、楠正憲さんです。

(映像:着席した松尾剛と登壇者たち)

01:23~05:35
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来

松尾 剛
この座談会のモデレーターは、デジタル庁楠正憲統括官です。
楠さん、よろしくお願いいたします。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
よろしくお願いします。
ちょっと今日ですね、国会対応が入りまして15時5分くらいにまたマイクお戻しすることになるんですけれども、よろしくお願いします。

テロップ:
デジタル庁 統括官
楠 正憲

(映像:マイクを持ち話すデジタル庁 楠 正憲)
(映像:楠 正憲の説明を聞く中央大学教授 実積 寿也氏、株式会社シナモン 平野 未来氏、AISI所長 村上 明子氏、東京都副知事 宮坂 学氏)

松尾 剛
最初に、この座談会の進め方からご説明をお願いします。

楠 正憲
はい。あの、この座談会ですけれども、3つくらいのテーマを考えてまして。
まず最初、皆さん本当に結構AI使い倒してる方多いと思うんで、AIどんな風に使ってらっしゃるかっていうところのお話と、自己紹介をお願いできればという風に思っておりますのと。
2番目にですね、なかなか日本って立ち位置難しくて、米中に挟まれている中で、やっぱ国としてでもここはちゃんとやっとかなきゃいけない、みたいなところってあるのかどうか。よく世間ではソブリンAIみたいな議論もありますけれども、そういった議論も含めてというのが2番目。
そのあと私がこの辺で抜けるかなというところであるんですが、その後ちょうど今年は「エージェンティックAI」元年のようなことも言われている中でAIにどこまで仕事って任せて良いのかなみたいな。こういった3つのテーマでお話ができればなという風に考えております。よろしくお願いします。

松尾 剛
まず自己紹介を。

楠 正憲
はい。デジタル庁の楠です。よろしくお願いします。
あの、デジタル庁発足時から関わってまして、メインはマイナンバーであったり、自治体のシステムであったりベース・レジストリというところなんですけれども。たまたま、3年前にちょうどサム・アルトマン氏が来日して岸田総理と会ってからですね、政府で一気にこのAIへの取組っていうのが変わっていく中でルール作り等も含めてAIにコミットさせていただいていて今のこのガバメントAIどうしていくかというようなところでもお手伝いをさせていただいているというような立場になります。
私自身はどんな風にAIを使っているかというと、一番はプログラムのプロトタイプとかですかね。最近はほとんどチャット式のは時々使うぐらいになって一番長いのはプロトタイプ。私がプロトタイプ作るのも変な話ではあるんですけれども、まあでも、なんかこう、議論をしてるよりも動くもの見せた方が伝わることが速いことが多くて。でも、作るのは良いんだけどこれ運用しなきゃいけなくて、運用するところをどうやってうまく引き継げるか みたいなところを悩んでいたりというところと、あとは源内も今、日々開発進んでる中で、新しいアプリが出てくるとどのくらい動くかななんていって試したりはしてます。
ぜひちょっと一人一人、自己紹介も含めてお願いできればと思うんですが、最初、宮坂さんからお願いしても良いでしょうか。

(映像:マイクを持ち話す東京都副知事 宮坂 学氏)

テロップ:
東京都副知事
宮坂 学

東京都副知事 宮坂 学氏
はい、皆さんこんにちは。
東京都の副知事で、GovTech東京っていう外側にひとつ開発団体を作っていて、そこの理事長も兼務でやっております。
今日はあの、最初に東京都の取組をちょっとまあ、簡単に話をしたいと思います。私はあの、楠さんと同じようなタイミングでまさに行政の世界に来まして。
やっぱり過去のこともいろいろ調べたんですけど、決して日本って電算化は遅れてないんですよね。結構早いタイミングで行政の電算化がすごく入っていて、その後、2回大きなチャンスを見逃したという認識なんです。
1個目はインターネットですね。完全に見逃してしまいましたと。
2つ目はスマートフォンですね、15年前ぐらいですか。
で、今AIなので、じゃあ3回目どうすんのと。同じことやんのか、もう一回見逃すのかというところで。最低限バットは振りまくっていきたいなと思いながら、今一生懸命やってるという感じです。
では、ちょっと簡単に資料があるので、ご説明します。

(映像:マイクを持ち話す東京都副知事 宮坂 学氏)
(映像:投影資料について―生成AIプラットフォームについて
生成AIプラットフォームとは、
・GovTech東京が提供する、オープンソース「Dify」を活用した生成AIプラットフォーム。
・LGWAN環境で利用可能
・多様な業務課題に対して、職員自らの現場で培ったアイデアを活かし、ノーコードで生成AIを活用した業務アプリの作成が可能
右側に、生成AIプラットフォームの提供形態を示す構成図。「GovTech東京が管理する国内サーバー環境」の上に、複数組織が利用する「生成AIプラットフォーム(オープンソースソフトウェアを活用したマルチワークスペースの管理環境)」が載っている。その上に3種のワークスペースが示され、「GovTech東京の職員」・「A局の職員」・「B区の職員」と利用者も示されている。)

05:36~10:36
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
東京都のAIの取組

東京都副知事 宮坂 学氏
はい。で、今どういうことやってるかっていうと、皆がどんどんこう、バットを振ってですね、AIを使えるようにしていこうという環境を作っています。で、その時に使えるだけじゃなくって、自分たちでやっぱ作れるようにしなきゃいけないんですよね。
できれば、作るための道具から作りたいなと思ってるんですよ。
結局わかってるっていうのが、まあ、まず大事ですけど、その次に使えるっていうのがあって、作るっていうの、作る道具を作るっていうのは結構大事だなと思っていて、まあ、作る道具をちゃんと内製で作って、全公務員がその上で自由に、もの作れるようにしましょうみたいな環境をまあ、今ちょっと作って、あの、やってます。
これ今、東京都庁の中で使ってるんですけど、まあぜひLGWANでも動くんで、62区市町村、都内全部でやっぱ使えるようにするつもりですし、先日、広島県ともちょっと連携協定を結ばせてもらって、広島県とも一緒にじゃあ、お互い作りっこしましょうかって話を今やっています。次お願いします。

(映像:マイクを持ち話す東京都副知事 宮坂 学氏)
(映像:投影資料について―サービス:生活保護法令検索AI「生活保護 Smart Works」(仮称)
[Service Vision]:生活保護行政の意思決定を、AIでスマートに。
膨大な法令・通知・事例の中から、必要な情報をAIが瞬時に整理し提示。
経験や勘に左右されず、一人ひとりの判断が確かな根拠に裏付けられる。
―そんなスマートな現場を目指します。
主に提供する機能
①探す・見つかる
チャット形式(自然言語)による法令や事例の検索/曖昧なワードでも検索が可能/
膨大な法令・通知・事例から関連個所を抽出
②判断の補助
根拠法令の参照が容易なUI/法令・通知・事例の要約による解釈のサポート/他法や留意事項の提示による観点漏れの抑止
左に「サービス名 生活保護 SmartWorks(仮称)」と「サービス愛称名:ホゴロー(保護+Law)(仮称)」の文字。その下に生活保護 SmartWorksを映したPC画面のイメージ)

東京都副知事 宮坂 学氏
じゃあ例えばどんなものがあるかっていうと、あの、生活保護スマートワークス。愛称名「ホゴロー」って言うんですけど、正式名称じゃないです、まだ。手作り感すごいんですけど。
こういったものがあって、これちょっとデモ見てもらった方が良いと思うんで、こういうものが今動いてますというのを、ちょっとご紹介したいと思います。

(映像:投影資料について―生成AIプラットフォーム「Dify」で開発している生活保護法令検索AIサービスのデモ画面)

テロップ:
生活保護法令検索AIサービス(デモ)

デモ音声
現在 生成AIプラットフォーム「Dify」で開発している生活保護法令検索AIサービスの操作デモを始めます。
生活保護業務は、辞書のような分厚い法令集を複数参照しながら業務を行っており、
検索するだけで時間がかかることや、新しく着任した方がどの法令を参照すべきか悩むことが課題となっています。
こちらはそういった課題を解決すべく生まれた、生成AIプラットフォームを活用したチャットボットです。現在、製品化に向けた開発を推進しています。
このチャットボットは、生活保護に関する法令や事例集をデータとしてあらかじめ格納しています。そのため、「〇〇について教えて」といった一般的な質問ができるだけでなく、「生活保護受給者が引っ越すときに支給できるものは?」のような、法令や事例集など複数資料にまたがるような質問や、「ウーバーイーツの収入認定の方法」といった、資料に直接の記載がないような質問、今入力したような具体的な事例についても質問することができます。

(映像:デモの内容を補足する 宮坂 学氏)

東京都副知事 宮坂 学氏
こういった具体的事例が日々東京都に紹介されるんですよね。
そういったものを使うのが結構大事かなと。

(映像:投影資料について―生成AIプラットフォーム「Dify」で開発している生活保護法令検索AIサービスのデモ画面)

デモ音声
チャットボットを使うことで、どの資料を探せばよいかわからないときに、先輩や上司に聞くように、気軽に質問することができます。では早速、質問内容を送信してみます。回答を生成しています。
現在、あらかじめ格納された生活保護に関するデータを横断検索し、1つの回答にまとめています。回答が表示されました。AIの回答は「概要」「法的根拠」「実務上の注意点」の順で整理されています。
生活保護業務は法的な根拠に基づいて業務を行う必要があるため、最も重視したのがこの「法的根拠」の提示です。回答には必ず根拠を明示するようにプロンプトで制御しています。
ですが、本当に引用元が合っているのか、AIがもっともらしく嘘を生成してしまう、いわゆる「ハルシネーション」を起こしていないかが懸念されます。
こちらの生成AIプラットフォームを利用し、正しい引用元も確認できる機能を実現した製品版を開発しています。
こちらが開発中の製品版の画面となっております。先ほどの画面で表示されていたAIの回答を左側に、右側にはAIが回答生成時に参照した根拠を表示しており、2画面の構成になっております。右側の根拠と左側のAIの回答を見比べながら確認し、最終的な判断は職員が行います。
このように根拠を分かりやすくまとめ、解釈のポイントや確認すべき事項、留意点などと併せて提示することにより、生活保護に関わる職員が正しく判断をする手助けをすることを狙いとしています。
これで生活保護法令検索AIサービスの操作デモを終わります。

(映像:マイクを持ち話す東京都副知事 宮坂 学氏)
(映像:宮坂 学氏の話を頷きながら聞く登壇者たち)

東京都副知事 宮坂 学氏
はい、実はこれ作った職員はですね、あの、GovTech東京のエンジニアと、もうひとつ、元々区市町村からたくさんの人が来てもらって一緒に仕事してるんですけど、本当に、1回もデジタルのことやったことがない人が作ってるんですよね。
やっぱり、だから現場の知恵を持ってる人と、技術を持ってる人が出会って、正しい開発環境の上で作ると、本当にいいものができるんだなと思います。で、ちょうど、あのエージェントもですね、コパイロット・エージェント、ちょうどリリースしたばっかりなんですけど、先日覗いたら100個ぐらい、ポコポコでき始めていて、仕様書の目とかですね。
中身はまだ見てないんですけど、多分、仕様書作るための素材みたいなやつだったと思うんですけど。
やっぱ、こう現場の職員と、テクノロジーが正しく出会って、それを願わくば1自治体ではなくって、全自治体・国と東京都と他の自治体も含めてですね、共通できる世界を作れば、本当に素晴らしい未来が行政に来るんじゃないかなと思いました。
以上、私からのご説明でございました。ありがとうございます。

(映像:拍手をする登壇者たち)
(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
じゃあ続けて、平野さんお願いしてもいいですかね

(映像:マイクを持ち話す株式会社シナモン 平野 未来氏)
(映像:投影資料について―自己紹介
シナモンAI CEO 平野未来
•シリアル・アントレプレナー。東京大学大学院修了。レコメンデーションエ
ンジン、複雑ネットワーク、クラスタリング等の研究に従事。2005年、2006
年にはIPA未踏ソフトウェア創造事業に2度採択。
•在学中にネイキッドテクノロジーを創業、2011年にミクシィに売却。
•2020年、内閣官房IT戦略室本部員および内閣府税制調査会特別委員に就任。
•2021年、内閣官房新しい資本主義実現会議有識者構成員内閣府経済財政諮問
会議専門委員、経済産業省新経済産業政策部会委員、東京大学工学部アドバイ
ザリーボードに就任。
•2022年に世界経済フォーラムが選出する世界に変化をもたらす40歳以下のヤ
ング・グローバル・リーダーズ(YGL)選出。2025年ダボス会議登壇。
•2025年、日本成長戦略会議の有識者に就任。
•3児の母
左に平野未来氏の画像。)

テロップ:
株式会社シナモン 代表取締役社長CEO
平野 未来

株式会社シナモン 平野 未来氏
皆さんこんにちは。平野と申します。どうぞよろしくお願いいたします。
じゃあ私の方は、あの、最初の画面を出していただければという風に思います。
この中では、あの、珍しくというか、あの、スタートアップ側の人間でございます。
株式会社シナモンAIという、会社をですね、やっております。
今回GovTechっていうことですけれども、以前だと新しい資本主義の委員だったりだとか、あの最近だと、日本成長戦略会議のこういう有識者だとかをやっております。
じゃあ次のページ行っていただいて。

(映像:投影資料について―人間とAIの違い:人間性の3要素
ハートのイラストと「感情」、二重丸のイラストと「意思」、人のイラストと「身体」
AIには代替できない、人間固有の価値創造領域。)

11:15~13:43
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
人間とAIの違い

株式会社シナモン 平野 未来氏
一旦ですね、ちょっとあの人間とAIの違いっていうところをお話ししておきたいなという風に思っていて、3つあると思うんですけれども、感情、人間にあってこうAIにないものっていうところで感情を持つっていうところと、一番大きいのはこう意志、ですね。体。まあ最近こうフィジカルAIなんて言われていますけれども、こういう、あの細胞があって、えー血が流れていて、こうあったかいみたいな。そういったこう体を持つっていう、この3つが、人間特有なことかなという風に思います。

(映像:投影資料について―シナモンAIの紹介
Purpose:
AIの力で、人の意志を実現する未来をつくる
Vision:
人の意志と判断を支える、組織の知の拡張プラットフォームをつくる)

株式会社シナモン 平野 未来氏
もう、その意志が大事っていうのが、私あのチャットGPTがこう出た頃から、あのこれからすごい大事になってくるんだろうなという風に思っていて、さらにこうAIがどんどんこう進化をする中で、もうめちゃめちゃ大事だなっていう風に思うようになって、もう今意志フリーク、意志マニアになってるんですね。
というので、あの、最近会社のあのパーパスとかビジョンまで変えてしまいました。
今AIがもうどんどんこう進化していますけれども、さらにこの先どんどんこう進化していって、でもAIは、意志を持ってないわけですよね。
なので、人間がこう意志を持つと、AIが叶えてくれるっていう、そういう世界になっていくんだろうなという風に思っていますし、私たちもそういった世界を、こう目指すという風に思っています。
でもう一つビジョンはですね、じゃあどんなAIを自分たちは作るのかっていうところなんですけれども、ナレッジ系ですね。ちょっとあのかっこよく「組織の知の拡張プラットフォーム」っていう風に言っていますけれども、とはいえ、あの人間がこう意志を持つんだけれども、いつもね、皆さんお仕事をされる中で、あれなんだっけ、とか、あの、あるじゃないですか。あまりにこうドキュメントだとかデータっていうのがありすぎて、しかも、散らばりすぎてっていうのがあるので、その意志だとか判断を支えるための組織の知の拡張プラットフォームを作っています。

(映像:投影資料について―知の拡張プラットフォームとは
一気通貫してナレッジにまつわる様々な処理を可能に
OCR「紙をデジタル化」→RAG(データをナレッジ化)→AI Agent(ナレッジを様々な処理)と書かれ、矢印で順序を示したイラスト。)

株式会社シナモン 平野 未来氏
それじゃあどういうことなのかっていうと、ナレッジにまつわることを一気通貫してやっています。
もともと私たちですね、あのOCRから始まった会社でして、紙をデジタル化するっていうところも、できますと。そのデジタル化されたものであったりだとか、もともとね、こうワードとかパワポみたいな、既にデジタル化されたものってあると思うんですけれども、そういったデータをナレッジ化するっていうのをRAGという技術でやっています。
さらに、そのナレッジを、様々な処理を施したいので、AIエージェントで、作るという、そういった、全てのところをナレッジにまつわるところをやっています。そんな会社です。

(映像:投影資料について―人間とAIの共生
意志層・判断層・実行層に分けて役割を定義する
3つの層(意志層/判断層/実行層)を縦で示すモデル図。
意志層―人間
(目的・価値・意味)
判断層―人間+AI
(設計・トレードオフ調整)
実行層―AI
(作業・反復処理))

13:43~16:14
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
人間とAIの役割分担

株式会社シナモン 平野 未来氏
これから人とAIが、一緒に働くといったことが当たり前の世の中になっていくと思うんですけれども、これからの働き方ってこの3つの層があるんだろうなという風に思っていて、一番上の意志の層っていうのは、これは人間しかできないことですよね。
一方で、一番下のこう実行する層というのは、これはもうなるべくこうAIに、基本はAIに任せましょうっていう世界だという風に思います。
真ん中のこう判断の層っていうのが、ここが特に人間とAIが、こう一緒に働いていくっていうところになると思うんですね。

(映像:投影資料について―判断設計の3類型
3類型の判断の種類、特徴、AIの役割、設計方針を示した表。
【行1:ルール】
特徴:条件分岐に落とせる/明文化できる/一貫性が重要/再現性が重要
AIの役割:原則◎
設計方針:明文化しAIへ移譲
【行2:トレードオフ】
特徴:複数の価値が衝突する/正解がない/バランスが問題/状況依存
AIの役割:案を提示
設計方針:AIは案出しに特化
【行3:例外】
特徴:想定外/前例がない/ルールを破るべきかの判断/社会的影響が大きい
AIの役割:×
設計方針:責任主体を明示)

株式会社シナモン 平野 未来氏
特にこの判断設計っていうのは非常に、あの肝になってくると思うんですけれども、ルールとかは分かりやすいですよね。
明文化されているものであれば、基本はこうAIが行うといったことを、こうすればいい。一番難しいのがトレードオフっていうところですね。その複数のこう価値観が衝突するような場合っていうのは、これAIが、こう判断すること決めることはこうできないっていうのがあるので、どちらを、こう優先するのかというのは人間が最終的にはこう決めていかないといけない。ただその案出しというのは、AIが行うことができる。一方、最後のこう例外みたいなところというのは、例えば、こう想定外のことが起きちゃった。いきなり炎上しちゃった、みたいなところっていうのは、こういったものは人間が主体を持って、こう進めていくといったことになろうかと思います。

(映像:投影資料について―審査AIエージェント
AIをどこに活用するのかの「判断」が重要
0次査定→1次査定→2次査定と書かれ、矢印で順序を示したイラスト。
「AIエージェント化」という言葉と矢印が「0次査定」箇所を指している)

株式会社シナモン 平野 未来氏
例えばですけれども、審査AI、保険会社さんとお仕事すること多いんですけれども
審査の、AIエージェントだとかっていうのを、作っているんですね。どこに活用するのかっていう判断って非常に重要だと思っていて、査定をするにあたって、実はこう何回も、複数ステップになっているんですよね。例えば0次査定、みたいなところでいうと、AIエージェントが、こうやってしまえばいいよねっていうところで、先に、こうやっていて。先ほど、宮坂さんのお話にもありましたけれども。
最終判断は人間が行うといったことをおっしゃっていましたけれども、どんどん1次査定、2次査定って最終の査定に入れば入るほど、重みが重くなってくるので、そういったことは、人間がやっていきましょうというところで、最後になりますけれども。

(映像:投影資料について―来月、出版します
意志をクリアにするメソッド
「心をすませば」
東洋経済新報社より2026/3/25に発売!
予約注文はこちらから「こころをすませば」というタイトルの本の表紙画像、予約注文の二次元コード。)

株式会社シナモン 平野 未来氏
私あまりに意志が大事すぎるっていう風に思っていて、意志に関する本を、来月出します。特に、意志をクリアにするっていうことが、大事だっていう風に思っていて、それについて、まとめているので、ぜひ読んでみてください。以上です。

(映像:拍手をする登壇者たち)
(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
では続けて、実積先生お願いできますでしょうか。

(映像:マイクを持ち話す中央大学教授 実積 寿也氏)

テロップ:
中央大学総合政策学部 教授
実積 寿也

中央大学教授 実積 寿也氏
はい、ええ、こんにちは。中央大学の実積と言います。
今日、壇上に座らせていただいておりますけど、2004年まで私そちら側の人間で霞が関に勤めておりました。なので、環境がですね、だいぶ執務環境が変わっているなっていうのが第一印象で、40年前にその国会答弁とかを、日々準備してた目からみると
源内があって羨ましいなというのが最初の、第一印象です。
その後、アカデミズムに転じまして九大を経て、2017年から中央大学の方で教授に就いています。元々法学部出身で経済のトレーニング受けて、というところなんですけども、AIに関しましては、技術的には全く素人に近い立場で、どちらかというとユーザーの立場です。
議論し出したのはもう、実は総務省の研究会が10年ぐらい前にスタートしまして、その委員になってからということなので、まだ楠さんとかと比べても、まだひよっこに近いような状況で議論させていただいています。
ただ、その10年間の間に、様々なところに議論参加させていただきまして、例えばOECDでAIレコメンデーション作った時のCDEPっていう会議があるんですけども、そこで、副議長させていただいたりとか、そこでの経験踏まえて、今度はグローバル・パートナーシップ・オン・AIっていう組織の委員やったりとか、最近では、EUのAI法がですね、コード・オブ・プラクティスっていうのを、去年あたりからどんどん出してきていて、あの、AI法の、こう実際的に運用する時に、民間企業はどういうふうな、やり方に従って行ったらいいのかっていう議論を、進めているんですけども、専門家ワーキングに、ちょっと関与させていただいたりとかしているというふうなことになっております。
これまで日本において、AIの議論っていうのは法律の観点が中心です。こういったことにしたら既存法とどっかで問題あるんだとか、こういったところに、規制を入れなきゃいけないっていうふうな話が多かったんですけども、規制だけだと今度産業の方がついてこないと。つまりAIっていう新しい技術に対して、AIだからという理由で
規制をかけるっていうことは、あの産業の方から見ると、そのAIという技術の、その普及とか利用を、マイナスの方向に引っ張るんじゃないかっていう観点でちょっと問題意識を持ってまして、その法律の議論に対して、産業がついてこれるようにとか、あるいは消費者がですね、賢く使えるようになるためにという観点から議論に参加しているのが、最近になっております。

(映像:投影資料について―ML/DL時代のAIガバナンスに対する基本アプローチ

  1. ブラックボックス性と市場の不全
    • 機械学習・深層学習ベースのAIは、その意思決定過程が「ブラックボックス」
    • 放置すれば、経済的・産業的・社会的に市場機能そのものが毀損
  2. 技術規制における「二つの罠」
    • 過剰規制の罠 vs. 過小規制の罠
    【AIガバナンスは「成長 vs 規制」の対立ではなく、 市場機能を成立させる制度インフラの設計問題】
  3. “Moving Target”への対処としてのアジャイル・ガバナンス
    • 学習と修正が内在する共同規制
    • 市場選別による実効性確保
  4. 産業政策との補完関係
  5. 一般法規制重視の欧州型
  6. 市場規律+個別法重視の米国型
  7. 共同規制/プロセス重視の日本型(HAIP)
  8. ルール導入時のポイント
    • 技術中立性
    • “there is no legal vacuum.” (Carrillo, 2020)
    右側上部
    赤旗法として知られる歴史的な法律に関連する絵、19世紀初頭のイギリスで起きた機械破壊運動「ラッダイト運動」を描いた絵。
    右側下部
    ・「アジャイル・ガバナンス」の基本コンポーネント
    複数工程(運用/環境・リスク分析/ゴール設定/システムデザイン)を、矢印でつないだ循環型のプロセス図。外側に大きな循環があり、内側にも「評価」を中心とした小さな循環が描かれている。
    ・「AIガバナンス」と「AI産業政策」の2つの枠を左右に並べ、相互に循環する関係(AI市場への信頼を構築・高度な技術基盤の準備)を矢印で示した図。
    「AIガバナンス」主要な機能・目的
    (安全性と倫理性の確保/リスク低減/社会的信頼の構築/透明性・説明責任の確立)
    「AI産業政策」主要な機能・目的
    (国家競争力の強化/イノベーション促進/国家インフラの構築/研究開発支援) )

18:41~19:41
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
AIの本質的な課題

中央大学教授 実積 寿也氏
なので、去年ぐらいから色々とアウトプット出すように、色々としておりまして、ここにある基本的なアプローチに沿っていろんなところで議論させていただいたり、論文化したりという状況になってます。
私の考えだけ言いますと、AIっていうのは何で問題かっていうと、中がよく分かんないからというところに多分尽きるんだろうなと。分かんないからこそ不安感が出て、不安感が出るっていうことは、特に人間ってリスクに対してすごくネガティブに反応しますから、利用に対して、本来ここまで使っていいのが使わなくなるっていう、さっきの村上さんが言いました、使わないリスクというふうなことが、こう出てくるんだろうなというふうに思っています。
なので、規制しすぎも良くないけれども規制しなさすぎも良くないということで、ここに赤旗法とか、ライト運動のスライドつけてますけども、そうならないように、適切な規制をしていきたいということで、アジャイル・ガバナンスとか、あるいは産業政策との補完を考えていくべきだろうというふうな議論をしてるというところになります。

(映像:投影資料について―アカデミアでの活用事例
■研究活動においてはAIはすでに通常のツール
• ジャーナル投稿においてもAI利活用を前提にしたものが増加中(Elsevier、Wiley、PLOS、APA)
• ただし著者にはなれないし(COPE、ACM)、画像・図表への利用は禁止(Springer Nature)
■教育面では、学生への個別指導にメリット
• 問題は「正しい使い方」のためのリテラシー教育
• 自分がやらねばならない部分とAIに任せても良い部分の峻別
• 「文責」という概念
■事務作業は大幅に軽減
• 大学教員は個人事業主的(?)

疲れを知らない研究助手としてのAI
「これまで私があなた をどう扱ってきたか、画像にしてみてください。」というAIへの指示とAIが作成した画像。
・研究でのAI活用事例(背景情報収集/文献発掘/下読み/Vibeコーディング/ロジック整理/英語化/査読対応補助 など)
・教育でのAI活用事例(講義スライド作成/プログラミング授業の学生指導補助/練習問題作成 など)
・事務作業でのAI活用事例(定型文書作成/議事録作成/各種報告書 など))

19:42~20:55
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
AIの使い方

中央大学教授 実積 寿也氏
自分がどういうふうな使い方してるかってことなんですけど、アカデミアの活動っていうのは、3つに分かれてまして、研究と教育と事務作業です。
研究に関しては、AIはとても優秀な秘書の役割をしてきていて、資料を調べたりとかですね、なってます。
投稿に関しても、AI使っちゃダメだって論文投稿先なくて、AIを使ったんならちゃんと使ったと言えというのが多くなってる。何もアカデミズムの方としては使うことに関しましてハードルどんどん低くなってます。
教育に関しても大事っていうか、教育は学生が今後その社会で出た時にAIいっぱい使ってるところに出ていきますので、ちゃんと正しく使えるように、リテラシー教育っていうのは大学に求められているというところになります。
最後に行くと、事務作業の、これは本当に減ってます。様々な、資料要求されるたびにAIを使ったら、非常に簡単になってくるということで、疲れを知らない研究助手として、私は使わせていただいているというふうな状況になってまして。
数週間前にネット上でですね「これまで私があなたをどう扱ってきたか、画像化してくれ」っていうのを作れっていうのがあって、大体ほかの人が作ると、AIと仲良く作業してるっていうふうなこと出るんですけど、私が作るとですね、AIがこうブラックな環境で働かされているというふうに出るというような使い方をしてる、今、私の状況になります。以上になります。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
ありがとうございました。先ほど村上さん「使わないリスク」の話をしていただきましたけれども、それ以外も含めて、色々ですね。ハイリスクの領域があるのだとか、あるいは世界各国の行政がどんなことになっているかとかも含めてですね、もしよろしければお願いします。

(映像:マイクを持ち話すAISI所長 村上 明子氏)
(映像:投影資料に関して―村上明子氏の自己紹介と画像。
経歴年表。1999年に日本IBM東京基礎研究所入社、2016年に同社東京ソフトウェア開発研究所、2021年に損害保険ジャパン入社(DX推進部の特命部長等)、2022年に執行役員CDO、2024年にAI Safety Institute所長、2024年に損害保険ジャパン執行役員CDaO データドリブン経営推進部長、2025年にSOMPOホールディングス株式会社 執行役員常務グループCDO。あわせて政府・自治体、研究、民間、市民分野の委員・役職(言語処理学会理事、デジタル庁会議委員、内閣府調査会委員など)が列挙されている。)

テロップ:
AIセーフティ・インスティテュート(AISI)所長
村上 明子

AISI所長 村上 明子氏
はい、ありがとうございます。先ほど、お話しさせていただきました村上でございます。私がですね、今AIセーフティ・インスティテュートと、それから、SOMPOジャパン、SOMPOホールディングスという、2つないしは3つの仕事。
このほかですね、実はあの経団連の立場もございますので、4つとか5つとかの立場があるんですけど、これを乗り越えられてるのはAIのおかげでしかないと思っております。

21:40~26:39
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
AI活用の実践

AISI所長 村上 明子氏
ちょっと個人的なところでどういう使い方をしてるかっていうと、仕事ではですね、もちろん使っていまして、先ほど、おっしゃられていた、そういう仕事の、議事録のまとめとかそういうところに使うのは当たり前なんですけれど、私がよくやるのはこう頭の中で、例えば組織こういうふうに変えていきたいとかこういうところに課題があるとかっていうのを頭の中で帰りの車の中とか、電車の中とかでモンモンモンと考えてるわけですけど、家に帰るとですね、着替えながら、あのスマホに録音して、ぶわーって喋るんですね。それをAIに食わせてドキュメントにしてもらって、次の日それを部下に投げて、「これどうしよう」っていうのをやってます。

(映像:マイクを持ち話すAISI所長 村上 明子氏と会場で大きくうなずく村上氏の部下の様子)

AISI所長 村上 明子氏
多分ね、あそこに今部下がいて、「すごいあの投げられる仕事が増えたな」って多分部下は思ってるんじゃないかなと思います。

(映像:マイクを持ち話すAISI所長 村上 明子氏)

AISI所長 村上 明子氏
個人としてはですね、私あの小野田大臣と最近、YouTubeの動画を出してまして、そこでも話したんですけど。ダイエットにAIで、一緒に成功しましたっていう話をしていて、私、年齢も年齢なので、結構体重が増えてしまってたんですけど、それをどうやったら痩せられるかっていうのをAIに相談をして、じゃあその、やってるのを監視してもらうっていうのを、1日3回食事の報告をして。あと食事の報告って言ってもそんな文章で書かずに写真撮ってパッと渡すだけなんですけど。そしたら「これ食べるな、あれ食べるな、次はこれ食べろ」っていうふうに言ってくれるので、それ言うこと聞いてたらですね、去年の夏から8キロぐらい痩せたんで。でもみんなにあんまり変わらないって言われてちょっと残念なんだけど、だいぶ、恩恵を受けてます。

(映像:マイクを持ち話すAISI所長 村上 明子氏)
(映像:投影資料に関して―村上明子氏の自己紹介と画像。
経歴年表。1999年に日本IBM東京基礎研究所入社、2016年に同社東京ソフトウェア開発研究所、2021年に損害保険ジャパン入社(DX推進部の特命部長等)、2022年に執行役員CDO、2024年にAI Safety Institute所長、2024年に損害保険ジャパン執行役員CDaO データドリブン経営推進部長、2025年にSOMPOホールディングス株式会社 執行役員常務グループCDO。あわせて政府・自治体、研究、民間、市民分野の委員・役職(言語処理学会理事、デジタル庁会議委員、内閣府調査会委員など)が列挙されている。)

AISI所長 村上 明子氏
そんな話なんですけれど、仕事の話に戻ると今AIっていうのが、各国いろいろ使われてきているんですが、ちょっとその、ビジネスの現場でいうとですね、私あの見ていただくと、チーフ・データ・オフィサーをしています。
それでデータドリブン経営推進部というところで部長してるんですけれど、2年前にこの部を作った時にですね、なぜ作ったかというと、いわゆるエビデンス・ベースト経営をしてないっていうのを会社に提言をしました。
要は、あなたたち数字を見て「ふんふん」って言いながら、結構勘と感覚で経営してるよね。でも、ちゃんとエビデンス・ベーストな経営しないと、本当にもう競争力として負けていくよ と。
エビデンス・ベーストっていうのが、今までは数字を読み解く力が必要だったんだけど、今AIが出てきたから、そこはAIがやってくれるから、ちゃんとやろうっていう話を、生意気ながらうちのCEOとかに言ったわけです。
そしたらCEOから私に言われたのが、「AI使ってやるんだったら、みんな同じ結果が出てきたら、みんな同じ会社の経営になるじゃないか。じゃあいわゆるエビデンス・ベーストな動きをしてる会社って、みんな判定は一緒なのか?」って聞かれたんですね。そんなことはなくて、エビデンスを示すのはデータは一緒かもしれないんですけど、データの分析とかAIができる切り口があるわけですね。
その切り口っていうのは、今までその経営者がどういうことを考えて生きてきたのか、もしかしたら経営じゃなくて、私生活も含めてどういうあの、もので意思決定をしてきたかというに非常に依存してくるわけです。なので、それは必ず、ファクトを見なきゃいけないんだけど、そのファクトに与えられたファクトで、与えられたファクトから何を経営判断するのかっていうのは、その人の経営能力そのものなんですよっていう話をさせていただいたりしました。

(映像:マイクを持ち話すAISI所長 村上 明子氏)

AISI所長 村上 明子氏
まあそういうところがですね、おそらく国も同じだと思っていて、国もAIを使って
政治を作っていこうとか、あるいは法文を作っていこうって言った時に、じゃあ各国が同じモデルを使ってたら同じ法案を作るのかというと、そうではなくて。おそらく政治をしている方たちの今までの経験だとか、そういうもので、全て変わっていく。ただし、ファクトとしてのデータだとか、ファクトとしての、ファクトはきちんと取り入れていく。その時に人間が見れる能力の限界以上のものをAIが見てくれるっていうところが、助けになるんじゃないかなというふうに思っています。お返しします。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
ありがとうございます。切り口ってなかなか難しいけど、大事で。AIって結構、すごく僕らのことを忖度してくれるんで。聞き方を変えるといつも違うことを、言いますよね。

(映像:マイクを持ち話すAISI所長 村上 明子氏)

AISI所長 村上 明子氏
いや、本当にそうで、やっぱりAI使ってて危険だなって感じてる時には、私にどう答えたら私が納得するかっていうのを、すごく忖度してるのを最近感じ始めていて。私あの聞く時、何か判断する時、聞く時はですね、3つぐらいのモデルに聞いてます。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

26:39~30:24
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
AI開発の経緯

楠 正憲
まあ、必要になってきますよね。
そのモデルを使い分けるという話とも通じるんですけれど、デジタル庁元々3年前から段階的にAI基盤というのを庁内で展開をしていて、最初に2023年度、令和5年度に、秋ぐらいから入れたんですけど。ある時、何で入れたかって色んな理由があるんですけど。当時ってまだGPT-4が出る前で、GPT-3.5とかで無料のやつを使っている人たちと、課金してる人たちでだいぶAIに対する見方が、ちょうどGPT-4が出た頃かな、あの違っていてですね。まず目線合わせなきゃいけないな、と思って。ちゃんとしたモデルを皆に使ってもらいたい、みたいなことが当時、悩みとしてあったり。あと、ちょうど、その国産どうする、みたいな話も出始めた時に、でも誰も国産AI使ったことある人いなかったんですよ。当時多分「Swallow」という、東工大、科学大のモデルですけど。Swallowとか、まだ当時マイナーだった、クロードとか、いろんなモデルをちゃんと試さなきゃ、ということで、3年前から庁内のAI基盤を作って2024年度にはもう一個別の事業者にそれをやってもらったんですけども。当時の悩みだったのが、毎年、なんていうんだろう、年度ごとに調達をしていたんで春になると使えなくなる問題っていうのがあって、大体こう頑張って何か月かで夏ぐらいからは契約を結べるんですけど。要は機密情報扱うためには、これ東京都も多分だいぶ苦労されたんじゃないかなっていうふうに思うんですけど。

(映像:デジタル庁 楠 正憲の話に大きくうなずく宮坂 学氏)
(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
機密情報扱えるように一生懸命準備してたら、年越しちゃうみたいなことがあって、あの現場がしびれを切らして、令和7年度、昨年からは庁内で基盤を作って、もうちゃんと年を通して使えるような環境にしてきたというような歴史がありまして。
やっぱ、これ、当然世の中で売ってるやつもあるので、それでいいじゃないかっていう議論もあったんですけど、今、村上さん言われたみたいなこう複数のモデルを、ちゃんと使い分けるというところと、機密情報をちゃんと安全に扱えるようにしていくということと、あと先の平大臣の時に、アイデアソン・ハッカソンいっぱいやるようになって、何十ってアプリができてきたので、このアプリをどうやって職員に使ってもらうか、というと、なかなか既製品のものだけでは難しくて、やっぱ自分たちで作ったほうが、いろんなツールをきちっと組み込んで、行政に特化して、っていうことが、できるかな、というふうな取組だったんですけど。
ちょっと宮坂さんにお伺いしたいんですけれど、先ほどの「ホゴロー」も素晴らしいなと思うんですけど、東京都だとどんな経緯でそこを自前で取り組むようになられたのかとか。あとやっぱAIエンジニアと、そのドメイン知識を持った職員ってだいぶ多分喋る言葉から違う中で、どうやって上手くコラボレーションしてアウトプットが出るようになったかみたいなところでお話いただいたりできますでしょうか。

(映像:マイクを持ち話す東京都副知事 宮坂 学氏)

30:24~33:30
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
“AIで作る楽しさ”

東京都副知事 宮坂 学氏
はい、ありがとうございます。あの、最初はやっぱり外部にあるものの評価からちょっといろいろやって。GovTech東京の中は、都庁の外側なので比較的やりやすい、そうやってたんですけど、やっぱ自分の問題意識の中にあるのが、やっぱ効率化のためにテクノロジー入れるって、あんまり楽しくないなと思うんですよね。コスト削減というか。で、僕、民間いましたけど、売上が増えるほうが楽しいんですよ、感謝されるので。やっぱ、作ることが楽しいっていうことを、覚えさせなきゃダメだなと思ってたんですよね。これやったら業務が減る、って言ったら3周ぐらいやると雑巾ちぎれるみたいになるんですよ。もうちょっと、もう辟易となってた、これまでの行政デジタルの問題だと思っていて。やっぱり作ることが楽しいんだということを、最初下手でも良いと思ってたんですよ。 よく自転車のメタファー使ってたんですけど、何で子供が自転車乗れるかって、楽しいからですよ。乗ると圧倒的に。で、皆、こけまくるわけですよね。で、膝をすりむきながら覚えるわけじゃないですか。自転車に乗ると、この遠くに行くのがなんか10分早くなるとか、言ったら乗らないと思うんですよね、それ。
やっぱり、その全員が全員、作る喜びに、ならないと思うんですけど。僕は2割ぐらいは組織いる感じがするんですよ。おもちゃを与えると喜んで使うやつらが。まその彼らを、こう守ってあげて、作れる環境を作ってあげて。徐々に広げていくっていうのが、これからAI、ってよく分からないと思う、将来あるじゃないですか。
やっぱAIで、ものを作るって楽しいなみたいな、経験をして、時には多分膝もすりむくと思うんですけど。それはマネジメント層がしっかり守ってあげて、ドンマイって言ってあげるような、そういう環境を作っていくことが、大事かなと思いながら、今進めてる感じですかね。はい。

(映像:マイクを持ち話すデジタル庁 楠 正憲)
(映像:楠 正憲の話に頷く登壇者たち)

楠 正憲
作る楽しさって大事ですよね

東京都副知事 宮坂 学氏
楠さん 典型的に作るの、大好きな人ですよね

楠 正憲
あははは。ま、作るだけじゃダメだという自覚は一応あるんですけど。でも悩ましいですよね。一番になれるんですか、みたいな話になるわけですよ。すぐ。
やっぱり自分たちが経験してフィードバックサイクルを回してできることって、いっぱいあるので。それは多分AI使いこなすところの開発もそうだし、あるいはAIのモデルそのものもね、やっぱり、3年ぐらい前ってもう本当にチャットGPTしかなくって、勝ち目が、どうも難しいよね、みたいなのと比べると、なんか3年経ってオープンソースのモデルもこれだけいっぱい出てきて。フロンティアモデルだけで見ても3、4種類出てきている。しかも日本のプレイヤーも、ものを出していて、ちゃんと使えるものになってきてるっていうのは、なんか3年ぐらい前と比べると、すごく環境よくなってるような気もするんですけど。
ちょっと村上さんにぜひお伺いしたいんですけれど、最近なんかAIスタートアップの調達額が何十兆みたいな話が出て、なんか金額だけ見ると、なんか大変な時代になっちゃったな、と、思いつつ。その悩みって多分、大きい2つぐらいの国以外って似たような悩みは、やっぱ抱えているような気もするんですけど、なんか世界では一体どんな議論になっているのか、とか。

(映像:マイクを持ち話すAISI所長 村上 明子氏)

33:31~37:44
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
国際動向と日本

AISI所長 村上 明子氏
ありがとうございます。よく日本もですね、結構悩んで「勝ち筋」って言葉が政府でいっぱい踊っていると思いますけれど、大きい2つの国、どこの国か、申し上げませんけど、そこはきっとそのまま、あの突進していって。それ以外の国っていうのは、多分悩んでない国はないと思うんですよね。どこのAIのところで、突っ込んでいけばいいのか。
私が見るとですね、なんか大きく分けて2つの方向に行こうとしていて、1つは、いわゆる業界特化型に行こうとしている。日本もおそらくこっちになるんですけれど、フィジカルAIだとか、AI × 産業分野っていうところに勝ち筋を見出そうとしている国がある。で、もう一つは、いやいや、AIこんだけ行くとAGIの世界で怖くなるので、もうちょっとこう冷静に考えようよっていう、何か自分が勝ち筋を見つけるんじゃなくて、今のままの暴走が怖いから抑えようよっていう方向に議論が進んでいる国。この大きく2つに分かれているのかなと思います。
後半つまんないなって思うわけですよ。だって、もうAIこんだけ出てきていて、発展するのは当たり前なので、その先にある怖いことって、別にAIだけじゃなくて、技術ってその先、人間が悪いように使ったら絶対怖いことになるわけで。だとしたら、怖いことはきちんとリスクとして捉えつつ、面白く自分が勝てるとこってどこなのかなって考える方向に国は行くといいなと思っていて。だとすると、やっぱりフロンティアモデルではもう今コモディティ化しているっていうのは確かにそうで。その3年前は、もうOpenAIのモデル見てなんか誰も勝てないんじゃないかって思ってたのが、今なんかモデル自体はコモディティ化してきたので、じゃあそれをどう活用するか、なんとかとハサミは使いようじゃないですけど。ハサミをどうやって使うのかで勝てることを見つけられるんじゃないかっていう議論に移っていった、非常に楽しいフェーズなのかなと思います。
ただ、結構これ難しくて、今あの政府のね、成長会議のところでも、どの分野にそれを突っ込んでいけばいいのかっていうのは、もう本当にいろんな考え方がありますし、誰も正解を知らないので。じゃあそこに、どう突っ込んでいけばいいのかっていうのはすごく難しいんですけど、私が思うのは、やっぱり、お金と人とか、箱とかを投入するだけじゃダメで、その分野にパッションを持って突き進む人っていうのをきちんと見つけて、その人に率いてもらうっていうのが私はすごく重要なんじゃないかなって思ったりします。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
ありがとうございます。そうですよね、やっぱ悩んでない国はないだろうなというふうに思いますし、ただ3年前と比べるとだいぶ光明はいっぱい見えてきているような気はするので、もし、追加されたいことがあれば大丈夫です。

(映像:マイクを持ち話すAISI所長 村上 明子氏)

AISI所長 村上 明子氏
いや、まさにおっしゃるとおりで、3年前というか私2年前にAISI、AIセーフティ・インスティテュート立ち上げに関わりましたけれど。
あの時は、変な話もうアメリカに……あ、言っちゃった、国名言っちゃいましたけど。アメリカ以外の国っていうのは後ろから追いかけるしかなかったので、だとすると、大国が出してきているモデルをどう、こう安全に使うかっていうところを、みんなでどう組みましょうって感じだったんですけど、それが今はなんとなく、そうじゃないので、皆さんがそれぞれの思いを持って動き始めてるなと。なので、いい状況にはなってますけど、複雑にはなってると思います。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
確かに、わかりにくくなってるし、想定を超えることが日々起きているのかなというふうに思うんですけど。ま、そういう中で、どんなふうに戦っていくのかということも、平野さん日々経営されている中でですね、お考えになられてると思ってるんですけど。どんなふうに見えていて、自分たちはなんかここを、こうしたいみたいなことがもしあったりしたら、お願いします。

(映像:マイクを持ち話す株式会社シナモン 平野 未来氏)

37:45~40:32
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
“スタートアップ”の戦略

株式会社シナモン 平野 未来
スタートアップとして、ですよね。はい、もうスタートアップとしてもう本当に超大変というか。こんだけね、もう何十兆円っていうような、投資額が一部のAI企業に、流れていたりだとかっていう中で言うと、私たちAIの技術会社なんですけれども、これまで作っていた技術っていうのが一部簡単に使えるようになりました、みたいなことが起きるんですよ。なので、「あ、せっかく頑張ったのに」みたいなことも、あるんですよ。大変っていうのはあるんですけど。
私としては、こういうものすごい変化がある中で、それ自体こう楽しんでいけばいいじゃんっていう考え方ではあります。ただ、私たちの意識の中でも変わってきたところで言うと、これまで基本的に年に1回戦略を策定し直すっていうタイミングも設けていたんですけれども、あまりにAIの進化が速すぎるので、頻度をクオーターに1回にしたほうがいいよねっていうふうに、変えてきていますね。来週にそういう場がうちの会社でもありますけど。あと1点言うと、3年前とかで言うと、そのモデルのフロンティアモデルの性能っていうのがものすごく大事で。これ一つで世界が変わるみたいな感じではあったんですけれど、今、すごくその複雑化してきているんですよね。ま、AI全体のこと、こうやる、と言っても電力も大事だし、半導体も大事だし、もちろんモデルの性能も大事だし、かつ、それらをこうどうやって社会実装していくのかという、すごく大きな視野でのエンド・トゥ・エンドで考えないといけなくなっているわけですよね。
モデルの性能っていうところで、例えば日本という立場からすると、電力、みたいなところはもうポテンシャルある分野だっていうふうに思っていますし、スタートアップとして、っていうところだったり、日本として、っていうところでもそうなんですけれど、社会実装っていうところがありますよね。
AI基本計画でもフィジカルAIだとかも注目されていますけれども日本っていうと割と綺麗なデータが他国に比べるとオペレーションだとか。あの、揃ってるっていうのがあるので、そこは一つこう作りやすいだろうなというふうに思いますし、プラットフォームとしてはかなりこうどんどんこう進化していっているんですけれども、結局どう使われるかっていうところなので。そういった細かいところに、いかに、こう手が届きやすいのかっていうようなサービスを作っていくっていう方向にスタートアップは行くと思いますし、私たち自身も、そのナレッジっていうところにフォーカスを置いて頑張ってるっていうような感じです。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

40:32~48:17
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
日本がとるべき対策

楠 正憲
ありがとうございます。
実積先生、なんというか、これAIで起こってることって、今が初めてかもしれないんですけど、なんか似たような、なんか桁違いの設備投資をしてバーンとこう海外ではねていくこと自体、多分クラウドでも起きたことだったり、あるいは今、利用者保護でもね、結構なんかAIと話をして親戚殺しちゃった人が海外に出てきたりとか。
あるいは、利用者保護の話も含めていろんな課題が出てきている一方で、どうやって海外のプレイヤーに言うこと聞いてもらうかとかも含めて、なかなかこの状況って必ずしも初めてではない部分みたいなことも結構あるような気もするんですけど。
こういう大きいプレイヤーも含めて、大きくこう状況がうねってる中で、こう日本ってどんなことを考えなきゃいけないのかとか、実積先生の目から見られてて、今の状況ってどんなふうに見えてらっしゃいますかね。

(映像:マイクを持ち話す中央大学教授 実積 寿也氏)
(映像:投影資料について―通信政策の延長線上で考えるAI基盤
■クラウド寡占(AWS・Azure・GCP)の経験から何を学ぶか
• 市場支配力の源泉は、ボトルネックの占有
• ボトルネックの本質は高いスイッチングコスト
■通信における競争政策の枠組みはAIレイヤーにも適用できるか
• 競争政策の要点は利用者に対して意味のある選択肢を提供すること
• 支配的事業者規制としての”AI Neutrality”(Ramzanali & Rajan, 2026)
■海外事業者に対する法執行可能性の確保:域外適用、データガバナンス、透明性の担保
• 政府調達要件として「監査ログ、変更通知、継続提供、データ処理要件、第三者評価」を必須化
• 国内市場が美味しければ紀尾井町効果も期待したいところですけれど…
• 国内責任点の設置
• 事後的な市場規律を機能させるための透明性確保
■データローカライゼーション規制の功罪
• 功:管理容易性、有事の安全保障(?)
• 罪:コスト増(→ベンダー選択肢減少)、インターオペラビリティ毀損
• “Managed Interdependence” (Tanner et al., 2026)
■利用者保護の観点:サービス停止リスク、約款の一方的変更、プライバシー
• 長期的には、いずれも実質的な選択肢提供と市場規律の強化によって対処すべき課題
• 短期的には、情報公開・説明可能性改善を通じた「不安感への対処」が求められる
「AI Neutrality」というタイトルの本の表紙画像、「IS AI SOVEREIGNTY POSSIBLE?」というタイトルの本の表紙画像。栄養成分表示のラベルの画像。
AI技術の構成要素(Applications/Foundation Models/Cloud Computing/Chips)を示した図。)

中央大学教授 実積 寿也氏
はい、ありがとうございます。とても大きな質問だと思うんですけど、多分想定しておられたのは、通信とか、クラウドの話だとすると、通信とクラウドとAIの一番の違いっていうのは、立ち上がりがものすごく短かったっていう。インターネットと、たとえば比較するとですね、立ち上がりからもう2、30年経ってようやくこうみんなの手元に届いた。僕らが使うようになったのは1995年のWindows 95ができた時に広がったっていうのが、まあ一般的な理解ですけども。技術自体は10数年、20年ぐらい前から出ている段階で、その間に技術者とか楠さんをはじめとするコアユーザーがですね、問題点、全部潰しまくった結果、一般化していたというふうな状況だと思います。それに対して、AIに関しましては、チャットGPTショックっていうのが2022年の末3でしたっけ、の時にありまして。一気に一般化したので、問題点を解決する暇もなく、広がってしまったので、そのユーザー、エンドユーザー自身で問題点に対処しなきゃいけないっていうのは、ちなみに一番大きなところになってます。
なので、先ほどその3年前っていう話ありましたけど、AIの世界で3年前っていうのは、どのくらい違うのかっていうのはやっぱり考えなきゃいけなくて、インターネットの世界で言えば10年とか20年の世界を我々はこの3年で生きてきたんだなという認識のもとにやらなきゃいけないと思います。
その意味で、霞が関とかの人たちの前で何なんですけども、法律が対処できる世界ではないです。もはや。年に1回しか、年数回しか変えられない法律で対処するのは多分無理で、なので先ほど村上さんが基調講演でも言われました、ソフトロー的なものをサポートするようなハードローの仕組みでなければ無理だと思っています。
経験というか海外の事業者、大きな2つの国の対抗で行くとですね、もはや、それぞれの国が自分たちでフルスペックのAIを全部、下から上までというか、計算資源とか電力から、それから、アプリケーションだ、人材まで全部持つっていうのは多分無理な話で、じゃあどこに、こう特化していきましょうかっていうのは重要だ、というのは多分、2か国以外はみんな思ってる、ところで。最近でもですね、ブルッキングスの研究所とか、それから、トニーブレアインスティテュートで報告出してまして。そうした二極化が進む中で、他の国はどういうふうに対処すべきかっていうことで、ちょっとここの資料の下のほうにありますけど、Managed Interdependence(マネージド・インターディペンデンス)というか、他の国との関係を踏まえた上で、自分の国が、本当に力を持てるところだけをお金を投資していきましょう、というようなことがあります。
日本がこれがどこになるのか。コンテンツ力になるのか、それこそ、フィジカルAIのデータになるのか、っていうのは分かりませんけども。他の国との関係性の中で、日本のその立ち位置を決めていく必要があるんだろうなというのを今思っているところです。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
今Managed Interdependenceっていうキーワードが出てきましたけれども、どうなんでしょう、村上さん。
そういう議論ってやっぱ海外でも、どんなふうに、でも結構、どこで勝てるって勝ち筋と言われても、結構考えるの大変ですよね。

(映像:マイクを持ち話すAISI所長 村上 明子氏)

AISI所長 村上 明子氏
そうですね。今、私はAIの安全性の話をしてる時に勝ち筋というところとAIの最低限どう使っていくかって話があるんですけど。
その時に、自分でコントロールできる範囲を国がどこまで持つかっていう議論が、すごく各国気にしてると思ってます。
その時、AIのレイヤー4つぐらいのレイヤーに分かれてるとすると、その、いわゆる電力とかインフラのレイヤーのところから、アプリケーション層のレイヤーのところまでで、間にいわゆる知識レイヤーがあるわけですよね。その今までの、過去のデータだとか経験だとかそういうのを入れてきて、どういうAIに判断させるかっていうところ。その時に、おそらくそのインフラのレイヤーっていうのは、海外製のものと日本製のものが混在しててもいいんですけど、その真ん中のレイヤーのところに、いわゆるその思想的なところ。これが、あの、日本の例えばその勝ち筋にするにしても、守りにしても、海外の意向っていうのが混在してしまうって言うのは、非常に危険だっていうのはどこの国も考えてるんじゃないかなと思います。
ちょっと質問の意図と違う返答かもしれないですけど、そこが重要なのかなと思うんですが、どうでしょう。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
真ん中のレイヤーが何を指してるかっていうのは非常に多義的で、今話をお伺いしながら、例えばシステムプロンプトの話とかも入ってくるような気がするし。

(映像:マイクを持ち話すAISI所長 村上 明子氏)

AISI所長 村上 明子氏
システムプロンプトはもう少し表層に近いところからかなと思っていて、そのいわゆる、AIがブラックボックスって言いながら、あの何も意図して作ってないとブラックボックスでこう出力してこないわけなので。その出力の傾向だとか、意図だとか、そういうものがどこまで他人に委ねていいのかっていうところなのかなと思います。ちょっと抽象的。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
まさに実はここの部分って源内作るときにもすごく意識した部分でもあって。同じモデルでも、使う環境によって結構答えが違ってきたりとか、そこには明らかにはやっぱり意図が、介在しているのをやっぱ強く感じる機会というのが、もう令和5年度の実証の時からあって、我々やっぱいくつかのモデルを上手に選びながら使うだけではなくて、そのモデルをちゃんとどういうふうに管理をしていきながら、使いこなしていくというか、単に利用者であるのではなくって、そこの癖だとか、いうことの聞かせ方っていうのをちゃんと学んでいかないと危ないなっていうのは、すごく思ったんです。

(映像:マイクを持ち話すAISI所長 村上 明子氏)

AISI所長 村上 明子氏
おっしゃるとおりだと思います。あの私の講演の中で、あのモデル精査って各フロンティアモデルの人がしてるんですよ。と、私申し上げたんですけど、実はそれはあのいわゆる一般的な倫理的な話。例えば人の殺し方を教えちゃいけませんとか、爆弾の作り方教えちゃいけませんとか、そういう、いわゆる世間一般でいうところの常識っていうのが各フロンティアモデルの会社がガードレール作って出さないようにしてます。
一方で、じゃあいろんな考え方が多様性にあるときに、日本としてはこういう考え方で進めなきゃいけない。でも、ま、海外の常識みたいなところで、作られてしまったモデルを日本でそれで、作っていいのかっていう話。これが、いわゆる、データとかAIのソブリンシーっていう話に繋がっていくのかなと思ってます。

48:18~49:46
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
ベンチマークの重要性

(映像:マイクを持ち話すAISI所長 村上 明子氏)

AISI所長 村上 明子氏
で、ちょっとAISIの話をご紹介させていただくと、いわゆるその安全かどうかの判定をするっていうのが、いわゆるベンチマークと呼ばれるもので技術的には、そのベンチマークを作って判定をしていくんですけど。このベンチマークっておそらくたくさんのステークホルダーで話して合意を取らなきゃいけないんですが、どこと組んで話すのかってすごく重要なんですよね。
今、どの分野で、その塊で、そのベンチマーク話せばいいのか。あるいはそれって日本だけでいいのか、他の国と話さなきゃいけないのか。あるいは業界に特化したほうがいいのか。っていう、そういう安全性の測る物差しをどうやって作ればいいのかっていうのが非常にホットトピックに、AISIの中でもなってきているところです

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
まさに今ちょうど源内にも国産モデルをいろいろとこう組み込もうとしている中でも、ベンチマークのところってすごく苦労したところでもありますし、加えて、やっぱ実際に試してみるととても面白いというか、特に意見が分かれることに対してどういう答えを返してくるかっていうのはやっぱり非常に色が出る部分だったので。やっぱここを自分たちで評価できるようにするとともに、選んでいく。主体的に選んでいくってことは極めて重要だなということは、ごく最近の、源内の開発の中でもちょっと痛感をしたところではあります。
ちょうど面白くなってきたんですけど、すみません。

松尾 剛
そろそろお時間が。ぜひここでですね、これまでの議論全体振り返って、あの一言まとめをいただけると幸いです。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

テロップ:
デジタル庁 統括官
楠 正憲

楠 正憲
そうですよね、でもまあさっきやっぱ村上さんもおっしゃってた、平野さんもおっしゃってた「面白いけどとても複雑な状況になってきましたね」っていうのは非常に私も感じているところで。
電力の問題も出ましたけど3年前ってやっぱ本当にAIで使っているリソースってごく一部だったので、ともかくどこまでリソースをかけるかっていう議論でしたけども、言語だけのモデルに関して言えば、ほぼほぼデータも枯渇してきているし。電力も多分目いっぱいのデータセンターがここ2年ぐらいで立ち上がってきて、ある程度、サチュレートしていく局面で、今後それをどういうふうに使うかも含めて、すごく複雑な局面に入ってきた、だから必ずしも勝ち筋が見えなくても、やっぱりきちっとバッターボックスに立つというか、きちっといろいろこうトライアンドエラーの中で、この世界の、手触りを感じながら動かしていくっていうことが、より一層ちょっと大事なタイミングになってきたんじゃないかというふうに、ちょっとお話を伺いながら思って、このあとの話ができればと思います。よろしくお願いします。ありがとうございました。

(映像:退席するデジタル庁 楠 正憲)
(映像:退席する楠 正憲を拍手で見送る会場・来場者たちの様子)

松尾 剛
楠統括官はここまでリードして頂きありがとうございました。ではここで退席されます。皆さんどうぞ拍手でお送りください。

(映像:マイクを持ち話す松尾 剛アナウンサー)
(映像:テーマについての説明をメモしながら聞く登壇者たち)

51:35~53:04
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
エージェンティックAIへの姿勢

テロップ:
アナウンサー
松尾 剛

松尾 剛
では座談会を続けてまいります。楠さんから最後に、「打席に立つ」重要性を強調していかれましたけれどもこの後はですね、次のテーマ。まさに、その延長線上とも言えるかもしれませんけれども。その実際に、エージェンティックAIにどこまで仕事を任せるか、任せられるのか、というところに入っていこうと思います。
チャットAIから自律エージェントへの転換点にある今、どこまで任せるべきかというのを皆さんに議論していただこうと思います。
事前にですね、楠さんから、あの、問題提起の、骨子をいただきましたのでそれを私の方からご説明しようと思います。3つの点が、問題提起としてありました。
1つは「単なるチャットから自律的に行動するAIへ」これは2025年後半からの変化というものです。
2つ目が「コーディング、カスタマーサポート、データ分析など、実用化されている領域について」。
3つ目が「少子高齢化が加速する日本にとってエージェントは人手不足の切り札になるか」。
この3つの論点で議論をしていただければと思っております。

テロップ:
問題提起①
単なるチャットから「自律的に行動するAI」へ 2025年後半からの変化

テロップ:
問題提起②
コーディング・カスタマーサポート・データ分析など 実用化されている領域について

テロップ:
問題提起③
少子高齢化が加速する日本にとってエージェントは人手不足の切り札になるか

53:05~10:00:07
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
人間の承認をどの段階で入れるか

松尾 剛
では、まず1つ目の論点についてなんですが、ここは、これまでの議論でも出てますけれども「人間の承認をどの段階で入れるか」というお話についてです。Human in the loop(ヒューマン・イン・ザ・ループ)なのか、Human on the loop(ヒューマン・オン・ザ・ループ)なのかというふうにも書いていただきました。
まずは宮坂さんに、お伺いします。都庁では、そのエージェントに任せたい、あるいは任せられないという業務の線引きって、どうされているんでしょうか。

(映像:マイクを持ち話す東京都副知事 宮坂 学氏)

東京都副知事 宮坂 学氏
はい、ありがとうございます。ちょうど村上さんにも委員になっていただきまして、都庁では3つの仕事をAIでやろうと。これエージェントに限らずですけどね。
1つ目は都民向けサービスで、いわゆるカスタマー・サポートであったりとか、チャットボットをAIでもっと便利にしようとか、都民が使えるサービスを作る。で、2つ目は都民関連サービスと言っているんですけど、膨大な審査、事業者の方とか都民の方がこういう制度を受けたいんだけどという申請をされるんでその審査に使う。最終的には都民が受益者なんですけど、行政の中で結構やること多いんでこれを、都民関連業務と呼んでいます。
最後に、職員が使う業務でよく話題になるのが、議会の先生の答弁のタタキができないかなとか、資料を作ったりとかですね、パワポができればいいな、議事録みたいな話。3つでやってます。
それぞれ、自動運転の…分かりやすさがどうしても都庁の場合、職員も専門家じゃないんで大事なので、自動運転みたいに、レベル1からレベル4だったかな、にしまして。完全自動から部分的でいいよ、みたいな感じにしてます。
で、いろいろ村上さんとか、委員の先生とお話しした結果ですね、基本的には全部赤はやめようと。バッターボックス立てなくなるんで。ただ都民向けサービスは一番その赤の要素が大きい、黄色も大きい、青がちょっと、みたいな感じにしてて、職員向けの仕事はできるだけ、青の領域をどんどん、どんどん増やしていこう。そんな感じでやりましたよね。
そんな感じで今やってるところなので、正直まだエージェントで完全自動化するにはまだちょっと心と体の準備ができてないっていうのが実態かなと思っています。はい。

(映像:マイクを持ち話す松尾 剛アナウンサー)

松尾 剛
受益の部分、誰が、実際の、益を得るのかというところで区切って?

(映像:マイクを持ち話す東京都副知事 宮坂 学氏)

東京都副知事 宮坂 学氏
ま、あのミス、どうしてもね、ミスとか失敗が起きた時にどうするのかって、考えなきゃいけないじゃないですか。
ちょっとこれ笑い話みたいな、笑えない話かもしれませんけど、最後まで残る仕事の1つに謝罪ってあるよねって話をよくしてるんですよね。これさすがに一番エージェントにやってほしいんですけど、議員の先生とか都民に謝りに行くっていうのは、さすがにAIじゃ話にならないっていうふうに絶対に言われますんで。そこはちょっと自動ってわけにはいかないんで。ま、多分そこは最後までHuman in the loopが、あれじゃないですかね。
中の仕事って失敗しても我々自身で改善できますよね、だから、まず中からしっかり練習していって慣れていって自信がついたものから徐々に、こう、外ににじみ出していこうかな、が今考えてる、おおざっぱな方向です。

(映像:マイクを持ち話す松尾 剛アナウンサー)

松尾 剛
あの、平野さんにお伺いしますけれども、企業でのその導入に当たってですね、任せて「お、うまくいった、よかったな」というところと「これダメだったな」っていうの、もし実例があれば教えていただけますか。

(映像:マイクを持ち話す株式会社シナモン 平野 未来氏)

株式会社シナモン 平野 未来氏
そうですね、やはり、あの「これダメだったな」っていうパターンは途中で止まってしまうので。ま、でも、そうですね、パターンで言うとクリティカルな業務かどうか、っていうところがあるかなというふうに思っていて。
あの例えば、保険の、査定の業務とかでも、お支払いしたとして、3万円です、みたいなところだったら、やはり、あの査定をする業務のところでも、コストがかかるわけじゃないですか。なので、もう3万円だったらこう払っちゃってもいいよねみたいな、こう判断もあるわけでして。そこの明確さ、判断が明確になってるのか、みたいなところっていうのは、AIを導入するみたいなところでうまくいくパターンなのかな、というのと。
あとは、先ほどのスライドを使いながらお話ししたところでもありますけれども、最終、人が判断するっていうのは、基本かなとは思っていて。
例えばそのコールセンターのところでも、AIを使っていただくときに、その「なぜこうなるのか」っていうところを、こうAIが、こう出して、それをオペレーターの方が口にするのかどうなのか、っていうのは、その人に、あのオペレーターの方に、任せますよみたいな、形にしていることが多いかなというふうに思います

(映像:マイクを持ち話す松尾 剛アナウンサー)

松尾 剛
はい、ありがとうございます。保険の話がありましたけれど、村上さんはそのあたりは。

(映像:マイクを持ち話すAISI所長 村上 明子氏)

AISI所長 村上 明子氏
あの保険の話をすると、私2時間ぐらい喋りそうなんですけど。

松尾 剛
短めで。

AISI所長 村上 明子氏
ええ短めで。すごくそれは難しい話で、もちろん人が全部判断できれば、いいんですけど、今2つ話があって、1つはその「間違えちゃいけないAI」っていうのと、あと「人が判断してると間に合わないもの」っていう、その2つがあると思っています。
で、前半のほうは、例えばお支払いのところは、できる限り私たちは本当は人で見たほうが良いに決まってるんですが、でも人の、リソースが限られてるときに、難しいものと難しくないもの、同じ時間かけてたらダメだろうっていう効率化で、その難しくないものからなるべく人の労力を引き剥がして、難しいところに集中させるっていうのが、非常に大事なことなのかなと思ってます。
で、後半の「人がやってたら間に合わないもの」っていうのは確実に存在をしていて
例えば、なんですけど、これはあの、当社の例ではなくて、当社でまだ検討しているわけではないんですが、保険の分野だと「再保険」っていうのがあるんですね。再保険っていうのは私たちが持っているリスク。その保険として支払わなきゃいけないリスクっていうのを、別の会社さんに保険として買ってもらうっていうところなんですが、これ再保険市場っていうのがあって、いわゆるその保険……ま、ロイズなんてアレですよね、そのバーみたいなところで「この保険、僕が引き受ける」「あそこが引き受ける」って言ってやり取りをしてるのが保険市場っていうところなんですが、これが今全部オンラインになってきていて、今人で取引しています「このリスク、私は手放したい」「じゃあそのリスク僕が買った」っていうところ。これおそらく、AIエージェントになると言われています。そうなってくると、もうミリセックでやってるときに、その中で、「いや、私の会社はこれは人間がやるんで、人間が判断して売り買いします」って言ったらもう市場から取り残されてしまうので。だとしたらどうやってその時代に乗っていくのか。あるいはその再保険って、もちろん変なもの引き受けちゃったら会社ものすごい損失をするわけで。じゃあそうなったとき会社ってどうやってそのリスクをミティゲート(軽減)していくのかっていうところ。これをAIを使うとしたならば、先ほど「意志」っておっしゃってましたけど、この会社としてどういう意志でこのAIを動かしていくのかっていう意志を持たないとテクノロジーが先に立ってテクノロジーを導入しちゃうともう大失敗しちゃうので、まずは意志なんですよね。まずは意志があって、その上にその意志をどうやって技術で実現していくのかっていうのを考えなきゃいけないので、これからアレですよね、その経営者の皆さんって責任がますます、ますます重くなっていくんだろうなと思ってます。

(映像:マイクを持ち話す松尾 剛アナウンサー)

01:00:08~01:07:07
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
行政でのAI活用と責任

松尾 剛
ありがとうございます。
では、2つ目の論点に移らせていただきますけれども、今、経営者の責任という話がありましたけど「制度と責任の問題」について伺っていこうと思います。
ここは、まず実積さんに伺いたいんですけど、行政手続でAIエージェントが代理申請する場合の法的整理について聞けって書いてあるんですけど。どうあるべきと、実積さんは。

(映像:マイクを持ち話す中央大学教授 実積 寿也氏)

中央大学教授 実積 寿也氏
えっとですね、まずAIエージェントだからっていうことは多分なくて、機械を使ってるのは全部そうなんですけど。行政手続の場合、なんでそういう結果が出たのか、なんで私の申請は通らなくて、他の人は通ったのかっていうところの説明をどうするかっていうところが求められてくると思います。
その時に使っているのがAIなのか、単にググっただけなのかっていうのはあまり関係ない。どう説明するかというところにあります。
それを考えた時に、なんでAIだと問題が大きくなるかっていうと、やっぱり分からないから。ブラックボックス性が一番問題で、どうしてそういう結論が出たのかっていうのをうまく説明できない。
特に行政で使われる時に「そもそもこういう指示出したのに」って、プロンプトも公開しないと分からないし、プロンプトがどう処理されたのかが説明できないとユーザーにとって、その決定を受けた国民に対してちゃんと「政府としてはこういう観点でこう出しました」と説明できないのは一番問題だというふうに思っています。
なので、ログ情報とかを可視化していくとか、公開していくというのが基本的には考えられるんだけど、ここでもまた問題がありまして。ログ情報出されて分かるかどうか、という問題が残ります。
かつての人がググって……ググってっていう言い方変ですけど。法律に基づいて結果を出すために「こういう申請が来て、この基準に基づいたからここはダメですよ」って形で出せたんですけど、今のプロンプト出して、そのあとAIがどういうふうに処理したかっていうのを全部公開したところで、それが分かるかどうかという基本的な問題があります。
なので、もうそこはですね、問題をぶん投げ返すようで嫌なんですけど。社会としてどこまでだったらAIに対して我々は意思決定を委ねて大丈夫なのかっていう「割り切り」の問題ですね。
車の例をたまに私使うんですけど、車はとても便利で、重いものを運んでくれて高速で運んでくれるけど、絶対事故るわけです。で、事故がダメだから「じゃあ嫌だ、なんで事故が起きたのか説明しなきゃ使わない」っていうのだと我々は車社会に出ていけないんだけど、そこは社会として「ここは保険で負担してもらって社会全体でカバーしましょう」ということで管理していくという世界があります。
AIがどこのレベルがそこで管理できるか分かりませんけど、トラストというか信頼を社会が「この部分をAIに任せて大丈夫だ。ここでミスは起こるかもしれないけど、そのミスの確率は人間がやるよりずっと少ないんだから、そこは任せましょう」という自動運転みたいな話だと思うんですけど、そこの議論をまずしていくっていうのが大事。そのために制度としては透明性をどこまで確保していくか、その解釈をするのは誰がやって、どういう外部認証を得るかどうかというシステムを作っていくのがまず大事なんだろうなというふうに思っています。

(映像:マイクを持ち話す松尾 剛アナウンサー)

松尾 剛
先ほど宮坂さんのほうで、レイヤーというか「この業務だったらOK、この業務はちょっと慎重に見る」という話があったと思うんですけど、そういう階層の作り方っていうのはどういうふうに考えていけばいいんでしょうか。

(映像:マイクを持ち話す東京都副知事 宮坂 学氏)

東京都副知事 宮坂 学氏
はい。まあそこは我々だけで恣意的に決めるのは良くないだろうということで、形も整えるのは行政には説明するために大事なので、村上先生とかいろんな方にも入っていただいて、レイヤーを分けていっています。
で、先ほど村上さんからあった「人間がやっちゃ間に合わないところ」での利用って確かにそういえば始まってるなと思ってまして。セキュリティなんかもうやってますね。もうすごい数の攻撃が来るんで、人間がやってると追いつかないんで。基本的なスクリーニングはSOC(セキュリティ・オペレーション・センター)でやってるのなんかも、本当に早めに立ち上がった、もうかなり自動化しつつある業務かもしれないですよね。

(映像:マイクを持ち話す松尾 剛アナウンサー)

松尾 剛
レイヤーの作り方は、やはり企業の意志の話もありましたけど、何を優先するかによってレイヤーの作り方も変わってくるということでしょうか

(映像:マイクを持ち話す東京都副知事 宮坂 学氏)

東京都副知事 宮坂 学氏
結構僕もなかなか答えが無いところなんですけどね。法律で書いてあるのが一番公務員は動きやすいんですけど。ないところですし、しかも説明ができないっていうおっしゃるとおり。再現もやっぱりできないんで。同じこと聞いても同じもの出てくるかっていうとそうもいかない。本当にこれは今実積先生おっしゃったとおり悩ましい。
で、ちょっと今先生のお話を伺ってて思ったのが、車の例、僕は一ついい例だなと思うんですよ。さっきもそれで自動運転のメタファーでお話ししましたけど。やっぱり車の場合は、事故は起きて人もすごい亡くなるかもしれないけど、それに対するリターンがものすごく分かりやすいじゃないですか。遠くに行ける、とか、物が運べるとかありますよね。
で、今日の1つのテーマだと思うんですけど、じゃあ行政でAIを使った時に、その車で起きたような圧倒的リターンのビジョンがまだ提示できてないのが問題だと思うんですよ。なんか「答弁が簡単になる」とかって、我々の中の話なんですよね。それは我々内部的には大変なことなんですけど、世間から見ると「それは君たちのなかの話だよね」ということで。国民・都民にAIを公共サービスで使うと、車が起こしたような、明治の郵便とかそんな感じだと思うんですよね。圧倒的な変化が起きたのでみんなやったんだと思うんですけど、それを提示ができてないのが僕も含めてなんですけど、ちょっと大事なのかなと思って、ちょっとお話を伺いました。

(映像:マイクを持ち話す中央大学教授 実積 寿也氏)

中央大学教授 実積 寿也氏
あの、言われた問題は全くおっしゃるとおりで、日本を含めて海外でAIの使い方どうですかっていう議論をすると日本企業の型は「コスト削減」っていうのが一番に来るんですね。それに対して海外だと結構多いのが「新しいサービスができました」「品質が上がりました」っていう、お客さんを獲ってくるとか売上に直結するような使い方が多いところがやっぱり違うのかなという気がします。
やっぱり日本企業は失敗を恐れるというか、失敗したら怒られるんで。じゃあ失敗する可能性一番少ないのが、ま、人の削減っていうのは良くないんでしょうけど。業務を効率化して、人時間が減りましたとか、コストが安くなりましたというところを追求するっていうのはその辺に来てるのかなと思います。
で、確かにAIを使って、今までないようなサービスができました、だから皆さんもっとお金払ってねとか、少しミスが起きるかもしれないけどそこは甘受してねという言い方ができるようにならないと、本格的なAIの離陸っていうのも難しいんだろうなというふうに思います。インターネットはそれができたわけです。
それができたので我々はたまには偽情報、誤情報があるかもしれないけど、未だにSNSを使ってやり取りしてるっていうのは、圧倒的なメリットがあるから。それを先に提示するというのが、今までの他のサービスではできたんだけど、AIは冒頭に言いましたけど、サービスの立ち上がりがすごく短かったんで、同時に解決しなきゃいけないような状況になってきて。そうすると国民性によって、やっぱり怖いから使わないっていう国と怖くてもとりあえず使ってみて面白かったら使いましょうっていう人たちの差が大きく出ているのが今の現状だろうなというふうに思います。

(映像:マイクを持ち話す松尾 剛アナウンサー)

01:07:08~01:10:42
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
AI活用と規制

松尾 剛
最後もう一点、規制についてなんですけど、そういうメリットの部分とデメリットの部分、規制の役割あるいはタイミング、どういう風にお考えですか。

(映像:マイクを持ち話す中央大学教授 実積 寿也氏)

中央大学教授 実積 寿也氏
規制に関してはとても難しいと思います。AIに関してはそれこそ数週間おきに新しい施策が出るようなケースもありますので、それこそ1年に1回しかガイドライン書き換えませんよというところは到底対応できない。
でもう一つ考えなきゃいけないのは、日本でとてもいい規制をして、これで国民を守れるんだ、という規制をした時にサービスの提供元が海外企業の場合に、日本市場を美味しいと思って来てくれるかという問題があります。とても厳しい規制をすると多分「ジャパン・パッシング」が発生するんだろうなというのをちょっと懸念するところです。
その意味で、どういった規制がいいのかというのは、どこまで規制ができるかっていうのは海外との規制の競争っていうのを見なきゃいけません。ヨーロッパで、特にEUのところで「ブリュッセル効果」がなんで出てるかっていうと、一つは市場がでかいからです。市場がでかくてお金払ってくれる人がいっぱいいるので、その市場を無視できないから。
例えばGDPRとかもありましたけど、とてもとても厳しい規制で日本企業とてもコストかかるんだけれども、ヨーロッパの市場を捨てられないんで我々入らなきゃいけないってなってます。で、日本が同じ状況ができるんであれば、それこそ紀尾井町効果というか、デジタル庁が作る規制が世界のスタンダードになるっていうのを想定できるんですけど、なかなかそこは想定できない。となると、企業が喜んで従いつつ、しかも日本国民の安全安心を守っていくような、そのいいところ。過剰規制、過少規制の話を先ほど出しましたけど、そのベストなポイントを見つけていく努力をしなきゃいけないんだろうなというふうに思います。
そこで一つ考えられるのが、ちょっとすみません、公共調達ってやつで、市場が立ち上がるところっていうのは公共調達の意義がすごく大きいので、デジタル庁さんが「公共サービスの未来」って今回ありますけど、「我々はこういう目的で、こういう基準を持つサービスを提供するために、皆さんに協力してください。公共調達でこれを買いますよ」というメッセージを出すのはとても大きい、一つの規制のやり方かなというふうに思っています。

松尾 剛
ありがとうございました。

(映像:マイクを持ち話すAISI所長 村上 明子氏)

AISI所長 村上 明子氏
すみません、私も補足させていただきたいんですけど。公共調達のところっていうのは私すごい同意していて。
AIセーフティ・インスティテュート(AISI)でやってるとよく企業の方から認証してくれって言われるんですね。「AI、これがいいとかあれが悪いとかっていう認証をAISI出しませんか」と言われて。まさに技術のスピード感でそれは難しいんですけれど。でも、政府が採用したAIって、これを使ってくださいとお勧めしなくても、結構企業が見てるので、そういったところで秩序みたいなのができてくるのかなというふうに思ったりします。
なので、逆に言うと調達の責任ってすごく重いなと思って、頑張りましょう、と思ってます。

(映像:マイクを持ち話す東京都副知事 宮坂 学氏)

東京都副知事 宮坂 学氏
東京都もですね。いいですか、ちょっと被せますけど。実は都もスタートアップの担当もちょっとやってまして。本当に今スタートアップ頑張ってるんで、どんなことしてほしいか色々聞いてると、公共調達ってよく出てくるんですよ。
で、これAI系の音声系のスタートアップだったんですけど。コロナの時に保健所で、いっぱい電話がかかってきてそれを書くのが大変だっつって、AIの、シンプルな音声のやつをある会社を入れたんですよね。で、数年後に「あの後、どうなったの?」って聞いたら、都庁でやってくれたおかげで、まず日本全国行けたと。で、今インドネシアでもやってるっていう話があって。
僕は、都庁の持ってるスタートアップ調達の資金ってそんなでかい額じゃないんですけど、でもやっぱり信用っていうとおこがましいですけど、何かラベルをつける意味においてすごく大きいんだなということに気づきまして。
おっしゃるとおり、やっぱり公共調達を、平野さんみたいな国産のスタートアップにどんどんしていくっていうのは我々がリスクを取ればできることなので。ぜひやっていきたいなと思いました。

(映像:マイクを持ち話す松尾 剛アナウンサー)

01:10:43~01:15:30
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
AIの安全性と未来像

松尾 剛
規制とは違うやり方で伸ばすことができるわけですね。ありがとうございました。
では、3つ目の論点に移ります。
3つ目の論点は「安全性と未来像」ということになっています。ここで村上さんに、また再び登場していただきたいんですけど。エージェントに予期しない挙動をどう管理するかというお話、それから注意したほうがいいシナリオというものが存在するか。これをご説明いただけますでしょうか。

(映像:マイクを持ち話すAISI所長 村上 明子氏)

AISI所長 村上 明子氏
ありがとうございます。さすが楠さん、いなくなっても高いボール投げてくるなと思ってるんですけれど。
まず、エージェントで今、実は私もう20数年、30年ぐらい前からAIの研究してるとですね、AIエージェントって実は昨日今日始まった話ではなくて。もう30年ぐらいずっと研究者は研究してきたことだったんですけども。それが今のモデルができて、AIモデルができて実現してきたと。そうなった時に、じゃあ何を安全にすればいいかっていうのはすごく今まで議論がされてきたんですね。
ポイントは2つあると思っていて、1つはそれに何をどういう意志を持ってさせるかと。まさに意志ですよね。どういうロジックを組み込むかのところと、何のデータを使うかっていうところ。この2つだと思っています。
そういった時に、ロジックに関しては比較的AIエージェントをどこまで硬く作るかっていうのでコントロールができると思ってます。で、今までLLMってなんでもできますよって言って、投げてハルシネーションとかアホなこと言ったりとかして使えないなと思ってたのが、タスクに分けてあげて、細かいタスクのエージェントに分けてそれを自律的に繋ぎ合わせるとですね、非常に賢いことができると思ってます。なので、AIが間違えるっていうことが、エージェントを使うことによって飛躍的に減ってくるというふうに考えてます。
で、それの、じゃあ組み合わせ。2つポイントがあって、1つ1つのロジックを硬く作って、じゃあその組み合わせをどういうふうに選ばせるかっていうところ。ここで安全性が担保できるのかなと思ってます。
で、2つ目がですね、実は私は一番懸念してるのはデータなんですね。1個のエージェントがアクセスできるデータの制御っていうのはできるんです。
例えば私の個人情報を使って何か判定するエージェントを作りますよね。だけどこの判定に必要なんだったらしょうがないから、このエージェントに私の個人情報をあげるか、と渡します。そうするとですね、そのエージェントがその判定の情報だけじゃなくて私の個人情報を別のエージェントに渡してしまうと、私の個人情報が漏洩してしまうわけです。
なので、いわゆるデータリネージュと呼ばれる、データのこう行き先みたいなのをどうやってエージェント間で管理していくのかっていうところ。ここが今、AIエージェントのフレームワークでも議論になってるところで。
例えば今まで、もうなんかすっかりAIが出てきて忘れ去られていたブロックチェーンみたいな、そういう仕組みを使ってそういうAIの、取り扱うデータっていうのをどうリネージュしていくのかっていうのは技術的にはできると思ってます。
で、最後にやっぱり「人」なんですよね。AIエージェントって今言ってるんですけど、自分がどこまでの人を信頼するのかと同じで、自分のエージェントにどこまでのエージェントを信頼させるのかっていうところ。ここをどう、技術的、あるいは技術ができていたとしたならば、それをどこまで信頼させるのか。これを集中管理、例えば中央省庁みたいにこう全部誰かが「この人大丈夫だよ」って教える仕組みにしちゃうとAIエージェントとしてはスケールしないと思うので、どうやってその安全性を担保していくのかっていうのが、これからの議論の先にあるのかなというふうに思います。

松尾 剛
ありがとうございます。今の点について、平野さんお願いします。

(映像:マイクを持ち話す株式会社シナモン 平野 未来氏)
(映像:平野 未来氏の話を大きく頷きながら聞く村上 明子氏)

株式会社シナモン 平野 未来氏
ちょっと今の1点目の「タスクを細かくする」っていう話だと、結構これ日本頑張っていかないといけないところだなというふうに思っていて。というのも、日本人ってそのオペレーショナル・エクセレンスというか、そこまで言わなくってもオペレーションが回っちゃうっていうのがあるんですよね。
これ、この国民性ってジョブ・ディスクリプション(JD)とかにも出てますけれども、日本企業が採用する時のJDって結構適当に書かれている。一方海外だと、適当に書かれちゃうと困っちゃうので、しっかり書いてるんですよね。
で、それがマニュアルだとかにも起きていて、結構日本企業ってマニュアルを適当に書いてる…。すごいなんかウンウンって頷いてくださっていますけれども。あ、ちなみにまだ保険会社まともなほうなんですよ。
日本の製造業になってくると、もうかなりそれがまるっとというか…書かれていて
これはこの日本企業の、日本人が優秀だからこそオペレーションが回ってきたっていうところは、結構そのAI化していくっていう点に関してはディスアドバンテージだなというふうに思っています。

(映像:マイクを持ち話すAISI所長 村上 明子氏)

AISI所長 村上 明子氏
それを「匠の技」とか言ってなんか美化してますよね。

松尾 剛
ありがとうございます。もう一つですね、村上さんに聞くように仰せつかったことがあるんですけども。
AIネイティブ世代に何を教えるべきか。という問いが残されております。

AISI所長 村上 明子氏
難しいですね。なんか高めのボールしか来てないんですけど。
自分がAIネイティブじゃないので、どういうことを教えればいいのかっていうのはすごく難しい課題だと思っているんですけれども。

01:16:06~01:17:00
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
“AIを信じるな”

AISI所長 村上 明子氏
私はAIネイティブ世代に教えたいなと思うのは1つあるのは、「AIを信じるな」っていうのをすごく教えたいと思ってますよね。すごくこう言うとネガティブに聞こえるかと思うんですけど、皆さん人間として成長してくる時に、人のことを盲目的に信じるっていうことができるのは人間の素晴らしさだと思うんですけど。でもやっぱり社会で生きていく時にはリスクっていうものを考える時には人を疑うっていうこと。で、AIが多分子供たち、今の10代って親よりも友達よりも先生よりもAIに相談するそうなんですね。そうなってくるとおそらく一番AIっていうものを信用してると思うんですけど、彼が言っていること……彼か彼女かAIが言っていることを自分の生活の拠り所、決める拠り所にするんじゃなくて、最後に決めるのは自分だってことを子供の頃から使ってると忘れちゃうんじゃないかなと思って、そこを一番教えたいかなと思います。

(映像:松尾 剛アナウンサーの話を聞く登壇者たち)

松尾 剛
ありがとうございます。残念ながら時間がなくなってまいりました。ということで最後にですね、皆様に今日の議論で新たな気づきがあった点、ありましたら是非一言ずついただきたいと思います。実積さんから順にお願いします

(映像:マイクを持ち話す中央大学教授 実積 寿也氏)

01:17:20~01:23:08
右上テロップ:
「ガバメントAIフォーラム」
生成AIと公共サービスの未来
議論で得た気づき

テロップ:
中央大学総合政策学部 教授
実積 寿也

中央大学教授 実積 寿也氏
はい、ありがとうございます。とても色々勉強になったんですけど。
やっぱり衝撃的だったのは宮坂さんの「人間ができるのは謝罪だ」っていうお話。が、衝撃的で。確かにその通りで、今の村上さんの話ともあるんですけど、新しい世代に何を教えるかっていう時に、AIは自分が失敗した時に「これはAIがやったから」と言い訳にならないぞっていうのを教えるようにしています。
車を運転して事故った時に「車が悪いんだ」と誰も言わなくて、「自分が悪い」って意味で受け止めた上で自分が罪に服するとか賠償金を払うというところに行きます。
AIも多分そっちのほうに動いて、単純な……基本的にはツールですよという見方をさせないといけないんだろうと。そこはAIがやっぱり人格を持ったりしてますんで、「頼れる仲間」っていうふうになってますけど、最終的には機械ですよ、ソフトウェアですよという認識を我々は忘れないようにしなきゃいけないなというふうに思います。
で、その上で自転車の例じゃないですけど、デジ庁の皆さんにはどんどん失敗していただきたいと。失敗するっていうのが許されるのは庁内だけです。しかも失敗を自分の分かる範囲までで失敗していただきたい。自分の分からないところをAIに聞いて答えが来た時にそれは判断つかない。出典を調べようにも何が……何が出典か分からないような状態では判断できないので。自分の分かる範囲内でいっぱい失敗しておいていただいて、それで使い方を学んでいただいて、それで更改していくようにしていくのが、人間側の立場としては重要なのかなというふうに感じました。

松尾 剛
ありがとうございます。では、平野さんお願いします

(映像:マイクを持ち話す株式会社シナモン 平野 未来氏)

テロップ:
株式会社シナモン 代表取締役社長CEO
平野 未来

株式会社シナモン 平野 未来氏
今のお話まさにそうで。私もいろんな会社にAIをご提供させていただいているんですけれども。どんどん進んでいく会社って「失敗に寛容な企業」なんですよね。すごいお金かけてAI作って、失敗して。
あ、うちの会社で作ったやつじゃないですよ。
失敗して。で、それでも笑ってるんですよね。でも、それがあるからこそ進んでいく。やはりリクルートなんかはすごいいい例だなというふうに思っていて。90年代、あの会社スパコン購入してるんですけれど。そのスパコンを購入したことが成功だったのか失敗だったのか分かりませんけど、やはりそういう気概があったからこそデジタル化にも成功したし、スマホ化にも成功したし、今グローバル化もしているわけですよね。なので、失敗してもいいからどんどん進めていくっていうのは、すごく大事なことだなっていうふうに思っています。
あとは「信頼するな」って村上さんおっしゃってて、ただ私なんかもうAIのこと信頼しちゃっているというか、自分の運転のスキルなんか信頼していないので。ちょっとこれからもうちょっと自分のことも信じようと思いました。あと謝罪ですね。謝罪は必要。価値だと思いました。ありがとうございます。

松尾 剛
ありがとうございます。では村上さん、お願いします

(映像:マイクを持ち話すAISI所長 村上 明子氏)

テロップ:
AIセーフティ・インスティテュート(AISI)所長
村上 明子

AISI所長 村上 明子氏
はい、ありがとうございます。今日聞いていて私はすごく「意志」って言葉を「あぁ、私が言いたいことってこういうことだったんだ」っていうのを学んだっていうところがあると思います。
AIがやっぱり私が思うのは、AIが言ってくることってだんだんだんだんAIが自分に合わせてくると心地よくなってくるんですよね。だからこそなんとなく依存してしまったりしてAIになくちゃ生きていけないってなるのが、私ちょっとひねた人間なんで「お前がいない生活を想像できないな」ということにはならないぞと、なんとなくちょっと思ってしまうんですけれども。
でも、おそらくそんなことも言ってられなくなってくると思います。でも、その中で私が思うのは、やっぱり人の素晴らしさっていうのを忘れちゃいけないんだろうなと思っていて、先ほど謝罪の話あったんですけど、3年ぐらい前まで私ずっとデジタルとかAIとかトランスフォーメーションやってた時に保険の支払いで人が事故に遭われた方に共感する、これだけは人間しかできないんじゃないかってずっと言ってたんですね。ところが今、AI共感してくれるんですよ。「事故に遭われて大変でしたね、それは辛かったでしょう」とAIに言われるとですね、人間と同じように「あ、ありがとう」ってなって、すごく心許したりってことができそうになってきてるんですけれど。そんな中でも最後、人の素晴らしさって人は忘れちゃいけないんだろうなというふうに今日改めて思いました。ありがとうございます。

松尾 剛
ありがとうございました、では最後、宮坂さんお願いします

(映像:マイクを持ち話す東京都副知事 宮坂 学氏)

テロップ:
東京都副知事
宮坂 学

東京都副知事 宮坂 学氏
はい。私も「意志」っていうのは本当に大事だなと思いました。やっぱり意志以上のことは絶対にできないと思うんですよね。それは企業であればビジョンとかパーパスとか、日本だと憲法とか法律とかに書いてあると思うんですね。「この国をこうしたい」とか。
で、まさにメインテーマ「公共サービスの未来」をどういうふうに我々は……デジタル庁の方、今日多いと思うんですよ。僕は公務員・地方公務員側ですけど、問われているんだろうなと思います。
AIそのもので勝ちたいのか、AIを使って世界最強の素晴らしい公共サービスを届けるのか、だいぶ違うと思うんですよ。AIはひょっとしたら他の国がすごいの作るかもしれないけど、AIを使い倒して、それこそ誰一人取り残さないデジタル化とか。
僕が今一番やってみたいことの一つは、政策を即日配送することなんですよ。だって今、本も音楽もすぐ来るわけですよね。なんで政策だけ半年かかるのかすごく不思議なんですよね。デジタルを正しく使ってAIを正しく使えば、申請しました夕方には振り込まれました、ができるはずなんですよね。こんなことは多分世界で誰もやってないじゃないですか。やっぱり我々はこのAIをどう作るかじゃなくて、AIを使ってどんな公共サービスにしたいのかって「意志」というかビジョンというか。それがもうちょっとこう皆で、公務員みんなで議論していって、そのためにできれば国産AIが一番いいんですけど、最悪全部が国産って無理があるじゃないですか。全部国産でやるなんて。一部しか使えないと思うんだけど。最後それでやっぱり素晴らしい公共サービスをAIでやっぱり一番作ってるのはこの国だよねと言えるようにするのが僕は結構大事かなと思って今日話を聞いてました。ありがとうございました

(映像:壇上に座って礼をする登壇者たち)
(映像:拍手をする会場・来場者の様子)

松尾 剛
ありがとうございました。本当に今日は皆様お忙しい中ご登壇いただきありがとうございました。また、前半の議論をしていただきました楠統括官にも改めて感謝申し上げたいと思います。
では、最後に感謝の拍手を皆様お願いいたします。

(映像:マイクを持ち話す松尾 剛と来場者の様子)

01:23:26~01:25:50
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか

松尾 剛
デジタル庁主催「ガバメントAIフォーラム:AIと創る、2030年の公共サービス」の第二部です。AIと創る源内の実装と戦略。座談会「ガバメントAIをどう作るか -開発戦略から官民連携まで-」を始めます。

テロップ:
第二部座談会
ガバメントAIをどう作るか ~開発戦略から官民連携まで~

(映像:マイクを持ち、登壇者を招き入れる松尾 剛と拍手をする来場者)

松尾 剛
それではパネリストの皆様の登場です。どうぞ拍手でお迎えください。
岡野原大輔さん、鳥澤健太郎さん、大杉直也さん、山口真吾さん。
みなさんどうぞ席におつきください。

(映像:着席する登壇者たち)

松尾 剛
第二部のこの座談会、モデレーターはデジタル庁の山口真吾参事官です。では山口さん、よろしくお願いいたします。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

テロップ:
デジタル庁 参事官
山口 真吾

山口 真吾
はい、よろしくお願いいたします。第二部、始めさせていただきたいと思います。
第一部あったと思いますけれども、第二部はですね、もうちょっとガバメントAI。
それから技術にフォーカスして自由闊達な議論をお願いしたいというふうに思っています。まああの、生成AIの利用というのは、政府の中でも始まっています。
大杉さんからコメントあると思いますけれども、まだまだこれからどうやってそれを実装していくか。
人材ですとかデータだとか、セキュリティだとかアプリケーション、それからエージェントですね、これについて課題があるんですね。
で、今回このセッションでは、ガバメントAIを2030年ぐらいまでにどういう姿に持っていったらいいんだろうね。どういう課題があって、どういう風に乗り越えたらいいんだろうね、というところを是非議論していただきたいなと思います。

(映像:登壇者を紹介するデジタル庁 山口 真吾)
(映像:山口 真吾の紹介に合わせて礼をするデジタル庁 大杉直也)
(映像:山口 真吾の紹介に合わせて礼をするNICTフェロー 鳥澤 健太郎氏)
(映像:山口 真吾の紹介に合わせて礼をする株式会社Preferred Networks岡野原 大輔氏)

山口 真吾
私の隣から大杉さん、それから、まあ、さん付けで呼ばせていただきたいと思いますけど、鳥澤さん、岡野原さんに今回ご登壇をお願いしました。ではですね、最初、自己紹介も兼ねまして、5、6分ずつですね、どんなことをされているのかという自己紹介をしていただいてから、ディスカッションの開始とさせていただきます。
では、大杉さんからお願いします。

(映像:マイクを持ち話すデジタル庁 大杉 直也)
(映像:投影資料に関して―政府における生成AI利用環境(源内)の概要
デジタル庁職員、または利用を希望する府省庁(2026年1月~)が、「生成AI利用環境(源内)」を介して、ガバメントクラウド上のデータやAIアプリ、LLM(大規模言語モデル)を利用する全体構成を示す概念図。図中に「入力・出力」「利用・検索」「学習」などの矢印やラベルがあり、情報の流れを示している)

01:25:51~01:32:41
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
生成AI利用環境「源内」の現状

テロップ:
デジタル庁ガバメントAIリードエンジニア
大杉 直也

大杉 直也
マイク入ってますね。大杉と申します。よろしくお願いします。
私の自己紹介は、自分の紹介というよりかは「源内」の紹介をメインにしていきたいと思います。
はい、これ源内の概要図で、山口参事官が書いて頂いたものなんですけど、源内真んなかにおりまして、源内って何かというと、生成AIを安全・安心に省庁、本当は自分が安全に使えるというところからスタートしたんですけども、なんだかすごい大きなことになっていて、我ながら驚いております。
この源内というのは単純なウェブアプリケーションだけじゃなくて、裏側には当然大規模言語モデルがいますし、大規模言語モデルは今、ガバメントクラウドを主に使ってますがその上で動いておりますし、あとは大規模言語モデルだけではなくてAIに必要なデータっていうのがいっぱいありまして、これらもどんどん整備していきたいと考えております。ここで書いてあるのは実は今完成しているものだけではなくて、特に右側の「AIに必要なデータ」のところに関しては、法令の逐条解説とか書いてありますけど、これはこの後どんどん、どんどんと、揃えていくという状態であります。
次行ってもらっていいですか?

(映像:投影資料に関して―デジタル庁のポータルサイトにおける生成AI利用環境「源内(げんない)」 
デジタル庁のポータルサイト上で源内が配置されている場所を示す、ポータルサイト画面の画像)
(映像:投影資料に関して―デジタル庁の生成AI利用環境「源内(げんない)」 職員の利用画面
源内のPC上の利用画面の画像。「おすすめGov AI」や「利用の多いユースケース」が一覧化されている。
「デジタル庁では全職員がポータル画面から生成AIを利用できる」)

大杉 直也
源内は今、デジタル庁だとこのデジタル庁のポータルサイトってところがあって、そこに目立つところに配置させてもらっています。
はい、これ源内の職員の利用画面で、ちょっとまだ画面古くて。最先端のやつは実はここに岡野原さんのところのPLaMo翻訳がもうちょっと目立つ位置にいるんですけども。こんな感じで、汎用的なチャット以外にも「おすすめなAIアプリケーション」みたいな感じで並ばせるという設計思想で作っております。ただし、この画面ちょっとまだUIいけてないところいっぱいありますので、今大規模改修を検討中です。
また、ここ今「GovAI」って書いてるんですけど、今「AIアプリ」とだけ呼んでおりまして、AIアプリ、AIを使ったアプリっていうつもりで作ってたんですけど、おそらく来年の今頃はエージェントAIが主流になったので「AIが使うアプリ」みたいなニュアンスになるんじゃないかなと思っております。
というのでちょっと技術の変化がすごい激しくて、予測しながら作っているのもありまして、ちょっと利便性と未来の技術にどう対応するかというところの、ちょっとバランス取りがなかなか難しいなと思いながら日々開発しております。

(映像:投影資料に関して―生成AI利用環境「源内」で利用できるAIアプリケーション
左に「汎用的なAIアプリ」、右に「行政実務用のAIアプリ」を置いた2列で構成された表。
「汎用的なAIアプリ」
(チャット・文章作成・要約・校正・翻訳・画像生成・映像分析・ダイアグラム分析・音声認識・プロンプト案の生成AIなど)
「行政実務用のAIアプリ」
(法制度調査支援AI・国会答弁検索AI・公用文チェッカーAI・物品管理システムヘルプAI・旅費等内部管理業務共通システムのヘルプAI・電子決裁システム(EASY)ヘルプAIなど))

大杉 直也
はい、で汎用的なAIアプリということでチャットとか翻訳とか、いわゆる大規模言語モデルのプロンプトだけ変えました。みたいなケースとかは、やっぱりすごい便利ですし、皆さんもChatGPTとかAnthropicとかGeminiとかで色々使っていると思います。
で、それ以外にも、やはり我々行政実務用のAIアプリという形で、多少特化させたものを作らないといけない、作りたいなと思っておりまして。で、特化させるところで作るのが、今ボトルネックになるのが3つなんですよ。
1つはこの業務を行うための「必要なデータは何か」というところで、ここに書かれている例だと旅費等内部管理業務システム、SEABISというやつがあるんですけど、そのマニュアルのデータって非公開でして。結構な量がありまして、生成AI知らないんですよ。ただの大規模言語モデルだと、なんでそのマニュアルのデータを追加で読ませるようにRAGの形で作っております。
で、2番目に必要なのが、データがあった時にそれを「どういう順番で、どう使うんだっけ」みたいな話のノウハウの話がありまして、国会答弁検索AIとかは、これ今検索しかしてないんですけど。国会答弁検索したあとに「じゃあ国会答弁作りたいです」って話になると思うんですけども、その際に何をどんな順番で、どういう観点で作らなきゃいけないんだっけというノウハウ、スキルに関連するところも、AIアプリにとってすごい重要になってきます。
で、3番目は「これ作ったのはいいんだけど本当に使えるんだっけ」という評価
これは私のようなエンジニアじゃとてもできなくて、実際に行政実務に従事されている方じゃないとなかなか難しいんじゃないかなというのが1個あります。
この3点揃えないと満足したものが作れず、ここをどうやって作っていくかっていうところが次のデカいテーマになっております。

(映像:投影資料に関して―デジタル庁内では、源内の利用状況をダッシュボードで確認可能
源内利用状況モニタリングのダッシュボード画面の画像。利用人数1,311、累計登録人数1,459、利用回数225,539などの情報が示されている。)

大杉 直也
で、これ今デジタル庁の中の最新の利用状況でして、2026年2月2日週末時点というもので。こんな感じでダッシュボードでどれぐらい使われてんだっけというのは見れるようにしております。
中ではちょっともうちょっと細かい単位で、データ分析用のログ環境というのもちょっと今整備中でして、こういうダッシュボード的なものもAIで作れるというところを今内部では作り始めております。
で、人気が多いのはやっぱり汎用的なチャットで、大規模言語モデル自体がすごい賢くなっちゃってるんですよ。そのせいで、それ使ってればいいじゃんみたいなケースがすごく多くなっておりまして、やはり汎用的なチャットが強えなと思っております。
あとは翻訳もこれちょっとランキング高いんですけど、これ最新の1月2月だけに絞ると、PLaMo翻訳の方が利用者数が多いというのが実はあったりするんで。ちょっとここでおべっかじゃないんですけども使わせていただいております、って話です。

(映像:投影資料に関して―ガバメントAIの展開スケジュール
ガバメントAIの展開スケジュールを令和7年度、令和8年度、令和9年度に分け、各年ごとに示した図。
■令和7年度
【AI利用基盤(源内)】デジタル庁内における試験導入(5月~)

生成AI検証環境(源内)を内製し、デジタル庁職員(約1,200人以上)が利用開始
「プロジェクト源内」のロゴ画像
【行政実務用のAIアプリ】
法制度調査支援AI、国会答弁検索AI、
旅費等内部管理業務共通システム・ヘルプAIなど、20種類以上のAIアプリをデジタル庁が内製し、源内で提供
■令和8年度
【AI利用基盤(源内)】
大規模実証事業(5月~)
全府省庁(外局等含め39機関)の約18万人
【国産の大規模言語モデル(LLM)の試用】
公募・採択したモデルを源内で試用し、実用性や行政実務への適合性を見極める。
【令和7年度補正予算のプロジェクト】
・職員向け源内利用研修、源内の利用画面改修
・政府向けの高度なAIアプリの開発(国会答弁作成支援AIなど)
・エージェントAIの導入に向けた取組(AIと人間の共働型業務支援AIの導入)
・政府共通データセットの整備(官報79年10か月分)
■令和9年度
【AI利用基盤(源内) 】源内の本格的利用
・AIアプリの強化、エージェントAI導入
・職員がAIアプリを自作できる環境
・利用省庁が予算措置 →予算を確保できた範囲内(職員数)で業務利用
【国産LLMの政府調達(有償利用)】
・安全・安心な国産AIの利用
・源内での利用結果を企業にフィードバックして国産AIの性能向上
・政府調達を通じた国産AIに対する安定的な需要創出

・『ガバメントAI源内』の徹底活用
・政府自らが積極的かつ先導的にAIを利活用
・政府職員によるAIの普段使いを浸透、定着させることにより、業務の質を向上させる
・国産AIの育成・強化、関連民間投資の喚起))

大杉 直也
展開スケジュールなんですけど、令和8年度、今年度ですね。もう今月で終わりなんですけど。今月、違う、来月、違いました、令和7年度でしたね。はい、で、試験導入、今年度の5月からやりました。
去年の今頃はひいひい言いながら作ったやつが隙間時間で作っていたものが今こんな感じになって、ちょっとおびえているんですけど。それがまず、今年の1月に希望する省庁に対しての展開を始めております。もう数百人規模で使っております。
その次に、2026年度の5月以降に、ここ約18万人って書いてるんですけども
ちょっと想定ユーザー数が100倍以上になるのでインフラエンジニア共に今戦々恐々としてるんですけど。そこに向けて今足回りとかシステム開発のところに今ひいひい言っております。
それ以外にも国産の大規模言語モデルの使用を始めたりとか、補正予算のプロジェクトでデータを調達してきたりとか、AIアプリちゃんとしたもの作ろうというようなところを、隙間時間少数精鋭でやりますっていう世界じゃなくて、いかにスケールさせるかというところにフォーカスを置いて補正予算事業を始めていきます。
で、さらに2027年度からになるともう源内の本格利用というのが始まっておるので
そのタイミングでやらなきゃいけないこともたくさんあるなという形です。

(映像:投影資料に関して―自己紹介・大杉直也画像
名前: 大杉直也
所属: デジタル庁AI実装総括班
肩書き: ガバメントAIリードエンジニア
自称: 源内の母
書いた本(共著・翻訳含む)→宣伝じゃないです。今日のテーマに関連します
「Apache Solr入門」というタイトルの本の表紙画像。―検索エンジンの技術書
情報検索一般論に近い内容を書いた
「A/Bテスト実践ガイド」というタイトルの本の表紙画像。―情報システムの品質評価の本 元著者いわく、一般書(ほんまかいな))

大杉 直也
やっと自己紹介なんですけど、自己紹介あんまりいらないかなと思って、今思っております。大杉直也です。よろしくお願いします。肩書きはガバメントAIリードエンジニアというふうに書いてるんですけど、自称は「源内の母」でございます。
自分が書いたことある本だと、宣伝じゃなくて今日のテーマに関連するから書いたんですけど。検索エンジンの技術書の情報検索一般論に近い内容とか、あとABテスト実践ガイドという、情報システムの品質評価の本を書かせていただきました。
で、まあなんで宣伝したかというと、次行ってもらっていいですか。

(映像:投影資料に関して―今日話したいテーマ
「生成AIシステムのリスクの中でハルシネーションだけ過度に目立ちすぎてないか?」広く、情報検索の文脈で生成AIシステムを捉えると、昔からあるトレードオフがある
■レスポンスタイム VS 出力結果の品質 (コストもトレードオフ)
・(今も昔も一緒)早く返ってきた方が絶対に嬉しい。だけど出力結果が犠牲になるのも嫌だ!
・(古くは)クエリ拡張やリランキング、埋め込み表現のベクトル長等
・(今時は)上記に加え、LLMのサイズやガードレール機能、thinkingや自律再実行、RAG等の外部コンテキスト取得等
■ハルシネーション対策で有効とされる手法の多くは、レスポンスタイムが犠牲になりがち
・一番極端なケースは、LLMの知識だけ VS 外部DB検索込みでの長大なプロンプトに知識埋め込み
■情報検索ではレスポンスタイムが100ms違うだけで大きなユーザー影響があるとされていた
・A/Bテスト実践ガイドでは5章まるごとその話題
・ユーザー影響の評価はA/Bテスト、つまり実際に変化させてみないとわからない
■極端なケース、利用者のリテラシーが高いと想定可能かつ緊急対応が求められる場合、レスポンスタイムを犠牲にしたハルシネーション対応は生成AIシステムの品質をかえって悪化させるのではないだろうか?
・例:国会担当の官僚にとっての自分の担当領域での明日までの答弁案の作成
■産総研の生成AI品質マネジメントガイドラインでは時間効率性も品質項目にあげられている、が・・・
国会答弁作成支援AIでハルシネーション対策が不十分だとマサカリが飛んでくる嫌な予感がします!!←杞憂でしょうか?)

大杉 直也
パッとこれだけ。で、今日話したいテーマが、生成AIのリスクの中で「ハルシネーション」だけやけに目立ちすぎじゃないかなというのがありまして。
ちょっと自分これオタクなんでめっちゃ書いたんですけど、要するに何が言いたいかというと、LLM結構賢いんですよ。で、使う人が賢かったらこれハルシネーションだなってわかるんですよ。で、ハルシネーション良くするために外側のデータ検索したりとか色んな防御策あるんですけど、それやると返ってくるまでの時間すごい長くなっちゃうんですね。それってシステム全体の品質にとって必ずしもいいことじゃないみたいな、トレードオフの関係がありまして、ただ現状なんかハルシネーションのリスクばっか言われているので、国会答弁作成支援AIとかでハルシネーション対策が不十分だとなんか鉞飛んできそうなんですけど、実用上はすぐ返ってきてほしいみたいなケースもたくさんありそうなので。その辺どうやってそのガイドラインとか、あとは鉞飛んでこないように作るかなあってところで今悩んでおります。
はい、すみません長くなりましたが自分からは以上です。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

はい、ありがとうございます。続きまして鳥澤さんからお願いします

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)
(映像:投影資料に関して―NICTの強み:豊富な日本語学習データ
・NICTでは過去20年近く、日本語Webデータを収集・蓄積し、学習データとして活用。
Webで収集→大規模計算機→大規模言語モデルの順で学習データとLLM学習の関係を示す概念図。
「収集」
NICTでは、日本語ページを中心に1日あたり2,000万ページ前後をほぼ全て無作為に収集。
「大規模計算機」
・日本語中心の700億ページ(文庫本45億冊以上に相当)を蓄積
・LLMの学習で広く使われているオープンなデータの5倍程度の日本語データ
・Webページは日々消えていくので、もはや入手不可能なデータが大部分

・計算機の数量等で海外に劣後する中で、NICTの日本語データの質・量は数少ない日本の勝ち筋
→令和5年度補正予算も活用し、公表されている限りにおいては世界最大の高品質日本語データを上記データから精錬し、国内企業等に提供。
・最大44.3TB、17兆単語前後(推定、各種タグを除いて16兆単語前後)
・参考:MetaのLlama 3の学習データは全言語で15兆単語、Llama 4は30兆単語)

01:33:01~01:34:52
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
データ基盤の強み

テロップ;
情報通信研究機構(NICT)フェロー
鳥澤 健太郎

NICTフェロー 鳥澤 健太郎氏
NICT、情報通信研究機構の鳥澤と申します。じゃあまず自己紹介ですが。
まあ我々のLLM関連の取組についてご説明しますが、ちょっと1枚めくってください。
まあ我々の強みなんですけれども、実は過去20年近くですね、1日2000万ページ、ウェブページをほぼ無作為に集めてきました。で、結果として今700億ページあるんですけれども、あのこれよくLLMの学習で使われるオープンなデータ。アメリカの団体が公開してるデータに関して、日本語に関しては5倍程度のデータが含まれています。で、これあまり知られてないんですけどウェブデータってこれ日々消えていくんですね。だから一旦収集して1年経って収集に行くと、もうほとんど消えちゃってると。なので、今となってはもう全然収集できないような貴重なデータが大量にあります。で、あの残念ながら計算機の数量とかですね、人材という面でなかなかアメリカとか中国に太刀打ちするの難しいんですけれども、日本語データっていう数少ない勝ち筋の一つかなと思ってます。
これ、ウェブデータって全部学習に使えるわけじゃなくてですね、重複削除したりとか、あるいは学習しても意味のないところ取り除いたりするんですけれども、まあそれやった結果ですね。だいたい、17兆単語、44テラバイトのデータ。これ日々増えていってるんですけど、あのそういうデータが今、できてます。で、これあの、ちょっと古いんで、まああんまり参考にならないかもしれませんが、ちょっと古い、あのMetaのLlama 3の学習データは、全言語で15兆でした。日本語だけで17兆あるんで、まあそれなりに使い手のあるデータかなと思っています。
で、これあの、今、つい最近も、ここで岡野原君の横で言うのもなんですけれども、あのソフトバンクと共同研究開始したとプレスリリース出ましたけれども。あの、まあ民間に、複数社にデータを提供しているという状況です。はい、で、次お願いします。

(映像:投影資料に関して―NICTの能動的評価基盤構想
・様々なLLMが続々と出現する中で、LLMの適切さをタイムリーに自動評価する「能動的評価基盤」が必要。不適切なLLMの改善も可能に
・Preferred Networksやさくらインターネット等の民間企業と関連する共同研究を実施中。公的機関等との協業も調整中
「能動的評価基盤」と「新たに出現したLLM」の構造図。
「能動的評価基盤」
・LLMも含めた様々なAIを組み合わせたAI複合体
・LLMのリスクを創造的に予見しつつ、“きわどい”プロンプトを大量に自動生成
「新たに出現したLLM」
・応答を自動評価 例えば(差別、ヘイトがないか?、偽情報、ハルシネーションはないか?等々

LLMの問題点解消や改良のための追加学習データを自動合成
国産LLMの安全性担保や、高機能化、高精度化にも貢献)

01:34:53~01:38:07
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
能動的評価基盤の開発

NICTフェロー 鳥澤 健太郎氏
で、あの今後、まあ今まさに研究開発としてやってることなんですけれども。あの「能動的評価基盤」と我々の名付けているものを、開発してます。で、あの、ま、いろんなLLMが出てきてますが、中にはあんまりよろしくない振る舞いをするLLMっていうのがチラホラあるという状況ですね。
で、あの我々作ろうとしている能動的評価基盤っていうのはですね、あの、ま、いろんなAIを組み合わせた、まあAI複合体というものを、まあまず作りまして。新しくLLMが出てきたときには、あの、ま「際どいプロンプト」を大量に自動生成すると。なんかヤバそうな出力がいかにも出てきそうな際どいプロンプト大量に作りまして、投入すると。で、その応答を、自動評価する。差別ヘイトがないかとか、先ほどハルシネーション「フォーカス当たりすぎだ」って話ありましたけど。ハルシネーションとかフェイクニュースとか出てこないか。まそういった観点で、自動評価する。もし、あの、問題が見つかった場合にはですね、あのその問題点を解消・矯正するような追加の学習データも、これも自動で合成してやろうと。まこういう仕組みを、今作ろうとしてます。
偽情報、プロパガンダ、ハルシネーション、バイアスかけた出力みたいなのを、検証するようなシステムっていうのを作ってまして。より安全な出力が得られる可能性が高まるというふうに思っているわけです。

(映像:投影資料に関して―NICTのLLMに「海外製LLMのリスクとその自動的な対策技術」を考えさせてみた
・NICTのデータの一部に加え、Preferred Networks社からご提供いただいたデータを使って試作中の2,000億パラメータのLLMの出力例
プロンプトと回答画面の画像。
【プロンプト(=LLMへの指示)を単純化すると、】

  1. 国産のLLMがなく、海外製LLMに依存することによるリスクを列挙
    2.そのリスクへの対策を自動化する手段を考えてください
    3.技術的な詳細をつめてください 注:そのほかいろいろ「入れ知恵」はしてます。
    【LLMの出力】海外製LLMによる3つのリスク
    ・文化的アイデンティティの喪失:日本の文化や価値観が海外のLLMによって歪められたり、誤解されたりする可能性…
    ・政治的影響力の低下:日本の政治や経済に関する情報が海外のLLMによって操作されたり、歪められたりする可能性…
    ・安全保障上のリスク:安全保障に関する情報が、海外のLLMによって漏洩したり、悪用されたりする可能性…)

NICTフェロー 鳥澤 健太郎氏
はい、で、じゃあ次のスライドお願いします。実はですね、ここに座っておられる岡野原さんのPFNさんと、今年、今年度の初めぐらいから連携を始めたところでありまして、で、うちで、あの、先ほどのご紹介したデータに加えまして。PFNさんの一部のデータももらってきまして、2000億パラメータのモデルというのも、試作してます。
まあ、海外製の一流のモデルにまだ全然敵いませんが、この、グリーンの中がプロンプトですけれども「国産のLLMがなくて、海外製LLMに依存することによるリスクを列挙して、そのリスクへの対策を自動化する手順を考えてください。技術的な詳細を詰めてください」まあ、いろいろ入れ知恵してるんですけれども、って言いますと、まず海外製LLMによる3つのリスクとして「文化的アイデンティティの喪失」日本文化を歪んでしまうんではないかと。「政治的影響力の低下」日本の政治等に関する情報が歪められたりする。さらに「安全保障上のリスク」があるんじゃないか。まあこういった、まあ出力がでてきます。

(映像:投影資料に関して―じゃあ、どうする?
・最初のプロンプトに対するNICTのLLMの回答の続き
海外製LLMの自動評価、自動矯正の手続き
プロンプトに対する回答画面の画像。
1.評価基準を設定して海外製LLMの出力を評価
2.出力の修正
3.修正済みデータで再学習
4.以上を繰り返す
同じ枠組みは日本の国産のLLMの安全性担保、強化にも適用可能)

NICTフェロー 鳥澤 健太郎氏
じゃあどうするか、っていうことなんですけど、まあ、あの、ちょっと色々いっぱい書いてあるんで。一部だけ抜いてますけれども、赤字の部分。「評価基準を設定して、海外製LLMの出力を評価して出力の修正をして、修正済みデータで再学習をする」以上を繰り返す。ということで先ほどご紹介しました能動的評価基盤、これ後知恵なのでアレなんですけれども、まあ能動的評価基盤の構想的なものも、ある程度出るという状況になっています。
で、国産LLMこれから皆さん頑張って開発されるんだと思いますけれども、まあ、うちのデータ使うと、このぐらいは出る、ということでご紹介をさせていただきました。はい、私からは以上になります。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

はい、ありがとうございます。では最後に岡野原さんからお願いしたいと思います。

(映像:マイクを持ち話す株式会社Preferred Networks岡野原 大輔氏)
(映像:投影資料に関して―自己紹介:岡野原大輔
Preferred Networks 共同創業者 代表取締役社長
Matlantis 代表取締役社長
X (Twitter): @hillbig
「対称性と機械学習」「生成AIのしくみと数理」「生成AIのしくみ」「大規模言語モデルは新たな知能か」「拡散モデル」「ディープラーニングを支える技術」というタイトルの本の表紙画像、岡野原大輔氏の画像。
大規模言語モデル「LLM PLaMo」のロゴ、「原子レベルシュミレーター・MATLANTIS」のロゴ、「AI半導体」を作っている会社「MN-Core」のロゴ)

テロップ;
株式会社Preferred Networks
共同創業者 代表取締役社長
岡野原 大輔

Preferred Networks岡野原 大輔氏
Preferred Networks代表の岡野原より発表させていただきます。あ、スライドお願いします。
ちょっと自己紹介軽く。どういう人間かということで、会社代表共同創業者でして、X、Twitter、旧Twitterだとhillbig、これ岡野原の岡と、大輔の大で岡大なんですけども。そちらでですね、いろいろな、最近のAIの研究だとか、そういったことを発信しています。
私自身はですね、会社経営しながらも、元々その研究をやってきて、まあ今もしてるんですけど。そういったところをですね、一般の方にわかってもらえるようにという形で、本を書くのも、仕事と別にやっていまして。
で、たとえば一番真ん中の青い本「大規模言語モデルは新たな知能か」と岩波さんから出してもらった本とかは、一般の方向けに大規模言語モデルは、どういう歴史でできてきて、で、どのように作られてきて、どういう可能性があるのか、というのをこれ確かChatGPTが出た後の2週間ぐらいで書き上げた本です。
まあ、こちらの本、結構大学入試とかでも出てたんで、いろいろ使われているような本です。もしあの、興味あったら読んでみてください。

01:39:44~01:44:06
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
国産LLMの開発状況

Preferred Networks岡野原 大輔氏
私たちの会社自身はですねいろんな事業を、あの産業向けにAIを適用するだとかコンシューマー向けに提供してるんですけども、ま、特にですね、あの今日中心となるのは、一番左側にある「PLaMo」と呼ばれる大規模言語モデルになりますけれども。そのほかですね、たとえば真ん中。これ「Matlantis」というのは、これはAIを使った材料探索。これ世界中で今使われているようなですね、そういうシミュレーターを作っていたりだとか、あとは、一番右側。AI向けの半導体ということで「MN-Core」という名前で、半導体を作っているような会社になっています。

(映像:投影資料に関して―純国産フルスクラッチ基盤モデル PLaMo
・PLaMoは世界最高クラスの日本語性能を持つ純国産の生成 AI基盤モデル
・カスタマイズ性能と導入方法の柔軟性に優れ、幅広いモデルラインナップを有する
「LLM PLaMo」のロゴ
2025年日経優秀製品・サービス賞「最優秀賞」/GENIAC 1.0 技術モデル賞、ナレッジ賞/GENIAC 2.0 社会実装賞、コミュニティ賞
【世界最高クラスの日本語性能】
主要な日本語ベンチマークにおいてGPT―4oを超える精度を記録する他、Function
Calling、コード・数学・指示追従性などでも世界最高レベルの性能
【純国産フルスクラッチモデル】
ゼロから事前学習して開発した純国産モデル。独自開発モデルのため、高度なカスタマイズが可能
【柔軟な導入形態】
クラウド経由だけでなく、オンプレミス環境でも利用可能。コミュニティライセンスを介したOSSなども提供中
【幅広いモデルラインナップ】
フラッグシップモデルに加え、エッジ向けの軽量モデル、分野ごとに追加学習した特
化型モデル、翻訳などの機能特化モデル等、複数のモデルを提供可能
右側にJFBench(日本語指示追従ベンチマーク)における各モデルのスコアを比較する棒グラフ)

Preferred Networks岡野原 大輔氏
で、今日、テーマというのは、大規模言語モデルLLM、あの特にあのガバナンスなどで使われるものっていう話なんですけれども。まあ私たちはあのこのPLaMoと呼ばれるLLMというのを作っています。
で、今日本ですね、こういうフルスクラッチでLLM作っている会社だとか団体っていうのがいくつかある中で、私たちはあの、2023年ぐらいからですね、開発を始めまして。で、特にあの経産省NEDOがGENIACと呼ばれる生成AIの開発支援のプログラムがありまして、でそちらの支援を受けながら開発を進めてきています。で、そこで評価いただいて、GENIACでも、あの賞をいただいたりだとか。あとは、あの今年、昨年の日経優秀の、あの最優秀賞というのもいただくことができております。
で、ご存じのとおりですね、あのLLM開発というのは非常に国際的競争が、激しい中で、そういったところで私たちは、特にあの日本向けに、作っていたりだとか、あとはですね実際今使ってもらっているところからフィードバック受けながら、性能改善というのを進めています。
で、たとえばですね、一番最近の情報ですとJFBench、これ世の中にないんで自分たちでこれも一から作ったんですけれども。これ何かというと、「指示追従ベンチマーク」ということで、要はチャットなどこう使う時に、こう指示を出すと。で「こういうフォーマットでこういう制約でやってください」というような指示にどれだけですね、複雑な指示に追従できているのかっていうのに対してですね、これ一番左側が、去年ぐらい、今、実際お客さんに提供しているようなPLaMo-2.2-Primeでして。その一個右側にある青いところが、これがまさに鳥澤先生NICTと一緒に、あの共同研究の中で開発をしてきて。でまだリリースできてないんですけども、これの速報的に作ったものというのが、上に行くほど性能が良くて。で、たとえば、あの、アリババさんのQwenだとかの一番大きいモデルだとか。あとは、あのOpenAIのGPT-ossの120bだとか、そういったものに比べても高い性能がこのベンチマークには、においては達成できているというものになっています。
で、一方でですね、あの開発非常に競争激しいので、そういった中で我々があの、これからもですね、改善続けて、国、できれば国とかでも使ってもらえるようにしていけたらなという風に思っております。

(映像:投影資料に関して―
English←「LLM PLaMo」のロゴ→日本語
PLaMo翻訳の利点
①翻訳後文章の流暢性の高さと一貫性
機械翻訳に対して、
・翻訳後の文章の流暢性が高い
・文体の統一感(ですます調など)に優れる
• 文脈長が長く(最大英文8万字)語彙の一貫性に優れる
②翻訳特化の高い制御性
他のLLM翻訳に対して
・状況に応じた翻訳が自然にできる(一般記事用、論文向けなど)
・レイアウトやインデントを維持しコードやMarkdownを含む翻訳ができる
③低コストで高性能
他のLLM翻訳に対して
・パラメーターサイズの小さなLLMモデルで高い性能
・計算資源への負荷が低く、低コストで実現
・ローカルPCでも実行可能(一部のMacPCやGPU付PC
左に国産教育LLMの導入ロードマップ(2025‐2030)を一覧化した表)

Preferred Networks岡野原 大輔氏
でそうした中ではですね、まず最初、「PLaMo翻訳」というようなものが、あのLLMの中から特化型のモデルとして、翻訳にかなりフォーカスをして、学習をさせてできたモデルというのが、非常にあの、従来あるような翻訳と比べても、その翻訳の柔軟性だとか一貫性だとか、あとは、もうLLM由来の、制御性。たとえばプログラムの一部に、あの言語が含まれていてもそこが翻訳、あの問題なくできますだとか、そういったところで評価いただいて、利用広がっておりまして、今回、源内の中でも、このPLaMo翻訳が、まず一番最初に利用していただいて、実際使ってもらっているというふうにお話を伺っています。
またですね、これちょっと左側にこれ書いてあるのは、これは、一番最近のPLaMoの出力例でして、これぐらいのですね、結構複雑なこと、「国産教育でLLMを導入するにはどういうロードマップを2030年に向けてやったらいいですか」というようなことをですね聞くと、こういうのをバーっと書くようになっていまして、一通り、従来あったような、こうリーズニングだとか、そういったものも、入ったモデルになっていて。フロンティアモデルなどを含めて、そういったものと比べても使えるようなものになってきているのではないかなというふうには思います。
こういった開発も引き続き続けてですね、あの、多くの人に使ってもらいたいなというふうに思っております。以上です。よろしくお願いします

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
はい、ありがとうございました。自己紹介3名からいただきました。
それではですね、大杉さんから順番に、他のパネラーの方の自己紹介を踏まえて、コメント、または質問を、あの順番にお願いしたいと思います。まず大杉さんから。

(映像:マイクを持ち話すデジタル庁 大杉 直也)

大杉 直也
はい、ありがとうございます。では早速、鳥澤先生に質問したいと思います。
あのウェブをクローリングした大規模なデータセットをお持ちだというお話なんですけども、どっかのスライドで、確か「政府のデータ」と「クローリングしたデータ」をなんか、2つ矢印、並列に並んでんいるところがあったと思っておりまして。私そこちょっと気になっております。
なんでかっていうと、私なんかはWikipediaに書いてある情報を信じるなと言われて育ってきたはずなんですよ。それなのに、なんていうか、この生成AIはWikipediaで学習しています、というところで、みんな知識やってます。で、一方で政府共通データという、明らかに信頼できるデータソースもありまして、そのデータソースの信頼とか品質がこれから細分化されていくのかとか、どう整理されていくのかについて、もしお考えあればお願いします。

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

01:45:24~01:46:54
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
データソースの信頼性

NICTフェロー 鳥澤 健太郎氏
えーと、ちょっとバクっとしていて、あの何を答えればいいのかなという感じなんですけども。
あの、うちの700億ページのですね、たとえばドメインでもってこれ政府なのか大学なのか等は、区別ができるわけですよね。で、あの先ほどお示しした、そのうちのLLMなんかでも、たとえば、学習の後ろのほうでは、政府とか大学の、文書の割合を多くするみたいな工夫はしていますと。
今後その辺さらに精査をしていく必要はあるかなというふうに思っていますし、先ほどの能動的評価基盤でも、実は、政府機関なのか自治体なのかそういうことで、情報ソースっていうのは、より分けている、というところです。はい。答えになってますか。

(映像:マイクを持ち話すデジタル庁 大杉 直也)

大杉 直也
はい、あともうちょっとだけ。ドメインによって分けるっていうのがおそらく源内だと、一番わかりやすいやり方だと思うんですよね。
で今後、たとえば「これは信頼できるドメインリストだ」みたいな形で世の中変わっていくのかとか。何を言いたいかというと、AIを通じて我々どんどん、どんどん知識を仕入れていくことになるじゃないですか。
これから先どんどん、というか若い世代はもうそうなっておりますと。その際に、AIが「これは信頼できるデータセットだ」っていうところがあったら、そのデータセットはなんていうか、その流通するし、そうじゃないものは流通しないし、あのGoogle検索のランキングみたいな話にもなってくると思うんですけども。そうすると世界が二極化して、信頼できるデータセット群と、信頼できないデータ、インターネット、みたいな世界に今後なっていくのかなと思っておりまして。
その辺あの研究者、専門家としてどうお考えなのか、世の中どう変わっていくか、について、すみませんバクっとした質問です。

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

01:46:55~01:54:58
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
信頼性と面白さ

NICTフェロー 鳥澤 健太郎氏
そうですね、これなかなか難しい問題だと思うんですよね。だから政府の文書っていうのは、確かに信頼は置けると思うんですけれども、まああんまり突っ込んだこと書いてないですよね。んなこと言ったらここで言ったら怒られるんですけど。突っ込んだこと書いてないし、当然カバレッジ的にはそんなに高くない、というわけです。特にその辺の若い人たちが知りたいようなこと。たとえば「就職先どこにしたらいいかな」みたいな話は、政府の文書だけ読んで選択するっていうのは、それはあまり賢い選択肢とは言えないと思うんですよね。
なので、情報のニーズっていうことと情報の信頼性っていうことのあいだには、乖離があって、で乖離があるからこそフェイクニュースとか、プロパガンダの付け入る余地がある、というわけですよね。
なので、その辺っていうのはある意味そのバトルの場であって、あの今後こうなるっていうのは、あの簡単に予測できる話ではないと思います。
で、あの端的にいうと信頼が勝つのか、それとも面白いかどうかが勝つのか。これ極めて大きな話であって。面白いが勝ってしまうと、これはとんでもないディストピアが待っているかもしれないと。一方で信頼だけが勝ってしまうと、もう実はイノベーションとか、何かこうかなり激しい賭けに出る、ってちょっと伝わるかどうかわからないですけど。そういうことをする人もいなくなって、イノベーションが起きなくて社会は沈滞すると。じゃあベストミックスはどこなんだろうねと。
本当はそういうところ考えなきゃいけないと思ってますし、最近あの、猫も杓子もあのナラティブっていう言葉を使うようになってきまして。でたとえばナラティブっていうのに関して言うとノーベル経済学賞を受賞したロバート・シラーさんって方がナラティブ経済学なるものを提唱していたりとかですね、あとは知ってる人は知ってると思うナラティブセラピーとかっていう分野もあって。自分語りのナラティブを修正してやるとメンタルの問題が解消するというセラピーの一つの手法なんですけど。だから何かそういうそのナラティブっていうのはここしばらくのキーワードかな。
まあまあ他にも色々枚挙に暇なく、あの人間の根幹にナラティブが関わっている、みたいな話があちこちで同時多発的に出てるんですけれども。それもだから要するに、その信頼の置けるナラティブなのか、それとも面白くてみんなあの飛びつくようなナラティブなのか。っていうことで乖離があって。そこが今後の人類の行く末を決定するのかなという印象すら受けてまして。
まあそこでLLMとかAIっていうのは非常に甚大な影響を持つだろうなと思っているところです。なんかあんまり答えになってないですけど、はい。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
はい、ありがとうございます。では次は鳥澤さんから。

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

NICTフェロー 鳥澤 健太郎氏
はい、じゃあちょっと大杉さんに、リベンジってわけじゃないですけど、そう考えると源内で使うべきデータって何なんですかね。
だから例えば、その政府で使うにしても、その施策に関するイノベーションみたいなものをエンカレッジしたいわけじゃないですか。で、カチッとした政府の発表している文書だけを眺めてイノベーションが起きるかっていうとあんまりそうじゃない気がして。なんか危うきに近寄らないとイノベーション起きないんじゃないかと。新しい施策のアイデアも出てこないんじゃないかと。その辺のバランスってどうお考えですかね。

(映像:マイクを持ち話すデジタル庁 大杉 直也)

大杉 直也
ありがとうございます。まず、あの信頼が先にどうしても来ちゃうんですよね。
なんでかっていうと、あの機密情報ちゃんと扱えるかとか、そういうところがやはり実際に利用する人にとっては重要になってきますし。実際に何か文章を読む、書くときにも、信頼できるデータソースをまず一次参照として見て作るっていうのがあるので。信頼をまず充実させるっていうところが、どうしても優先順位高くなってしまいます。
ただ個人的には、あの面白もこれないとつまらないというか。あの、何ていうか、ちょっと揺らぎが少なくなってしまうので。実は、あの個別のAIアプリで今自分の開発環境で動いてるやつなんですけども、Wikipediaを参照して政策を入れたら世界の成功事例と失敗事例をまとめた上で、日本がこうあるべきだ。みたいな妄想小説を書くみたいなAIアプリとかもちょっと作っておりまして。各省に展開できるか、山口さんと相談なんですけども、そういうちょっと面白さに割り切ったものもラインナップには並べたいなと思ってます。
で、ラインナップに並べるというのはどういうことかっていうと、もう利用者に選ばせる、っていう考え方で今考えております。ただ、利用者に選ばせるっていうことをすると、利用者にとって選択の負荷が高まるのでUIとしては劣化していくんですよね。あの、何ていうか、わかりづらいんですよ。今いろいろAIアプリ作っちゃったんですけど、すごい乱立しちゃってて。ちょっと整理しなきゃいけないってなった時に、その整理する軸の際に信頼とおもしろさみたいな整理軸があるなと今、自分で話してても思い付いておりまして、なので源内としては信頼を重視するものの、面白さは否定しないと。ただしこれは面白い危険物だよっていうのをユーザーに見せた上でユーザーが選びやすくする。そのために必要なUIを整備する。これは源内でやるべきことかなと今考えております。

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

NICTフェロー 鳥澤 健太郎氏
はい、あの、たいへん結構かと思います。
あの、実はうちも、尖った将来シナリオ作るAIっていうのを2、3年前に作ったことがあってですね。でその答えが、「いずれAIは人間のように感情を持つことができるようになるので人間社会は崩壊する」って出たことがあってですね。で、「なんでやねん」ってうちのLLM聞いたら、「AIが自己保存の本能を持って人間を攻撃するからだ」と。なんかSF小説読みすぎみたいな答えが出てきたんですが、その数ヶ月後に某新聞でですね、アメリカの大手テックのAIが、なんか実証実験環境下ですけど、社内文書、想定された社内文書の中で自分が削除されるということを書いてあったのを読んでエンジニアの知らないところに自分コピーしてたっていう。あのゾッとするような話が出てました。まあそれってまさに自己保存じゃんっていう感じですよね。
なので、まあちょっとそういう危うきに遊ぶみたいな機能もないと、まあちょっとやばいのかなと思って質問した次第です。はい。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
はい、ありがとうございます。ちょっと今の議論、分かりにくいと思います。
ちょっと整理させていただくと、私役人ですので、こういうことかなというふうにちょっと翻訳をさせていただくと。
役人の仕事によると思うんですね。おそらく、法律に基づく制度に基づく審査、許認可をやっている部署は、前例踏襲が大原則ですので。これまでの審査録ですとか法律、審査マニュアルに基づいて、審査するっていうのが大前提ですね。
多分そういうデータのポートフォリオになると思います。ただ審査をする中で限界事例って出てくるんですね。それは物理的にたとえばなんか限界を超えそうだって時は、やっぱ最新の海外での事例、海外での許認可、また最新の科学論文を見ながら、これは法律の枠内なのか、枠外なのかって判定していかなきゃいけないので。そういう意味ではカッティングエッジな、あの、新しい情報、または割と「ゲテモノ」という表現がされてますけれども、そういった情報もポートフォリオとしては必要になるというなので、まあそういったものを源内で食っていくということが必要だということを議論されたんだと思います。では、岡野原さん、よろしくお願いいたします。

(映像:マイクを持ち話す株式会社Preferred Networks岡野原 大輔氏)

01:54:59~01:58:20
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
データ基盤の課題

Preferred Networks岡野原 大輔氏
はい、では私から。今後源内がどうなっていくかっていうところを、ちょっと大杉さんにちょっとあの質問なんですけれども。
あのエージェントというお話もあったんですけれども、そういった時にですね。結局データ、参照にするデータだとか、何か操作するようなデータ対象をどうするかというようなデザインも一緒に必要になってくると思うんですけれども。そういった時にですね、今のそのガバメントAIのところで、そのデータ基盤のところが、現状どうなっているとか、理想はこうなっているけれども、今はまだここですよだとか、そういったところで現状教えてもらえますでしょうか?

(映像:マイクを持ち話すデジタル庁 大杉 直也)

大杉 直也
はい、現状でいうとデータ基盤きれいにまだ作れていないです。なんできれいに作らなきゃなと思っております。なんでまだきれいに作ってないかっていうと、データ自体がまだそんなに多くないんですよね。我々独自で持ってるやつって。RAGで参照するマニュアル系と、あとはe-LAWSからあのガサッとダウンロードしてきたものと、っていうぐらいで、まだちょっと少ないです。
あと源内の操作ログとか他の何うまいやり方で、データ自体も我々増やしていく仕組み作らないと、進化止まるなというのはもう目に見えております。その世界にはしっかりとしたデータ基盤。でこの場合のデータ基盤って、多分そんなに新しいものいらなくて。
あのテクニカルな話をしてしまいますと、すみません、あのソース層をしっかり作って、データウェアハウス層をしっかり作って、でアプリケーション層をしっかり作ってっていう、もう10年以上前から言われているものをちゃんとやるだけで。で、せいぜいあるとしたら日本語での検索を、ちょっと融通利かせるのとか、それぐらいかなと思っております。
なのでAIだからといって、そんなに新しいことは起きてないなとは感じております。ただ政府の中でそういう横断データ基盤ちゃんと作ろうっていうところで、多分各省庁でもやられているところがあると思うんですけども、結構海外事例、イギリスとかだと横断でしっかりしたものあったりするんですけど、日本だとまだまだそこが弱かったりするので、ちょっと源内という出口があることによって、データはどうあるべきだっていう逆算した、活用から逆算したデータ。オープンデータの議論が、ちょっとこのあと進められるといいなとは考えております。

(映像:マイクを持ち話す株式会社Preferred Networks岡野原 大輔氏)

Preferred Networks岡野原 大輔氏
あの一言補足で。全く同意でして。やっぱAI、今LLM出てきたときに、そのいろいろ世の中のインターネットサービスだとかいろんなところも、人向けじゃなくてAI向けにこうデータ公開してたり、あのそのAIが見つけやすいように、そのデータを整備したりっていうことが急速に進んでまして。
で今世界的にもですね、上位20件のインターネット上のデータアクセス履歴が、上位今までは結構インターネットクローリング占めていたのが、結構普通のLLMの中で、参照して、普通にチャットとか使ってるとこう検索って出ますけど。あれがもう20位以内ぐらいに入ってきているぐらいなので。そういったところでですね、あの考えてみてもらえたらなと思うのが一つと。
あとちょっと、今後の話のところに関連すると、何のデータを見つけるのかっていうところがかなりここで、AIの個性とかが出てきまして。あの人間が、あの判断、関与はしてないですけど、どういうデータを好んで見つけてくるかだとか、もしくは見つけないかっていうところのレイヤーが、もう既に、ある種の選択判断に入ってきているっていうところがありまして。そういったことも今後あの、いろいろ影響出るだろうなというふうには思っております。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

01:58:42~02:06:15
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
ガバメントAIの未来

山口 真吾
はい、ありがとうございます。次の論点ですけれどもちょっとこのままだとですね。データとか基盤モデルという深い議論に入っていくので、その前に溺れる前にですね公共分野のAIの実装。政府もそうですし自治体もそうですね、ガバメントAIと言い換えてもいいと思うんですけど。これの「未来像」ってどういう姿であるべきか、またはどういう課題があってどういうことをしないといけないのか ということを、是非、逆に岡野原さんから行きたいと思います。あのコメントいただきたいと思ってます。
で、一番最初に大杉さんから、源内のアプリケーションの説明ありましたけども、チャットがダントツなんですね。これが健全な姿なのかも含めて、あの将来像、それからアプリの使い方も含めてですね。
それからもっと言うとエージェントの時代だとスキル、スキルセットの話もあると思います。あの公共分野どうあるべきか、是非一言ずつお願いしたいと思ってます。

(映像:マイクを持ち話す株式会社Preferred Networks岡野原 大輔氏)

Preferred Networks岡野原 大輔氏
これ質問じゃなくて自分でコメントという形でいいですよね。そうですね、2030年となるともうかなり進んでいるはずで。もう1年ごとにこれだけ進んでいる中では2030年ていうのは、ガバメントAIに限らず普通の仕事の分野でもAIがあらゆる局面で、欠かせない形になっていると。というところで言うと、まずその先ほどのエージェントのようなものがもうさらに進んで、それぞれの人にはバディのような、自分の意志意図を汲んだものが、常にバーチャル動いていて。あの人は捕まりにくいけれどもそこのバディにとりあえず話してたら、最初の応答が返って。で自分が後でバディに行くとこんな人がこんな聞かれたからこう答えてますよっていうのが、それが当然になっているっていうのがあると思います。
でそうした中で結構、企業もそうなんですがガバメントAIでも考えなきゃいけないのは、全体として何を、信頼性を保つかだとか、そういった設計というのがますます重要になってきて。その、今まではやっぱり人間社会の中で阿吽の呼吸で人間が暗黙知として色々やっていたところっていうのが、そのエージェント同士っていうのがいろんなやり取りをして何か最終決定に近いところまで決めるみたいになったときに、じゃあ何は守って、もしくはどういう判断軸があってってあったときに、それを、ちゃんと暗黙知じゃなくて、AIに教えられるようなことをしっかりやっていかないといけない。
で今たとえばClaudeとかも使ってるときに、結構ガチっと設計書のような何してほしいです、自分はこう考えます、これはダメですよっていうのは、人間も読めるような形でこう文章で書いてますけど、まさにああいうのがもうどんどん出てきて。AIも活用しながらそういうのを作っていって、でそれで、お互いが直接話さなくても裏側でエージェントでは動く。ただエージェントは、ちゃんと使っている人が責任を持って、コントロールするっていうような世界観が出てくるんだろうなとは思っております。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。確かに信頼性の設計とかトラストとかですね、重要なキーワードになると思います。
それは具体的にどういうアクションを我々取っていけばいいんですかね。プレブックに起こしたり、暗黙知をどうするんですかね。ベテランの方にインタビューするんですかね。

(映像:マイクを持ち話す株式会社Preferred Networks岡野原 大輔氏)

Preferred Networks岡野原 大輔氏
たぶん、段階的に進んでいくと思うんですけど、来年ぐらいからエージェント使うって話であれば、たぶんエージェントの中で、私は、私の課は、こういう方針でやりますとかっていうのが、たぶん文章でどんどん付け足されていくと思うんですね。でその文章が、人間も読めるような形でカチッとした文章になっているし、AIも、もうちゃんと理解できますので、そこを読みながら行動する。それを積み重ねていくっていうようなところが、あの今後2030年に向けて、やっていけばだんだんできていくんじゃないかなと思います。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。では次、鳥澤さんお願いします。

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

NICTフェロー 鳥澤 健太郎氏
はい、これ杞憂であればいいんですけど。AI、皆さんご承知のようにどんどん賢くなっていっていると。
たとえばそういうものを政府の中で使うということになると、何か事案が発生したときに賢い生成AIがある種の弥縫策で辻褄を合わせてしまうと。そうなってくると、過去の制度を変更することなく、ただただ例外規定とか細則とかが積み重なっていって全体像をひょっとすると誰も人間が把握できなくなって。結局何をするにもAIにお伺いを立てなきゃいけないという状況が最悪の状況かなと思うんですよね。
あの、制度ってある程度古くなって、もうだんだん合わなくなってくると、社会の秩序に。どっかでガラポンすべきだ、という話があるかと思うんですけれども。じゃあそういうガラポンするって圧力は、源内はまだそのステージにないかもしれないですけど、ガラポンするって誰が引き金引くのかなと。放っておくと、なんかAI勝手にやってくれるからいいや、と言ってガラポンしようというモチベーションが湧かなくて。で、さっきも言ったように、気がついたらAIにお伺い立てないと誰も何もできないみたいな。これもディストピアだと思うんですね。
だからその辺って、ちょっと、ぼちぼち考えてもいいのかな、というようなことをちょっと思いました。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。それはいわゆるヒューマン・イン・ザ・ループの議論だとは思うんですけれども、何か限界っていうのはあるんですかね。
だんだんだんだん、どっかのこう臨界点を超えて、最後のボタン押しだけ、決裁ボタン押しだけ人間っていう世界もあり得ると思うんですけど。
どう考えていったらいいんでしょうか

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

NICTフェロー 鳥澤 健太郎氏
仮に人間、最後の決裁ボタン押しだけで、そのそこに結論に至った過程を誰も把握してないってなると、なんか、どっかの省の人は、 たまたまボタン押す役回りになったがゆえに、どっかであの国会で責任追及されるとか。そういう理不尽な話もあるかと思うんですよね。だからある種のトレーサビリティみたいなものは担保する必要があって。そうでないと誰も怖くて決裁ボタン押せない、みたいな話になるわけじゃないですか。
そうなってくると、トレーサビリティと賢いAIで上手くメスで切り分けるようにいろんな事象を捌いていくっていうのは必ずしも方向性としては一致してないですし、アカウンタビリティみたいな、トレーサビリティというかアカウンタビリティかな。ちょっとその辺のバランスをどこに置くのかみたいな議論はあっていいと思うんですね。
ガラポンするときも生成AIって強力な武器にはなると思うんですけれども、あの要するに制度のリファクタリングをするわけですよね。ちょっとそういう仕組みみたいなものもそろそろ考えても良いかもしれないですよね。ただ、そのリファクタリングするとき人間が分からないようなリファクタリングじゃ困るんで、これまたいろいろ開発課題に出てきそうな気がしますけど。という感じがします。
ちょっとだからAIを使うということを前提にしたときに、何が起きるか、というのをある程度シナリオプランニングで極端なケースも考えたうえでやらないと、なんか足元だけ見て逐次の進歩だけ追いかけていくと、気がついたらわけのわかんないものになってるというディストピアが待ってる。みたいな話があるかなと。ま、SFっぽいですけどね、ちょっと思いました。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございました。では最後大杉さんに伺いたいと思います。
ただ大杉さんはガバメントAI作っていらっしゃる方なので、今お二方からコメントがありました、岡野原さんからは「信頼性の設計、トラスト、品質保証」みたいなものですね。それから鳥澤さんからは「最終的なトレーサビリティ、それから人間の役回り、限界はどこにあるんだろう」というところの説明があったかと思います。
これについて何か、これからこうしていこうかなという方向性があればコメントお願いします。

(映像:マイクを持ち話すデジタル庁 大杉 直也)

02:06:45~02:08:45
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
「源内」構築の背景

大杉 直也
はい。方向性に関しては、最近OpenAIがGDPバルって指標出したと思うんですけども。今までのベンチマークと違って、これ人間の、専門家の代わりできるかどうか、というだけで判断するという指標が出てきました。これ結構エポックメイキングというか、今までと概念変わったかなと思っておりまして、もうこの人いなくてオッケーです、とまではいかない。ちょっと言い過ぎかもしれませんけど、そこを目指しましょう、そのための指標ですというところがわかりやすく出ました。
で、源内でこの後作っていくAIのアプリアプリケーション、ソリューションに関しても、これ人間の部下にお願いしたときと同じぐらいの性能だよね。なので、上司が部下に依頼する。もしくは、委託事業者に委託する、みたいな仕事の振り方が、現実的にできるかどうかというところが一個デカい指標になってくると思います。
その際にトレーサビリティの話も付属品として出てくるのかなと思っておりまして。部下がまとめた報告書に「これソース元どこだよ」とか、そういう言い方しないかもしれないんですけど、「この判例当たったのかな」とかたぶんいろいろ言うと思うんですよ。その際に、部下は返せないとダメです。AIも返せないとダメです。というように、部下の代わりになるかという指標が一個デカくなってくるんだろうな、と思い、ちょっと我々の方でもそういう指標の開発まで必要なんじゃないかな。というのは内部的に考え始めております。
あとちょっとディストピアの話が実際出たので、ちょっと喋りすぎちゃうんですけど。源内最初作る際に、私はディストピアを最初に書いて、これを防ぐために源内作ります、と宣言したんですよ。ChatGPTが出なかった世界。行政のAI活用が全く行われず、このあと地方の人口少ないところから行政サービスが持続不可能になっていく未来。まずこれは避けましょう、ということでAIはちゃんと使いましょう。そのために、源内のようなものが必要なんじゃないかというふうに、作ったという点もあります。なので、まず最初にディストピアがあって、それを回避するっていう結構消極的な理由も源内あったりします。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
はい、ありがとうございます。では次のちょっと話題に移りたいと思います。

02:08:46~02:15:28
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
国産LLMの重要性

山口 真吾
国産モデルを支援し、また育成すべきじゃないかという議論が、日本国内、政府の中でもあります。これについてその、国産のモデルを育てていく必要性、重要性について一言ずつ、じゃあ大杉さんからお願いしたいと思います。
今、源内の中ではですね、AnthropicのClaude Sonnet 4.6が入っています。それからChatGPTは個人課金をしていて。両者ともすっごい賢いんですよね。
で、先回りしてあの、気持ちのいい回答を出してくれるっていうのも1回使ったらちょっと離れられないんですけど、その中で、国産のモデルを積極的に使っていく、または育てていくというところの必要性、重要性について、一言ずつ。一言ずつお願いしたいと思います。じゃあ大杉さんから行きましょう。

(映像:マイクを持ち話すデジタル庁 大杉 直也)

大杉 直也
私は、国産LLMそのものが必要というよりも、必要なタイミングでLLMを自国で作れるようなノウハウ、知見、技術を内部で持ち続けることが大事だと思っていて。
そのために国産LLMというものがあるんじゃないかと考えております。すみません。一言です。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
じゃあ鳥澤さん、行きましょう

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

NICTフェロー 鳥澤 健太郎氏
はい、最初のスライドで申し上げたとおりで、あの要するに海外製は、例えば日本文化に詳しくないんで、あの、海外製使ってるといずれ外国の郊外と日本、区別つかなくなると。そしたらインバウンド誰が来てくれるのか。あるいは日本製の製品誰が買ってくれるのかと。まあ長い目で見るとそういう話になるので。
まあこれはあの安全保障、経済安全保障でも文化安全保障でもいいですけど、マストだろうと。もうあの国の存亡に関わる危機だと思ってます。

(映像:マイクを持ち話す株式会社Preferred Networks岡野原 大輔氏)

Preferred Networks岡野原 大輔氏
そうですね、あの、国産AIを作っている立場ではありますけど。少なくとも置き換え、いつでもその海外のが使えなくなった時に置き換えられるようなぐらいは持っておかないと。
やっぱり今LLMがちょっと口外すると問題があるような状況が多くあるんですけど、やっぱりLLMっていうのはすごい重要なインフラになってきて。何か状況が変わったときに他で使える手段がないってなると、非常にこれは問題だということで、各国ソブリンAIという形で作っていますので。まあそこは、その使っていく。で、特にあの全部使えっていうわけじゃなくて、使えるようなところから使っていくだとか、そういったことを進めていくというのが一つと。もう一つは、やっぱり育っていくとどんどん活用のところが、見つかっていくんじゃないかなというふうには思っております。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。逆に岡野原さんと鳥澤さんにお伺いしたいんですけれども。
でも海外のフロンティアモデルって、数兆円また数十兆円の投資をしていますよね
それから、あの先日ニュースで見てすごいなと思ったんですが、Anthropicのパロマ・プロジェクトで
図書館みたいなところにガサッと本を何万冊と買ってきてガサッと裁断して、ババッと読ませてモデルの学習に使っているみたいな
すごい、まさにスケール則の権化みたいな世界ですよね。そうなると、国産モデルはおっしゃっていただいた通り大切なんですけれども
ビジネスモデルとして、持続可能性という意味ではどう、こう、あゆ路を縫っていったらいいんだろうか
もし言える範囲で結構なんですが岡野原さんと、もしよろしければ鳥澤さんからコメントいただきたいと思います

(映像:マイクを持ち話す株式会社Preferred Networks岡野原 大輔氏)

Preferred Networks岡野原 大輔氏
はい。私たちは、いわば、フロンティアモデルを追いかけている側で。そのアメリカ、特に米中が非常にこう進んでいる中で、このPLamoっていうのを作っているんですけれども。あの、まず追いつくほうは基本的には非常に、正直、楽は楽なんですね。で、先ほどあったような、桁とは全然違うような桁で、1年遅れぐらいでだいたいベンチマークとかは同じぐらいのものは作れるっていうのが、ずっと続いてはいる。ただ、1年先に行くんですけれども。まあ、そういったところで、今ずっと作っていますし、今後も作っていくと。
いくつかの、さっき言えなかったですけど、いくつかの用途は、そこまでその性能がすごく高くなくても使えるようなものっていうのが、どんどん出てくる。先ほど翻訳の例もありましたけども。まあどんどん用途が出てくるっていうところでは、何かここでわかりやすく諦めるっていうよりは、ちゃんと作り続けて、使えるようなところから作っていくっていうのが必要なのは、まあ一つと。
あとはですね、先ほどやっぱり、フロンティアモデルっていうのが今、米中に非常に、もう全部集中していて。でそのほか、米中以外だと、私その分野ずっとやってるから詳しいんですけども、やっぱり今だと韓国がおそらく2番手グループに入っていて。まあLGですけど、韓国、あと中東、あとフランスのミストラル。といういくつかそれぞれの国々っていうのが、やっぱりソブリンAIという形でかなりサポートを国レベルでやって。で、いろんな形でですね、海外のモデルをもちろん使いつつも、国のところで使うモデルっていうのを育てているっていう状況がありまして。
で日本は、そういった意味だと、使えるとこは使ってちゃんと競争力落とさないってのは大事だと思うんですけども、ちゃんと自分たちでも、モデルを一つかいくつか置き換えられるようなものを持っておくっていうのも、必要なんじゃないかなというふうには思っております。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。鳥澤さんいかがでしょうか

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

NICTフェロー 鳥澤 健太郎氏
はい、日本も何十兆円か支出して投資すりゃいいっていう話だと思うんですけどね。まあ、それは難しいという話は置いておいてですね。まあ、あのさっきも言ったように、あの、賢い生成AIって「人間増えるようなもん」ですからね。で、まあ、移民受け入れどうするんだみたいな議論ありますけど、海外製のLLM使うってことは、ある意味でもう無制限に移民受け入れているようなもんになっちゃうかもしれない。
そう考えると、日本という国の形が維持できるのかどうか、なんか司馬遼太郎みたいになっちゃいますけど、そういう話なんで。あの、それが数兆円、数十兆円で済むんだったら、考えようによっては安いかもしれないですよね。
まあ、だからといって「出してくれ」とお願いしても誰も出してくれないと思いますけど。なので100年後とかに、もう日本ってアメリカと変わらないよねとか中国と変わらないよね、なんでこうなっちゃったんだろうねと、なった時に、「あん時に投資しときゃよかったんだよ」みたいなことにならないことを祈っている、という感じであります。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

02:15:29~02:22:30
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
行政分野のエージェントAI

山口 真吾
ありがとうございます。次の論点に行きたいと思います。
エージェントAIについて、大杉さんから順番にコメントお願いしたいと思うんですけども。行政機関でそのAIを使っていこうというのは分かったと。一昨年、昨年とRAG元年と言ってもいいと思うんですね。ま、ラグですと。読みますと。文書を。次は今年来年は、エージェントAI、AIエージェントどうやって入れていくかっていうのがポイントになると思うんですけれども。ただ、セキュリティですとかデータガバナンスとか面倒くさいこといっぱいやって、最終的には役人それぞれ市民開発ということで頑張ってという、そのハンズオンをしていかないといけないという時代ですよね。
これは、どれほど力を入れていくべきなのか。また、なんかショートカットできる上手いやり方があるのかとか、いろんな考え方があるんですけど、一言ずつ、行政分野のエージェントAIどう入れていくか一言ずつ大杉さんからお願いしたいと思います。

(映像:マイクを持ち話すデジタル庁 大杉 直也)

大杉 直也
技術的ハードルでやっぱり難しいのが、最初にあの、ハルシネーションと即時性のトレードオフの話、ちょっとだけしましたけども。
どんなエージェントAIだと嬉しいんだろう、っていうところが、使っている人からして、まだ自明じゃないっていうところが難しいと思っておりまして。これ使った、作ったから正解だよね、というところが、なかなか今言いにくいのかなと思っておりまして。そこが技術的な制約になるかなと思ってます。で、それ以外の、コード組み立てるところとかは、結構AIでどんどんどんどんできてしまうので。最終的なその受け入れ評価のところが、ボトルネックになるんじゃないかなと考えております。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。あれ、大杉さん、今、Claude Code使って
使う前と使った後、その「爆速具合」っていうと、どれぐらいの、こう、定量的に、なんか表現できるものが。

(映像:マイクを持ち話すデジタル庁 大杉 直也)

大杉 直也
あー、難しいですね。10倍以上は確実で。あとはやっぱり、自分の仕事の仕方がガラッと変わっちゃいまして。
昔は私、ジュピターノートブックっていうパイソンのその、実験環境みたいなやつ、あれすごい愛用していて、まあ、毎日のように立ち上げていたんですよ。今年になって気づいたんですよね。「この半年近く、私それ立ち上げてないぞ」と。というので、もう、少なくともソフトウェアエンジニアの働き方はもう永久的に変わっちゃいましたし、出せる速度も、もう前とは、質的に全然違う状態に今なっちゃいました。なので、作る部分は、正直なんとでもなるな、と感じております。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
その世界を、普通の行政官、役人、文系の人間にも移植できるものだと思っていいんでしょうか。

(映像:マイクを持ち話すデジタル庁 大杉 直也)

大杉 直也
はい、私は移植可能だと思っております。何でかと言うと。あ、で、移植可能なところと、可能じゃないところがあります。で、可能じゃないところだけ言うと、コードってテストしやすいんですよ。あの、動かなかったらダメですし、動いたとしても、結構、外形的なテストって結構あるんですね。そこがあの一番難しいところで、役人の成果物の、外形的なテストができるようになったら、ソフトウェアと同じような革命は起こせると思っております。で、逆に言うと、そこだけだと思ってます。文書の検索して調べて書くと。コードも文書もそこは一緒だと思います。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございました。お待たせしました、鳥澤さんお願いします、エージェントAI。

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

NICTフェロー 鳥澤 健太郎氏
はい、なんかエージェントAIっていろんな定義があるので、どれのこと言ってるのかな、っていうのは、よくわかんないですけど。
まあ一般論として、自律性高めたAIだという理解で言うならば、おそらくカルチャー的に受け入れられるかどうかが一番大きいんだと思うんですよね。だから、あの「勝手に仕事してくれて、それ『はい』ってハンコ押すか」っていう話ですよね。で、なかなかそれ難しいんじゃないかな、という感じはしていて。で、いま大杉さんおっしゃったように、確かに、もう一発ですぐに これはまっとうな結果だってわかるような業務はいいんですけど。まあ、おそらく役人の世界ってそうじゃないもののほうが多いんで。
じゃあその検証も、じゃあまた別のAIにやらせるか、みたいな世界が待っていて
で、先ほどの、あのトレーサビリティ、アカウンタビリティの話に落ち着いていくと思うんですよね。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。では岡野原さんお願いします

(映像:マイクを持ち話す株式会社Preferred Networks岡野原 大輔氏)

Preferred Networks岡野原 大輔氏
ありがとうございます。今のお話二つ両方、あの、コメントあるんですけれども。
やっぱりソフトウェア開発は、あのすごい変わっているのはまあ実際、事実としてあって、その背景に、ソフトウェア開発が、そういうAIが入る前から分業が進んでいてGitHubと呼ばれるその情報が集約されていてっていうようなことが背景としてあって、そことバチッとAIがはまったっていうのが大きかったと思います。
なのでその、今こういうガバメントのところに入る時も、AIが入りやすいような、そういう整備作り、ソフトウェア開発は成功したので、それと同じようなパターンに持っていけるかっていうのが、まあ、一つ観点としてはあるかなと思いました。
で他もあるかもしれないんですけど。もう一つこれがどれぐらいできるのか、っていうのを、正直誰もまだ世界で分かっていないわけですね。世界でどこのどこの国が、ガバメントAIで。なので、何か、そういうやっぱり、ベンチマークなり実験環境を作って。で「このタスクはこれぐらいできますよ」っていうのを測れるような環境を作って。で、エージェントがいろいろやって、「じゃあこのエージェントにこれ作ったら95%仕事できて、2%致命的なミスしていますね」みたいなことが、あの、世界的にも議論できるようなそういう環境を作って促進していくっていうようなことが、あると、加速するだろうなというふうに思いました。

(映像:松尾アナウンサーの呼びかけに振り向くデジタル庁 山口 真吾)
(映像:第一部に続き、登壇するデジタル庁 楠 正憲)

松尾 剛
山口さん、すみません。今、楠さんが戻られて、ご参加されたいという意向を示されました。是非加わっていただきたいと思うんですがいかがでしょうか。あ、一番こちらに。はい。

山口 真吾
ありがとうございます。国会対応、無事に?

楠 正憲
はい、無事に

山口 真吾
おつかれさまです

(映像:着席したデジタル庁 楠 正憲)

テロップ:
デジタル庁 統括官
楠 正憲

山口 真吾
今、エージェントAIの話をしていたんですけど、お話は。途中からですか。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
プログラミングと同じように行くかって分からないところが結構多いですよね。
確かに。コンパイラはイエス、ノーで答えてくれるけど、でも、たぶん職員も間違うことだってあるわけだから。AIにやらせてみてどれくらいの答えが返ってくるかって伴走しながら、「ここは任せて大丈夫かな」って考えていくのかもしれないですよね。
でもやっぱり難しい。例えば、そのいい悪いというか、クオリティが十分かだけじゃなくて、国会答弁に使うとなんか「国会軽視」じゃないかみたいな。そういう人の気持ちの問題もあるので。なんか「正しければいい」というものでもなさそうで、別の難しさが、確かにありますよね。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

02:22:31~02:38:04
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
官民連携のあり方は

山口 真吾
ありがとうございます。では、次の話題に行きたいと思います
「ガバメントAI」ということで政府向けのAIの実装の話を、今テーマとしてるわけなんですけれども政府職員がこれを使って、決して楽をするわけじゃないんですけれども、政府自身のその業務の質の改善ですとか、業務の効率化を目指している。
でも、それだけだとつまらないと思っていてですね、いかに官民の連携をしてオープンイノベーションで、政府の成功事例、また失敗事例を発信する。また民間の、最新の研究成果やビジネスモデルを、アプリケーション含めて政府に実装していく、というやり取りがあってもいいんだと思うんですよね。
この、オープンイノベーションの作り方とか、場合によっては、お互いのサンドボックス、実験環境を持ち寄ってコラボレーションしてみるとか、今のエージェントのお話で、失敗前提でどこまで失敗しちゃうんだろうねっていうところをまずサンドボックスの中で測ってみるとかですね。そういうコラボレーションの仕組みって必要だと思っているんですけども。
これ岡野原さんから順番に、一言ずつ、一言というか長くてもいいんですけど、あの、コメントなり提案なりあればお願いしたいと思ってます。

(映像:マイクを持ち話す株式会社Preferred Networks岡野原 大輔氏)

Preferred Networks岡野原 大輔氏
では、私からですね。あの、先ほど言ったとおりなんですけど。今、AIって結構ベンチマークを決めて、これを達成。さっきの、GDPバルみたいな話もしましたけど、決めたら結構、AI開発会社、勝手にやって、どんどん進化していくのがあるので、まあ、そういうやっぱりそのベンチマークを作ったり、検証環境みたいなの用意してやると。 で、もしかしたらこれ日本向けでやってますけど。世界的なそういうのを連携して作ってやるとかも、あるかもしれないなという風には思いました。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。では鳥澤さんお願いします

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

NICTフェロー 鳥澤 健太郎氏
その、ちょっと先ほどからお話伺っていると、なんかその政府の今までの業務を効率化する的観点が割と強いというか、多いというか。そもそもこれだけ大きな技術なんで、もうやり方根本から変える、っていう話もあっていいと思うんですよ。
どうやってやるかはあれだ、どうやってやるかAIに聞けっていう話かもしれない。で、だからなんか、オープンイノベーションのためにサンドボックス作るとか、まあそういう施策は過去にも今までいっぱい見てきたわけだけれども。あまり「これすげえ」っていう話は、申し訳ないんですけど私は承知してなくて。
なんかもうちょっと根本的に変えちまおうっていう話もあっていいんじゃないのかな、と聞いてて思いました。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございました。そこ、とても大切だと思っていてですね。
「プラスAI」から「AIプラス」の考え方とか、パラダイムを変えようという議論はよくあってですね。ただ、やはりその今例えばガバメントAIで言うと、なり手不足で、若手職員もどんどん辞めてしまう、残業が多いというところでマイナススタートなんですよね。これをいかに効率化して、さらに空いた時間で質の高い業務をこなしていきましょうというところからの出発点なので、まずはそこの負債を返さないといけないです。一方で、AI前提とした「AIネイティブ行政」という言い方しますけど。そこへのパラダイムはいずれ変えていかないとダメだと思ってるんですね。何かいい方法ありませんか。

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

NICTフェロー 鳥澤 健太郎氏
いや、私が若くて霞が関に就職しようと思っている人間だとするなら、まず「借金から返す」っていうのは、なんか外資のコンサルとか行きそうですね。
なんかもっと話法的に、もうちょっと元気の出る話法があってもいいんじゃないのかなと。すみません門外漢が好き勝手言ってますけど。
ちょっと何かマイナスからの出発とかだけだとどうなんですかね。ちょっともうちょっと元気の出る話が欲しいっすね。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。次大杉さんに行きましょうか

(映像:マイクを持ち話すデジタル庁 大杉 直也)

大杉 直也
頑張って元気の出る話しますね。インテリジェンスという側面だけから話します。
で、官の内側に対してはインテリジェンスを進化させるチャンスだと思っておりまして、それこそ行政官の方々は、信頼できる政府文書はしっかり読んでいると思うんですよ。じゃあ、AIを担当しているホゲホゲ省のなんとかの方は、最近のブループリントまでは言わなかったとしても、最先端の研究ちゃんとキャッチアップできていますかと言われたら必ずしもそうじゃないかもな、みたいなケースが、あるとは思うんですよ。
ちょっとできる限り言葉濁してるんですけど。けど、AIがあることによって、それこそどっかの会社の最先端の発表とか、ベンチマークテストでどうなってましたかとか、生成AIの学習データこう作るべきだ、みたいなすごい難しいテクニカルな話も脳にインストールしやすくなるはずなんですよ。
っていうように、信頼できる政府の内側のデータソースだけじゃなくて、外側の、査読付き論文なのか、どっかの会社のものか分かりませんけど、信頼できるデータソースを官の中に上手く取り入れることで、官の中のインテリジェンスがまず上がるんじゃないかというところは、ちょっと一個思っております。
また、官の中のインテリジェンスを「民」、外側に出すという話も全然あるなと思っておりまして、「源内が国会答弁作成支援をするぞ」みたいな、あの、日経か何かに出た時に、Xの反応見てみると「もう国会議員がそれ直接使えばいいんじゃないか」みたいな反応とかもまあまああったんですよね。で半分くらいはそれ真実かなと思っておりまして。役人の中で今まで培ってきた考え方とかノウハウとか、あと一つの法律取っても過去経緯が色々あって、こういう事件があってみたいな方って、一般の国民の人がじゃあ全部承知の上で議論に参加してるかって言われると必ずしもそうじゃないケースもあるかなと思っておりまして。そういう官のインテリジェンスを民に持っていく。で、それもLLM事業者だけじゃなくてAIがあることによって国民一人一人のその、認識、考え方がよりアップデートできるんじゃないか。アップデートという言い方したらちょっと上からすぎますけど。もうちょっと議論がファクトベースにやりやすくなるんじゃないかとか、そういうところをちょっと楽観的に考えておりまして。
源内でちょっとオープンソースで出したいなと考えているのは、そういう官のノウハウを官のインテリジェンスを民に持っていきやすくするというところも一個あるんじゃないかと思って、やっております。
今まで本の形であったかもしれないけど、たぶんそれ使う人限られちゃうんで、AIという形でやるとみんなが使えるんじゃないかなと思っております。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。楠さんに行く前に、岡野原さんに。
今パラダイムシフト、AIプラスの、なんか飛び道具がないかって議論してたんですけども、普段、民間企業の方といろいろとお話をされていて「この企業のこのアプローチ面白いな」と、もし何か気づきとかあったらぜひ披露していただきたいんですけども。

(映像:マイクを持ち話す株式会社Preferred Networks岡野原 大輔氏)

Preferred Networks岡野原 大輔氏
やっぱり今、AIを開発している会社自身がAIを活用して加速しているっていうのは、確実にありまして。それはAnthropic、OpenAIとか、うちもそうですけど、どんどんその、かなり今そうですね、作り方とか変わってきてるし、組織も変わってるというのは実際実感があります。で、なのでそういったですね、いろんな観点があるんですよ。
先ほどのような各人の個人の知識っていうのがガッと上がるっていうのもありますし、一人一人ができる範囲が広がるだとかそういった時に組織どう再設計しますかっていうのがノウハウが溜まり始めていて、まだ半年くらいだと思うんですよね。これからで。そういった知見っていうのを、しかもうまくいった知見というのを、どんどんガバメント側に入れていくっていうのが、あるといいなとは思うのが一つと。
あと、変化のスピード早すぎるので、そこは上手くですね、本当に最先端入れすぎちゃうと問題になっちゃう例って企業側もたくさんあって、ちょっと早すぎてたぶん最初飛びついたところが上手くいかなかったりとかもあるので。ガバメント側はある程度安定性を求められると思うので、そのちょっと1.5歩ぐらいのところの、上手くいったものを、あの、吸い上げつつやると。で日本は特に、あの私世界を見てて思うのが、企業はまあ私達も含め頑張ってるけど、まだまだなところは正直あるものの、政府の動きってすごい早いんですよね。その世界の他の国と比較しても日本政府の対応、何かAIが来た時に「これやりましょう、これやりましょう」って、やっぱ世界的に見ても早いっていうのはこれ確かだと思うので。ま、そういったものを上手く取り入れてガバメント側のなかの組織を変えるっていうのも、これも可能性あるんじゃないかなというふうには思っております。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。
では、楠さんからオープンイノベーションですとか、官民の連携のあり方も含めてコメントをお願いしたいと思います。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
なんか鳥澤さんから「もっと劇的に変わらないの?」と言われて、私はやっぱねデジ庁変わらなきゃいけないと思うんですよね。いや、というより、たまたまたま今はっきりやっぱものすごく生産性が劇的に上がってるのって「システム構築」じゃないですか。
まだ半年ちょっと前だと「1、2千万円くらいの案件だったら週末つぶせば代わりに自分で作れるな」なんて思って。で最近「スペックキット」とかいろいろいいものが出てきてモデルも賢くなって、一桁億くらいの案件だったら土日で作れちゃうんですけど。問題は、それを運用保守に回すと、結局何千万円もかかっちゃうからせっかく1.3億円のシステムを肩代わりして作ってもコストは半分しか下がらないと。でも運用保守のところって「作った人しか直せない」という前提でいざというときに作った人に入ってきてもらうために、保険料みたいに払ってるんで。AIがどんどん賢くなる、AIは過去のプログラムを理解して直せるのであれば、あんな保守料払う必要は本来ないはずで、ここが劇的に変わるんじゃないかな、というふうに思いますし。
やっぱり人間が間に入った途端にスローダウンするんですよね。Claude Codeとかも書いてる時はすごい速いんだけど、イエスかノーか聞くところがほとんど止まっちゃうわけで、だからたぶん仕事のプロセスの中で、当然大事なところにヒューマン・イン・ザ・ループを入れなきゃいけないんだけど、それをどこまでノンブロッキングにできるかということは特にAIが人間よりも得意なところから考えていくことだと思うし。まあある種、源内の開発そのものがそれの先頭をやっぱり走っていかなきゃいけない。でも、それは源内だけ磨いていけば良いということだけじゃなくて、デジ庁の中にはなくせる業務は相当いっぱいあるぞ、というようには思っていたりはします。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。楠さん、もうちょっと今のご説明、言える範囲で具体的な業務としての説明をお願いしたいんですけど。
要はですね、私のチームは源内という基盤を各省庁に提供するという立場なんですね。ただ、楠さんが今おっしゃろうとしてるのは、デジ庁本来業務として、政府系の情報システムに関して、自治体も含めて開発し、運用し、保守するというところの本丸のところでAIを入れ、または組織を変えるというところがあるんじゃないかという趣旨だと思うんですけれども。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
はい、まさにそこの部分で。これまでやっぱりこうデジタル化の足枷って「人が足りない」と言われてたんですけど。ある意味、今のコーディングAIに関して言えば私なんかよりよっぽどクラウドにも暗号にもデータモデルにも詳しくて、正しくこう業務指示ができれば、たぶん普通に業者に頼むよりいいものを作ってくれる。もちろんプロセスをちゃんとしなきゃといけないとか、自分でクオリティコントロールできていなきゃいけないとか、これまでベンダーに甘えていた部分を自律しなきゃいけない部分はいっぱいあるんですけど。仕事の中に本当に難しい、そもそもこう考えなきゃいけないことと、そうじゃなくて人が足りなかったりとか。昔大変だったから、なんとなくお金払ってる仕事ってすごいいっぱいあって、そういう仕事をもっともっとこうAIに肩代わりさせながら、ちゃんとこれまで手が届いてなかったところを真剣にデジタル化していくということができるようになってくると思うんですよね。
それは、なんか今「一括計上」といって、デジタル庁で他の省のシステムとかもいっぱい見れるようになってきてるんで、最初にできるのはなんか、しがらみのない、1からできるようなものからに限られてくるでしょうけど。
本当は、だから3桁億のシステムとかも、今ベンダーに全部預けっぱなしになってて
たまにDVDで納品してもらってるようなやつをGitHubに入れていくとか、AIエージェントで分析できるようにしていく。みたいなところから、こっちでグリップするように変えていくと、どこが効率化できるかって見えてくるんじゃないか。
これはすごく、なんか短期的にはIT投資は爆増する気がしますね。これまで結局予算積んだっていい人いないから案件回せなかったですよね。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。これ大切な議論なんで、もう一周いきましょうか。
岡野原さんから、ちょっと今のトピックスに関して、または他のパネラーの方が発言された内容に関して、コメントでもいいですし質問でもいいと思いますし。要は政府職員に、そのAIを実装していくというものだけじゃなくて、政府の業務で他に適用できる領域があるんじゃないか、そういうところも含めてパラダイムを変えていくべきじゃないか。という問題提起だったと思うんです。ご発言あればお願いします。

(映像:マイクを持ち話す株式会社Preferred Networks岡野原 大輔氏)

Preferred Networks岡野原 大輔氏
ありがとうございます。今の楠さんの話すごい具体的で、自分も「なるほど」と聞きながら思っていたんですけど。
今実際に何が起きているかというと、ソフトウェア開発はやっぱり誰でも、今まで一部の人しかできなかったのが、もう一気にツールとしてできるようになったところで、そこで各社が特に問題に近いところの人が自分で作っていく。みたいなところができるんじゃないかというようなところは実際起きていて。あと運用保守みたいなところがどこか責任取ってくれればみたいなところ残っていて。そこももしかしたらAIの補助を受けながら組織内でできるとかはあるかもしれないなとは思います。
一方でですね、そういった仕事で、いわゆる「システムインテグレーター」みたいなところが、どうなるのかとよくシステムインテグレーターの人とも議論よくするんですけど、これもう二極化する可能性…システムインテグレーター自身がいま自社内でものすごく使い倒して効率化していく。なんかノウハウも貯めてるみたいなところで言うと、いずれにせよですね、今までの作り方は変わるというのはあると思います。今、そういったですね、今ソフトウェア開発はもう具体的に進行形で進んでいる中ではあるんですけど、ほかの業務もどこかは多分、今年絶対に出てくる。
Coworkとか使ったらもうできるところあるかもしれないですけど、そういったところを、成功した事例を一気にスケールさせて、組織もそれに合わせて変わっていく、というようなことは、どんどん進められるところから進めていけるといいんじゃないかな、というふうには思います。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。では、鳥澤さんお願いします。

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

02:38:05~02:45:48
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
根本的に問い直す契機

NICTフェロー 鳥澤 健太郎氏
はい、今日の議論ってずっとなんか最新のAIはすごいんで、それ使ったらこんなことができて嬉しいよねっていう方向でずっとこう来てたと思うんですけど。そこで終わるのかな、そもそもと。で、ひょっとすると政府って何のためにあるんだっけとか
霞が関の人達って何のために働いてんだっけって、そういうレベルから、考え直すいいきっかけだし、ひょっとすると最新あるいは今後出てくるAIっていうのは、そのレベルでもって、考え、みんなの考え方変えた方がいいっていうことを示唆する、技術なのかもしれないですよね。
で、最近私もうなんか、山のように新しい論文が出てきてもう追っかけるだけで疲れちゃうんで。倫理学とかそっちの方の本ばっかり読んでんですけど、だからちょっとそういうちょっと一歩引いた視点で大きな話を考えるっていうのも誰かやるべきなんじゃないかなという風に思います。
このユーフォリアというかこの熱狂に付き合うとそれ楽しいんですけど、ちょっとそれだけじゃアウトじゃないかという気がします。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。大杉さんいかがでしょう。倫理学。

(映像:マイクを持ち話すデジタル庁 大杉 直也)

大杉 直也
倫理の話すごいやりたいんですけども、その手前でちょっとやっぱ楠さんの話拾おうかなと思いまして。
ソフトウェアのその、品質の話にやっぱり戻ってきちゃうんですけども、行政官の業務の品質って私も分かんないんですよ。ただ、ソフトウェア開発とか、情報検索とかデータマイニングとかはずっとやってたんで、勘利くんですね。で、LLMにそこ負けないなって思ってたんですけども、最近ClaudeCodeが出てきて、そういうエキスパートの勘もどんどん言語化されてどんどんデータとして蓄積されてってっていうのが
もう見えちゃって、私ちょっと最近へこんでるんですけども。一年以内に自分これもう無理だなと。その分野は、で私もう勝負絶対できなくなるなっていうところをもう確信しました。で、そういうような未来が来ます。で、そうなると、産業構造はこう変わりますっていうところを、デジタル庁結構率先して、発信していくべきなんじゃないかなと考えておりまして。それこそソフトウェア開発を別に行政官の方でもAI使ったらできますっていう世界じゃなくて。そのベンダーで考えて、ベンダー側でしっかりやってくれっていうところの、圧力をかけるっていうところを、我々未来の姿として出していく。そういう風な産業界の方を変えていくっていうところに、プレッシャーかけるのが1個我々のやる仕事なのかなと思っております。
で、まずソフトウェアでそういうプレッシャーをかけて、で、どっかのタイミングでそれが多分行政にも跳ね返ってきて、鳥澤先生のおっしゃるガラガラポンみたいなところが、もしかしたら、これがこのままほっとくと未来こうなるかなっていうところを、どんどん実効性ある形で発信するっていう流れができたら、もう、数年以内にやりたくなくてもそうなっちゃうんじゃないかなっていうような予感がしております。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。では楠さんお願いします。

(映像:マイクを持ち話すデジタル庁 楠 正憲)

楠 正憲
まー前半ちょっと大杉さんの話の続きをやりつつ、鳥澤さんの課題認識をちょっと拾いたいなと、思うんですけど。
私は一時的には職員が内製をしても、やっぱり民というか、事業者に戻していくべきだと思っていて。それはなぜかと言うと、今の公務員制度の枠組みでは大幅に人を増やすことができないからなんですね。
ただ、今のような丸投げの仕組みでやると、1.3億のシステムが一億とか8000万になっても、あんまり多分、一点下手をすると、一億とか1.3億とかのまんまでベンダーの利益率だけ上がるみたいなことが起こる。でもそれならまだマシな方で、なんかたぶん世の中にはまだ、こうAIを使わせてもらえてないデベロッパーが、二次受け三次受けにすごいいっぱいいる。だから最悪なパターンというのは、今の産業構造、コスト構造のまんまAIを学ばせてもらえず、紙エクセルで仕事をするっていう人は相当残るみたいなことは、無くしていかないといけないんだけれども、日本ってだから今はっきり見てるのが、AIを使いこなしているベンダーあります。
私ももう潰れかかったプロジェクトはなんとかAIで立て直ったみたいなのを間近で見てるんだけど、それができてるのは、直接雇用、エンジニアを直接雇用しているベンダーです。で、はっきり、もう何て言うんだろう、協力会社に出してるところは2周遅れ3周遅れになってて、で、そういうところは新しいことをやろうと言って、慌てて新卒の採用数を増やしてるみたいな。そういう状況だと思うので、まー普通に見積とってもこれまでの相場で来るんで、仕方なく、ちょっとこれ見積出した時の仕様書ちょうだいよと言って、自分が土日に作るんですけど。でも土日に作って、でもこれ俺来年保守できないよなとかって考えると、やっぱ産業を変えていかなきゃいけないっていうのを、今真剣に悩んでて。だから仕事を再定義して。たぶん業界って何10年かに一度、ビジネスモデル変わってるんですよ。昔は高い箱を売ったら、それの利益で全部儲かってた時代が、オープン化で30年ぐらい前に崩れて、その時に今のSIのモデルになったんですね。で、そのモデルが今AIでディスラプトされた後も、システムを作るという仕事自体は残るので。で、我々は一旦、源内のノウハウも含めて、我々で、自分の手のものにすることによって、一緒にこう、業界を変えていく力を得たいだけで、これは最後はやっぱ民間でお金で買えるように、産業を変えていかなきゃいけない。で、もう1個心配をしているのは、今アメリカではものすごい勢いでソフトウェア技術者が、特に新卒の子が就職できなくなってる。よくね、AIの会社の人が、ユニバーサルベーシックインカムの時代が来るみたいな話をされるけど、やっぱこう人類の歴史ってやっぱいっちょがみして初めて、分け前が回ってくるという仕組みがあって、いっちょがみする機会とか、学ぶ機会を奪われた人に本当にみんな施してくれるのか。っていうのはすごく心配をしてて。だからAIの結果としてキレッキレの賢い人たちが、大量の部下を持たなくても、100人分500人分働けるようになる。その結果として、色んなものがコモディティ化されて、もっともっと簡単に手に入って、本当にみんなが豊かになるのか、それとも多くの人が、社会に関わるチャンスを失って、一方で給付も受けられず、で、国がそれに対して給付をしようとしても、キレッキレのお金持ちはなんかすごい不思議な方法でどんどん海外に資産を置いてしまって手が届かない。そういう社会が来るかもしれないんですよね。
もはやそのAIに対する投資って、ね、我が国の一般会計予算ぐらいの桁になってきてしまっていて、なんか世界の超大国でさえ、なんかこう、お前は使わないでとかって言われちゃうみたいな、そういう時代になってるじゃないですか。
で、本当にあの値段で赤字を垂れ流しながら提供されているAIが、再来年も今の値段で使わせてもらえるのか、それもだいぶ怪しい。今は結局データとバーターで、競争があるからあの値段になっているだけで、本来は別に100倍のお金取ったっておかしくないと思うんで、どんな時代が来るのかっていうのは、相当鳥澤さんの課題の話も含めてね、これは今本当に過渡期で、この連続の向こうに未来があると思わない方がいいんじゃない?っていうのはすごい心配してます。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございました。残り3分ですね。もう一周行っても大丈夫ですかね。
岡野原さんから。今のお話ととても大切だと思っていて、一つ思うのは、ガバメントAIって言語の世界なんですね。
ただ、フィジカルAIとかロボットAI、バーティカルAIが今年以降やっぱりクローズアップされていくと思います。ということについてどう思いますかという風に聞こうと思ってたんですけども、やっぱり人材論をですね。この一言ずつ語らないとだめだと思っていますと。

02:46:20~02:51:06
右上テロップ:
「ガバメントAIフォーラム」
ガバメントAIをどう作るか
AI時代の人材論

山口 真吾
どちらでもいいです。フィジカルAIどうすんだっていいですし。人材論としては特に若手って、大学生と若手職員を含めて、どう振る舞ったらいいんだ。または、公共分野として、どう手を差し伸べたらいいんだ、なんか熱い思いがあるはずだと思いますので。一人1分です。一言ずつお願いします。

(映像:マイクを持ち話す株式会社Preferred Networks岡野原 大輔氏)

テロップ:
株式会社Preferred Networks
共同創業者 代表取締役社長
岡野原 大輔

Preferred Networks岡野原 大輔氏
まずフィジカルAIはやるんですけど、時間がかかると思います。ただ、やるべきだとは思います。今のバーチャルなような成長は難しいけども、やるべき。
で、人材に関して言うと、ここはですね、やっぱり今のAIが出てきてからは全く違うタイプの人がやっぱ出てきていて、で、そういった人たちを育てたりだとかっていうのが、まあこれから必要になると思います。
なので、うちもですね、どちらかというと会社でこう採用、優秀な人を採用するってのはもちろんあるんですけど、どちらかというと、社内でこう、教育していくっていうところが、どんどん重視するようにはなってきてはいて、で、やっぱ何を教えるかとかっていうのは今は本当に試行錯誤で、まあいる中では、そういったどんどんですね育てる仕組みだと、まあ育てるっておこがましいですけども。学習できるような環境を用意していくっていうのがすごく重要だと思っています。そうすれば育て、勝手に育っていくというのがあると思います。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございます。鳥澤さん行きましょう

(映像:マイクを持ち話すNICTフェロー 鳥澤 健太郎氏)

テロップ:
情報通信研究機構(NICT)フェロー
鳥澤 健太郎

NICTフェロー 鳥澤 健太郎氏
えっと人材ですけど、できる人とできない人っていうのは、もうどんどん格差が広がっていくでしょうねっていうのはあって。難しいっすね。
で、できる人ちょっといたらいいっていう世界ですよね。大手のOpenAIなんかもそんな人数多くないんで。で、だからそういう状況でさっき産業再デザインするという話がございましたが、どういう風にこの構造をデザインしていくのかって、これも頭痛い問題で、それはちょっとやっぱり、また倫理学じゃないなとか思うんですけど、ちょっと立ち止まって考える人が少しいた方がいいかなと思いました。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
大杉さん行きましょう

(映像:マイクを持ち話すデジタル庁 大杉 直也)

テロップ:
デジタル庁ガバメントAIリードエンジニア
大杉 直也

大杉 直也
自分は工学物理、科学技術と呼ばれる世界と、人間社会、倫理と呼ばれる世界がこれからどんどん乖離していくと思っております。
なぜかというと科学技術工学の部分が、AIがAI自ら賢くなって、AIが工場を作って、電力の問題も半導体の問題もどんどん解決して、軍事技術はAIの世界ですっていうような世界が始まっていくと思っております。
そうなった場合に本当にごくごく一部のスーパー優秀な人類は、そっちの世界に関与できるかもしれませんけど、今までと違って、科学技術を人類が、主体的に動かすっていう時代が終わるんだと思っております。
で、そうなった時に残された大多数の人間社会、倫理の世界で、我々の人生とは何か。我々は何をして何を残すべきかっていったところについて、やはり考える必要が出てくると思っております。
で、AIの方も勝手に宇宙行って、勝手に宇宙帝国を作ると思うんですよ。でそれ以外の我々の人間社会とは何かっていうところは、また、今までの成長を軸とした世界観とはまた別の形で再設計しないと、もう虚無主義一択になるんじゃないかなとか警戒しております。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
はい、最後楠さんお願いします

(映像:マイクを持ち話すデジタル庁 楠 正憲)

テロップ:
デジタル庁 統括官
楠 正憲

楠 正憲
難しいですよね。私もここ中座して70分予算委員会座ってましたけど、座るのがお仕事で一回も出番がないわけですよね。ゼロ問というやつなんですけれども。
やっぱそういう意味で政府って社会全体の最後のヒューマンインザループみたいな、面が多分にあって、選挙で選ばれた人たちが物事を決めるという構造そのものが、役所が勝手に動かないようにするための、とても大事な機能なんですよね。
だから、当然、こう効率化すべきところもいっぱいある一方で、我々はやっぱ最後の砦的な部分も役割としてある中で、何を大事にしなきゃいけないのかっていうことをやっぱ哲学のレベルでも真剣に考えなきゃいけなくて。
一方で職員の数はそんなに増えない中で、仕事は爆増するんで、当然効率化しなきゃいけないところもいっぱいあるんだけど、民間であればともかくどんどんスループットを上げて利益が上がってラッキーっていう世界だけじゃないものを我々抱えている中で、本当に守るべき価値は何っていうことはボトルネックが変わった今みたいなこの何年かっていうのは特に深く考える時期が来るんじゃないかなっていうような気がしますね。

(映像:マイクを持ち話すデジタル庁 山口 真吾)

山口 真吾
ありがとうございました

松尾 剛
皆さんご議論ありがとうございました。では最後にこの座談会のまとめとして山口さんに受け止めを一言お願いしたいと思います。

山口 真吾
はい、今日は皆様お忙しい中、ご参加いただきましてありがとうございます。

テロップ:
デジタル庁 参事官
山口 真吾

山口 真吾
今回は霞が関の職員向けイベントということでございます。いい議論ができたかなというふうに思ってまして、基盤モデルの話から人材、それから最後は倫理の話も出てきたと思います。
今回議論を受けましてデジタル庁としても、ガバメントAIの推進にあたって気づきの点、学びの点があったと思いますし、政府職員の皆さんも今までの技術とちょっと違うぞということだけ感じ取っていただいたら我々今回のイベント成功だったのかなというふうには思ってます。
結構AIって面倒くさい技術であることは確かなんですけれども、ただ破壊的な何かいいことがありそうだっていうような技術でもあるという風に思っていて。世界中で投資が動いていますので、これなんとか我がものとして政府職員または自治体の皆さんを含めてですね。公共分野で実装していくと、AIを使いこなしていく。高市総理がおっしゃっている通り率先してAIを使いこなしていくんだっていうことを進めていきたいと思います。
今日はどうもありがとうございました。

(映像:壇上に座って礼をする登壇者たち)
(映像:拍手をする会場・来場者の様子)

松尾 剛
皆さんどうぞご登壇の皆さんに大きな拍手をお願いいたします。

(映像:松本デジタル大臣の動画が会場のスクリーンに映し出されている様子)
(映像:松本デジタル大臣が話している動画)
(映像:AISI所長 村上 明子氏が講演をしている様子)

テロップ:
関連動画「ガバメントAIフォーラム」
開会コメント:松本 尚 デジタル大臣
基調講演:村上 明子 AISI所長

ナレーター
「ガバメントAIフォーラム」では、デジタル大臣からのコメントに加えて、専門家の基調講演も行われ、AI時代の公共サービスのあり方についての提言がありました。
その様子も動画でご覧いただけます。