生成AIを利用する上でのセキュリティ成熟度モデル
(調査研究部会AIセキュリティワーキンググループ)
2025.3.26掲載
- 生成AIを利用する上でのセキュリティ成熟度モデルについて
- 現在、様々な分野でテキスト、画像、動画等をAIを利用し自動生成する技術、生成AIの利用が進んでおり、今後さらに普及が予想されます。本ドキュメントは生成AIをセキュアに利用していくうえで必要な項目を生成AIの利用ケースごとにマッピングを行い、生成AIを利用していく組織の一助になることを目的としています。対象となる組織は、利用形態別に下記4つになります。
- 外部サービスの利用
ChatGPTやGemini等の外部サービスを提供元が提供するWebインタフェースやスマートフォンアプリケーション等から利用する組織。
- APIを利用した独自環境
OpenAI APIやGemini API等のAPIを自社のサービスや社内環境と連動させて利用する組織。
- 自組織データの利用
ファインチューニングやRAG(Retrieval-Augmented Generation)の技術を用いて自組織のデータを生成AIに利用する組織。
- モデルの自組織向け開発
自組織向けにモデルを独自開発する組織。 - ドキュメント作成メンバー
-
・ワーキンググループリーダー服部 祐一(株式会社セキュアサイクル, JNSA調査研究部会AIセキュリティワーキンググループリーダー)・ワーキンググループメンバー(五十音順)伊東 道明(株式会社ChillStack)
野田 俊夫(アドソル日進株式会社)
米山 俊嗣(三井物産セキュアディレクション株式会社)
倉持 浩明(株式会社ラック)
安達 康平(株式会社セキュアサイクル)
庄司 勝哉(株式会社ラック)
倉地 伸明(富士ソフト株式会社)
松永 昌浩(セコム株式会社) - 生成AIを利用する上でのセキュリティ成熟度モデル
- 「生成AIを利用する上でのセキュリティ成熟度モデル」GitHubにリンクします。