生成AIを利用する上でのセキュリティ成熟度モデル
(調査研究部会AIセキュリティワーキンググループ)

2025.3.26掲載
生成AIを利用する上でのセキュリティ成熟度モデルについて
現在、様々な分野でテキスト、画像、動画等をAIを利用し自動生成する技術、生成AIの利用が進んでおり、今後さらに普及が予想されます。本ドキュメントは生成AIをセキュアに利用していくうえで必要な項目を生成AIの利用ケースごとにマッピングを行い、生成AIを利用していく組織の一助になることを目的としています。対象となる組織は、利用形態別に下記4つになります。
- 外部サービスの利用
ChatGPTやGemini等の外部サービスを提供元が提供するWebインタフェースやスマートフォンアプリケーション等から利用する組織。
- APIを利用した独自環境
OpenAI APIやGemini API等のAPIを自社のサービスや社内環境と連動させて利用する組織。
- 自組織データの利用
ファインチューニングやRAG(Retrieval-Augmented Generation)の技術を用いて自組織のデータを生成AIに利用する組織。
- モデルの自組織向け開発
自組織向けにモデルを独自開発する組織。
ドキュメント作成メンバー
・ワーキンググループリーダー
服部 祐一(株式会社セキュアサイクル, JNSA調査研究部会AIセキュリティワーキンググループリーダー)
・ワーキンググループメンバー(五十音順)
伊東 道明(株式会社ChillStack)
野田 俊夫(アドソル日進株式会社)
米山 俊嗣(三井物産セキュアディレクション株式会社)
倉持 浩明(株式会社ラック)
安達 康平(株式会社セキュアサイクル)
庄司 勝哉(株式会社ラック)
倉地 伸明(富士ソフト株式会社)
松永 昌浩(セコム株式会社)
生成AIを利用する上でのセキュリティ成熟度モデル
「生成AIを利用する上でのセキュリティ成熟度モデル」GitHubにリンクします。
本報告書に関する引用・内容についてのご質問等はフォームからご連絡下さい。
※引用のご連絡に対する承諾通知はご返信しておりませんのでご了承下さい。
引用・お問合せフォームへ