業務における生成AIやAIエージェントの活用が急速に進む昨今。
セキュリティリーダーの80%が「AIエージェントが新たなセキュリティの課題をもたらす」と考えています。
本書では、ルールを設ける「前」に必ず行うべき重要なアプローチを解説しています。
システム側の防御だけでは防げない「AIリスクの本質」
セキュリティ対策として、システム側の防御設定を強化する企業は多いでしょう。
しかし、「システム側の防御設定は整えたはずなのに、なぜ問題が起きるのか?」という声も多く聞かれます。
その原因は、「人がAIをどう使うか」に対するガバナンスを後回しにしていることにあります。
AIやエージェントはあくまでツールであり、それをどう使うかは「人」次第です。
利用の実態を把握しないまま、ただ禁止や制限のルールだけを作っても、結果的にルールが形骸化してしまう危険性があります。
本書の読みどころ
-
ルールより先に必要な“見える化”の重要性
-
提供者(開発者)の視点: 設計の初期段階から“人の使い方”を見越す「DevSecOps」の考え方
-
運用者の視点: 業務利用時の行動を観察し、継続的に見直すためのヒント
自社の状況を正しく理解し、無理のない、実効性あるルール設計の具体的なステップと仕組み化のヒントをまとめています。
目次
- はじめに
- なぜ“人の使い方”が論点になるのか?
- 提供者(開発者)のための視点: 設計・実装フェーズでの“人の使い方”を把握
- 運用者のための視点: 業務利用時の“人の使い方”の観察と制御
- 「まず把握する」ことがガイドライン策定の出発点
- まとめ
こんな方におすすめ
-
AIの利用ルールが未整備でお悩みの方
-
従業員のAI利用実態を正確に把握したい方
-
これからAI利用のガイドラインを作成する方
-
AI開発にセキュリティを組み込みたい開発担当者
-
リスクや異常操作を早期に検知したい運用担当者

























![中小企業の情報瀬キィリティ相談窓口[30分無料]](/wp-content/uploads/2023/07/bnr_footer04.png)


