生成AI導入の急速な進展とセキュリティの不安定な現状
近年、企業が生成AIを導入する動きが急速に進んでいますが、その一方でセキュリティおよびガバナンス対策が疎かになっていることが、OpenTextの調査によって明らかになりました。この調査はPonemon Instituteとの共同で実施され、全世界のITおよびITセキュリティに従事する専門職が対象となっています。
調査結果では、企業の52%が生成AIを既に導入していることが示されていますが、セキュリティ基盤の構築が遅れているというギャップが存在しています。この現象は、企業がAIの利点に目を向ける一方で、必要なリスク管理に対する意識が不足していることを表しています。AIを効果的に、そして安全に利用するためには、まずその運用基盤を確立することが求められます。
OpenTextの製品およびエンジニアリング部門のエグゼクティブバイスプレジデント、Muhi Majzoub氏は、「AIを導入すること自体が成熟度の証ではなく、責任をもって活用できているかが重要です。セキュリティとガバナンスはAIから真の価値を引き出すための基礎となる」と述べています。つまり、安全に運用できる環境を整えることなしに、AIの導入を進めるのは危険です。
興味深いことに、AI成熟度に達している企業は5社に1社という低い割合にとどまっています。AIシステムのガバナンスにリスクベースの戦略を採用している企業も43%に過ぎないため、今後の課題は明確です。特に、AIが自律的に動き出すほど、リスク管理とガバナンスが求められるのが現実です。
調査においては、特に以下のポイントが指摘されています:
- - サイバーセキュリティ活動においてAIを完全に導入している企業は、全体の22%に過ぎず、それ以外の企業は依然としてリスク評価が不十分。
- - AIに特化したデータプライバシーポリシーを策定している企業は41%であり、この数字は低いとされています。
- - 回答者の62%は、言語モデル開発における倫理的なリスクを最小限に抑えることが難しいと感じています。
- - バイアス、セキュリティ上の脅威、倫理的問題といったリスクを報告した企業は、半数未満の43%に留まります。
さらに、AIによる誤情報の拡散やユーザーリスクの管理に対して懸念を抱いている企業は56%にのぼります。これらの問題は、AIの導入が進むにつれ複雑さを増し、企業にとっての新たな課題となるでしょう。
また、AIの信頼性と説明可能性が欠かせない要素であるとの結果も出ています。AIの導入によって業務の効率を高める意図があるものの、ガバナンスの欠如からその性能が限定的になることが懸念されています。調査によれば、61%がAIの異常検知に対し効果を疑問視し、半数近くがバイアスのリスクを最小限に抑えることの困難さを訴えています。
Muhi Majzoub氏は、企業が透明性と管理機能を持つAIを開発できるかどうかが、今後のAI導入の方向性を決定づけると指摘します。AIを日常業務に活用するためには、情報管理基盤と明確なガバナンスのフレームワークが必要です。こうした取り組みがあって初めて、企業はAIの持つ真の価値を引き出すことが可能になります。
要するに、生成AIの導入が進む一方で、その運用基盤が未整備であることがリスクを拡大している現状が浮き彫りになりました。企業は急務としてこれらの課題に向き合い、持続的な監視と情報管理を行うことが求められています。今後もAI技術の発展が期待される中で、信頼できる、そして効果的なAI運用が実現されることを願っています。