「AIが脅威になった」——IPAが、ついにそう認めた。
2026年1月29日、IPA(情報処理推進機構)が毎年恒例の「情報セキュリティ10大脅威」を発表した。組織向けの脅威ランキングで、「AIの利用をめぐるサイバーリスク」が初選出、いきなり3位にランクインした。
1位はランサムウェア(11年連続)、2位はサプライチェーン攻撃。この2つは「またか」という顔ぶれだ。でも3位の新顔は、僕たちのようにAIを日常的に使っている人間にとって、無視できないシグナルだと思う。
何がリスクで、何をすればいいのか。セキュリティの現場にいる立場から、正直に整理してみる。
目次
1. 2026年のランキング——何が変わったか
まず全体像を押さえておく。組織向け10大脅威のトップ3はこうだ。
1位:ランサム攻撃による被害(11年連続)。2位:サプライチェーンや委託先を狙った攻撃。3位:AIの利用をめぐるサイバーリスク(初選出)。
上位2つは変わらない。ランサムウェアは二重恐喝が主流のまま、仮想化基盤や基幹システムを狙った高額要求が増え続けている。サプライチェーン攻撃も、委託先を経由した侵入ルートが常態化した。
注目すべきは「AI」が独立した脅威カテゴリとして認定されたことだ。これまでAI関連の問題は他の脅威の「一部」として扱われていたが、ついに単独で3位に入った。IPAが「AIそのものが脅威の震源地になりつつある」と判断したということだ。
2. AIリスクの中身を分解する
「AIが危険」と言われても、何が危険なのか分からなければ対策のしようがない。IPAが挙げているリスクは、大きく3つに分けられる。
①AIを「理解しないまま使う」リスク。業務で生成AIを使うとき、入力した情報がどう扱われるかを把握していない従業員は多い。顧客情報や機密データをそのままChatGPTに貼り付けて要約させる——このとき、そのデータがAI側の学習に使われる可能性がある。意図しない情報漏洩だ。著作権や肖像権の侵害も同じ構造で起きる。
②AIの出力を「過信する」リスク。ハルシネーション——AIがもっともらしい嘘を出力する現象だ。裏取りなしで業務に使えば、誤情報に基づく意思決定が起きる。生成AIの出力は「下書き」であって「事実」ではない。この区別が組織に浸透していないケースが非常に多い。
③AI技術が「攻撃に使われる」リスク。攻撃者がAIを使ってフィッシングメールの文面を生成したり、脆弱性スキャンを自動化したりしている。自然な日本語のフィッシングメールが大量に生成される時代だ。従来の「不自然な日本語で見破る」という防御法は、もう通用しない。
3. 「使う側」と「攻められる側」——AIリスクの両面
ここが重要なポイントだ。AIリスクには「自分たちがAIを使うことで生まれるリスク」と「攻撃者がAIを使うことで受けるリスク」の2つの面がある。
「使う側」のリスクで最も深刻なのが、シャドーAIだ。会社が認めていないAIサービスを、従業員が勝手に使うことでガバナンスが崩壊する。「個人のChatGPTアカウントで議事録を要約しました」——この一言で、会議の機密情報が外部サービスに渡っている可能性がある。
「攻められる側」では、AIで強化されたソーシャルエンジニアリングが脅威だ。ディープフェイクで上司の声を合成した電話、完璧な日本語で書かれた標的型メール——攻撃の速度・精度・規模が、AIによって加速されている。
セキュリティ研修でも、この「両面」を扱う設計が必要になってきた。
→ 研修設計の実践はこちら:セキュリティ研修をAIで設計した——30分で骨格が揃い、本番で「自分ごと化」が起きた話
4. 中小企業は、まず何をやればいいか
「分かった、AIは危険だ。で、うちは何をすればいいんだ?」——そう聞かれることが多い。現場でのコンサル経験も踏まえて、最低限の3アクションを挙げる。
第1に、AI利用のルールを決める。「どのAIサービスを使っていいか」「何を入力してはいけないか」を明文化する。完璧な規程じゃなくていい。A4一枚のガイドラインでも、あるのとないのでは全く違う。
第2に、入力情報を制限する。顧客名・個人情報・社内の未公開情報——これらをAIに入力しない、というルールを徹底する。「AIに聞く前に、入力して大丈夫か3秒考える」——これだけでリスクは大幅に減る。
第3に、生成物を検証する。AIの出力をそのまま使わない。特に数値・法令・人名は必ず一次ソースで確認する。ハルシネーションは「バグ」ではなく「仕様」だと思った方がいい。
上司がこのあたりの話を理解してくれない——そういう壁にぶつかっている人は、こちらの記事も読んでほしい。
→ 社内セキュリティが進まない本当の理由——上司の知識不足という盲点
5. 「外に出さない」という選択肢——ローカルLLM
「機密情報をAIに入力するな」と言われても、AIの恩恵は受けたい。その矛盾に対する現実的な回答のひとつが、ローカルLLM——つまりクラウドに接続しない、自分のPC上で完結するAIの活用だ。
僕はLM Studioというツールを使って、Mac mini M4やMacBook Air M5上でローカルにLLMを動かしている。データは自分の端末の中だけで処理されるので、外部への情報流出リスクがそもそも存在しない。社内文書の要約、議事録の整理、規程のドラフト検討——機密性の高い作業こそ、ローカルLLMの出番だ。
もちろん、ローカルLLMはクラウドのClaude やChatGPTほど賢くはない。回答の質・速度・対応範囲は正直劣る。だからこそ「使い分け」が正解だ。機密情報を扱う作業はローカルLLM、それ以外はクラウドAI——この棲み分けができれば、利便性とセキュリティを両立できる。
ローカルLLMの具体的な導入方法や実測パフォーマンスについては、別記事で詳しく書く予定だ。
6. 次に来るもの——ISO 42001というAIの規格
IPAの10大脅威は「何が起きているか」を示すレポートだ。では「どう備えるか」を体系的に整理した規格はあるのか——ある。ISO/IEC 42001だ。
これはAIマネジメントシステム(AIMS)の国際規格で、ISO 27001と同じPDCA構造をベースにしている。AIのリスク管理・倫理・透明性・データガバナンスを組織的に運用するためのフレームワークだ。EU AI Actとの連携も進んでおり、今後AIガバナンスのデファクトスタンダードになる可能性が高い。
ISO 27001で情報セキュリティの「仕組み」を整え、27017・27018でクラウドに拡張し、42001でAI固有のリスクに対応する——この「成長の地図」が見えてきた。次回以降の記事で、ISO 42001の中身を詳しく整理する。
関連記事
・セキュリティ研修をAIで設計した——30分で骨格が揃い、本番で「自分ごと化」が起きた話
AIリスクを研修に組み込む実践例。本記事の「攻められる側」の対策として。
・社内セキュリティが進まない本当の理由——上司の知識不足という盲点
AIリスク対策を社内で推進するとき、最初にぶつかる壁の話。
・ISO 27017・27018とは何か?クラウド移行後のセキュリティ規格を現場目線で解説
クラウドAIを使う前提で知っておくべき規格の話。本記事と合わせて読んでほしい。
0 件のコメント:
新しいコメントは書き込めません。