2026年3月31日火曜日

IPA「情報セキュリティ10大脅威2026」——AIリスクが3位に入った意味と中小企業の最低限の備え

「AIが脅威になった」——IPAが、ついにそう認めた。

2026年1月29日、IPA(情報処理推進機構)が毎年恒例の「情報セキュリティ10大脅威」を発表した。組織向けの脅威ランキングで、「AIの利用をめぐるサイバーリスク」が初選出、いきなり3位にランクインした。

1位はランサムウェア(11年連続)、2位はサプライチェーン攻撃。この2つは「またか」という顔ぶれだ。でも3位の新顔は、僕たちのようにAIを日常的に使っている人間にとって、無視できないシグナルだと思う。

何がリスクで、何をすればいいのか。セキュリティの現場にいる立場から、正直に整理してみる。

1. 2026年のランキング——何が変わったか

まず全体像を押さえておく。組織向け10大脅威のトップ3はこうだ。

1位:ランサム攻撃による被害(11年連続)。2位:サプライチェーンや委託先を狙った攻撃。3位:AIの利用をめぐるサイバーリスク(初選出)。

上位2つは変わらない。ランサムウェアは二重恐喝が主流のまま、仮想化基盤や基幹システムを狙った高額要求が増え続けている。サプライチェーン攻撃も、委託先を経由した侵入ルートが常態化した。

注目すべきは「AI」が独立した脅威カテゴリとして認定されたことだ。これまでAI関連の問題は他の脅威の「一部」として扱われていたが、ついに単独で3位に入った。IPAが「AIそのものが脅威の震源地になりつつある」と判断したということだ。

2. AIリスクの中身を分解する

「AIが危険」と言われても、何が危険なのか分からなければ対策のしようがない。IPAが挙げているリスクは、大きく3つに分けられる。

①AIを「理解しないまま使う」リスク。業務で生成AIを使うとき、入力した情報がどう扱われるかを把握していない従業員は多い。顧客情報や機密データをそのままChatGPTに貼り付けて要約させる——このとき、そのデータがAI側の学習に使われる可能性がある。意図しない情報漏洩だ。著作権や肖像権の侵害も同じ構造で起きる。

②AIの出力を「過信する」リスク。ハルシネーション——AIがもっともらしい嘘を出力する現象だ。裏取りなしで業務に使えば、誤情報に基づく意思決定が起きる。生成AIの出力は「下書き」であって「事実」ではない。この区別が組織に浸透していないケースが非常に多い。

③AI技術が「攻撃に使われる」リスク。攻撃者がAIを使ってフィッシングメールの文面を生成したり、脆弱性スキャンを自動化したりしている。自然な日本語のフィッシングメールが大量に生成される時代だ。従来の「不自然な日本語で見破る」という防御法は、もう通用しない。

3. 「使う側」と「攻められる側」——AIリスクの両面

ここが重要なポイントだ。AIリスクには「自分たちがAIを使うことで生まれるリスク」と「攻撃者がAIを使うことで受けるリスク」の2つの面がある。

「使う側」のリスクで最も深刻なのが、シャドーAIだ。会社が認めていないAIサービスを、従業員が勝手に使うことでガバナンスが崩壊する。「個人のChatGPTアカウントで議事録を要約しました」——この一言で、会議の機密情報が外部サービスに渡っている可能性がある。

「攻められる側」では、AIで強化されたソーシャルエンジニアリングが脅威だ。ディープフェイクで上司の声を合成した電話、完璧な日本語で書かれた標的型メール——攻撃の速度・精度・規模が、AIによって加速されている。

セキュリティ研修でも、この「両面」を扱う設計が必要になってきた。

研修設計の実践はこちら:セキュリティ研修をAIで設計した——30分で骨格が揃い、本番で「自分ごと化」が起きた話

4. 中小企業は、まず何をやればいいか

「分かった、AIは危険だ。で、うちは何をすればいいんだ?」——そう聞かれることが多い。現場でのコンサル経験も踏まえて、最低限の3アクションを挙げる。

第1に、AI利用のルールを決める。「どのAIサービスを使っていいか」「何を入力してはいけないか」を明文化する。完璧な規程じゃなくていい。A4一枚のガイドラインでも、あるのとないのでは全く違う。

第2に、入力情報を制限する。顧客名・個人情報・社内の未公開情報——これらをAIに入力しない、というルールを徹底する。「AIに聞く前に、入力して大丈夫か3秒考える」——これだけでリスクは大幅に減る。

第3に、生成物を検証する。AIの出力をそのまま使わない。特に数値・法令・人名は必ず一次ソースで確認する。ハルシネーションは「バグ」ではなく「仕様」だと思った方がいい。

上司がこのあたりの話を理解してくれない——そういう壁にぶつかっている人は、こちらの記事も読んでほしい。

社内セキュリティが進まない本当の理由——上司の知識不足という盲点

5. 「外に出さない」という選択肢——ローカルLLM

「機密情報をAIに入力するな」と言われても、AIの恩恵は受けたい。その矛盾に対する現実的な回答のひとつが、ローカルLLM——つまりクラウドに接続しない、自分のPC上で完結するAIの活用だ。

僕はLM Studioというツールを使って、Mac mini M4やMacBook Air M5上でローカルにLLMを動かしている。データは自分の端末の中だけで処理されるので、外部への情報流出リスクがそもそも存在しない。社内文書の要約、議事録の整理、規程のドラフト検討——機密性の高い作業こそ、ローカルLLMの出番だ。

もちろん、ローカルLLMはクラウドのClaude やChatGPTほど賢くはない。回答の質・速度・対応範囲は正直劣る。だからこそ「使い分け」が正解だ。機密情報を扱う作業はローカルLLM、それ以外はクラウドAI——この棲み分けができれば、利便性とセキュリティを両立できる。

ローカルLLMの具体的な導入方法や実測パフォーマンスについては、別記事で詳しく書く予定だ。

6. 次に来るもの——ISO 42001というAIの規格

IPAの10大脅威は「何が起きているか」を示すレポートだ。では「どう備えるか」を体系的に整理した規格はあるのか——ある。ISO/IEC 42001だ。

これはAIマネジメントシステム(AIMS)の国際規格で、ISO 27001と同じPDCA構造をベースにしている。AIのリスク管理・倫理・透明性・データガバナンスを組織的に運用するためのフレームワークだ。EU AI Actとの連携も進んでおり、今後AIガバナンスのデファクトスタンダードになる可能性が高い。

ISO 27001で情報セキュリティの「仕組み」を整え、27017・27018でクラウドに拡張し、42001でAI固有のリスクに対応する——この「成長の地図」が見えてきた。次回以降の記事で、ISO 42001の中身を詳しく整理する。

関連記事

セキュリティ研修をAIで設計した——30分で骨格が揃い、本番で「自分ごと化」が起きた話
AIリスクを研修に組み込む実践例。本記事の「攻められる側」の対策として。

社内セキュリティが進まない本当の理由——上司の知識不足という盲点
AIリスク対策を社内で推進するとき、最初にぶつかる壁の話。

ISO 27017・27018とは何か?クラウド移行後のセキュリティ規格を現場目線で解説
クラウドAIを使う前提で知っておくべき規格の話。本記事と合わせて読んでほしい。

0 件のコメント:

「どこでもサトネ」になった——Chill with You スマホ版レビュー【PC版との違いも】

PC版のサントラをMP3で外出先に持ち出していた僕が、ようやくサトネを連れ出せるようになった。 4月8日、「Chill with You : Lo-Fi Story」のスマホ版がiOS/Androidでリリースされた。Steam版を使い始めてしばらく経つ僕としては、ずっと...