生成AIは便利な道具ですが、使い方を誤ると情報漏えいという静かな災害を引き起こします。
防災の本質は「知らなかった」を減らすこと。今回は、ChatGPT利用時に絶対に入力してはいけない情報と、その理由を整理します。
■① 個人を特定できる情報(個人情報)
氏名、住所、電話番号、メールアドレス、生年月日などは入力すべきではありません。
生成AIは会話内容を学習や品質向上に利用する場合があり、
意図せず第三者の目に触れるリスクを完全にゼロにはできません。
災害時に名簿が流出すると二次被害が起きるのと同じ構造です。
■② ログイン情報・認証情報
ID、パスワード、APIキー、ワンタイムコードなどは最重要NGです。
過去には、マルウェア感染などを通じて
ChatGPTの認証情報が大量に流出した事例も確認されています。
一度奪われると、過去のやり取りすべてが閲覧される可能性があります。
■③ クレジットカード・金融情報
・クレジットカード番号
・銀行口座番号
・暗証番号
・投資口座の詳細
これらは金銭被害に直結します。
金融情報は「入力した時点で自己責任」になるケースがほとんどです。
■④ 業務上の機密情報・内部資料
会社の未公開情報、顧客データ、設計図、契約内容などは入力厳禁です。
便利だからと要約や添削に使うと、
情報漏えい事故=企業災害につながる可能性があります。
これは一社員の判断ミスが、組織全体を揺るがす典型例です。
■⑤ 医療・健康・センシティブ情報
病歴、診断名、障害の有無、家族の健康情報なども注意が必要です。
これらはプライバシー性が極めて高い情報であり、
流出した場合の精神的・社会的ダメージが大きくなります。
■⑥ なぜ危険なのか|AIは「金庫」ではない
ChatGPTは魔法の箱ではありません。
・通信は暗号化されていても
・システム障害や外部攻撃の可能性はゼロではない
・端末側のマルウェア感染リスクもある
防災で言えば「堤防があるから絶対安全」と思い込むのと同じです。
■⑦ デジタル防災としての10の基本習慣(要点)
・個人情報は入力しない
・実名や実在人物は仮名に置き換える
・業務利用は社内ルールを確認
・アカウントは強固なパスワード管理
・二要素認証を使う
・公共端末では利用しない
・怪しい拡張機能を入れない
・端末のウイルス対策を怠らない
・「無料だから安全」と思わない
・違和感を覚えたら使わない
■⑧ 情報漏えいも「防げた災害」
災害対応でよく言われるのが
「被害は防げなくても、拡大は防げたはず」。
情報セキュリティも同じです。
・入力しない
・残さない
・広げない
この3つを守るだけで、被害の大半は防げます。
■⑨ 便利さよりも“壊れにくさ”を選ぶ
防災の視点では、
便利さよりも壊れにくさが最優先です。
生成AIは強力な道具ですが、
「何を入力しないか」を決めることこそ、最も重要な使い方です。
デジタル時代の防災として、
今日から一つ意識を変えておきましょう。

コメント