【防災士が解説】防災×情報セキュリティ|ChatGPTに入力してはいけない情報と“デジタル災害”への備え

生成AIは便利な道具ですが、使い方を誤ると情報漏えいという静かな災害を引き起こします。
防災の本質は「知らなかった」を減らすこと。今回は、ChatGPT利用時に絶対に入力してはいけない情報と、その理由を整理します。


■① 個人を特定できる情報(個人情報)

氏名、住所、電話番号、メールアドレス、生年月日などは入力すべきではありません。

生成AIは会話内容を学習や品質向上に利用する場合があり、
意図せず第三者の目に触れるリスクを完全にゼロにはできません。

災害時に名簿が流出すると二次被害が起きるのと同じ構造です。


■② ログイン情報・認証情報

ID、パスワード、APIキー、ワンタイムコードなどは最重要NGです。

過去には、マルウェア感染などを通じて
ChatGPTの認証情報が大量に流出した事例も確認されています。

一度奪われると、過去のやり取りすべてが閲覧される可能性があります。


■③ クレジットカード・金融情報

・クレジットカード番号
・銀行口座番号
・暗証番号
・投資口座の詳細

これらは金銭被害に直結します。
金融情報は「入力した時点で自己責任」になるケースがほとんどです。


■④ 業務上の機密情報・内部資料

会社の未公開情報、顧客データ、設計図、契約内容などは入力厳禁です。

便利だからと要約や添削に使うと、
情報漏えい事故=企業災害につながる可能性があります。

これは一社員の判断ミスが、組織全体を揺るがす典型例です。


■⑤ 医療・健康・センシティブ情報

病歴、診断名、障害の有無、家族の健康情報なども注意が必要です。

これらはプライバシー性が極めて高い情報であり、
流出した場合の精神的・社会的ダメージが大きくなります。


■⑥ なぜ危険なのか|AIは「金庫」ではない

ChatGPTは魔法の箱ではありません。

・通信は暗号化されていても
・システム障害や外部攻撃の可能性はゼロではない
・端末側のマルウェア感染リスクもある

防災で言えば「堤防があるから絶対安全」と思い込むのと同じです。


■⑦ デジタル防災としての10の基本習慣(要点)

・個人情報は入力しない
・実名や実在人物は仮名に置き換える
・業務利用は社内ルールを確認
・アカウントは強固なパスワード管理
・二要素認証を使う
・公共端末では利用しない
・怪しい拡張機能を入れない
・端末のウイルス対策を怠らない
・「無料だから安全」と思わない
・違和感を覚えたら使わない


■⑧ 情報漏えいも「防げた災害」

災害対応でよく言われるのが
「被害は防げなくても、拡大は防げたはず」。

情報セキュリティも同じです。

・入力しない
・残さない
・広げない

この3つを守るだけで、被害の大半は防げます。


■⑨ 便利さよりも“壊れにくさ”を選ぶ

防災の視点では、
便利さよりも壊れにくさが最優先です。

生成AIは強力な道具ですが、
「何を入力しないか」を決めることこそ、最も重要な使い方です。

デジタル時代の防災として、
今日から一つ意識を変えておきましょう。

コメント

タイトルとURLをコピーしました