「AIに使われる社会」――この言葉の怖さは、AIが賢いことではありません。
本当に怖いのは、私たちが考える前に、選ばされることです。
防災の現場でも同じで、情報が多いほど安心ではなく、判断が軽くなる設計がないと人は動けません。
ここでは、防災士×元消防職員としての現場感覚をベースに、「AIに使われないための運用」を整理します。
■① 「AIに使われる」とは何が起きることか
AIに使われる状態は、だいたいこうです。
- おすすめに流されて、情報源が固定される
- 不安を煽る情報だけが目に入り、冷静さを失う
- “もっともらしい結論”に乗り、裏取りをやめる
- 目的が「自分の人生」ではなく「アルゴリズム最適化」になる
つまり、AIが支配するのではなく、人間が省エネのために思考を手放すのが本体です。
■② 防災視点:AI時代の最大リスクは「判断遅れ」と「誤誘導」
被災地派遣(LO)では、情報が足りない瞬間が必ずあります。
そのときに怖いのは、誤情報よりも「判断が止まること」です。
- みんなが待つ(誰かが決めるのを待つ)
- 結果、避難が遅れる
- 助かるはずの人が危険側に残る
AIが提示する“結論っぽいもの”に乗って裏取りをしないと、誤誘導が起きても止まれません。
防災で言うと、これは情報災害です。
■③ AIに使われないための運用①:目的(自分の軸)を先に書く
AIの提案は、目的が曖昧だと暴走します。
だから先に、人間側が軸を置きます。
例)
- 家族の安全を守る
- 不安を減らす
- 判断を軽くする
- 続く範囲で備える
目的が明確だと、AIの提案を「採用/却下」できます。
目的がないと、AIの提案に“乗せられます”。
■④ 運用②:一次情報→解説→SNSの順に固定する
AI要約やSNSは便利ですが、順番を間違えると偏りが増えます。
- 一次情報:自治体、気象庁、消防、警察、公式発表
- 一次報道:主要メディア
- 解説/SNS:ここは“意見の場所”
防災士としては、この順番を固定するだけで、デマ耐性が上がると断言できます。
■⑤ 運用③:AIは「案」まで。決定は人間がする
医療も救急も同じですが、ツールは“判断材料”であって“判断者”ではありません。
AIが結論を出しても、人間側が必ず言うべき言葉があります。
- 「根拠は何?」
- 「反対の可能性は?」
- 「最悪ケースは?」
- 「今日できる最小行動は?」
この4つを毎回通すだけで、AIは“使う道具”になります。
■⑥ 運用④:感情を動かす設計に気づく(煽り・断言・今すぐ)
AI時代に一番効くのは、感情操作です。
- 断言(100%・確定・黒幕)
- 煽り(今すぐ拡散・見ないと危ない)
- 二択(これをしない人はダメ)
災害時のデマは、この型で広がります。
だから、感情が動いた瞬間が“チェック開始の合図”です。
■⑦ 運用⑤:自分の「情報衛生」を最低限セットする
完璧は不要です。最小限で十分。
- 公式アカウントをフォロー固定
- 二段階認証をオン
- 端末ロック+バックアップ
- 位置情報は必要アプリだけ許可
- パスワード使い回しをやめる
これは防災の備えと同じで、生活を壊さないための土台です。
■⑧ 今日できる最小行動:「3秒止まる」を習慣にする
AIに使われる社会から抜ける最短は、これです。
- 何かを拡散したくなった
- 何かを買いたくなった
- 強い結論に乗りたくなった
その瞬間に 3秒止まる。
そして「出典・根拠・反証」を見る。
これだけで、かなり守れます。
■まとめ|AI時代は「人間側の運用」で勝てる
結論:AIに使われる社会の本質は、AIの賢さではなく、人間が思考を手放し“選ばされる”こと。目的を先に置き、一次情報の順番を守り、AIを案として扱い、感情操作に気づき、最低限の情報衛生を整えることで、AIは“使う道具”になる。
被災地派遣(LO)や元消防職員の現場感覚でも、命を守るのは「情報」ではなく「判断と行動」です。AI時代こそ、人間側の運用がすべてです。
出典:内閣府「AI戦略・AI利活用に関する基本的な考え方(人間中心のAI)」

コメント