【防災士が解説】「AIに使われる社会」にならないために|判断を奪われない“人間側の運用”5つ

「AIに使われる社会」――この言葉の怖さは、AIが賢いことではありません。
本当に怖いのは、私たちが考える前に、選ばされることです。

防災の現場でも同じで、情報が多いほど安心ではなく、判断が軽くなる設計がないと人は動けません。
ここでは、防災士×元消防職員としての現場感覚をベースに、「AIに使われないための運用」を整理します。


■① 「AIに使われる」とは何が起きることか

AIに使われる状態は、だいたいこうです。

  • おすすめに流されて、情報源が固定される
  • 不安を煽る情報だけが目に入り、冷静さを失う
  • “もっともらしい結論”に乗り、裏取りをやめる
  • 目的が「自分の人生」ではなく「アルゴリズム最適化」になる

つまり、AIが支配するのではなく、人間が省エネのために思考を手放すのが本体です。


■② 防災視点:AI時代の最大リスクは「判断遅れ」と「誤誘導」

被災地派遣(LO)では、情報が足りない瞬間が必ずあります。
そのときに怖いのは、誤情報よりも「判断が止まること」です。

  • みんなが待つ(誰かが決めるのを待つ)
  • 結果、避難が遅れる
  • 助かるはずの人が危険側に残る

AIが提示する“結論っぽいもの”に乗って裏取りをしないと、誤誘導が起きても止まれません。
防災で言うと、これは情報災害です。


■③ AIに使われないための運用①:目的(自分の軸)を先に書く

AIの提案は、目的が曖昧だと暴走します。
だから先に、人間側が軸を置きます。

例)

  • 家族の安全を守る
  • 不安を減らす
  • 判断を軽くする
  • 続く範囲で備える

目的が明確だと、AIの提案を「採用/却下」できます。
目的がないと、AIの提案に“乗せられます”。


■④ 運用②:一次情報→解説→SNSの順に固定する

AI要約やSNSは便利ですが、順番を間違えると偏りが増えます。

  • 一次情報:自治体、気象庁、消防、警察、公式発表
  • 一次報道:主要メディア
  • 解説/SNS:ここは“意見の場所”

防災士としては、この順番を固定するだけで、デマ耐性が上がると断言できます。


■⑤ 運用③:AIは「案」まで。決定は人間がする

医療も救急も同じですが、ツールは“判断材料”であって“判断者”ではありません。
AIが結論を出しても、人間側が必ず言うべき言葉があります。

  • 「根拠は何?」
  • 「反対の可能性は?」
  • 「最悪ケースは?」
  • 「今日できる最小行動は?」

この4つを毎回通すだけで、AIは“使う道具”になります。


■⑥ 運用④:感情を動かす設計に気づく(煽り・断言・今すぐ)

AI時代に一番効くのは、感情操作です。

  • 断言(100%・確定・黒幕)
  • 煽り(今すぐ拡散・見ないと危ない)
  • 二択(これをしない人はダメ)

災害時のデマは、この型で広がります。
だから、感情が動いた瞬間が“チェック開始の合図”です。


■⑦ 運用⑤:自分の「情報衛生」を最低限セットする

完璧は不要です。最小限で十分。

  • 公式アカウントをフォロー固定
  • 二段階認証をオン
  • 端末ロック+バックアップ
  • 位置情報は必要アプリだけ許可
  • パスワード使い回しをやめる

これは防災の備えと同じで、生活を壊さないための土台です。


■⑧ 今日できる最小行動:「3秒止まる」を習慣にする

AIに使われる社会から抜ける最短は、これです。

  • 何かを拡散したくなった
  • 何かを買いたくなった
  • 強い結論に乗りたくなった

その瞬間に 3秒止まる
そして「出典・根拠・反証」を見る。

これだけで、かなり守れます。


■まとめ|AI時代は「人間側の運用」で勝てる

結論:AIに使われる社会の本質は、AIの賢さではなく、人間が思考を手放し“選ばされる”こと。目的を先に置き、一次情報の順番を守り、AIを案として扱い、感情操作に気づき、最低限の情報衛生を整えることで、AIは“使う道具”になる。
被災地派遣(LO)や元消防職員の現場感覚でも、命を守るのは「情報」ではなく「判断と行動」です。AI時代こそ、人間側の運用がすべてです。

出典:内閣府「AI戦略・AI利活用に関する基本的な考え方(人間中心のAI)」

コメント

タイトルとURLをコピーしました