近年、ChatGPTや、Gemini、Claude等を始めとするAIが日本でも爆発的に広まっている。
今やテレビやネットニュースなどを見れば、「AI」か「りくりゅう」か「大谷翔平」か、というように定番のように報道されている。
筆者の職場でもAIを使う機会は非常に増えている。
ところで皆さんは、SNSなどでひそかに話題となっている「AIハラスメント」というものをご存じだろうか。
略してアイハラなどと呼ばれたりすることもあるが、AIハラスメントとは、AIの利用をめぐって主に職場内で生じる新しい形のストレスや圧力のことである。
AIを使うことを当然とされる空気の中で、「使えない人が責められる」「使える人に仕事が集中する」といった問題が徐々に顕在化してきている。
実際に、AIを使いこなせるかどうかは個人の知識や経験による部分も大きく、すべての人が同じレベルで活用できるわけではない。
それにもかかわらず、「AIを使えばみな平等に作業ができるはずだ」という前提で業務が進められると、現場に大きな負担が生じることになる。
本記事では、こうしたAIハラスメントの意味を整理したうえで、職場でどのように向き合い、どのように対策していくべきかについて見ていきたい。
目次
AIハラスメントの意味
まずは、AIハラスメント(アイハラ)の意味について。
生成AIや業務用AIの利用をめぐって、職場で相手に不当な圧力をかけたり、不利益な扱いをしたりする行為を指す言葉である。
具体的には、「AIを使うことを強制する」「使えないことを理由に責める」「AIを使える人に業務を押しつける」といったケースが該当する。
この言葉や意味自体はまだ新しい概念であるが、内容によってはパワーハラスメントや精神的嫌がらせと同様に扱われる可能性がある。
近年は生成AIの普及により、誰でもAIを使える環境が整ってきた。
その一方で、使える人と使えない人の差が広がり、それが職場のストレスや対立につながるケースが増えている。
実際に、筆者自身も「AIを使って業務を効率化するように」と指示を受けた経験がある。
しかし、当初はAIの回答が難しく、内容をうまく理解できず戸惑った。
そこで、「小学生でもわかるレベルで説明して」とAIに指示を出したところ、徐々に内容をイメージとして理解できるようになった。
ただし、専門的な内容になるほど、実際に自分で経験しない限り本質的な理解には至らないと感じた。
この経験から、「AIに聞けば何でもわかる」と過信すること自体が、現場でのズレや圧力を生む原因になり得ると実感した。
ちなみに筆者の職場では、ハラスメントとは言わないまでも、まずはAIに聞いてという風潮が広まっているので、AIへの依存や強要などが過ぎるとハラスメントとして扱われかねない。
AIハラスメントの職場での対策
AIハラスメントを防ぐための対策については、「AIを使うことを前提にする」のではなく、「人に合わせた運用」を行うことが重要である。
【① AI利用ルールを明確にする】
まず必要なのは、AIの使い方を曖昧にしないことである。
- どの業務でAIを使うのか
- 入力してよい情報・いけない情報
- 最終確認の責任は誰が持つのか
これらを明確化することで、「とりあえず使え」という無理な圧力を防ぐことができる。
【② 教育・サポート体制を整える】
AIを使えない人を責めるのではなく、「少しずつ慣れていける環境」を整えることが重要である。
筆者の経験からも、最初は簡単なレベルから理解を深めていくことで、徐々に活用できるようになるといえる。
【③ AIを過信しない文化をつくる】
AIは便利なツールであるが、万能ではない。
「AIに聞けばすべて解決する」という前提で業務を進めると、誤情報や理解不足によるミスが増える可能性がある。
AIはあくまで「情報整理の補助」であり、AIのいうことは全て正しいと思うのは非常に危険だ。
なので、最終的な判断は人間が行うべきである。
【④ 評価制度を見直す】
AIを使えるかどうかだけで評価する仕組みは、不公平やプレッシャーの原因となる。
成果の質やプロセスを重視し、「AIを使うこと自体」を評価軸にしすぎないことが重要である。
【⑤ 相談できる環境を整える】
AIハラスメントは本人が我慢してしまいやすい問題である。
そのため、人事や上司などに相談できる体制や環境を整え、「一人で抱え込まなくてよい状態」をつくることが必要である。
また、企業コンプライアンスにおいても、上記のAIに対する位置づけを明文化し、ハラスメントにならないよう対策していくのが望ましいだろう。
考察・まとめ
AIは非常に便利なツールであるが、慣れていない人や苦手な人に対して、無理に強制すべきものではない。
筆者の経験からも、AIは「元となる知識があってこそ活用できるもの」であり、知識ゼロの状態から完全に使いこなすことには限界があるといえる。
したがって、AIを使いこなせないことに対して過度に悩む必要はない。少しずつ慣れていくことが現実的である。
また、職場においても「AIを使えない=能力が低い」という見方ではなく、「使う人の知識や経験によってアウトプットの質が変わる」という前提を共有することが重要である。
AIは人を評価するための道具ではなく、あくまで業務を支援するためのツールである。
ただ、AI自体は非常に便利なツールで、筆者が運営しているこのWordPressのブログに設定するプラグインのことなども相談している。
プラグインの設定はものによっては英語が多かったり、専門的な知識がないと理解が難しかったりすることがある。
そんな時に、スクショを撮ってそれをそのまま貼り付けてこれはどういう意味?と聞いたら日本語で説明してくれる。
このように、AI自体は悪ではないが、使う側の意識や態度によっては他人を傷つけてしまう恐れもある。
AIは非常に便利であるが、日本で使用されるようになってからまだ浅いので、今後どのようにAIと付き合っていくかということが、個人だけでなく社会全体にとって重要な課題になってくるだろう。
また、単に「使えるかどうか」ではなく、「どのように使うか」「どこまで任せるか」「どのように人と共存させるか」といった視点が今後求められる時代になってくると予想される。
AIはあくまで補助ツールであり、最終的な判断や責任は人間にある。
この前提を見失わず、それぞれの理解度やスキルに応じて無理なく活用していくことが、健全な社会を作り上げる上でとても重要であるといえる。












PAGE TOP