Q AIの進歩がめざましいですが、業務でAIを利用する労働者にはどのように対応すべきでしょうか。
A 近年、AI(人工知能)の進化・普及が飛躍的に進んでおり、気軽に使えるチャットGPTなどに限らず、ほとんどの人が何らかの形でAIの恩恵を受けながら生活し、仕事に向き合っているといえます。大学における卒論や就活などでもむしろAIの有効活用が勧められている傾向すらあり、AIをまったく理解できず、触れたこともないようでは、むしろビジネスマンとして生きていくこと自体が困難になる時代が近づいているといえます。
一方で、職場で安易かつ無制約にAIを利用することには、大きな課題やリスクがつきまとうのも現実です。高度な知能を搭載したAIは、今までの人間の力ではなしえない膨大な情報処理を瞬時に行うだけでなく、人間が投げかけた疑問や質問に対して、人間に成り代わって回答や処方箋を導くことができます。そうすると、本来は情報の獲得・整理や業務の効率化の支援が目的であったものが、当事者の思惑や責任を離れて独自の成果・結論を導いて独り歩きすることにもなりかねず、最終的には労働者(なまみの人間)が主体的に業務に従事するという前提すら危うくなる可能性があります。
さらに、不用意なAIの活用が常態化してしまうと、依頼者との関係、著作権者との関係、その他の法令との関連において、コンプライアンス違反に問われることにもなりかねません。さまざまな商取引をめぐる役務提供などの契約は、あくまでその当事者の裁量・責任において処理・提供することが原則であり、あたかもAIに結果を丸投げするかのような方法は、取引の内容を形骸化させるだけでなく、違約状態に陥る可能性も否定できません。また、著作物などの情報ソースをAIに読み込ませて法律判断をさせるなどの行為が弁護士法に抵触する可能性があるとの見解も聞かれますので、十分な注意を払う必要があると考えられます。
とはいえ、会社側の意思として、労働者が職務上AIを利用すること自体を禁止したり強く規制を促すことは、法律上も実務上もナンセンスだといえ、そもそもパソコンやタブレットなどに標準搭載されているAIの存在や機能を無視することは不可能に近いといえます。基本的には、一定の倫理観と責任感のもとで、むしろAIを積極的に有効活用していくことを推奨するのが現実的な流れであり、そのために求められる会社としてのポリシーを打ち出し、労働者のリテラシーを高めるための取り組みを進めていくべきだと考えられます。
仕事上でAIの活用を積極的に推進していくことの最大のリスクは、本来は労働者自身が行うべき仕事が、情報や知識の整序にとどまらず判断や回答をもAIに依存していってしまうと、ついには「AIを使う側」から「AIに使われる側」になってしまう可能性があることです。AIが導く結論をそのまま受け入れるようになると、自分で考えたり、判断したり、結論を導く能力がどんどん衰え、最終的にAIなくして仕事ができない≒労働者ではなくAIが仕事をしている状況になってしまいます。こうなると、人間としての思考や発想や判断力は加速度的に失われていき、もはや働くこと自体が形骸化してしまいかねません。
AIと前向きに向き合い、有効活用しつつ、労働者の成長を後押しするための会社側の取り組みとしては、AIが出した結論をそのまま受け入れず、いったん立ち止まって客観的な目線で検討し直す習慣を促すことが考えられます。具体的には、AIの支援を受けたテーマについて、人に説明したり、レクチャーする場を設ける取り組みです。人間は、自分が考えていることを他人に伝えたり、教えることで、その考えの不備や盲点に気づきます。これはAIを活用した場合も同じであり、むしろ他人に表明するための準備の段階で、バランス感覚を持った立ち位置をつくることができるものです。
これからの時代、知識・情報の処理や仮説・アイデアの具体化においてAIを活用しないことは不可避ですが、AIを使って導いた答えを必ず人間に伝える場をつくっていくことで、決してAIに使われることなく、AIを使う人間としてのスキルアップをはかっていく、職場環境を目指していきたいものです。
蛇足ですが、本コラムも早いもので今回で第300回となりました。あらためてお読みいただいているみなさまに感謝です。また毎週発信をコツコツと続けていきたいと思います。
(小岩 広宣/社会保険労務士法人ナデック 代表社員)






















