banner
ホームページ / ニュース / AIが職場の多様性を促進できるという主張は「偽りで危険」
ニュース

AIが職場の多様性を促進できるという主張は「偽りで危険」

May 06, 2023May 06, 2023

近年では、候補者を絞り込むためのチャットボットや履歴書スクレーパーの使用から、ビデオ面接用の分析ソフトウェアに至るまで、労働力の多様性の欠如への解決策として販売される AI ツールが登場しています。

この技術の背後にある人々は、この技術が採用時に性別や民族性に対する人間の偏見を打ち消し、代わりに語彙、発話パターン、さらには顔の微表情を読み取るアルゴリズムを使用して、膨大な数の求職者を適切な性格タイプと「文化適合性」について評価すると主張している。 」

しかし、発表された新しいレポートでケンブリッジのジェンダー研究センターの研究者らは、哲学とテクノロジーの分野で、これらの主張は、人相学や骨相学を彷彿とさせる「自動化された疑似科学」、つまり顔の特徴や頭蓋骨の形から性格を推測できるという疑わしい信念と同じくらい、採用におけるAIの利用の一部であると主張している。 。

彼らは、これは投資と企業文化の変化を必要とする根深い差別問題を手っ取り早く解決するためにテクノロジーに目を向ける「テクノロジー解決主義」の危険な例だと主張する。

実際、研究者らはケンブリッジのコンピューターサイエンス学部生のチームと協力して、このテクノロジーをモデルにしたAIツールを構築することで、これらの新しい採用手法の誤りを暴きました。

「パーソナリティマシン」は、顔の表情、服装、照明、背景の恣意的な変化がどのように根本的に異なる性格の読み取りを与える可能性があるかを実証しており、その結果、大学院生の職を争う世代の求職者にとって、不採用と昇進の違いを生む可能性がある。

ケンブリッジのチームは、AIを使用して候補者プールを絞り込むと、テクノロジーは雇用主の空想の「理想的な候補者」を探すように調整されているため、最終的には労働力の多様性ではなく均一性が高まる可能性があると述べている。

これにより、適切なトレーニングと背景を持つ人々が、AIが識別するようにプログラムされた行動を再現し、その態度を職場に取り入れることで「アルゴリズムに勝つ」ことができる可能性があると研究者らは述べている。

さらに、アルゴリズムは過去のデータを使用して洗練されているため、最適と考えられる候補者は、現在の従業員に最もよく似た候補者になる可能性が高いと主張しています。

共著者のエレノア・ドレージ博士は、「一部のベンダーが『ヘビ油』製品を光沢のあるパッケージに包み、何も疑っていない顧客に販売していることを懸念している」と述べた。

「これらの企業は、人工知能を使用することで人種差別、性差別、その他の形態の差別を採用プロセスから取り除くことができると主張することで、私たちが世界をどう歩むかを形作る権力システムではなく、人種と性別を重要ではないデータポイントにまで落とし込んでいます。 。」

研究者らは、こうした AI 採用ツールは独自仕様であることが多く、つまり「ブラック ボックス」であることが多いため、どのように機能するかは謎であると指摘しています。

「企業が悪意を持って行動しているわけではないかもしれないが、これらの製品がどのように構築され、テストされているかについての説明責任はほとんどない」とドラッジ氏は述べた。 「そのため、このテクノロジーとそのマーケティング方法は、採用の『偏りをなくし』、より公平にする方法についての誤った情報の危険な情報源となる可能性があります。」

一部の反発にもかかわらず(例えば、EUのAI法提案ではAIを利用した採用ソフトウェアを「高リスク」に分類している)、研究者らは、RetorioやHIreVueなどの企業が開発したツールはほとんど規制されずに導入されていると述べ、AIの使用を示唆する調査を指摘している。採用は雪だるま式に増えています。

5 か国のさまざまな業界の 500 組織を対象とした 2020 年の調査では、企業の 24 パーセントが採用目的で AI を導入しており、採用担当者の 56 パーセントが来年中に AI を導入する予定であることがわかりました。

パンデミックが本格化した2020年4月に人事部門のリーダー334人を対象に実施された別の世論調査では、86%の組織が新しい仮想テクノロジーを採用活動に取り入れていることが判明した。

「この傾向は…パンデミックが始まったときからすでに存在しており、新型コロナウイルス感染症によるオンライン勤務への移行が加速しているため、将来的には人事部門によるAIツールの導入がさらに進む可能性が高い」と共著者のケリー・マッケレス博士は述べた。 Drage とともに Good Robot ポッドキャストを提供しており、このデュオではテクノロジーの倫理を探求しています。

研究者らが面談した人事担当者らによると、新型コロナウイルス感染症だけが要因ではないという。 「コスト削減のためにソフトウェアを切望している人事チームや、個人的な配慮が必要な応募者の数を切望している人事チームにとって、大量採用はますます耐えられなくなってきています」とマッケレス氏は述べた。

ドラゲ氏とマッケレス氏によると、現在多くの企業が AI を使用して候補者のビデオを分析し、嘘発見 AI と同様に顔の領域を評価することで性格を解釈し、外向性、協調性、率直さ、誠実さ、性格の「ビッグ 5」の比喩をスコアリングしているという。そして神経症。

同様の手法を使ってその欠陥を暴いているパーソナリティマシンの背後にいる学部生らは、彼らのツールはユーザーがアルゴリズムを破るのに役立つわけではないかもしれないが、求職者にAIの監視の種類を知ることができる、おそらくはそれさえも与えるだろうと述べている。彼らの知らないうちに。

学生開発者の一人であるユアン・オン氏は、「採用プロセスは遠回しでわかりにくいことがよくある」と語った。 「私たちは、人々に対して現在自動的にどのような判断が下されているかを直感的に示したいと考えています。

「これらのツールは、以前に見た人の画像に含まれる共通のパターンに基づいて性格を予測するように訓練されており、性格と、明るさなど、一見無関係な画像の特性との間の誤った相関関係を見つけることになることがよくあります。私たちはそのようなおもちゃ版を作りました。実際に使用されていると思われるモデルを自分たちで実験するために使用しました」とオング氏は語った。

- このプレスリリースはもともとケンブリッジ大学のウェブサイトに掲載されたものです

発表された新しいレポートで