什麼是演算法稽核?
演算法稽核由立法者和研究人員提倡,透過剖析和壓力測試演算法,檢驗演算法的運算邏輯,工作模型,以及產出結果,最重要的是檢視其結果是否符合既定的運算目標,抑或是產生偏見(偏誤,Bias);而偏誤是演算法設計人員或企業本應極力避免的設定,不論偏誤是人為設置或是無心發生,都嚴重違反企業道德準則或各國相關法令,如平等法甚至是憲法。
越來越多企業使用人工智慧來招募,或是績效考核,甚至開除員工。我們如何確保它的公平性? 隨著演算法招募系統(績效管理)的激增,人工智慧 (AI) 在就業市場和招募與處理員工中的影響一直在迅速擴大。
Xsolla 開除 150 名員工,因為他們的數位足跡顯示 『不投入』與『沒有生產力』!
一項調查發現,美國 55% 的人力資源領導者在招募時使用預測演算法。雖然一些人工智慧系統減少某些人類偏見的機會,但另一些則創造了新的歧視模式。演算法稽核已被提議作為確保這些標準的一種方式。布魯金斯學會的 Alex Engler 解釋了它們的工作原理。
從廣義上講,演算法的使用可以實現更公平的就業招募流程,但如果沒有規劃出有意義的標準,就不能保證情況會如此。演算法稽核已被提議作為確保這些標準的一種方式,並且演算法招募系統稽核的早期範例已向公眾發布。但人們對這些稽核和相關激勵措施檢驗後表明,演算法稽核本身並不會讓企業產生自我當責。本文介紹了實現演算法稽核的具體標準的步驟,以及加強監管監督的途徑。
介紹
現在幾乎每個就業求職過程階段都有可用的演算法工具。求職候選人可以找到職位空缺,企業的招募人員可以通過 LinkedIn、Monster 和 Indeed 等人才平台找到候選人。許多公司使用演算法系統來分析簡歷,而另一組公司,如 JobScan 和 VMock,使用演算法來改善簡歷在其他演算法中的表現(有如矛與盾的關係)。
其他公司,如 Pymetrics 和 PredictiveHire,創建人工智慧問卷和評估來預測員工的工作績效。公司使用 AI 將記錄的語句轉錄為文本(內容),然後使用自然語言處理分析這些文本(內容)。
一些軟體供應商,如 HireVue 和 TalView,在面試過程中使用了面部表情分析。除了這些供應商之外,較大的公司還建構了自己的內部演算法工具來招募。甚至經常使用行為數據來確定留才、調整工資和評估晉升,部份的企業使用 AI 來監控在職員工,也可以被視為該演算法運用的一部分。
這些演算法工具的共同特點是,它們以收集到的關於人員的數據來推斷他們在工作中的表現。根據 Upturn 對演算法就業歧視問題的審查,公司建構或採購這些工具是為了減少招募的持續時間和成本,並有可能提高工作場所的多樣性和新員工的績效。
但對於個別求職者來說效果並不明顯,那些不完全符合演算法預期的人可能會被排除在外。
招募過程使用演算法大量激增是前所未有的,引發了人們對這些系統如何影響勞動力經濟的擔憂,尤其是系統性歧視。
演算法的偏見
研究表明,偏見可以通過多種方式進入演算法招募流程。預測工作場所成功指標(例如績效評估或薪水)的機器學習模型可能會將良好的分數歸因於能力,但實際上是與技能無關的環境因素結果,例如工作場所的歷史偏見,如白領辦公室的人一定比藍領人員謹慎或專業等。
用於分析自然語言的文本模型,如在簡歷中或從面談中轉錄的模型,已被證明了對婦女和殘疾不便人士的偏見。語音識別模型已被證明對非裔美國人的明顯偏見,以及語音辯證和區域變化的潛在問題。
商業人工智慧臉部表情分析,除了在很大程度上是偽科學 Pseudoscientific 之外,還顯示出明顯對膚色與殘疾不便人士判斷差異。
演算法可能會無意中導致對年輕女性的 STEM 工作能力的偏見,以及類似的對年長候選人的年齡歧視。鑑於上面一系列演算法記錄在案的偏差實例尤其成問題,單個演算法中的小偏差極為容易累積成更大的結構問題。
正如一篇有影響力的論文所證明的那樣,在一份相同的簡歷上只是轉換了白人的名字和非裔美國人的名字,人類在招募中表現出明顯的偏見。2017 年,28 項研究的分析觀察到“過去 25 年對非裔美國人的招募歧視水平沒有變化”,對拉丁美洲人的歧視則略有下降。
不幸的是,對心理學研究的全面分析表明,要減輕人類決策中的隱性偏見是非常困難的。研究表明,多樣性和包容性干預措施並沒有改善結果,例如在高科技行業領域的女性。
目前使用的其他求職候選人評估工具,例如認知能力測試,也可能表現出巨大的種族偏見,從而導致不同程度的影響。儘管有明顯的偏見證據和相對較弱的有效性證據,幾十年來企業招募過程仍普遍與廣泛的使用認知能力測試(包括智商測試)。
因此,在有演算法工具之前的招募流程也表現出系統性偏見,仍然不可取。
演算法的演進與改善
從廣義上講,使用演算法在某些情況下小心謹慎的執行,可減少具偏見的決策過程。例如,透過語言模型技術或通過改變正在預測的結果變量來減少偏差;或者,改變演算法生成排名的使用方式,並從其他有偏見的模型中獲得公平的結果。特別是在招募方面,演算法還被用來幫助消除就業過程的特定方面的偏見,例如消弭申請中的種族、性別和特殊人口統計訊息的影響,並重新描述職位內容,以吸引更多不同的合適人選。
2019 年的論文 “演算法時代的歧視” 對演算法做了最全面的論證,並正確地得出『演算法可以比人類決策更透明的結論』,因此 “有可能在打擊歧視方面取得重大進展”。主流證據支持這一結論,儘管它需要在應用環境中有更多評估,例如由於其專有性質,目前尚未對就業演算法在實務實踐中的影響有完整的系統分析,但日後很快產生。
演算法在減少偏見方面仍存在嚴重缺陷的現狀和其潛在能力,值得讓我們考慮什麼樣的社會技術系統和激勵(監督)措施會帶來最佳的結果。
重新思考
極為重要的,我們必須考慮市場激勵機制和政府監管如何影響演算法的開發,因為較適合社會發展或較公平的演算法,它不見得是企業的最佳運用。
在沒有監督或訴訟的威脅下,我們有充分的理由懷疑,這些演算法工作模式通常趨向企業效能或其他指標,而不會是公平嚴謹。
最根本的原因是如果要更高度的公平性,則系統將更昂貴,因為這需要高度熟練數據科學家和工程師來重新製作與審視演算法流程是否健全及公正,極其耗時且複雜,而不是單純的建立新的功能或提供一個新的模式。
此外,使用在部署之前開發這些更公平的模型,收集更多樣化和有代表性的數據,會大幅增加額外的費用。
操作規模也是一個問題,這些就業演算法累積影響數千萬人。這意味著,歧視性結果可以很容易地傷害成千上萬甚至上百萬的人。這些系統的使用客戶,或購買這些演算法系統的企業來僱用員工,通常有意通過演算法招募系統促進多樣性。但我們很難區分這些系統供應商『不歧視』誰做的好,誰不好。因為所有的系統商都堅持自己有 “公正的模型”。演算法稽核是一個極有希望核實人工智慧 AI 招募系統是否內含歧視的方式。
就業招募系統中的演算法稽核
人們對演算法稽核的作用越來越感興趣,以應對心中對演算法系統偏見的擔憂。在演算法稽核中,獨立方可以評估演算法系統的偏差,但也可以評估準確性、穩健性、可解釋性、隱私特徵和其他意外結果。
稽核單位發現問題向開發人員提出改進或替代方案。除了改進系統之外,如演算法稽核的結果公開,還可以幫助建立消費者和客戶的信任。圍繞這個想法出現了一些小型產業,包括專門從事演算法稽核的公司,如 O’Neil Risk Consulting & Algorithmic Auditing (ORCAA) 和 Parity AI,以及其他專注於演算法監控的公司,如 Fiddler、Arthur 和 Weights & Biases。
雖然在電腦安全和數據庫隱私方面的稽核歷史悠久,但演算法稽核的想法相對較新,儘管研究正在進行中,其範圍仍然模糊不清,缺乏正式定義意味著可以在演算法稽核範圍內做出無數決定。
演算法系統的供應商可能有許多不同的模型在使用,因此稽核員可能會檢查一個模型、一種類型的多個模型,或者一些或所有模型類型的隨機樣本。稽核師可能會直接勘查公司的數據資料以測試自己的統計,或者要求由稽核公司提供的統計數據。稽核師還可以直接檢查演算法模型本身,以檢查其功能並測試新案例。此外,稽核師可能會將其結論完全公開、部分公開,或者僅將結果提供給客戶公司。
這些選擇決定了稽核的效果是私人反省、有意義的公共責任還是公共關係的戲劇(誰知道稽核的模型,跟實際運算的模型是否為同一套?)。最近來自該領域的例子展示了一些可能的結果:
- HireVue 與 ORCAA 簽訂合同,對其一項模型稽核非常有限的範圍,並提供有關其他建模實踐的建議。ORCAA 只稽核檢查 HireVue 應聘者評估項目的電子文檔。根據這些文件,OCRAA 稽核確定該範圍符合非歧視的法律標準。ORCAA 稽核的其餘部分是與 HireVue 員工和外部利益相關者對話,以查核改進 HireVue 工具的潛在方法。稽核並未獨立分析 HireVue 的數據或直接評估其模型,而是討論了改進方法。正如稽核所指出的,稽核並不代表 HireVue 的模型,也沒有評估最有可能表現出有偏見結果的模型。此外,HireVue在新聞稿中歪曲了稽核,並將稽核置於保密協議之下。儘管稽核切實幫助 HireVue 考慮改進其流程的方法,但 HireVue 僅允許非常有限的公共透明度或自我當責制。
- 一個最近由 Pymetrics 以及美國東北大學獨立研究人員共同完成的稽核則更加透徹,分析文檔,數據和源代碼由 Pymetrics 提供。在沒有告知 Pymetrics 檢查內容的情況下,稽核員檢查了七種不同的模型,其中一些模型是從最近的客戶中隨機選擇的。稽核使用了來自接受 Pymetrics 評估的員工和面試人選的代表性數據,並生成了合成數據來對建模代碼壓力測試。稽核確定建模過程符合非歧視的法律標準,但沒有披露最終模型的具體偏差統計數據。雖然專有源代碼、數據和文檔仍處於保密協議下,稽核師保留公開報告稽核的權利,並且以論文的形式在先進人工智慧倫理會議上發表。稽核師詳細考慮了獨立性,包括在稽核結果之前以贈款的形式接受資金。這次稽核確實承認了其局限性,但它可以促使實現有意義的公共透明度。
分析深度和由此產生的透明度的差異值得注意,在 Pymetrics 和東北研究人員的情況下,兩者都明顯更好。
儘管如此,這兩個稽核案例都有一些好處 – HireVue 稽核比完全私人的自省創造了略微更高的透明度,並且可能會促進演算法流程的其他變化。另一個比較極端的例子,亞馬遜發現他們的簡歷分析工具對女性求職者有偏見並關閉該系統。亞馬遜沒有公開此事,幾年後才被路透社的調查記者發現。除了透明度之外,這些早期較小的演算法稽核供應商透過這些主題的內部專業知識,逐漸評估和改進他們的演算法稽核服務。
演算法稽核的商譽品質
演算法稽核不會自動阻止企業使用有偏見的演算法。雖然稽核的想法與自我當責制相關聯,但稽核並不會自動產生當責制。
當招募演算法開發人員與演算法稽核師簽訂合同時,該稽核師正在為客戶提供服務,稽核師通常在財務上依賴這種服務。這種財務依賴會從根本上削弱稽核的公共價值。雖然稽核公司可能會擔心其公眾聲譽或保持較高的專業標準,但出售其服務的需求將是最重要的因素,並將最終決定哪些稽核師能夠生存,哪些會失敗。
儘管 ORCAA 和東北大學的研究人員都為稽核師的稽核工作付費,但關鍵的是,更徹底的稽核是由具有其他財務支持方式(不收客戶費用)的學術研究人員完成的,而不太徹底的稽核則是由具有直接財務依賴性的公司(收客戶費用)完成的。這鼓勵考慮促使公司選擇和啟用全面稽核的激勵措施,以及稽核員執行穩健和關鍵稽核的激勵措施。
在這個主題上,可以從財務會計中汲取重要的經驗教訓,其中三種潛在機制因其與演算法稽核的相關性而脫穎而出。這些機制是驗證這些稽核的政府執法、要求嚴格和徹底稽核的市場激勵措施,以及要求個人稽核師達到高標準的專業規範。不幸的是,演算法稽核基本上沒有這些,但可以通過類似於財務會計的方式啟用。
市場商譽
如果財務稽核公司的客戶在破產之前一直公佈健康的資產負債表,稽核公司將失去至關重要的信任。例如,Ernst & Young 因其客戶 Wirecard 涉嫌欺詐 20 億美元而遭受商譽損失。
市場抨擊安永是一件好事,這意味著其他財務稽核公司會更注意並避免類似的錯誤。稽核公司不僅要驗證公開的財務報表,還要驗證防止欺詐的內部控制和流程。這表示股東和謹慎的高管有充分的理由聘請專業的稽核公司。
財務稽核公司或稽核人員積極競爭以在稽核品質表現出色。然而,演算法稽核目前並沒有相同之處,因為演算法危害往往是個案化的,並且難以識別。如企業的演算法具有歧視性,公司不會有立即風險,即使出現公開的歧視證據,也不清楚企業是否面臨跟財務瑕疵相應的後果。
專業標準和業務守則 – 確保稽核嚴謹性
在財務會計方面,私營部門組織財務會計準則委員會執行一套共同的原則,即公認的稽核標準 (GAAS, Generally Accepted Auditing Standards),其中詳細說明了獨立組織應如何稽核財務會計。至關重要的是,GAAS 限制了在稽核中做出選擇的數量。雖然仍有一定的靈活性和潛在操縱的空間,但這些標準能夠對稽核是否徹底有更一致的評估。然而,演算法稽核中沒有等效的指導方針,這一定程度上解釋了 HireVue 和 Pymetrics 稽核之間的巨大差異。事實上如果建立了一套明確的標準,HireVue 分析甚至可能不符合稽核條件,而被定義為案例研究或審查。
政府在財務會計監督方面發揮著兩個關鍵作用
首先,如果會計師故意參與或疏忽促成財務欺詐,就像肇事公司一樣,他們要承擔責任。財務稽核師因允許欺詐而被客戶或其投資者和債權人起訴,那麼背離 GAAS 標準實踐的稽核師難以替他們的行為辯護。
但,演算法稽核中沒有確立民事責任。如果一家公司被稽核師清除了歧視性影響,但隨後因演算法中的歧視而被成功起訴,除非明確寫入合同,否則稽核師不會有責任。這種情況也不太可能發生,因為在訴訟中證明演算法歧視可能非常困難,通常需要廣泛訪問許多求職者的招募數據。
除了民事責任之外,政府的直接監督可以成為保持稽核有效的機制。
第二,除了民事責任之外,政府的直接監督可以成為保持稽核誠實的機制。在金融領域,一個名為上市公司會計監督委員會 (PCAOB, Public Company Accounting Oversight Board) 的非營利組織擔任這一角色。但在實務中 PCAOB 並未廣泛運用其監督權,其對市場的影響尚不確定。稅務會計更清楚地說明了政府監督的作用。如果某個稅務會計師的客戶經常被國稅局罰款,潛在客戶就會知道去其他地方。然而,在演算法稽核中也沒有與 IRS 稽核或 PCAOB 監督的明確歷史記錄可供查詢。
不幸的是,由於演算法招募系統不存在這些檢查,將非法或不道德的作法放入演算法可免受審查。製定具體而穩健的演算法稽核定義,啟用政府監督和民事責任作為執法機制,都將大大改善現狀。
演算法稽核定義
應包含
- 求才招募系統可能偏見的內容。
- 將已完成稽核內容或結果當成比較基準。
我們應該鼓勵更嚴格的稽核標準,當然這不是一篇分析論文就能完成的任務。這項任務將需要整體社群甚至國家的努力,並需要一系列專家的貢獻以及該領域公司的支持,例如通過專業標準組織。有一些重要的標準通常會適用大多數商業建模,這些可以作為起點,幫助評估在這些標準存在之前執行的自願稽核的品質。
稽核過程注意事項
稽核獨立性
演算法稽核應有意識地建構合同以保持稽核結果的獨立性。稽核師應在公開報告和公佈稽核結果保持完全獨立,除非事先商定與專利訊息相關的特定或狹隘例外情況。稽核師不應向被稽核公司披露調查過程的細節。此外,稽核費用應在其結果返回之前交付,稽核師不應與公司有其他財務關係。
代表性分析
演算法稽核不需要查看客戶的演算法每個部署模型。但需要查看足夠的模型以確保公平。這可能只需要所有模型的隨機樣本或與使用分層隨機抽樣法。在分層隨機樣本中,稽核師可能會隨機抽取『不同類型模型』或『不同工作類別』(例如,銷售人員與客戶服務代表的模型)的隨機樣本。
數據、源代碼和模型檢查:演算法稽核必須可以不受限制地調查數據、源代碼和訓練模型的各種組合,以便直接評估該系統。這意味著被稽核公司需要保留已部署的模型版本和相關數據,以備將來稽核之用。在大多數情況下,具有代表性的數據和源代碼樣本就足夠了,因為它們可用於訓練模型,但檢查已部署的模型是一種更徹底的方法。值得注意的是,專有數據、源代碼和模型不需公開,這會給被稽核公司帶來隱私風險和不當的競爭劣勢。
考慮被稽核者的立場
稽核師通常不應假設被稽核公司是善意的。稽核師應盡可能檢查數據、源代碼和模型,並考慮其他途徑來驗證提供的訊息。
演算法連結項目和文檔
數據收集過程:演算法稽核應積極考慮數據收集和整理,特別是包括排除異常值的高層編碼、分類變量的合併或缺失數據插補及其對模型訓練和結果的可能影響。
訓練數據代表性:用於訓練機器學習模型的數據集應在人口統計數據可用的範圍內評估代表性。例如,在一些招募演算法中,同樣重要的是訓練培育數據不僅要在申請人中多樣化,而且要有足夠來自不同子群體成功招募的實際案例。
連結項目依賴性分析:演算法稽核應考慮被稽核公司的演算法系統所連結依賴的軟體元件或資料庫的影響,並對其分析報告。使用於演算法招募系統的預訓練機器學習模型,尤其是用於面部表情分析、語音分析、語音轉錄、語言翻譯和自然語言處理的模型,都應仔細考慮對其下游模型的影響後果。
文檔審查:演算法稽核應審查模型的文檔,並確保文檔準確傳達了模型的功能。這在兩種情況下尤其重要:
- 客戶對模型輸出的解釋,在客戶公司接收模型或模型輸出的任何情況下至關重要,尤其模型本身可能導致有偏差的結果;
- 在廣告聲明和其他公開報告中,例如模型說明或數據內容標籤等。
模型審查
面試候選人排名:演算法審核須徹底檢查演算法系統生成的職位候選人排名和相關分數。它們通常決定誰進入招募流程的下一階段。因此,至關重要的是,
- 稽核師找出演算法過程如何生成求職者的排名
- 不同子群之間的比率和相關統計結果
- 稽核師須具體描述,如測試模型的詳細與明確統計數據,而不僅是衡量系統是否符合法律標準,例如 “選擇某類型比率差異很大”
歷史數據的功能
演算法稽核應考慮經過訓練的模型如何的應用在開發新模型。這與僅查看候選人排名不同,因為新模型分數可以與歷史數據中實際僱用的人比較。稽核應報告相關的公平性指標,並使用 Aequitas 和 AI Fairness 360 等工具。如機會均等的指標可能高度相關,這些統計數據衡量模型是否在不同子群組中成功僱用員工提供了公平的分數。雖然某些模型可能無法完全公平地,但報告這些跨群演算法分析結果的比較仍然有其價值。
子群組注意事項
演算法稽核應檢查模型以了解子群組內部變量的相關性,尤其是特別群體的特徵處理(尤其是需要受保護的)。亦應檢查超出法律要求範圍的子群體,並在可能的情況下考慮交叉性(如性別和種族的重疊)和亞種族群體(如將中東人與白人分開)。
假設數據
稽核員可以生成合成數據來對模型運算進行壓力測試。這個過程可檢查自動或人工作業時,訓練模型是否會捕獲有問題的數據或資料。此外,它還可以幫助檢查超出模型訓練數據分佈範圍的個人特殊狀況可能會發生什麼事情,這對於殘疾人士來說尤其重要。
問題定義
演算法稽核應仔細考慮選擇的結果變量以及該變量如何導致偏差。例如,許多演算指標顯示,員工成功的表現,大部分地受到工作場所文化中根深蒂固的優惠待遇所驅動。例如,銷售人員的總銷售額有很高的機會取決於他們被分配到的客戶的品質,或是潛在客戶的品質,而不是他們工作的品質。在這種情況下,模型的結果變量與我們感興趣的項目權重不一致,通常會導致結果偏差,稽核師一般會建議替換指標。
頻率
演算法稽核應考慮模型更新問題,以及模型轉換會帶來什麼影響,尤其是性能減損或『信效度下降』的可能性。這些考量會影響模型稽核需要多久一次。
這些稽核項目旨在作為更廣泛討論的起點,它們既不適用於所有情況,也不夠全面,絕對需要額外的細節與稽核投資。如同多數分析師所指出的,從技術實施到對利益相關者需求的更廣泛的了解與評估,也可能是演算法稽核的重要作用,儘管這不太可能由法律強制執行。此外,偏見並不是招募演算法的唯一問題,稽核還可能考慮如何使演算模型對面試候選人更加透明或保護他們的個人敏感隱私數據。
對美國聯邦治理的影響
為演算法稽核創建正式和穩健的標準是重要的一步,但它仍必須受到政府的監督
在美國,平等就業機會委員會 (EEOC, Equal Employment Opportunity Commission) 應考慮執行此類演算法稽核需要採取哪些具體步驟。這項工作似乎是在 2016 年底開始的,但不清楚它是否在川普政府期間繼續進行(儘管其他相關工作已進行)。勞工部的聯邦合同合規辦公室也可以執行新規則,確保聯邦政府只跟那些能夠產生令人信服公正證據的演算法招募公司簽訂合同。
如之前所言,拜登政府應認真應對這些挑戰。如 EEOC 被指出,稽核機構在調查就業歧視指控時,訪問公司數據的限制問題。事實上,最近有 10 位參議員寫信給 EEOC,詢問 EEOC 是否具備調查有使用招募演算法公司的稽核能力。這是關鍵問題,如果政府無法調查這些演算法系統的數據,就無法嚴謹分析。看到 EEOC 公開招募兩名數據科學家作為改善聯邦招募流程的重要努力,著實令人鼓舞。相關機構可能也同樣需要新的技術專家協助。
除了建立演算法稽核的能力,平等就業機會委員會需要重新審視現有的政策,並起草新的指導原則,以因應演算法系統的快速擴散。
這包括重新審查平等就業機會委員會的『員工遴選統一指導方針』的效度。如同 Manish Raghaven 和 Solon Barocas 所針貶的,該統一指導方針目前讓演算法開發人員通過展示他們工具的可預測性,來抵禦反駁外界對其歧視性的指控,即便是該展示工具已被證明具備歧視性。
這是一個極不合理的作法,因為這些系統通常採用受監督的機器學習模型,其出現的數據結果,必然會出現『定義好』的預測結果。這一規定需要改變。此外,EEOC 應該澄清的是,當它執行演算法招募系統的稽核時,將著眼於更廣泛的指標,而不只是看跨子群組的面試選擇率(長期以來作為歧視性影響首選指標)。當然我們也需要理解與整合被監督企業所儲存的數據,源代碼與模型的要求,讓他們有效的『被稽核』。
平等就業機會委員會也應考慮其他可以更妥善運用『民事責任』的機制,來強制要求企業使用『合理的演算法』。
要求政府干預該領域的目標並不是讓勞動力市場完美運行,而是有意義地提高『員工評估演算法』的品質底線。
通過保持公平性和更高的標準,那些投入時間,資源和金錢來建置公平演算法的公司將有更好的競爭力,而不道德的公司將面臨罰款和訴訟,以及商譽減損。僅靠演算法稽核可能不足以防止濫用或歧視發生,其他干預措施如全面禁止在就業招募服務中使用面部情感分析工具是值得考慮的。
此外,上面我們談的這些方式可能並不全然適用於某些線上招募平台,例如 Monster、LinkedIn 和 Indeed。鑑於這些公司對勞動力市場的重要性,他們可行與有價值的一步是向獨立研究機構開放他們的數據。
如果政府能夠建立有意義的監督,演算法稽核將變得更有影響力。這將吸引企業對更公平的演算法系統有更多的投資,並且 AI 演算法招募的世界可能會大幅改善人類審查面試候選人過程中的『過時認知』或『普遍存在的人類偏見』。EEOC 甚至可以突顯與表揚該領域的最佳實踐企業,並敦促雇主轉向使用更公平的招募演算法,以及健全合理的面試候選人選才流程。通過這些變化,市場上各種雨後春筍般的就業招募演算法系統就可以發揮其潛力與影響力,顯著減少使許多人處於不利地位的系統性偏見,並強化整體勞動力市場的效能。
Written by
Alex Engler, Rubenstein Fellow, Governance Studies, The Brookings Institution
This article is published in collaboration with The Brookings Institution.
撰稿人
Alex Engler,布魯金斯學會治理研究魯賓斯坦研究員
本文與布魯金斯學會合作發表。
Jun 25, 2021
推薦閱讀:
本文由論壇精選翻譯自 World Economic Forum