清研智庫:解決AI算法偏見的五個策略
從谷歌搜索和約會網站到檢測信用卡欺詐,人工智能(AI)一直在尋找新的方式進入到我們的生活中。但我們能信任驅動它的算法嗎?
作為人類,我們會犯錯誤。我們可能會出現注意力失常,誤解信息。然而當我們重新評審視時,我們可以挑出錯誤并糾正它們。但是當一個AI系統犯了錯誤時,無論在相同的環境下看了多少次相同的數據,它都會一次又一次地重復。
AI系統是不可避免地使用反映過去的數據進行訓練的。如果一個訓練數據集包含了過去人類決策的固有偏見,這些偏見就會被系統編纂和放大。或者如果它包含的關于特定少數群體的數據較少,那么對該群體的預測就會趨于糟糕。這就是所謂的 “算法偏見”。
算法偏見是如何產生的?
算法偏見可能是由于缺乏合適的訓練數據,或者是由于不適當的系統設計或配置而產生的。例如,一個幫助銀行決定是否發放貸款的系統,通常會使用銀行以前的貸款大量數據集(以及銀行可以訪問的其他相關數據)進行訓練。該系統可以將新的貸款申請人的財務歷史、就業情況和人口統計信息與以前申請人的相應信息進行比較。由此,它試圖預測新申請人是否有能力償還貸款。
但這種方法可能存在問題。在這種情況下,可能產生算法偏見的一種方式是通過之前貸款經理對抵押貸款申請做出的決定所產生的無意識偏見。如果客戶過去被不公平地拒絕貸款,AI會認為這些群體的普遍還款能力低于實際水平。年輕人、有色人種、單身女性、殘疾人和藍領工人只是一些可能處于不利地位的群體的例子。
算法偏見對個人和公司都有風險
上述有偏見的AI系統給銀行帶來了兩個關鍵風險。首先,銀行可能會錯失潛在客戶,將偏見的受害者送到其競爭對手那里。根據反歧視法,它還可能被追究責任。如果一個AI系統不斷地在其決策中應用固有的偏見,那么政府或消費者團體就會更容易識別這種系統性模式。這可能會導致巨額的罰款和懲罰。
減輕算法偏見
五種減輕算法偏見的方法。可以應用于各行各業的企業,幫助確保AI系統的公平和準確。
1. 獲取更好的數據
通過獲取更多的數據點或新型的個人信息,特別是那些可能在現有數據中出現不準確的人,可以減少算法偏見的風險。
2.對數據進行預處理
這包括編輯數據集,以掩蓋或刪除與反歧視法保護相關的屬性信息,如種族或性別。
3. 增加模型的復雜性
一個簡單的AI模型可以更容易測試、監測和詢問。但它也可能不那么準確,并導致偏向多數人而非少數人。
4. 修改系統
可以主動調整AI系統的邏輯和參數,直接對抗算法偏見。例如,可以通過為弱勢群體設置不同的決策門檻來實現。
5. 改變預測目標
選擇用來指導AI系統的具體措施,會直接影響到它在不同群體中的決策方式。找到一個更公平的措施作為預測目標,將有助于減少算法偏見。
采用AI決策的政府和企業的建議
在向想要采用AI決策的政府和企業提出的建議中,首先強調在使用AI決策時必須考慮公平和人權的一般原則。而這一點必須在系統投入使用之前完成。還建議對系統進行嚴格的設計和測試,以確保輸出結果不會受到算法偏見的污染。一旦投入使用,就應該對其進行密切監控。
最后建議,以負責任和道德的方式使用AI系統,不僅僅是遵守狹義的法律條文。它還要求系統與廣泛接受的社會規范保持一致–并考慮到對個人、社區和環境的影響。
隨著AI決策工具的普及,如果我們謹慎地使用他們,我們不僅有機會提高生產力,而且有機會創造一個更加公平公正的社會。
作者:Tiberio Caetano、Bill Simpson-Young,清研智庫李梓涵編譯
