分析機器學習中的社會性別與交織性

原文網頁連結,如對本網頁翻譯有問題,歡迎聯絡我們

機器學習科技——包含風險評分、建議系統、語音辨識與臉部辨識——運作於活躍著社會性別、種族與其他形式之結構性歧視的社會當中。機器學習系統可能會以不同的方式參與強化這些結構,從鑲嵌於訓練資料中的人類偏見到演算法設計當中有意識或無意識的的選擇。理解演算法中的社會性別、生理性別、族裔與其他社會因素如何在特定脈絡中運作,得以幫助研究人員對於自己的工作如何影響社會做出更有意識與根據的決定。

  1. 分析工作的社會性目標與涵義

    團隊需要共同合作定義出當前發展或研究的系統之目標,並評估其潛在的社會影響,可以下列問題作為指標:

    1. 此科技的當務之急與目標是如何訂定的?它造福了誰,又將誰給遺落或置之風險當中(Gurses et al., 2018)?
    2. 社會性別常模如何形塑此研究∕產品∕服務∕系統(Leavy, 2018)?
    3. 結構性種族歧視可能會如何形塑之,例如在搜尋演算法當中再製了種族刻板印象(Crenshaw, 1991; Noble, 2018)?
    4. 貧富差距可能會如何形塑之,例如系統的運用是否會排除或有害於貧者(Eubanks, 2018)?
    5. 環境永續性可能會如何形塑之,例如深度學習模型的訓練造成大量碳足跡的狀況(Strubell et al., 2019)?
  2. 分析潛在偏見的資料

    每個訓練組都應附有說明資料是如何蒐集與註釋之資訊。含有人類資訊的資料應包含相關因子元資料的統整數據,例如參與者的社會性別、生理性別、族裔、年齡與地理位置(Gebru et al., 2018; MIT Media Lab, 2018)。透過群眾外包進行標記的資料,例如亞馬遜的Mechanical Turk,應包含參與群眾的資訊,並附上提供給群眾的標記說明指南(Zou & Schiebinger, 2018)。

    1. 用於訓練及測試模型的資料是否藏有偏見?請見範例,Buolamwini & Gebru (2018)。
    2. 對資料生成的來源脈絡進行分析——有什麼已知的社會性別偏見與常模可能會影響資料生成的過程?請見範例,Shankar et al., 2017。有些特徵若由使用它們來表達自己明顯認同於一個自我定義的社會群體的成員來呈現時,可能會產生不同的解讀或影響(例如刻意地使用一般社會常規下被認為讓人反感的字詞)。
    3. 在資料籌備的階段也有可能會帶入偏見,這牽涉了你希望演算法考量的特質之挑選。首先,思考讓演算法使用社會性別(例如,若是要使用於服飾廣告,通常會是社會性別特定的)是否合宜(例如,若是要使用於職缺廣告,則需要公平地讓所有社會性別都能看見)。若不合宜,可考慮移除顯著的社會性別特質。此外,思考模型中為了包容性所挑選的特性是否可能會在不同的社會性別之間有著不平等的傳播性?舉例而言,若是模型中使用了可能與社會性別有關的特性,例如職業或是「單親」狀態,它可能仍會間接地使用到社會性別。
    4. 偏見也有可能會鑲嵌在目標函數演算法與∕或以啟發式引導搜尋為基礎的演算法中。舉例而言,在生成目標函數時將健康花費作為健康需求的參考值,在遇到來自於被分配到較少經費的種族之患者時,可能會產生種族偏見(Obermeyer et al., 2019)。
    5. 訓練資料的族群樣本是否足夠多元,以確保其訓練之所有模型皆能夠在遇到不同族群時有好的表現?你的資料在社會性別、族裔、地理位置、年齡與其他社會因素上是否平衡?
  3. 分析模型的公平性

    1. 你是否為公平性制定了適切的定義,並用以測試於機器學習模型上?
    2.  若機器學習模型要用於為人類做出重大決定的選擇,且法律限制或社會認同的常規十分清楚時,或許可訂定一個可量化的公平性度量。這可用以測試模型本身,並偵測是否其輸出對於不同社會性別有著不公平的差異影響(Dwork et al., 2012; Hardt et al., 2016; Corbett-Davies et al., 2017)。注意:即使某個系統根據這類的量測顯示為「公平的」,但若是運用於原本就被邊緣化的群體上時,它的使用仍有可能是不公平的。

    3. 評估可能具有歧視性的機器學習模型時,須留意交織性。
    4.  部分的公平性量測是測試在單獨遇到限定的受保障特質(例如社會性別、種族)時,該模型的表現如何;然而,這可能會遺漏了歧視的交織性型態,也就是處於兩種或更多的歧視交織下的人(例如「黑人女性」、「年長亞裔男性」)。替代的測量方法旨在確保演算法不僅能在整體上達到良好的表現,同時也能更為細緻地顧及每個子群體(Kim, et al., 2019; Tannenbaum et al., 2019)。

    5. 以公平性定義來限制或再訓練機器模型系統。
    6.  建立了公平性的定義後,以此來審查現有的系統或限制新系統的發展,使其得以遵從該定義。可使用的取徑相當多樣,包括對資料進行預處理來減少模型中的偏見,以此限制學習中的演算法,或是在訓練結束後再為模型做調整。哪種取徑最為實用,則必須視脈絡而定(Bellamy et al., 2018)。

    7. 你是否考慮過模型一旦啟用後,可能會與更廣泛的社交科技系統有性別化的互動?
    8.  舉例而言,一個設計用於預測個人化拍賣的廣告空間中之最佳出價的模型在測試時可能會呈現社會性別中立。然而當該系統的運用遇到了依社會性別設定目標的競爭者時,本該社會性別中立的系統可能會變成改以具社會性別偏見的方式來投放廣告(Lambrecht & Tucker, 2019)。若輸出是用來指引人類做決定時,下決定者本身可能帶有的偏見可能會抵銷或過度補償應用於機器學習模型中的任何去偏見量測。

  4. 機器學習的子範疇

    上述的考量點之應用相當廣泛,去除偏見的取徑會依據所討論的機器學習之子類型有所差異。以下為可能需要不同方式之未盡臚列的子範疇清單:

    1. 自然語言處理
      • 研究人員提出了許多分析與辨識語言計算模型中的社會性別偏見的方式,特別是在詞嵌入(詞向量)的部份。以幾何學為基礎的技術得以比較某一語言中鑲嵌的陽剛或陰柔字詞與其他詞語的關係。這些方法也讓這類的詞嵌入得以是去偏見的,例如「褓姆」與「祖父」和「祖母」之間的距離是同等的(Bolukbasi et al., 2016)。另外有研究人員將標準的內隱連結測驗應用在詞嵌入上,藉此呈現其中包含了許多跟人類相同的偏見(Caliskan et al., 2017)。還有些研究人員發展出了社會性別中立的GloVe統計法變化(Zhao et al., 2018)。在圖像方面,研究人員首先展現了訓練演算法可能會強化出現在訓練資料中的偏見,接著則發展出了一項能夠降低這種強化的技術(Zhao et al., 2017)。
      • 類似的技術也可用於研究全體社會之歷史性的刻板印象與偏見。研究人員運用了以超過百年的文獻資料訓練過之幾何學基礎詞嵌入度量,辨識歷史上的社會性別與種族偏見之變化(Garg et al., 2018)。類似的方法或可使用於比較現今文獻中的偏見。
    2. 排序與推薦系統
      • 排序中的公平性所處理的,是一系列需要以公平的方式進行排序的人或物品(例如職缺的面試者,或是書籍推薦)。由於質量或相關性的測量有可能對其中部分人或物而言是具有偏見的——例如女性面試者或作家——而排序最高的面試者或書籍可能會對其餘者有不成比例的相關性——例如男性。公平排序的計算性取徑旨在強化這些搜尋結果或推薦當中受到排序的群體間的公平性(例如 Zehlike et al., 2017)。
    3. 語音辨識
      • 語音辨識當前所遭遇的困難與電腦視覺的狀況很類似(Tatman, 2017);需要對代表性資料組的蒐集給予相同的關注。
    4. 臉部辨識
      • NIST美國國家標準技術研究院2019年針對商業臉部辨識服務的評估報告發現「黑人女性……為FMR(誤認率)最高的族群」(NIST, 2019)。

Bellamy, R. K., Dey, K., Hind, M., Hoffman, S. C., Houde, S., Kannan, K., ... & Nagar, S. (2018). AI fairness 360: An extensible toolkit for detecting, understanding, and mitigating unwanted algorithmic bias. arXiv preprint arXiv:1810.01943.

Bolukbasi, T., Chang, K. W., Zou, J. Y., Saligrama, V., & Kalai, A. T. (2016). Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. In Advances in Neural Information Processing Systems (pp. 4349-4357).

Caliskan, A., Bryson, J., & Narayanan, N. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183-186.

Crenshaw, K. (1991). Mapping the margins: Intersectionality, identity politics, and violence against women of color. Stanford Law Review, 43, 1241.

Corbett-Davis, S., Pierson, E., Feller A., Goal S., & Huq A. (2017). Algorithmic decision making and the cost of fairness. In Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (pp. 797-806). ACM.

Dwork, C., Hardt, M., Pitassi, T., Reingold, O., & Zemel, R. (2012). Fairness through awareness. In Proceedings of the 3rd innovations in theoretical computer science conference (pp. 214-226). ACM.

Eubanks, V. (2018). Automating inequality: how high-tech tools profile, police, and punish the poor. New York: St. Martin's Press, 2018.

Garg, N., Schiebinger, L., Jurafsky, D., & Zou, J. (2018). Word embeddings quantify 100 years of gender and ethnic stereotypes. Proceedings of the National Academy of Sciences, 115(16), E3635-E3644.

Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Daumeé III, H., & Crawford, K. (2018). Datasheets for datasets. arXiv preprint arXiv:1803.09010.

Hardt, M., Price, E., & Srebro, N. (2016). Equality of opportunity in supervised learning. In Advances in Neural Information Processing Systems (pp. 3315-3323).

Grother, P. J., Ngan, M. L., & Hanaoka, K. K. (2019). Ongoing Face Recognition Vendor Test (FRVT) part 1: verification (No. NIST Interagency/Internal Report (NISTIR)-8238). https://www.nist.gov/sites/default/files/documents/2019/07/03/frvt_report_2019_07_03.pdf

Gurses, S., Overdorf, R., & Balsa, E. (2018). POTs: The revolution will not be optimized. 11th Hot Topics in Privacy Enhancing Technologies (HotPETs).

Holland, S., Hosny, A., Newman, S., Joseph, J. & Chmielinski, K. (2018). The dataset nutrition label: a framework to drive higher data quality standards. Preprint at https://arxiv.org/abs/1805.03677.

Jobin, A., Ienca, M., & Vayena, E. (2019). Artificial Intelligence: the global landscape of ethics guidelines. arXiv preprint arXiv:1906.11668.

Kim, M.P., Ghorbani, A. and Zou, J. (2019), ‘Multiaccuracy: black-box post-processing for fairness in classification’. In Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society, 247-254.

Lambrecht, A., & Tucker, C. (2019). Algorithmic bias? An empirical study of apparent gender-based discrimination in the display of stem career ads. Management Science (2019). https://doi.org/10.1287/mnsc.2018.3093

Leavy, S. (2018). Gender bias in artificial intelligence: the need for diversity and gender theory in machine learning. In Proceedings of the 1st International Workshop on Gender Equality in Software Engineering. ACM.

National Institute of Standards and Technology, U.S. NIST (2019) Face Recognition Vendor Test (FRVT) Part 2: Identification. https://www.nist.gov/publications/face-recognition-vendor-test-frvt-part-2-identification.

Nielsen, M. W., Andersen, J. P., Schiebinger, L., & Schneider, J. W. (2017). One and a half million medical papers reveal a link between author gender and attention to gender and sex analysis. Nature Human Behaviour, 1(11), 791.

Nielsen, M. W., Bloch, C.W., Schiebinger, L. (2018). Making gender diversity work for scientific discovery and innovation. Nature Human Behaviour, 2, 726-734.

Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press.

Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447-453.

Popejoy, A. B., & Fullerton, S. M. (2016). Genomics is failing on diversity. Nature, 538(7624), 161-164.

Prates, M. O., Avelar, P. H., & Lamb, L. (2018). Assessing gender bias in machine translation—a case study with Google Translate. arXiv preprint arXiv:1809.02208.

Schiebinger, L., Klinge, I., Sánchez de Madariaga, I., Paik, H. Y., Schraudner, M., and Stefanick, M. (Eds.) (2011-2019). Gendered innovations in science, health & medicine, engineering and environment, engineering, machine translation.

Shankar, S., Halpern, Y., Breck, E., Atwood, J., Wilson, J., & Sculley, D. (2017). No classification without representation: assessing geodiversity issues in open data sets for the developing world. arXiv preprint arXiv:1711.08536.

Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and policy considerations for deep learning in NLP. arXiv preprint arXiv:1906.02243.

Sweeney, L. (2013). Discrimination in online ad delivery. Queue, 11(3), 10.

Tannenbaum, C., Ellis, R., Eyssel, F., Zou, J, & Schiebinger, L. (2019) Sex and gender analysis improves science and engineering, Nature, 575(7781), 137-146.

Tatman, R. (2017) Gender and dialect bias in YouTube's automatic captions. In Proceedings of the First Workshop on Ethics in Natural Language Processing (pp. 53–59). ACL.

Wagner, C., Garcia, D., Jadidi, M., & Strohmaier, M. (2015). It's a man's Wikipedia? Assessing gender inequality in an online encyclopedia. In Ninth International AAAI Conference on Web and Social Media,v (pp. 454-463).

Zehlike, M., Bonchi, F., Castillo, C., Hajian, S., Megahed, M., & Baeza-Yates, R. (2017). Fa*ir: a fair top-k ranking algorithm. In Proceedings of the 2017 ACM on Conference on Information and Knowledge Management (pp. 1569-1578). ACM.

Zhao, J., Wang, T., Yatskar, M., Ordonez, V. & Chang, K.-W. (2017). Men also like shopping: reducing gender bias amplification using corpus-level constraints. arXiv preprint arXiv:1707.09457.

Zhao, J., Zhou, Y., Li, Z., Wang, W., & Chang, K. W. (2018). Learning Gender-Neutral Word Embeddings. arXiv preprint arXiv:1809.01496.

Zou, J. & Schiebinger, L. (2018). Design AI that’s fair. Nature, 559(7714), 324-326.