人工智慧是在活躍著性別與族群的社會中運作的。而演算法的偏見出現的原因有很多,從埋藏於訓練數據內的人類偏見,到演算設計中的無意識選擇。隨著機器學習在日常生活中越來越普及,這些偏見若沒有被修正,將可能導致社會的不公正。研究者必須瞭解性別與族群在其演算法的脈絡中是如何運作的,來提升社會公平;或至少能不過度強化它。在此我們提議一些減少訓練數據與演算法中的偏見之途徑,勉力創造得以增進社會公平的人工智慧。
社會性別涉及了文化態度與行為。人類透過習得的行為在龐大且複雜的社會中運作。我們說話的方式、我們的習性、我們使用的物品,以及我們的行為在在展現著我們是誰,也建立了互動的規則。社會性別便是這些行為與態度中的其中一套;道德則是另一套行為與態度,且兩者經常交錯。
1. 描繪出已知因科技而擴大的人類偏見案例
2. 描繪出解決之道
3. 系統性的解決方法:參與基礎建設議題;進行嚴謹的社會福利檢視;打造跨領域並具社會多元性的團隊;將社會議題融入核心電腦科學課程中。
機器學習的演算法可能包含可觀的性別和族群偏見。在機器學習的管線中,偏見會存在哪裡:輸入的資料?演算法本身?或是運用的種類?更重要的是,人類該如何介入自動化的過程當中,以便促進,或至少不要傷害社會公平呢?而又是誰該做出這些決定呢?
很重要地,人工智慧正在打造未來(科技,也就是我們的裝置、程式以及程序形塑了人的態度、行為以及文化)。換句話說,人工智慧可能不小心將過往的偏見延續到了未來,即使政府、大學以及如Google或Facebook等公司都已經立定規範維護平等。那麼,大問題就在於:我們人類該如何能有效確保人工智慧支持社會正義?
方法:分析社會性別
社會性別涉及了文化態度與行為。人類透過習得的行為在龐大且複雜的社會中運作。我們說話的方式、我們的習性、我們使用的物品,以及我們的行為在在展現著我們是誰,也建立了互動的規則。社會性別便是這些行為與態度中的其中一套;族群則是另一套行為與態度。
社會性別包含了:
- 社會性別規範包含明說與未明說的文化規則(遍及立法規範的到無意識的規則),那是透過社會機構制度(例如家庭、學校、職場、實驗室、大學,或是董事會)以及更廣的文化產物(例如教科書、文學作品以及社會媒體)所產生的,而它影響了個體的行為、期望以及經驗。
- 社會性別認同意指個人或群體如何認知或展現自己,以及別人如何認知他們。社會性別認同是有可塑性的,可隨生命歷程改變,而且會依脈絡而定。社會性別認同可能會與其他身份認同相互交織,例如族群、階級或是性傾向,從而帶出多元的自我理解。
- 社會性別關係意指在家庭、職場以及整體社會中,不同性別認同的人之間的社會與權力關係。
已知的性別偏見案例
已知的族群偏見案例方法:交織性研究方法
分析生理與社會性別固然重要,但其他重要的因子也會與生理和社會性別交織。這就是學者所稱的「交織性」。這些因子或變因可能是生物性的、社會文化的、或是心理性的,同時也可能包括:年齡、障礙、族群、國籍、宗教信仰、性傾向等等。
打造訓練數據集以避免偏見
發展以演算法偵測及移除偏見的方式
當演算法可能存在偏見時,能夠偵測是很重要的。有幾個團隊正在為此研發工具。
這種偵測及減少偏見的技術在其他領域中也很需要,如刑事司法(例如被告的風險評估及假釋與否的決定,或做出判決時)、貸款與其他金融事務,以及聘僱之時。然而在這些領域中,必須仔細留心不正當的偏見之確切定義,以及各種減低技巧帶來的後果。這類的應用便是需要跨領域合作的研究範圍中的一部分,且此範圍正逐漸成長中。
當我們努力想提升數據與人工智慧中的公平性時,我們需要仔細思考公平的概念。舉例而言,數據應該要重現世界原本的樣貌,亦或重現我們期望中的世界—也就是達到社會公平的世界?該由誰來做這些決定?解決問題的電腦科學家與工程師?公司內的倫理團隊?政府的監察委員?若是由電腦科學家來做,他們該如何被教育?
要製作出能同時帶來高品質的技能與社會公平的人工智慧,需要幾個重要步驟,我們強調以下四點:
人工智慧已準備改造經濟與社會、改變我們溝通與工作的模式,並且重新形塑治理與政治。我們人類創造出了持續已久的社會不平等;有了新的工具,我們將有機會在文化中及跨文化間打造公平性,並藉此提升全球女性、男性以及性別多元者的生活品質。
備註:此案例研究中的部份素材汲取自Zou & Schiebinger (2018)。
Angwin, J., & Larson, J. (2016, May 23). Bias in criminal risk scores is mathematically inevitable, researchers say. Propublica https://www.propublica.org/article/bias-in-criminal-risk-scores-is-mathematically-inevitable-researchers-say
Bivens, R. (2017). The gender binary will not be deprogrammed: Ten years of coding gender on Facebook. New Media & Society, 19 (6), 880-898.
Bolukbasi, T., Chang, K. W., Zou, J. Y., Saligrama, V., & Kalai, A. T. (2016). Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. Advances in Neural Information Processing Systems, 4349-4357.
Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Conference on Fairness, Accountability and Transparency, 77-91.
Caliskan, A., Bryson, J., & Narayanan, N. (2017). Semantics derived automatically from language corpora contain human-like biases. Science 356 (6334), 183-186.
Corbett-Davis, S., Pierson, E., Feller A., Goal S., & Huq A. (2017). Algorithmic decision making and the cost of fairness. Conference on Knowledge Discovery and Data Mining.
Commission Nationale Informatique & Libertés (CNIL). (2017). How Can Humans Keep the Upper Hand: Ethical Matters Raised by Algorithms and Artificial Intelligence. French Data Protection Authority.
Datta, A., Tschantz, M. C., & Datta, A. (2015). Automated experiments on ad privacy settings. Proceedings on Privacy Enhancing Technologies, 2015 (1), 92-112.
Dwork, C., Hardt, M., Pitassi, T., Reingold, O., & Zemel, R. (2012). Fairness through awareness. Proceedings of the 3rd innovations in theoretical computer science conference, 214-226. ACM.
Esteva, A., Kuprel, B., Novoa, R. A., Ko, J., Swetter, S. M., Blau, H. M., & Thrun, S. (2017). Dermatologist-level classification of skin cancer with deep neural networks. Nature, 542 (7639), 115-126.
Executive Office of the President, Munoz, C., Director, D. P. C., Megan (US Chief Technology Officer Smith (Office of Science and Technology Policy), & DJ (Deputy Chief Technology Officer for Data Policy and Chief Data Scientist Patil (Office of Science and Technology Policy) (2016). Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights. Executive Office of the President.
Ford, H., & Wajcman, J. (2017). ‘Anyone can edit’, not everyone does: Wikipedia’s infrastructure and the gender gap. Social studies of science, 47(4), 511-527.
Garg, N., Schiebinger, L., Jurafsky, D., & Zou, J. (2018). Word embeddings quantify 100 years of gender and ethnic stereotypes. Proceedings of the National Academy of Sciences, 115(16), E3635-E3644.
Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Daumeé III, H., & Crawford, K. (2018). Datasheets for datasets. arXiv preprint arXiv:1803.09010.
Hardt, M., Price, E., & Srebro, N. (2016). Equality of opportunity in supervised learning. In Advances in neural information processing systems, 3315-3323.
Hébert-Johnson, U., Kim, M. P., Reingold, O., & Rothblum, G. N. (2017). Calibration for the (computationally-identifiable) masses. arXiv preprint arXiv:1711.08513.
Kim, Michael P., Amirata Ghorbani, and James Zou. Multiaccuracy: Black-Box Post-Processing for Fairness in Classification. arXiv preprint arXiv:1805.12317 (2018).
Kleinberg, J., Lakkaraju, H., Leskovec, J., Ludwig, J., & Mullainathan, S. (2017). Human decisions and machine predictions. The Quarterly Journal of Economics, 133 (1), 237-293.
Kleinberg J., Mullainathan, S., Raghavan, M., (2017). Inherent trade-offs in the fair determination of risk scores. In Proceedings of Innovations in Theoretical Computer Science (ITCS).
MIT Media Lab (2018). http://datanutrition.media.mit.edu
Nielsen, M. W., Andersen, J. P., Schiebinger, L., & Schneider, J. W. (2017). One and a half million medical papers reveal a link between author gender and attention to gender and sex analysis. Nature Human Behaviour, 1(11), 791.
Noble, S.U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press.
Popejoy, A. B., & Fullerton, S. M. (2016). Genomics is failing on diversity. Nature, 538(7624), 161-164.
Prates, M. O., Avelar, P. H., & Lamb, L. (2018). Assessing gender bias in machine translation—a case study with Google Translate. arXiv preprint arXiv:1809.02208.
Schiebinger, L., Klinge, I., Sánchez de Madariaga, I., Paik, H. Y., Schraudner, M., and Stefanick, M. (Eds.) (2011-2018). Gendered innovations in science, health & medicine, engineering and environment, engineering, machine translation.
Shankar, S., Halpern, Y., Breck, E., Atwood, J., Wilson, J., & Sculley, D. (2017). No classification without representation: assessing geodiversity issues in open data sets for the developing world. arXiv preprint arXiv:1711.08536.
Sweeney, L. (2013). Discrimination in online ad delivery. Queue, 11(3), 10.
Wagner, C., Garcia, D., Jadidi, M., & Strohmaier, M. (2015, April). It's a Man's Wikipedia? Assessing Gender Inequality in an Online Encyclopedia. ICWSM, 454-463.
Wikimedia (2018), personal communication.
Zhao, J., Wang, T., Yatskar, M., Ordonez, V. & Chang, K.-W. (2017). Men also like shopping: reducing gender bias amplification using corpus-level constraints. arXiv preprint arXiv:1707.09457.
Zhao, J., Zhou, Y., Li, Z., Wang, W., & Chang, K. W. (2018). Learning Gender-Neutral Word Embeddings. arXiv preprint arXiv:1809.01496.
Zou, J. & Schiebinger, L. (2018). Design AI that’s fair. Nature, 559(7714), 324-326.