[GI]人工智慧;性別化機器人;超越二元性別的研究技巧
2018-09-17
1.〈機器翻譯中的性別偏見評估─以Google翻譯為例〉
人工智慧因為反映了訓練資料庫中隱含的社會偏見而引發爭議,例如性別或種族偏見,因為這使得目前使用越漸廣泛的人工智慧亦會對特定族群有害。例如Iphone X即無法區分亞洲人之間的差別,以及Google將黑人照片誤認為大猩猩。僅管針對此類偏見進行系統性的研究比較困難,但我們嘗試利用性別中立的語言自動翻譯工具,替人工智慧中的性別偏見提供一種可能解決的方式。
詳細文章內容請參閱: Prates, M. O., Avelar, P. H., & Lamb, L. C. (2018). Assessing gender bias in machine translation: a case study with Google Translate. Neural Computing and Applications, 1-19. https://arxiv.org/pdf/1809.02208.pdf
2.〈性別化機器人:人形機器人未來的啟示〉
在電影《她》中,男主角西奧多愛上了幫助他建立操作系統的女聲合成語音,本文目的即在討論未來的性別化機器人將會如何影響、改變,人與人之間的相處以及對性別的理解。透過探討該領域當前研究文獻,從文化、社會、設計、人機交互等面向,描繪性別機器人在文化和設計中的體現。
詳細文章內容請參閱:Alesich, S., & Rigby, M. (2017). Gendered Robots: Implications for Our Humanoid Future. IEEE Technology and Society Magazine, 36(2), 50-59.https://ieeexplore.ieee.org/document/7947333
3.〈是「性別酷兒」還是「戰鬥直升機」?線上社群中非二元性別的人機交互研究實踐〉
隨著性別酷兒的認同逐漸普遍,研究者亦面臨該到如何蒐集、分析及詮釋受試者性別認同的問題。本文透過對博客平台Tumblr以及線上社群Fantasy Football兩個研究案例的調查,建議研究人員應將性別認同視為一項變異,而非噪音,並提出有利於進行超越二元性別的調查研究建議。
詳細文章內容請參閱:Jaroszewski, S., Lottridge, D., Haimson, O. L., & Quehl, K. (2018, April). Genderfluid or Attack Helicopter: Responsible HCI Research Practice with Non-binary Gender Variation in Online Communities. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (p. 307). ACM. http://oliverhaimson.com/PDFs/JaroszewskiGenderfluidOrAttack.pdf