[GI]性別化創新好文分享、研究更新:基礎科學、人工智慧、機器人、數位人文學、麻醉學、臨床試驗
2018/04/7
有關性別化創新(Gendered Innovations)的文章分享:
1.《富比士雜誌》(Forbes):〈為何工作場所的性別平等仍是不夠的〉
Blankson, A. (2018, April 3). Why Gender Equality In The Workplace Is Not Enough. Forbes.取自https://www.forbes.com/sites/amyblankson/2018/04/03/why-gender-equality-in-the-workplace-is-not-enough/#2dd1cb813585
2.《泰晤士高等教育增刊》(Time Higher Education):〈專家呼籲應停止資助忽視性與性別的研究〉
Schiebinger, L., Hinds, J. L. (2018, April 4). Stop funding research that ignores sex and gender, says expert. Time Higher Education. 取自https://www.timeshighereducation.com/news/stop-funding-research-ignores-sex-and-gender-says-expert
3. 基礎科學:〈雄性C線蟲能透過分泌化合物縮短雌雄同體個體的壽命〉
文章摘要:雖然我們目前尚不清楚個體壽命如何受到相異性別所影響,但在「秀麗隱桿線蟲」(Caenorhabditis elegans)的例子中,雄性個體的存在會加速相異性別個體(即雌雄同體)的老化,並縮短其壽命,包含長壽的或不孕的雌雄同體。由雄性個體誘發的死亡,可以在沒有交配的情況下發生,並且只需要將雌雄同體之個體暴露在雄性個體曾經存在過的培養基中即可。詳細內容請參閱:Maures, T. J., Booth, L. N., Benayoun, B. A., Izrayelit, Y., Schroeder, F. C., & Brunet, A. (2014). Males shorten the life span of C. elegans hermaphrodites via secreted compounds. Science, 343)6170), 541-544.http://science.sciencemag.org/content/343/6170/541
4. 人工智慧:〈性別圖譜:商用性別分類技術的種族準確率差異〉
文章摘要:最近研究顯示,機器學習(machine learning)演算法已可以根據種族、性別等類別來進行區辨。在這個計畫中,我們提出一個能夠評估自動人臉辨識演算法和數據集裡有關表型亞組(phenotypic subgroups)之偏差的方法,我們使用皮膚科醫生認可的Fitzpatrick皮膚類型分類系統 )Fitzpatrick Skin Type classification system),分析在IJB-A和Adience兩種臉部分析基準中,性別和皮膚類型的分布。
我們發現,數據中絕大多數由淺膚色的受試者組成(IJB-A為79.6%, Adience為86.2%),同時亦採用了一組新的臉部分析數據,其在性別和肌膚類型上是均衡採樣的。接者,我們使用新的數據集來評估3種商用性別分類系統,並發現深色皮膚的女性是辨識錯誤率最高的一群(錯誤率高達34.7%),而淺膚色男性的最大錯誤率僅0.8%。如果商業公司欲建立真正公平、透明和負責任的臉部辨識演算法,那麼改善在性別分類系統中準確辨識深/淺膚色女性和深/淺膚色男性的功能實為當務之急。
詳細內容請參閱:Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 77-91。http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
5. 機器人:〈性別向度在人機互動中的影響〉
文章簡介:為了產出能夠面對真實世界複雜挑戰和任務的機器人,設計如何將性別面向帶入智慧型自主系統(Intelligent Autonomous Systems, IAS)是重要關鍵。詳細內容請參閱:Badaloni, S., & Perini, L. (2017). The influence of the gender dimension in human-robot interaction. AIRO 2017 Artificial Intelligence and Robotics, 2054, 53-59.http://ceur-ws.org/Vol-2054/paper9.pdf
6. 數位人文學 (Digital humanities):〈百年來性別與種族刻板印象的詞向量研究〉
文章摘要:「詞向量」(Word embeddings)是近來熱門的機器學習方式,意指將每一個英文單字化為向量表示,而藉由這些向量之間形成的幾何圖形,來取得對應字之間的語意關係。我們證明詞向量能夠作為量化歷史趨勢和社會變遷的有力工具,作為具體應用,我們發展出以詞向量為基礎的度量方式,用以描述在20、21世紀中(自1910年起),美國對少數族群的性別刻板印象及態度的演變過程。這套研究架構開啟了機器學習和量化社會科學的交流,具有相當卓越的成效。
詳細內容請參閱:Garg, N., Schiebinger, L., Jurafsky, D., & Zou, J. (2018). Word embeddings quantify 100 years of gender and ethnic stereotypes. Proceedings of the National Academy of Sciences, 115(16), E3635-E3644.https://www.pnas.org/content/pnas/115/16/E3635.full.pdf
7.麻醉學(Anesthesiology):〈生理性別(sex)不是社會性別(gender),為什麼它對人口健康很重要?〉
文章摘要:2018年第120期的英國麻醉期刊,刊登了Leslie及其同事描述之麻醉期刊中生理性別和社會性別的報告現況。他們的分析顯示,人類受試者的性別比例差異存在顯著偏差,有關男性受試者的研究比女性受試者還要多。此外,所有研究皆未對跨性別(transgender)和雙性人(intersex)受試者進行。此項研究提高了我們對生理性別(sex)和社會性別(gender)差異的認識,同時指出現行研究中的重大缺失,亦對於女同性戀、男同性戀、雙性戀、跨性別和雙性人群體的健康平等權益(health equity)相當重要。
詳細內容請參閱:Gonzales, G., & Ehrenfeld, J.M. (2018). Sex is not gender and why it matters for population health. British Journal of Anaesthesia, 120)5), 1130-1131.https://bjanaesthesia.org/article/S0007-0912(18)30091-6/fulltext
8.臨床試驗:〈萬變不離其宗:一項評估隨機對照試驗中婦女和少數族群比例與合規性之研究〉
文章摘要:研究結果顯示,有35件臨床試驗僅針對單一性別進行,雖有107項試驗的女性受試者中位數為46%,但有16項試驗的女性受試比例不到30%。另外,在107件臨床試驗中有28件)26%)為至少有一項性別評估或將性別作為共變量的統計分析;在142件研究中有19件(13.4%)的研究分析報告說明種族或族群有關的結果。與之前的研究相較,有關性別、種族或族群的分析統計報告並沒有明顯的變化。結論:美國國立衛生研究院(NIH)的政策並未提高有關性別、種族或族群的研究分析,因此,作者建議應採用強而有力的期刊政策使研究人員遵循NIH政策。
詳細內容請參閱:
Geller, S. E., Koch, A. R., Roesch, P., Filut, A., Hallgren, E., & Carnes, M. (2018). The more things change, the more they stay the same: A study to evaluate compliance with inclusion and assessment of women and minorities in randomized controlled trials. Academic Medicine, 93(4), 630-635.https://journals.lww.com/academicmedicine/Fulltext/2018/04000/The_More_Things_Change
2. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.pdf
3. The influence of the gender dimension.pdf
4. Word embeddings quantify 100 years of gender and ethnic stereotypes.pdf