您当前的位置:首页 > 当代文学 > 被隱形的女性

第八章 適合所有(男)人的單一尺寸

第八章 適合所有(男)人的單一尺寸

1998年,鋼琴家克里斯多福.杜尼森(Christopher Donison)寫下他的心聲:「世界大約可分為兩半」,一半是那些手比較大的人,另一半是那些手小的人。雖說杜尼森是名男鋼琴家,但他的手小於一般男性,多年來一直難以適應傳統鍵盤;事實上,女性也和他有一樣的心聲。各種數據都證明,女性手掌的平均尺寸小於男性註647,然而現今的各種器具都是根據男性手掌的平均尺寸去設計,好像適合男人的單一尺寸,真的適合所有人類。

當本該不分性別的產品被套上「適合所有男性的單一尺寸」,女性便屈居不利處境。女性平均手距介於17.8公分~20.3公分註648,因此要彈奏寬達約122公分的標準鋼琴,對女性來說是種挑戰。標準鋼琴8度琴鍵的寬度約18.8公分,根據一篇研究的數據,這對87%的成年女鋼琴家來說都太寬了。註649與此同時,2015年的研究比較473名成年鋼琴師的手距和他們的「名聲響亮程度」,發現享譽國際的12名鋼琴家,手距都寬於22.4公分。註650在這群崇高的大師中只有2名女性,其中一位的手距約22.9公分,另一位為約24公分。

標準琴鍵尺寸不只讓女鋼琴家難以與男鋼琴家分庭抗禮,也會影響她們的健康。1980及1990年代出現一系列與音樂家有關的研究,指出女性因工作而受傷的情況十分嚴重且不符比例,而鋼琴家正是「風險最大的族群」之一。數項研究也都揭露,女鋼琴家受傷、疼痛的風險,比男鋼琴家高約50%;而一項研究指出,78%的女鋼琴家有重複性勞損(repetitive strain injury),相比之下男性為47%。註651

這很有可能與手的大小有關。1984年有份只以男鋼琴家為對象的研究,參與者中有26名「成功的演奏家」,他們是「知名的獨奏鋼琴家,贏得國際競賽的獎座」,還有10名「問題案例」,也就是那些「長期擺脫不了技術或傷害問題的鋼琴家」。註652前一組受試者的平均手距約23.4公分,相比之下問題案例的平均手距約22公分──然而後者的手距依舊比女性平均手距大得多。

杜尼森坐在他的施坦威平台大鋼琴前,這「可能是他第一千次」彈奏蕭邦敘事曲G小調的結尾。此時他突然靈光一現,於是他開始為手比較小的人設計新的鋼琴鍵盤。也許不是他的手太小,而是標準鋼琴的琴距太大了?這樣的想法促使他設計了7/8比例的鋼琴琴鍵(又稱DS琴鍵),杜尼森指出新琴鍵改變了他彈奏的方式。「我終於能用正確的指法彈琴。不需要移動整隻手,只要維持同一個位置就能彈分解和弦。(……)浪漫時期樂曲常見寬廣流暢的左手琶音再也難不倒我,我終於能專心研究如何彈出正確的音質,而不是重複練習一樣的段落。」註653許多研究都支持杜尼森的說法,發現7/8鋼琴消除了傳統琴鍵造成的職業與健康疑慮。註654然而奇怪的是,鋼琴演奏界不願意接受7/8鋼琴;當然,要是你相信性別歧視從中作梗,就不會覺得奇怪了。

不願放棄只適合男性大手的設計,似乎成了某種特色。我還記得2000年代初期,當時的手機尺寸競賽由最迷你的手機型號奪得勝利。不過隨著iPhone問世,其他競爭者紛紛仿效,一切都改變了,突然間人們最關心的是你的螢幕大小,而且愈大愈好。現在智慧手機的平均尺寸是5.5英寸註655,雖然我們都無法否認,寬大的螢幕尺寸令人嘆服,但要讓它適合全球一半人口的掌心,卻是另外一回事(更別說要把它們放在迷你到不行,有跟沒有一樣的口袋裡)。平均值內的大部分男性,都能十分舒適的以單手操作他的手機──然而女性的手,一般來說比手機本身大不了多少。

這顯然令人不快,令人懷疑蘋果這樣的大公司似乎太過愚鈍,畢竟從數據來看,iPhone的女性消費者多於男性。註656但讀者別期待我們能用任何方法阻止他們的瘋狂行徑,因為要讓任何智慧型手機品牌反省他們對巨大螢幕的迷戀,都是難上加難的任務。我急於找到答案,只好轉向《衛報》的科技記者艾力克斯.何恩(Alex Hern)。但連他也幫不了我。「人們早就注意到這個問題,」他肯定我的困惑,但又接著說,「連我也沒有簡單明瞭的答案。」他私下和一些人談過,他說「大部分人的回答」都是手機不再是為了單手使用而設計。他們還告訴他,其實很多女性偏好大一點的手機,這樣的潮流「常是受到女性手提包的影響」。等等,手提包是很實用的物品,但女性一開始必須使用手提袋,就是因為女裝沒有縫製大小實用的口袋。基於此而設計一個適用於手提袋卻不適用於口袋的手機,根本是落井下石。下面我們會針對這點進一步說明。不管如何,宣稱手機就是為了讓女性可以放在手提袋裡而設計,實在是詭異莫名的邏輯,因為許許多多的被動追蹤程式,顯然預設你的手機不是在你手中,就是在你的口袋裡,隨時不離你身,而不是躺在你辦公桌上的手提袋裡。

接著,我又請教了得獎科技記者與作家詹姆斯.博爾(James Ball)。他對製造商迷戀大螢幕的現象另有一套理論。人們深信男人是提升高階智慧型手機銷量的主力,因此他們的計算方程式中根本沒有女性的存在。然而研究顯示,購買iPhone的消費者以女性較多,要是蘋果無意了解女性的需求,可真是太令人納悶了。然而,我對這樣的立論基礎還有另一個抱怨,因為這說法再次暗示麻煩的是女性,以男性為主的設計沒有錯。換句話說:要是女性沒有購買高階智慧型手機的動力,究竟是因為女性對智慧型手機毫無興趣,還是因為智慧型手機在設計時根本沒考慮到女性?然而從正面一點來想,博爾向我保證手機螢幕應該不會再變大了,因為它們已經「快要超過男性單手的大小」。

那麼,對男人來說這還真是個好消息。但對某些女性來說,這卻是個惱人難題。比如我的朋友麗茲,她有一支摩托羅拉Moto G的第三代手機。我成天抱怨手機尺寸,有回她聽到了就說,她也才剛「向一個男性友人抱怨,要拉近手機鏡頭還真難。他卻回道,他不這麼覺得,因為他用起來很方便。結果呢,我們手上拿的是同一型號的手機。不知道這是不是手的尺寸造就的差異」。

我們幾乎可以斷言,這就是手的大小所造成的問題。當北卡羅萊納大學的學者日娜.土費其(Zeynep Tufekci)試圖用谷歌的Nexus記錄2013年土耳其蓋其公園(Gezi Park)反政府運動期間催淚化斯的使用時,她的手機反而成了累贅。註657當時是6月9日晚間。蓋其公園裡人山人海。人們攜家帶眷,父母帶著小孩。接著有人投擲了催淚瓦斯罐。因為官方「經常宣稱,只會在出現蓄意破壞者和暴徒時才使用催淚瓦斯」,因此日娜想要記錄真實的現場狀況。她拿出手機。「落在我身邊的好幾個容器都開始散發催淚劑,我的肺、眼睛和鼻子都因疼痛而熱起來,熱得不得了,我不禁失聲咒罵」,因為她的手機太大了。她不能用單手來拍照,「但我看過無數男人都能用他們的大手,輕輕鬆鬆的以單手拍照」。那次事件中,日娜所有的照片都無法使用。她寫道:「這全是出於同一個原因:好的智慧型手機是專為男性的手而設計。」

就像標準琴鍵一樣,專為男性的手而設計的智慧型手機也可能危害女性的健康。這個領域還算相當新穎,但已經完成的研究指出,智慧型手機對婦女健康的影響絕非正面。註658雖然女性的手顯然比男性小,雖然出現肌肉骨骼症狀和疾病的多半是女性,註659雖然研究指出大型手機對手與手臂造成的傷害,但都未能阻止手機大就是好的潮流,然而這個潮流正是性別資料缺口的實例。我從各種研究中發現,很少人會以女性為實驗對象,女性是代表性嚴重低落的少數族群,註660而且大部分的研究都沒有按性別分析數據註661──包括那些找到足夠女性參與實驗的研究註662。這實在太可惜了,因為那些真的做了性別分析的少數研究指出,手機尺寸對人體的影響有顯著的性別差異,女性的手與手臂受到的危害較為嚴重。註663

既然智慧型手機對女性的手來說太大了些,那麼解決方式顯然就是設計小一點的手機。當然,市面上有比較小的手機,特別是蘋果的iPhone SE系列。然而,蘋果這兩年都沒有更新SE的規格,也就是說與一般的iPhone比較,SE系列是相對低階過時的產品,而較高階的功能乃是專屬於大型甚至巨型尺寸的手機。然而,現在連SE也停產了註664。在中國,手掌較小的男性與女性可以選購Keecoo的K1手機,為了配合女性的手,它被設計為六角型,真是好極了。註665然而,它配備較差的處理器,而且還內建美肌軟體:差勁,太差勁了。

為了解決智慧型手機引發的重複性勞損,有人建議使用語音辨識系統註666,但對女性來說,這根本稱不上解決之道,因為大部分的語音辨識軟體都充滿男性偏誤,令人絕望。2016年,華盛頓大學語言學研究員瑞秋.泰特曼(Rachael Tatman)發現,谷歌的語音辨識軟體辨認男性話語的正確率,比辨認女聲時高了70%註667──而且它可是目前市面上最厲害的語音辨識軟體呢。註668

女性以同等價錢購入和男性一樣的產品,然而它們提供的服務卻出現性別差異,顯然非常不公平。除此之外,這還隱含健康方面的危害。比方說,汽車內的語音辨識軟體本意是減少駕駛員分神的機率,確保用路安全。然而要是它們不管用,就可能造成完全相反的後果──偏偏大多時候,它們都不管用,至少對女性而言。「汽車部落格」網站(Autoblog)的一篇文章引用了一名女性消費者的親身分享。她買了一輛2012年福特Focus車款,卻發現車上的語音系統只聽她丈夫的話,完全不理會她,儘管她丈夫並非坐在駕駛座,而是乘客席。註669另一位女性發現她的Buick汽車的語音啟動通訊系統不聽她指令時向原廠抱怨,然而「對方直截了當的對我說,那個系統對我永遠也不會管用。他們告訴我,妳得找個男人來設定它。」就在我寫下這幾段文字後,我和我母親一同坐上她的Volvo越野休旅車,我看著她試圖透過語音辨識系統打電話給我的阿姨,但她試了好幾次都徒勞無功。她失敗5次後,我建議她說話時把音調壓低一點。結果還真的成功了。

隨著語音辨識軟體愈來愈精密,它的觸角也延伸到許多領域,包括醫界。然而,錯誤的辨識所造成的後果也可能變得更加嚴重。2016年的論文分析了急診室醫師對語音辨識系統口述的一百條備忘錄,並隨機分析樣本,發現多達15%的錯誤十分嚴重,「可能會造成誤解,以致影響病患的治療」。註670可惜的是,這篇論文的作者群沒有以性別解析他們握有的資料。然而其他以性別分析的報告指出,女性口述時,軟體將語音轉換成文字時的失誤率遠高過男性。註671醫生薩伊德.阿里(Syed Ali)是一項醫療口述研究的主要作者,他認為他的研究「最立即的效果」,就是指出女性「可能必須比男性更加努力,才能讓(語音)系統成功辨識她們的聲音」。註672瑞秋也同意:「這些科技實際上根本是在幫助男性表現得比女性更好,同時也代表女性工作時會遇到更多困難。要是女性需要花1秒鐘去修正一個錯誤,那麼幾天、幾週累積起來,就浪費了許多時間,而妳的男同事卻不需要耗費那些時間處理科技問題。」

世界各地憤憤難平的女性呀,謝天謝地,終於有人想辦法改善這個問題。提供汽車導航系統語音科技的ATX公司,其副總裁湯姆.榭爾克(Tom Schalk)提出了全新解決方案,修正「女聲中出現的許多問題」。註673他說,女性所需的是「長時間的訓練」──只要女性「願意」接受的話。然而,榭爾克遺憾的表示,女性就是不願接受訓練。那些買車的女人就跟那些堅持買高污染爐灶的孟加拉婦女一樣不可理喻,居然希望語音辨識軟體的程式人員設計出適用女性的系統!需要解決的問題,顯然是女性本身。為什麼女人就是不能多像男人一些啊?

瑞秋對這些暗指問題出在女性的聲音,而不是軟體無法正確識別女性語音的說法嗤之以鼻:研究指出,女性的語言清晰度(也就是發音清楚、可讓聽者立刻理解的程度)遠高於男性註674,這也許是因為女性發的母音比較長註675,而且語速稍稍比男性慢了些註676。相比之下,男性說話「不流暢的情況比較頻繁,發音時比較短,而且發音比較不精準」。註677既然如此,語音辨識系統應該更容易辨認女性的話語,而不是男性的。瑞秋進一步寫道,她曾用「受過訓練的分類器分析女性的語音數據,而且運作良好,非常謝謝大家的指教」。

當然,女性的聲音不是問題所在。問題來自我們的老朋友:性別資料缺口。語言辨識科技藉由大量的錄音資料庫「語料庫」(corpora)來訓練系統的辨識能力。然而,語料庫中的錄音檔以男性聲音較多。這是我們就目前現有資料得到的答案,因為大部分的語料庫都不提供性別數據,而拒絕提供性別數據本身就是資料缺口的一環。註678當瑞秋調查語料庫的性別比例,只有語言學數據聯盟(Linguistic Data Consortium)中最受歡迎的TIMIT語料庫提供了性別分析數據。結果其中69%的聲音都是男性。由此看來,女性的錄音資料似乎比男性少許多,但事實並非如此,要找到女性錄製的語音檔並非難事:英國國家語料庫(British National Corpus)註679網站上的數據顯示,它們的語音檔男女數量相當。註680

聲音語料庫並不是唯一有男性偏誤的資料庫,而我們卻用這些資料庫製造了藏有男性偏誤的演算法。文書語料庫由一系列來自小說、報章雜誌、法律教科書的文字組成,並用來訓練翻譯軟體、履歷審查軟體,還有網站搜尋的演算法。然而,它們也遍布性別資料缺口。我搜索英國國家語料庫註681(從20世紀下半葉的各種文章中選錄了1億個詞)時,發現女性代名詞出現的頻率比男性代名詞少了一半。註682而收錄5億2,000萬個詞彙的當代美語語料庫(Corpus of Contemporary American English),我發現當中男女代名詞的比例依舊為2:1,儘管美語語料庫包含的文章十分當代,甚至有2015年發表的文章。註683這些充滿缺口的語料庫造就了現行的演算法,造就了世界由「男人」主宰的印象。

就連圖像資料庫也逃不過性別資料缺口的問題:一份2017年的研究分析了2個最常用的資料庫,它們包含了「超過10萬張從網路取得並有敘述標籤的圖像」,發現男性圖像遠多過女性圖像。註684華盛頓大學的一項研究同樣也指出,以谷歌圖像搜尋45種職業,都出現女性代表性不足的問題,而首席執行長一職的搜尋結果更是與實際情況背道而馳:在美國,27%的首席執行長由女性擔任,但在谷歌圖像搜尋首席執行長時,出現的圖片中只有11%是女性。註685要是搜尋「作家」,出現的結果也十分不均:女性圖像只占了搜尋結果的25%,但多達56%的美國作家是女性。這份研究也發現,這樣的差異至少會在短時間內影響人們對某個領域的性別比例看法。相比之下,這當然會對演算法產生長期影響。

就像實驗常有女性代表不足的問題,這些資料庫也都沒能正確反映女性的生活。2017年一份分析研究常用的文字語料庫,發現女性的名字和相關詞彙(「女人」、「女孩」……等)通常與家庭有關,比較少與工作事業相關;而男性卻正好相反。註686而2016年另一份報告分析一個廣受歡迎的公開資料庫,其中內容都來自谷歌新聞,發現與女性有關的職業之首是「主婦」,而與男性相關的職業之首是「藝術大師」。註687而性別刻板印象最鮮明的職業前10名,包括了哲學家、社交名流、機長/船長(Captain)、接待員、建築師、保母──至於哪些職業與男性或女性連結特別強烈,我就讓讀者們自行判斷吧。2017年另一份分析圖像資料庫的研究也指出,圖像呈現的活動和物品都有「顯著」的性別偏見。註688其中一位研究者馬克.葉茲卡(Mark Yatskar)指出,根據這些資料庫訓練而成的機器人,在不知道一個家庭誰負責做廚房家務的前提下,會「直接拿瓶啤酒給男人,並幫忙女性洗碗盤」。註689

已經廣泛應用的人工智慧科技中,都可發現文化的性別刻板印象。舉個例子,史丹佛大學教授朗妲.史賓格(Londa Schiebinger)透過翻譯軟體,把一篇訪問她的新聞文章從西班牙譯為英文,而谷歌翻譯和Systran翻譯系統都一再以「他」來指稱「她」,儘管文章中明確使用西班牙文profesora(女教授)一詞。註690不只如此,一句使用中性代名詞的土耳其句子,谷歌卻以性別刻板印象的方式翻譯。O bir doktor指的是「她/他是名醫生」(S/he is a doctor),但譯成英文後卻變成「他是名醫生」;不過輸入O bir hemşire(她/他是名護理師),結果卻成了「她是名護理師」。研究者發現把英文透過軟體譯成芬蘭文、愛沙尼亞文、匈牙利文和波斯文時,譯文也出現同樣的性別刻板印象。

但還是有個好消息,至少我們現在有了這些資料。然而,編寫程式者會不會用這些資料修正那些藏有男性偏誤的演算法,我們就無法確定了,只能等著瞧。我們只能希望他們真會行動,因為機器不只反應了人的偏見,有時甚至會進一步加深偏見──而且程度相當嚴重。2017年的圖像研究指出,與烹調相關的圖片中,女性出現的機率比男性多33%,然而以同一個資料庫訓練的演算法,以廚房搜尋的圖片中,68%都出現女性。同一篇論文指出,資料庫原本的性別偏誤愈顯著,演算法造成的放大效果就愈強,這也許解釋了為什麼演算法會將一個站在爐灶前,身材魁梧的禿頭男子視為女性。廚房的性別印象,遠比男性常見的禿頭更嚴重。

史丹佛大學生物醫學助理教授詹姆斯.鄒(James Zou)解釋這項發現的重要性。他舉例,當一個資料庫認為「電腦程式設計師」與男性的關聯比女性更加密切,那麼當人們輸入這個詞,依此訓練的演算法就會認為男程式設計師的網站比女程式設計師更加重要註691──「即使2個網站一模一樣,只是兩者使用了不同的姓別與代名詞」。因此有性別資料缺口的語料庫,訓練出來的演算法不但承襲了同樣的男性偏誤,甚至會讓女性找不到工作。

然而,搜尋網站只是演算法引響人類決策的諸多案例之一。根據《衛報》的報導,美國多達72%的履歷都不曾被真人瀏覽過,註692不只如此,機器早就在面試中扮演重要角色;它們的演算法來自「頂尖員工」的資料庫,分析他們的姿勢、臉部表情和講話語調註693。這聽來是不是很棒──直到你開始思考潛在的資料缺口:編寫程式的人是否有確保所謂的「頂尖員工」來自多元背景,不只包括男女兩性,也來自不同種族?要是沒有,那些演算法是否涵蓋了性別與種族文化差異?人們在訓練演算法的過程中,是否曾考量講話音調與臉部表情的社會性別差異?這些疑問,我們都沒有答案,因為發展這些產品的公司不會分享他們的演算法──但依照現有證據,讓我們打開天窗說亮話,他們恐怕根本沒有考量到這些差異。

醫界早已引進人工智慧系統幫助診斷病情──雖然這可能是醫界的一大福音,但目前看來這種想法實在太樂觀了。註694醫界的資料完美的呈現了長期的性別資料缺口,然而引進人工智慧協助診斷的同時,這些問題卻幾乎無人過問。註695這可能會造成大災難,事實上可能會致人於死地──特別是我們已經知道,機器學習(machine learning)會加深本已存在的偏誤。我們對人體的醫療知識過度偏重男性生理構造,而人工智慧的診斷不只可能醫不好女性病患,反而加劇她們的病況。

直至目前為止,幾乎沒人意識到有個嚴重的問題正蓄勢待發。2016年谷歌新聞研究的作者群指出,儘管以詞彙關聯性軟體的應用為主題的論文多達數百篇,卻都沒有人意識到這些資料庫的「性別歧視多麼鮮明」。圖像與標籤研究的作者群也注意到,他們是「最先展現結構化預測模型(structured prediction models)會強化偏誤,也是最先建議降低強化效果的團隊」。

我們現行的產品設計方式都對女性有害無利。這影響到女性的工作效率──甚至影響到女性找不找得到工作。它影響我們的健康,也影響我們的安全。最可怕的是,所有的證據都指出,那些依照演算法設計的產品,只是讓我們的世界更加不平等。但是,只要我們正視問題的確存在,那麼我們就能找到解決辦法。發現演算法把女性視同主婦的研究者開發新的演算法,減少2/3性別刻板印象(比如把「他」視作醫生,而「她」則是護理師),同時保留與性別相關的文字關聯(比如得了攝護腺癌的是「他」,得了卵巢癌的是「她」)。註696而2017年圖像詮釋論文的作者群也設計了新的演算法,成功降低47.5%的偏誤強化效果。

註647:https://www.ncbi.nlm.nih.gov/pubmed/5550584;http://www.who.int/gender/documents/Genderworkhealth.pdf;Boyle,RhondaandBoyle,Robin(2009),‘HandSizeandthePianoKeyboard.LiteratureReviewandaSurveyoftheTechnicalandMusicalBenefitsforPianistsusingReduced-SizeKeyboardsinNorthAmerica’,9thAustralasianPianoPedagogyConference,Sydney;Boyle,Rhonda,Boyle,RobinandBooker,Erica(2015),‘PianistHandSpans:GenderandEthnicDifferencesandImplicationsForPianoPlaying’,15thAustralasianPianoPedagogyConference,Melbourne2015

註648:Boyle,BoyleandBooker(2015);BoyleandBoyle(2009)

註649:Boyle,BoyleandBooker(2015)

註650:Ibid.

註651:Ibid.

註652:http://www.smallpianokeyboards.org/hand-span-data.html

註653:‘Smallhands?TrythisKeyboard,You’llLikeIt’,Piano&KeyboardMagazine(July/August1998)

註654:Boyle,BoyleandBooker(2015)

註655:https://deviceatlas.com/blog/most-popular-smartphone-screen-sizes-2017

註656:http://www.telegraph.co.uk/technology/apple/iphone/11335574/Women-more-likely-to-own-an-iPhone-than-men.html

註657:https://medium.com/technology-and-society/its-a-mans-phone-a26c6-bee1b69#.mk7sjtewi

註658:http://www.sciencedirect.com/science/article/pii/S1013702515300270

註659:http://www.sciencedirect.com/science/article/pii/S1050641108001909

註660:http://www.sciencedirect.com/science/article/pii/S1013702515300270

註661:http://ac.els-cdn.com/S0169814115300512/1-s2.0-S0169814115300512-main.pdf?_tid=4235fa34-f81e-11e6-a430-00000aab0f26&acdnat=1487672132_c2148a0040def1129abc7acffe03e57d

註662:Ibid.

註663:http://www.sciencedirect.com/science/article/pii/S0169814116300646;http://ac.els-cdn.com/S0003687011000962/1-s2.0-S0003687011000962-main.pdf?_tid=f0a12b58-f81d-11e6-af6b-00000aab0f26&acdnat=1487671995_41cfe19ea98e87fb7e3e693bdddaba6e;http://www.sciencedirect.com/science/article/pii/S1050641108001909

註664:蘋果在2020年推出了SE2。

註665:https://www.theverge.com/circuitbreaker/2016/7/14/12187580/keeco-k1-hexagon-phone-for-women

註666:https://www.theguardian.com/technology/askjack/2016/apr/21/can-speech-recognition-software-help-prevent-rsi

註667:https://makingnoiseandhearingthings.com/2016/07/12/googles-speech-recognition-has-a-gender-bias/

註668:http://blog-archive.griddynamics.com/2016/01/automatic-speech-recognition-services.html

註669:https://www.autoblog.com/2011/05/31/women-voice-command-systems/

註670:https://www.ncbi.nlm.nih.gov/pubmed/27435949

註671:AmericanRoentgenRaySociety(2007),‘VoiceRecognitionSystemsSeemToMakeMoreErrorsWithWomen’sDictation’,ScienceDaily,6May2007;Rodger,JamesA.andPendharkar,ParagC.(2007),‘Afieldstudyofdata-basecommunicationissuespeculiartousersofavoiceactivatedmedicaltrackingapplication’,DecisionSupportSystems,43:1(1February2007),168–80,https://doi.org/10.1016/j.dss.2006.08.005.

註672:AmericanRoentgenRaySociety(2007)

註673:http://techland.time.com/2011/06/01/its-not-you-its-it-voice-recognition-doesnt-recognize-women/

註674:https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2994697/

註675:http://www.aclweb.org/anthology/P08-1044

註676:https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2790192/

註677:http://www.aclweb.org/anthology/P08-1044

註678:http://groups.inf.ed.ac.uk/ami/corpus/;http://www1.icsi.berkeley.edu/Speech/papers/gelbart-ms/numbers/;http://www.voxforge.org/

註679:http://www.natcorp.ox.ac.uk/corpus/index.xml?ID=intro

註680:http://www.natcorp.ox.ac.uk/docs/URG/BNCdes.html#body.1_div.1_div.5_div.1

註681:https://corpus.byu.edu/bnc/5

註682:例如:他=633,413,她=350,294;他自己=28,696,她自己=15,751

註683:他=3,825,660,她=2,002,536;他自己=140,087,她自己=70,509

註684:Chang,K.,Ordonez,V.,Wang,T.,Yatskar,M.andZhao,J.(2017),‘MenAlsoLikeShopping:ReducingGenderBiasAmplificationusingCorpus-levelConstraints’,CoRR,abs/1707.09457.

註685:https://www.eurekalert.org/pub_releases/2015–04/uow-wac040915.php

註686:Caliskan,A.,Bryson,J.J.andNarayanan,A.(2017),‘Semanticsderivedautomaticallyfromlanguagecorporacontainhuman-likebiases’,Science,356:6334,183–6,https://doi.org/10.1126/science.aal4230

註687:Bolukbasi,Tolga,Chang,Kai-Wei,Zou,James,Saligrama,VenkateshandKalai,Adam(2016),‘ManistoComputerProgrammerasWomanistoHomemaker?DebiasingWordEmbeddings’,30thConferenceonNeuralInformationProcessingSystems(NIPS2016),Barcelona,http://papers.nips.cc/paper/6228-man-is-to-computer-programmer-as-woman-is-to-homemaker-debiasing-word-embeddings.pdf

註688:Changetal.(2017)

註689:https://www.wired.com/story/machines-taught-by-photos-learn-a-sexist-view-of-women?mbid=social_fb

註690:https://metode.org/issues/monographs/londa-schiebinger.html

註691:https://phys.org/news/2016–09-gender-bias-algorithms.html

註692:https://www.theguardian.com/science/2016/sep/01/how-algorithms-rule-our-working-lives

註693:https://www.theguardian.com/technology/2018/mar/04/robots-screen-candidates-for-jobs-artificial-intelligence?CMP=twt_gu

註694:https://www.techemergence.com/machine-learning-medical-diagnostics-4-current-applications/

註695:http://www.bbc.co.uk/news/health-42357257

註696:Bolukbasietal.(2016)

上一章 封面 书架 下一章