跳到主要內容
性平專區圖示

AI!? 按呢敢「A」使~?


發佈日期:114/12/01

AI!? 按呢敢「A」使~?     好齊來抱報-114年十二月號

 

我們常以為人工智慧是「中立」的技術,沒有情緒、沒有偏見,只根據數據運作。
但AI並不是憑空誕生的,它的學習內容、語氣與反應,都反映了人類社會既有的價值觀與偏見,當我們仔細觀察,就會發現科技產品中,其實也藏著許多性別刻板印象。

首先,以語音助理為例,早期的Siri、Alexa或Google Assistant,通常預設為女性聲音,並被設定為順從、溫柔的角色。這樣的設計,無形中反映了「助理=女性」的文化假設,強化了女性適合服務、協助與耐心回應的角色形象。AI 的語氣並非自然形成,而是開發者在設計時做出的選擇,透露出背後的性別觀點。

除了語音助理,AI圖像生成也呈現明顯的性別偏見,許多模型在輸入職業名稱時會自動呈現特定性別,例如:輸入「工程師」或「科學家」時,AI常生成男性形象;輸入「護士」或「老師」,多半出現女性。
這並不是 AI 的偏好,而是因為它學習的資料中,原本就充滿這些性別比例的偏差。換句話說,AI只是把社會的刻板印象重新包裝,甚至加以放大。

然而,偏見的根源並不只在資料本身,也與設計者的視角密切相關。科技產業長期以男性居多,女性在開發團隊中比例偏低,導致許多性別議題在設計階段被忽略,當開發者的視角不夠多元,AI 的「智慧」也會變得片面。

那麼,誰該來決定演算法的價值觀?這不只是工程師的責任,更是整個社會要共同面對的課題。企業需要更透明的 AI 審查機制,政府應訂定公平與倫理標準,而教育與媒體也該鼓勵更多女性與弱勢群體參與科技發展。唯有讓多元的聲音進入 AI 世界,才能讓演算法更貼近人性與正義。

人工智慧正在塑造我們的未來,但它同時也是一面鏡子,映照出我們的偏見與選擇。
與其問「AI是否有偏見?」,我們更應該問的是:「誰讓AI 帶著偏見?」演算法背後的價值觀,從來不只是技術問題,而是每個人都應參與的公共議題,當多元的聲音能進入科技領域,我們才能打造真正平等的AI,讓它成為改變現狀,而不是複製過往偏見的推手。

|CEDAW相關條文|
·第2條:國家義務
·第5條:消除性別刻板印象
·第11條:就業平等
·第13條:經濟與社會生活