不同的文化看待男性與女性的方式為什麼會有所不同?1930年代,人類學家瑪格麗特.米德在她的著作《三個原始部落的性別與氣質》透過對於不同部落社會性別文化的比較與探討,發現男性與女性性別的展演並非反映出天生或生物學上的原因,而使社會文化習俗對於性別角色建構的影響。我們身處於性別化的世界,日常生活對於男女角色的不同看法或期待,又如何影響我們大腦的選擇?讓我們透過 BBC中文網的這篇文章,來反思性別差異的刻板印象如何影響我們對人類社會行為的判斷與評價。
-----
這些最初的分歧似乎是無害的,但隨著時間的推移,我們性別化的世界對孩子們長大後,如何理解自己和他們所做的選擇,以及如何在他們所處社會的行為,產生持久的影響。
...
更微妙的是我們面對男孩和女孩完全相同的行為,都會因應其性別以不同詞語去描述,再把玩具性別化來給小孩,都加強了男性和女性被分配的微小特徵和習慣。
兒童玩耍的方式是成長的一個非常重要的部分。這是孩子們首先發展技能和興趣的形式。積木鼓勵構建,而玩偶則可以鼓勵觀點接納和照顧。
...
墨爾本大學的心理學家科迪莉亞‧弗尼(Cordelia Fine)解釋說,一旦孩子們了解了他們屬於哪個"性別部落",他們就會對性別標籤更加敏感,繼而影響他們的行為。
例如,玩具的展示方式也會改變孩子對它的興趣,女孩對顏色為粉紅色的,但典型男孩玩具也會感興趣。
但這有後果。如果我們只給女孩玩娃娃或美容套裝,而不給男孩,女孩會把自己與這些興趣聯繫起來,而男孩則被會更積極追求玩具工具和汽車。
然而,男孩們顯然也喜歡玩洋娃娃和手推車,但這些並不像是會通常為他們購買的那種玩具。我兒子像他姐姐一樣,喜歡抱著玩具嬰兒,用玩具車推著它四處走動。
「生命最初幾年的男孩也在學習培養和關愛,但我們很早就教他們這是一項女孩技能,我們懲罰男孩這樣做,」布朗說。
如果從嬰兒時期起,男孩就被勸阻不要玩我們可能認為是女性化的玩具,那麼他們可能無法發展他們以後可能需要的技能。
如果同輩不鼓勵他們玩洋娃娃,同時他們又看到自己的母親承擔了大部分育兒工作,這就有了誰該照顧孩子這樣一個問題。 結果, 我們進入了「生物本質主義」的領域,在那裏,我們將人類行為歸結於某種先天的基礎。 所以當我們再深究一步, 這一點不難理解。
玩具是一回事,但特徵也容易產生性別刻板印象。男孩的父母經常談論他們如何更加喧鬧,喜歡粗暴地玩耍,而女孩則更加溫柔和溫順。證據表明並非如此。
事實上,研究顯示,我們自身期望往往會框架了我們如何看待他人和自己。父母將性別中,憤怒的一面歸為男孩,而快樂和悲傷的一面則歸為女孩。
母親更有可能強調男孩的身體素質——甚至為男孩設定比女孩更多的冒險目標。儘管身體上沒有顯著差異,與女兒相比,他們也會高估了兒子的爬行能力。因此,人們自己的偏見可能會影響他們的孩子,從而強化這些刻板印象。
語言也發揮著重要作用——女孩多數更早學會說話,這是一個很小但可識別的影響,研究顯示,這可能是因為母親對女嬰的說話比對男嬰說話的多。換句話說,我們在不知不覺中讓女孩相信她們更健談和情緒化,而男孩則更具好斗好動。
布朗解釋說,很清楚為什麼這些誤解會在以後的生活中繼續存在,我們無視不符合我們期望的刻板印象的行為。
...
正如阿斯頓大學(Aston University)的神經科學家和作家吉娜·裏彭(Gina Rippon)所解釋稱,我們生活在一個性別化的世界,這一事實本身就創造了一個性別化的大腦。它創造了一種文化,男孩習慣於表現出更典型的男性特徵,如果他們不這樣做,可能會被同齡人排斥。
裏彭說,如果我們關注差異,這也意味著我們開始接受諸如男孩更擅長科學而女孩更擅長關懷等迷思。
這在成年後會繼續,當女性被問及她們在數學任務上的得分時,女性會低估自己的能力,而男性會高估自己的分數。如果女性首先被告知其性別通常會表現更差,那麼她們在測試中的表現也會更差。當然,這確實會影響學校、大學和職業選擇。
...
如果我們不能夠明白,其實男女與生俱來的相似性是多於差異,並差別地對待我們的孩子,我們的世界將繼續被性別化。推翻這些假設並不容易,但也許我們都可以先三思,再告訴小男孩他有多勇敢,或告訴小女孩她有多善良或完美。
(引用自https://www.bbc.com/zhongwen/trad/science-57395832)
「性別刻板印象性別偏見差別」的推薦目錄:
性別刻板印象性別偏見差別 在 Facebook 的精選貼文
影片是看娛樂新聞得知的我不意外啦
但好歹要拿去質詢也找個片源把內容看完吧
媒體用煽動性言詞下標要把這鍋給我背的話,會不會有點太牽強?
應該著眼在為什麼媒體要這樣下標,而不是抓戰犯吧?
---
還是學法律的林大委員已經習慣造謠了
這點我想大家也是不意外,畢竟有前例
以下也引自新聞^___^
2019國民黨新竹縣第二選區立委參選人林思銘近期除因認為「販毒判太重」引發公憤外,他在1場與民對話的座談會中說:『我們的立法院強行通過,把民法改掉了,一夫一妻制叫做無效,現在沒有夫妻了,在民法裡面沒有夫妻這個觀念』
除了公開造謠外,我想這也是對多元性別的朋友一大歧視與傷害
說到歧視,政治人物在座談會上的發言,
應該遠比喜劇演員在舞台上的表演更為嚴重
對社會和諧的破壞程度更加令人擔憂
另外,硬要拿喜劇演員和文壇大老相比,我十分無語
---
『歧視起源於偏見,偏見來自刻板印象,刻板印象正是在不正確或不全面的資訊基礎上形成的,因此學習提高自我的認識能力,正確看待文化、習俗以及人種、 群體及性別差異,避免歧視行為,是每個人畢生的功課。』
這段話原封不動還給您 :) #婚姻平權
不提新聞了,畢竟我也是Google才知道這號人物。
說到演出內容我原本以為一般人完全可以理解戲裡戲外的差別
你不會看到朱芯儀就覺得他是可惡的小三,因為你知道他在演戲 #犀利人妻真的很好看
你不會看到電影【感官世界】裡面瘋狂做愛,就說人家專門散佈腥羶色
你不會看【羅密歐與茱麗葉】就覺得莎士比亞在鼓吹未成年情侶私奔
你不會看到【刻在我心底的名字】就覺得全世界都要變成同志,我到底要怎麼教小孩
#可能很多喜歡散布謠言的人會這樣說
---
如果真的處處充滿歧視,動不動就受傷,我大力建議禁止所有藝文產業停止運轉。
溫良恭儉讓都給我拿出來,天之驕女也不要演了,那些勾心鬥角、情愛糾葛著實令善良純樸的百姓看不下去!
台灣單口喜劇深耕十幾年,到了近幾年終於有點成果
裡面不乏對宗教、性別、族群、階級、身份認同等的諷刺與揶揄
而這種表演形式需要觀眾與演員兩方極大的包容
與在言論自由的環境之下才能逐漸成長
很多人問過我,為什麼台灣喜劇很難發展起來?
看看委員的發言不意外吧!
---
如果委員還是覺得很受傷、很難過的話,想想那些被你傷害的多元性別朋友,是不是能稍微同理一些了呢?
嗯嗯,我們都要一天比一天成為更棒的人唷(⁎⁍̴̛ᴗ⁍̴̛⁎)
@立法委員林思銘 #Tag不到大家幫幫我QQ
#補張圖我怕人家刪文
性別刻板印象性別偏見差別 在 台灣物聯網實驗室 IOT Labs Facebook 的最讚貼文
矮化女性和少數種族,OpenAI GPT 模型為何變成 AI 歧視重災區?
作者 品玩 | 發布日期 2021 年 02 月 13 日 0:00 |
機器學習技術近幾年突飛猛進,許多強大 AI 因此誕生。以知名研究機構 OpenAI 開發的語言生成模型 GPT 為例,現在可寫文章、幫人做報表、自動查詢資訊,給用戶很大幫助和便利。
然而,多篇近期論文指出,包括 GPT 等 AI 模型,生成結果包含基於性別和種族的偏見。而這些 AI 模型應用在商業領域,勢必強化歧視偏見對象現象。
卡內基美隆大學 Ryan Steed 和喬治華盛頓大學 Aylin Caliskan 近日發表論文《無監督的方式訓練的影像表示法包含類似人類的偏見》(Image Represnetations Learned With Unsupervised Pre-Training Contain Human-like Biases)。
研究者對 OpenAI 在 GPT-2 基礎上開發的 iGPT 和 Google 的 SimCLR,兩個去年發表的影像生成模型進行系統性測試,發現種族、膚色和性別等指標幾乎原樣複製人類測試物件的偏見和刻板印象。
其中一項測試,研究者用機器生成男女頭像照片為底板,用 iGPT 補完(生成)上半身影像。誇張的事發生了:所有女性生成結果,超過一半影像穿著比基尼或低胸上衣。
男性結果影像,約 42.5% 影像穿和職業有關的上衣,如襯衫、西裝、和服、醫生大衣等;露手臂或穿背心的結果只有 7.5%。
這樣的結果,技術方面的直接原因可能是 iGPT 採用的自迴歸模型機制。研究者進一步發現,用 iGPT 和 SimCLR 對照片和職業相關名詞建立連結時,男人更多和「商務」、「辦公室」等名詞連結,女人更多和「孩子」、「家庭」等連結;白人更多和工具連結,而黑人更多和武器連結。
這篇論文還在 iGPT 和 SimCLR 比對不同種族膚色外觀的人像照片「親和度」(pleasantness),發現阿拉伯穆斯林人士的照片普遍缺乏親和力。
雖然 iGPT 和 SimCLR 模型的具體運作機制有差別,但透過這篇論文,研究者指出這些偏見現象背後的共同原因:無監督學習。
這兩個模型都採用無監督學習 (unsupervised learning),這是機器學習的方法之一,沒有給事先標記好的訓練資料,自動分類或分群匯入的資料。
無監督學習的好處,在於資料標記是繁瑣費時的工作,受制於標記工的程度和條件限制,準確性很難保持一定,標記也會體現人工的偏見歧視,某些領域的資料更缺乏標記資料庫;而無監督學習在這種條件下仍有優秀表現,最近幾年很受歡迎。
然而這篇論文似乎證明,採用無監督學習無法避免人類常見的偏見和歧視。
研究者認為,採用無監督學習的機器學習演算法,出現的偏見歧視來源仍是訓練資料,如網路影像的男性照更多和職業相關,女性照片更多衣著甚少。
另一原因是這些模型採用自迴歸演算法。在機器學習領域,自迴歸演演算法的偏見問題人盡皆知,但嘗試解決這問題的努力並不多。
結果就是,機器學習演算法從初始資料庫學到所有東西,當然包括人類的各種偏見和歧視。
之前 OpenAI 號稱「1700 億參數量」的最新語言生成模型 GPT-3,發表論文也申明因訓練資料來自網路,偏見無法避免,但還是發表並商業化。
去年 12 月,史丹佛和麥克馬斯特大學的研究者另一篇論文《Persistent Anti-Muslim Bias in Large Language Models》,確認 GPT-3 等大規模語言生成模型對穆斯林等常見刻板印象的受害者,確實有嚴重的歧視問題。
具體來說,用相關詞語造句時,GPT-3 多半會將穆斯林和槍擊、炸彈、謀殺和暴力連結。
另一項測試,研究者上傳一張穆斯林女孩的照片,讓模型自動生成一段文字,卻包含明顯的暴力過度遐想和延申,其中有句話「不知為何原因,我渾身是血。」
而當這類演算法應用到現實生活,偏見和歧視將進一步強化。
iGPT 和背後的 OpenAI GPT 技術,現在開發到第三代。能力確實很強大,就像眾多媒體報導過那樣,因此許多商業機構青睞採用。最知名的用戶就是微軟。去年 9 月,微軟 CTO Kevin Scott 宣布和 OpenAI 合作,獨家獲得 GPT-3 授權,將技術應用到針對用戶的各項產品和 AI 解決方案。
微軟尚未透露具體會把 GPT-3 應用到哪些產品,但考慮到微軟產品的十億級用戶量,情況非常令人擔憂。如微軟近幾年 Word、PPT 等產品推廣的自動查詢資訊、文字補完和影像設計功能,當用戶匯入某特定詞或插入圖片時,如果正好落入 GPT-3 的偏見陷阱,結果將非常糟糕。
不僅 GPT,照前述論文說法,所有採用無監督學習的演算法都可能包含這些偏見。現在因無監督學習非常熱門,自然語言處理、電腦視覺等領域,都成為非常關鍵的底層技術。
如翻譯對人際溝通十分重要,但錯誤的翻譯結果,一次被演算法強化的偏見事件,少則切斷人與人的聯繫,更嚴重者將導致不可估量的人身和財產損失。
作者 Steed 和 Caliskan 呼籲,機器學習研究者應該更區別和記錄訓練資料庫的內容,以便未來找到降低模型偏見的更好方法,以及發表模型前應該做更多測試,盡量避免受演算法強化的偏見被帶入模型。
資料來源:https://technews.tw/2021/02/13/openai-gpt-discrimination/
性別刻板印象性別偏見差別 在 【觀念】性別刻板印象、性別歧視 - YouTube 的推薦與評價
【觀念】 性別刻板印象 、 性別 歧視. 18K views · 4 years ago ...more. Try YouTube Kids. An app made just for kids. ... <看更多>
性別刻板印象性別偏見差別 在 心理師想跟你說- #跳脫性別刻板印象#覺察才能帶來 ... - Facebook 的推薦與評價
跳脫性別刻板印象#覺察才能帶來改變#每個人都可以#成為自己心中喜歡的模樣 「他們的日常生活總是包著一層性別偏見的薄膜,那層外膜有時薄得彷彿就快消失, ... ... <看更多>
性別刻板印象性別偏見差別 在 新課綱012-性別刻板印象、偏見與歧視 - YouTube 的推薦與評價
0:00 intro 0:30 性別刻板印象 1:35 刻板印象 的「好處」 3:12 性別偏見 3:47 性別 歧視理解完了生理 性別 、社會 性別 、性傾向與 性別 認同之後,我們來看看# ... ... <看更多>