华裔员工戳破谷歌虚伪假面:亚裔女性根本没机会

【美洲华联社讯】Google作为硅谷高科技産业的巅峰,许多人都梦想能够参与其中,但曾任Google的女性工作者Qichen Zhang表示:「在里面我看不到任何机会。」

谷歌欢乐表面之下,工作环境其实对于女性及非白人并不友善。

根据英国卫报报导,曾任Google的亚裔女性Qichen Zhang指出,其内部工作环境对于性别及非白人工作者并不友善,工作时也时常需要经历漠视、冷澹等态度,并提出曾有过在会议中成为唯一女性的情况,但在场男性却没有让她参与讨论。

「身为一个亚裔女性,想必很轻鬆地就能够进入Google吧,尤其是他们总认为亚洲人精通数学」Qichen Zhang提到在Google工作时,男同事对她开的”玩笑”。她认为虽然没有明确爆出歧视性的言论或举动,但并不代表他们没有抱持歧视的态度。

Qichen Zhang曾对Google工作充满憧憬,但进入Google之后却只待一年就离职了,而除了Qichen Zhang以外,还有另一名黑人女性透露,Google所提倡的多元化事实上只是一种企业形象。

她表示除了每天需经历冷待及忽视外,她也多次目睹上层以应徵者未符合企业文化要求来拒絶聘请,然而却总是挑选出一个能够融入白人圈的应徵者。

Google现任环球多元化主席Yolanda Mangolini对此表示公司已尽力改善来提供共融环境。

人工智慧性别歧视 谷歌有解释

透过研究显示,人类研发的机器也能学到人类看世界的观点,无论是否有意。对閲读文本的人工智慧来说,它可能会将「医生」一词与男性优先关联,而非女性,或影像辨识也会更大机率将黑人错误分类为大猩猩。

2015 年,Google Photos 应用误把两名黑人标注为「大猩猩」,当时这错误意味着 Google 的机器学习还处于「路漫漫其修远兮」的状态。Google 立即对此道歉,并表示将调整演算法,以修复该问题。近日,身为错误的责任方,Google 正在尝试让大衆了解 AI 如何不经意间永久学到创造它们的人持有的偏见;一方面,这是 Google 对外 PR(公关)的好方式,其次,AI 工程师也可用一种简单的方法来简介自己的偏见演算法。

在影片中,Google 介绍了 3 种偏见:

互动偏差:用户可透过我们与其互动的方式来偏移演算法。例如,Google 召集一些参与者,让他们每人画一隻鞋,但多半用户会选择画男鞋,故以这些资料为基础的系统可能不会知道高跟鞋也是鞋子。

潜在偏差:该演算法会将想法和性别、种族、收入等不正确地联繫。例如,当用户在 Google Search 搜寻「医生」时,出现的大多为白人男性。

之前 Quarts 发了一则相关新闻,该报导称,经普林斯顿大学最新研究成果,这些偏见,如将医生与男性相关联,将护士与女性关联,都来自演算法被教授的语言影响。正如一些资料科学家所说:没有好的资料,演算法也做不出好决策。

选择偏差:据了解,用于训练演算法的资料量已大大超过全球人口,如果训练影像辨识的资料仅针对白人进行,那麽得到的资料也只能来自 AI 有限的认定。

去年 6 月,「青年实验室」(辉达、微软等科技巨擘均是该实验室的合作伙伴和支援者)举办了一次 Beauty.ai 网路选美大赛。比赛透过人工智慧分析,征集了 60 万条纪录。演算法参考皱纹、脸部比例、皮肤疙瘩和瑕疵的数量、种族和预测的年龄等因素。最后结果显示,种族因素比预期发挥更大的作用:在 44 名获奖者中,其中有 36 人为白人。

事实上,关于演算法中含有性别、种族偏见的研究和报导,早已有之。据之前报导,要消除这些偏见,并不容易。(文章来源 中国日报)