Skip to content

穀歌AI今後不再為圖像生成“男性”“女性”標簽

在為開發者提供的人工智能工具中,穀歌表示今後將不會為圖像添加性別方麵的標簽,因為他們認為一個人的性別不能僅憑他/她們在照片中的形象來確定。

今天,穀歌向開發者發出的公開信中表示將會對廣泛使用的Cloud Vision
API工具(主要使用AI來分析圖像以識別麵部、地標性建築、可顯示內容以及其他內容)進行調整。

a3c0c9790929c588592c47bfedd2faa2
今後穀歌會使用“Person”(人物)來標記圖像,而不會使用“man”(男性)或者“woman”(女性)來識別圖像,以避免人工智能算法傳達出偏見。

據《商業內幕》報道,在發給開發者的電子郵件中,穀歌引用了自己的AI準則。
“鑒於無法通過外貌來推斷出一個人的性別,我們決定刪除這些標簽,以符合Google的人工智能原則,特別是原則2:避免造成或加強不公平的偏見。”

37f11725ee21771832632e081527b0ab過去,人工智能圖像識別一直是Google的棘手問題。2015年,一位軟件工程師指出,Google
Photos的圖像識別算法將其黑人朋友歸類為“大猩猩”。穀歌承諾將解決該問題,但Wired在2018年的一份後續報告中發現,穀歌已阻止其AI識別大猩猩,但是核心問題並沒有得到妥善解決。

華客網:穀歌AI今後不再為圖像生成“男性”“女性”標簽