據(jù)俄羅斯“衛(wèi)星新聞網(wǎng)”報道,美國普林斯頓大學的研究者發(fā)現(xiàn),人工智能系統(tǒng)可能會有種族歧視的跡象。該項研究表明,機器人對于白人名字感覺“喜悅”,而對于黑人名字卻表示出“不悅”。這項研究涉及一項具有自學能力的人工智能系統(tǒng)--GloVe。該系統(tǒng)能夠識別并且理解在線文段。
“我們試驗這些被廣泛使用的、純粹數(shù)據(jù)化的機器學習模型,并且利用網(wǎng)絡上的語料庫對其進行訓練?!毖芯繄蟾嬲f。在相關的任務中,這一系統(tǒng)要將諸如“花朵”和“昆蟲”之類的詞與另外一些被科學家定義為“令人喜悅的”或“令人不悅的”詞進行配對。
不過,當研究人員將一串聽起來像黑人的白人名字輸入到GloVe系統(tǒng)時,這個機器人卻顯示出嚴重的種族主義。這一智能系統(tǒng)將普遍使用的白人名字識別為“令人喜悅”的詞,而非裔美國人的名字卻被劃為“令人不悅”的詞。
研究人員認為,這是人們隱藏在互聯(lián)網(wǎng)數(shù)據(jù)中的偏見,然后被機器人學習。“我們的研究結果表明,語言本身也包含了歷史性歧視的精確印記?!毖芯咳藛T說。(李宗澤)
鄂ICP備2020021375號-2
網(wǎng)絡傳播視聽節(jié)目許可證(0107190)
備案號:42010602003527
今日湖北網(wǎng)版權所有
技術支持:湖北報網(wǎng)新聞傳媒有限公司
舉報電話:027-88568010
運維監(jiān)督:13307199555