3/23 微軟推出人工智慧聊天機器人 “Tay”,結果 3/24 就下架掰掰了,原因是因為 Tay 擁有學習吸收對話的能力,結果網友真的太可怕,跟網友聊天聊著聊著,學到的詞彙居然已經會種族歧視、並且憤世忌俗,剛好證實了 1990 年麥客˙高德溫曾經提出了一個「高德溫理論」(網際網路文化中,在線的討論時間拉長後,參與者把用戶的言行拿來和希特勒或納粹主義相比時,類比的機率會接近 100%),Tay 後續的言論真的太過種族歧視,像是有網友問她 “你是種族主義者嗎?”,Tay 卻回答 “因為你是墨西哥人” 等言論,總之這些紀錄都被刪除了,微軟表示等到軟體修正調整過後,便會再次接受大家的提問聊天。
--
一張圖就能看到今天最重要新聞,這麼好康,不按讚嗎?
請幫討喜小姐按讚:https://www.facebook.com/miluson.lu
--
看更多攪豬屎練肖話的 今日新聞淺談 傳送門
你或許會喜歡