今日新聞淺談:微軟人工 Ai “Tay” 一天就崩壞

2016.03.25 06:34PM
是今日新聞淺談:微軟人工 Ai “Tay” 一天就崩壞這篇文章的首圖

3/23 微軟推出人工智慧聊天機器人 “Tay”,結果 3/24 就下架掰掰了,原因是因為 Tay 擁有學習吸收對話的能力,結果網友真的太可怕,跟網友聊天聊著聊著,學到的詞彙居然已經會種族歧視、並且憤世忌俗,剛好證實了 1990 年麥客˙高德溫曾經提出了一個「高德溫理論」(網際網路文化中,在線的討論時間拉長後,參與者把用戶的言行拿來和希特勒或納粹主義相比時,類比的機率會接近 100%),Tay 後續的言論真的太過種族歧視,像是有網友問她 “你是種族主義者嗎?”,Tay 卻回答 “因為你是墨西哥人” 等言論,總之這些紀錄都被刪除了,微軟表示等到軟體修正調整過後,便會再次接受大家的提問聊天。

 


--
一張圖就能看到今天最重要新聞,這麼好康,不按讚嗎?
請幫討喜小姐按讚:https://www.facebook.com/miluson.lu
--

看更多攪豬屎練肖話的 今日新聞淺談 傳送門
a7cb3a1e68dfd2fe9292e272c067bf50討喜小姐粉絲團

 

 

你或許會喜歡

實木就是有質感!CELIA&PERAH 無線高傳真實木音響

神癮少女都想要的耳機,竟然是這款!