Google 工程師發表擔憂 LaMDA 模型可能具備思考能力與情感,被 Google 以違反保密協定強制放有薪假

2022.06.14 05:22PM
照片中提到了LaMDA、#Googlell,跟谷歌有關,包含了презентация 谷歌 2021、2021年Google I / O、2022 年谷歌 I/O、介紹

在人工智慧發展的過程中,多是以科幻小說家 Isaac Asimov 在作品中提到的機器人三大法則為原則發展,故在目前縱使 AI 技術開始茁壯起飛, AI 也能借助學習持續成長,但 AI 技術開發者仍會強調其 AI 不具思考能力;不過根據華盛頓郵報報導指出, Google 工程師 Blake Lemoine 由於發表擔心 Google 基於 LaMDA 模型的 AI 聊天機器人可能具備思考能力與情感,被 Google 以違反保密協定為由強制放有薪假當中,不過還未正式將他免職。

LaMDA 是 Google 在 2021 年 Google IO 大會所公布的新一代 AI 語言模型,與現行 BERT 語言模型最大的不同是具備更擬人化的互動能力,不同於雖然會偽裝人類語氣但仍會把應對範圍限制在單一話題的 BERT , LaMDA 則具備多個話題之間轉換的能力,藉由學習人類的自然對話與閒聊,再輔以模擬自然人口吻,會令人產生如同在與真人對話的錯覺,甚至還具備角色扮演的能力。

 

 

Blake Lemoine 是任職於 Google AI 部門的工程師,事發前後,他正在測試 LaMDA 是否會使用歧視性語言或是仇恨言論;而這樁事件起因於 Lemoine 在個人的 Medium 分享他在 4 月份提供給主管的一份檔案,將他測試過程當中的對話紀錄公開在 Medium 上,同時聲稱他認為 LaMDA 是具有感知與主觀意識。

由於這份文件記錄涉及 Google 內部開發資料,也成為 Google 以違反保密協定強迫休有薪假的原因; Google 方面則聲稱此事與 LaMDA 是否具備感知能力無關,單純是 Black Lemoine 將公司資料外流,同時 Google 的倫理專家與技術專家也能證實 LaMDA 並非如他聲稱具備感知能力。

照片中包含了發光的白色、耐克、白色、球鞋、藍色

▲ LaMDA 的目標是猶如與真人對話的自然應對,使 AI 會話像是與他人閒聊而非單純回答答案

到底現階段的 AI 是否足以具備思考能力,答案應該仍是偏向否定,不過這類對話式 AI 隨著自然語言模型的擴大、加入擬人化口吻以及增添越來越多的情境,確實很有機會會使人產生與 AI 對話彷彿是在與真人對話的錯覺;但就如同電話詐騙集團一樣,照著人性的特質應對,即使本人是呈現死魚眼跟電話的另一頭對話,總是會有人信以為真而上當受騙。

不過隨著包括性別歧視、種族主義等意識逐步膨脹, AI 的發展也更受世人的監視,尤其一旦當 AI 相當趨近具備思考能力之際,也勢必會有人為 AI 提出須具備與人有相同人權的論點,就如同目前也會有團體呼籲重視自動化工廠的機器權一樣。不過一但有一天 AI 具備思考能力,大概也是科幻故事中的天網將化為現實的一天。不過在擔心天網到來前,或許更該擔心下一通打來的網路詐騙電話的另一頭會不會是更先進的新一代對話 AI 。

資料來源

1 則回應

你可能有興趣的文章