撰稿:Alrin,日期:2023-11-17

如果你和我一樣,曾經看過許多的科幻片,例如:駭客任務(Matrix)、魔鬼終結者(The Terminator)、人工智慧(A.I. Artificial Intelligence),那麼你的心中一定會有種當 AI 的智慧超過了所有的人類,AI 就會毀滅人類的世界。

Untitled

也有人拿核彈來比擬 AI,其實我覺得這個論點很奇妙,因為這真的是可以放在一起比較的嗎?

為什麼會有這麼多的專家跳出來警告,AI 可能真的會造成人類滅亡呢?

最近相關話題不斷,到底是 AI 專家們真的是希望各國政府監管 AI 技術,來防止 AI 的技術失控?還是背地裡根本就是打著,開始築起 AI 門檻的高牆,防止其他企業進入這方面技術的領域?

以下為整理了各家新聞網站的相關報導。

大神們的世紀大論戰

近日,AI 的前沿探索引起了激烈的討論,尤其是有關 AI 是否可能帶來毀滅性災難(x-risk)等問題。特斯拉的首席執行官埃隆·馬斯克與數千名科技和商業領袖聯名呼籲,暫停 GPT-4 的升級和 AI 的開發。儘管馬斯克的內心動機尚不明確,但此舉引起了對 AI 法律和道德議題的廣泛關注。當前,人類社會是否應制定 AI 列管法案以保護個人和社會也成為一個爭議性問題。

在這一論戰中,AI 領域的先驅們,包括吳恩達、楊立昆和辛頓,紛紛發表了不同的意見。一些領袖,如辛頓等 AI 教父,還聯合簽署了一封公開信,呼籲對 AI 發展進行監管和規範,特別是針對那些資金充沛的科技企業。他們擔心 AI 可能迅速達到超級智能(SI),並對人類社會帶來潛在的毀滅性風險。

然而,吳恩達對此提出異議,認為 AI 的監管本身並非問題,但他同時警告指出,過早的集體呼籲可能扼殺創新並引發社會恐慌。他質疑這些 AI 專家的真實動機,懷疑他們是否主要為了減少競爭而提出這樣的呼籲。

這場辯論突顯了 AI 發展方向和潛在風險的不同觀點,同時凸顯出在缺乏具體監管法案之前,AI 先驅們在這些重要問題上存在意見分歧。這是一個需要深入思考的議題,關係到我們未來科技發展的方向和影響。

Untitled

吳恩達、楊立昆和辛頓等 AI 領域大佬們怎麼說?

AI 技術的發展是否應該受到列管的議題引起了業界專家的極大關注,AI 產業的重要人物們最近在網路文章和社群中展開了一場引人矚目的論辯。

在上月 30 日,由被譽為 AI 教父的辛頓(Geoffrey Hinton)率領的一群 AI 產業領袖,聯合簽署了一封公開信,呼籲針對 AI 毀滅全球的潛在風險採取行動。

Untitled

這些專家們認為,AI 有朝一日可能迅速達到超級智能(Super intelligence),並對人類社會帶來毀滅性的災難風險。因此,他們主強調應監管和規範 AI 系統的發展,尤其是針對那些資金龐大的科技企業。

然而,剛訪台的吳恩達(Andrew Ng)對這種觀點提出了異議。他認為 AI 的納管本身沒有問題,但卻提出一警告,指出這些領域專家的集體呼籲可能不僅扼殺創新,還有可能因過度炒作而引發社會恐慌。這讓人不禁懷疑這些 AI 專家的真實動機是否主要在於減少競爭對手。

Untitled