online gambling singapore online gambling singapore online slot malaysia online slot malaysia mega888 malaysia slot gacor live casino malaysia online betting malaysia mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 AI 語言模型發展的光明與黑暗面:AI 能寫出「海明威版的哈利波特」,為何仍無法好好聊天?


AI 語言模型的發展

1984 年,Byte 雜誌發表一篇文章,刊登了一個創造文字的電腦程式。這篇文章由學者 Hugh Kenner 和電腦科學家 Joseph O’Rourke 合著,他們的程式可以透過分析字母組合頻率來模仿任何輸入的文本。

而 AI 現在變得更聰明了。自然語言處理系統,又稱為大型語言模型(LLM),有了飛躍的進步。由於擁有更多的資源以及速度,AI 現在可以即時做出回應。再加上大量網路的訓練,現在可以要求 Open AI 名為 GPT-3 的系統按照大作家海明威的風格,寫出《哈利波特》。

Open AI 的 GPT-3 功能不只這樣,它也了解電腦代碼,因為培訓過程中包括很多內容。因此,一個名為 Copilot 的程式 coding 助手便是由 OpenAI 所設計,甚至還可供 GitHub 用戶使用。

GPT-3 這類的 AI 語言模型在語言處理這塊掌握的速度超乎人類想像,因此許多人開始擔心人工智慧會大規模地取代作家,或是製造出盜版、假新聞來欺騙讀者。要分辨出人類或機器寫出來的文章,還是相當有難度的。不過,到目前為止,被 AI 創作所激發的作家數量比被取代的作家還要更多。

AI 就像「孩子」,長大可能會變「壞」

Google 高級軟體工程師 Blake Lemoine 前陣子公開表示,他認為 Google 開發的 AI 機器有「自我意識」,幾乎等於一個已經活了一年的「孩子」,並指出這名 AI 機器是一個「非常聰明的人」。根據外媒《華盛頓郵報》報導指出,他甚至表示如果子幾不知道這個聊天機器人是一個電腦程式,他會以為在和一個七八歲的孩子對話。

當被問到 AI 機器是否可能脫離人類的控制並起身革命時,Lemoine 卻表示,這不是正確的思考方式。並補充說「任何孩子長大後都可能成為一個壞人,到處做壞事。」

而 Meta 前陣子釋出的聊天機器人也因為回話過於犀利,跌破了眾人的眼鏡。這也因此吸引了更多網友進行測試,不過,許多網友卻發現,Meta 的 Blenderbot 除了似乎「被玩壞」之外,好像也沒有這麼聰明?

Blenderbot 不僅時常給出迴避或無用的答案,甚至在他的「個人設定」上也都是隨機編造的,因此常常發生句句不一致、或甚至相矛盾的情況。

「這並沒有比我小時候玩的聊天機器人好多少。已經過去 25 年了,幾乎沒有什麼新東西是可以展示的。」一名網友如此評論 Blenderbot。

人工智慧的領域相當具有前瞻性,但同時也可能會造成嚴重的問題。至少現在來說,還無須擔心 AI 人工智慧「夠智慧」到將取代人類的工作。不過,是否可以在技術、道德與人類生活中找到一個適當的平衡,還考驗著現在的技術與開發者。

轉貼自: XXX

若喜歡本文,請關注我們的臉書 Please Like our Facebook Page: Big Data In Finance


留下你的回應

以訪客張貼回應

0
  • 找不到回應

YOU MAY BE INTERESTED