AI 語言模型的發展
1984 年,Byte 雜誌發表一篇文章,刊登了一個創造文字的電腦程式。這篇文章由學者 Hugh Kenner 和電腦科學家 Joseph O’Rourke 合著,他們的程式可以透過分析字母組合頻率來模仿任何輸入的文本。
而 AI 現在變得更聰明了。自然語言處理系統,又稱為大型語言模型(LLM),有了飛躍的進步。由於擁有更多的資源以及速度,AI 現在可以即時做出回應。再加上大量網路的訓練,現在可以要求 Open AI 名為 GPT-3 的系統按照大作家海明威的風格,寫出《哈利波特》。
Open AI 的 GPT-3 功能不只這樣,它也了解電腦代碼,因為培訓過程中包括很多內容。因此,一個名為 Copilot 的程式 coding 助手便是由 OpenAI 所設計,甚至還可供 GitHub 用戶使用。
GPT-3 這類的 AI 語言模型在語言處理這塊掌握的速度超乎人類想像,因此許多人開始擔心人工智慧會大規模地取代作家,或是製造出盜版、假新聞來欺騙讀者。要分辨出人類或機器寫出來的文章,還是相當有難度的。不過,到目前為止,被 AI 創作所激發的作家數量比被取代的作家還要更多。
AI 就像「孩子」,長大可能會變「壞」
Google 高級軟體工程師 Blake Lemoine 前陣子公開表示,他認為 Google 開發的 AI 機器有「自我意識」,幾乎等於一個已經活了一年的「孩子」,並指出這名 AI 機器是一個「非常聰明的人」。根據外媒《華盛頓郵報》報導指出,他甚至表示如果子幾不知道這個聊天機器人是一個電腦程式,他會以為在和一個七八歲的孩子對話。
當被問到 AI 機器是否可能脫離人類的控制並起身革命時,Lemoine 卻表示,這不是正確的思考方式。並補充說「任何孩子長大後都可能成為一個壞人,到處做壞事。」
而 Meta 前陣子釋出的聊天機器人也因為回話過於犀利,跌破了眾人的眼鏡。這也因此吸引了更多網友進行測試,不過,許多網友卻發現,Meta 的 Blenderbot 除了似乎「被玩壞」之外,好像也沒有這麼聰明?
Blenderbot 不僅時常給出迴避或無用的答案,甚至在他的「個人設定」上也都是隨機編造的,因此常常發生句句不一致、或甚至相矛盾的情況。
「這並沒有比我小時候玩的聊天機器人好多少。已經過去 25 年了,幾乎沒有什麼新東西是可以展示的。」一名網友如此評論 Blenderbot。
人工智慧的領域相當具有前瞻性,但同時也可能會造成嚴重的問題。至少現在來說,還無須擔心 AI 人工智慧「夠智慧」到將取代人類的工作。不過,是否可以在技術、道德與人類生活中找到一個適當的平衡,還考驗著現在的技術與開發者。
轉貼自: XXX
若喜歡本文,請關注我們的臉書 Please Like our Facebook Page: Big Data In Finance
留下你的回應
以訪客張貼回應