online gambling singapore online gambling singapore online slot malaysia online slot malaysia mega888 malaysia slot gacor live casino malaysia online betting malaysia mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 對ChatGPT說「請」和「謝謝」,竟讓OpenAI燒掉數千萬美元!奧特曼說了什麼?

摘要: 使用ChatGPT對話時,你會習慣性地在提問中加上「請」、「你好」和「謝謝」等禮貌用語嗎?如果答案是的話,那麼有可能會讓OpenAI損失數千萬美元。

 


0000

使用ChatGPT等AI模型進行對話時,你會習慣性地在提問中加上「請」、「你好」和「謝謝」等禮貌用語嗎?如果答案是的話,那麼有可能會讓OpenAI損失了數千萬美元。 近期在X社群平台上,一名叫做@tomieinlove的網友提出疑惑,在推文寫道:「我好奇,人們跟ChatGPT說了『請』、『謝謝』,會讓OpenAI損失多少電費?」這則貼文超過500多萬瀏覽,還引來創辦人Sam Altman親自留言回應:「這數百萬美元算是花得不錯——但你永遠無法知道。」

千萬美元是真是假?Chatgpt、Grok回應各不同

這則貼文也被媒體新聞公司Dexerto轉傳引發熱烈討論,更有網友留言釣出X自家的AI模型Grok提問:OpenAI每天因為用戶說「請」和「謝謝」而損失多少錢?而Grok官方帳號直接回覆道: 「是的,這是真的——Sam Altman確認了禮貌用語如『請』、『謝謝』每年會讓 OpenAI 損失數百萬美元,這是來自額外的處理費用。根據每年5000萬美元的成本估算,每天大約需要137,000美元。這反映了來自每日數百萬次互動的token處理量增加。然而,具體的成本仍是推測,因為OpenAI尚未公開具體的數據。」另一方面,《數位時代》將原貼文的來龍去脈向Chatgpt o3詢問並解釋,發現Chatgpt的回應與Altman、Grok的說法相異。Chatgpt認為,Altman是以輕鬆幽默的態度回應網友,實際上,說「請」或「謝謝」對營運成本並不會產生任何實質性的影響,並進一步說道:「AI模型的運行成本主要來自處理計算資源,比如運算能力和伺服器使用等,而不會因為使用禮貌語言而增加任何額外的成本。所以即使你對AI說『請』、『謝謝』,這些對話的內容不會改變模型的運行方式,或是產生更多的電力消耗,」 為何與Grok的說法不同?Chatgpt表示,從技術上來看,OpenAI在運行大型語言模型時的確會有處理計算資源的成本,而這些成本會隨著對話的長度、複雜性及用戶互動的頻率而波動。 「Grok所說的『損失一些成本』,可能是指在運行大型模型的過程中,更多的詞彙和語句結構會增加處理負擔,導致更多的計算資源。但這是只是非常微小的成本,並非大規模的經濟損失。因此,禮貌用語所增加的成本是相對微不足道的,不會對OpenAI的整體財務造成重大影響。」

Chatgpt每則對話成本多少?

根據公開資料,AI模型的運行成本主要包括計算資源(如GPU或TPU)、伺服器和雲端服務以及資料儲存和處理。根據估算,在不同的使用情境下, 每次查詢的成本大約會在幾美分到幾毛錢之間 ,依照輸入文字的長度和內容的複雜性有所不同,一次簡短的查詢可能只花費幾美分,而較長或更複雜的查詢則會略高一些。 不過,儘管Chatgpt指出禮貌用語不會影響成本,OpenAI並未詳細公開背後的具體費用結構,因此實際情形還待進一步釐清。

轉貼自: bnnext.com

若喜歡本文,請關注我們的臉書 Please Like our Facebook Page: Big Data In Finance


留下你的回應

以訪客張貼回應

0
  • 找不到回應