online gambling singapore online gambling singapore online slot malaysia online slot malaysia mega888 malaysia slot gacor live casino malaysia online betting malaysia mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 我用AI找資料,提升效率400%!拆解5大使用情境:怎麼問才能提升效率?

 


0000

AI 目前對我的最大能力加成,主要是在「找資料」這個面向。 󠀠 以下簡單整理我目前用 AI 找資料的五個面向,包含: 󠀠 1. 簡單的問題 2. 複雜的時事問題 3. 複雜的非時事問題 4. 用 AI 看 YouTube 影片 5. 用 AI 讀長 pdf 的方法

1. 如果要搜尋「簡單的問題」

舉例來說,像是「中正紀念堂儀隊交接是什麼時候?」這樣種一翻兩瞪眼,沒什麼好延伸的問題。 󠀠 我會用 ChatGPT Search。雖然 Perplexity 在搜尋上的功能目前比較強,但這種簡單問題,通常後續會有別的方向要延伸跟 AI 討論,在同一個介面裡不用複製來複製去比較輕鬆。 󠀠 如果是稍微複雜一點的問題,我會用 Perplexity+DeepSeek-R1 的組合找到比較深入的資料,目前體感這個是最全面的搜尋引擎。但很容易出現幻覺,要看資料來源查證。

2. 如果要搜尋複雜的「時事問題」

例如「DeepSeek R1 對 AI 發展的意義?」 󠀠 這個時候我會特別關注人的產出,不會仰賴 AI。在這裏,AI 只當作基本的搜尋引擎,主要去搜尋: 󠀠 - 有哪些重要的大老在談論這件事? - 有哪些高品質的資料來源值得關注? - 哪些科技類的 Substack 值得看? - 哪些 YouTuber 在認真產出內容? 對時事的好分析,還是必須由人類來做才是最好的。

3. 對複雜主題的深度搜尋(非時事類)

譬如「為什麼希臘的經濟從 19 世紀以來始終在很疲弱的狀態?」 󠀠 這是多階段的過程。a. 先用 GPT ——但是關閉搜尋功能。 󠀠 我會先直接問出 GPT 模型本身已經知道的東西,目的是我要得到下一步找資料的「火種」。 󠀠 直接問「為什麼希臘經濟很疲弱?」跟你問「希臘如何因為稅制結構性漏洞而進入債務惡性循環陷阱?」 󠀠 兩者得到的資料深度是非常不一樣的。 󠀠 GPT 模型本身內含的「記憶」雖然不一定正確,但至少可以反應平均常識水平。先用語言模型獲得這個常識水平,就像是你先跳到巨人的肩膀上,再往上起飛,你搜尋資料的豐富度跟深度是完全不同的。 󠀠 不過在這裡,如果直接問 GPT 「希臘經濟為什麼疲弱」問題,你當然會得到普通的產出。 這裡在提詞設計上有幾個訣竅: 󠀠 - 研究報告 :「這是一份研究報告,報告主題是《____》」 󠀠 - 鄙視鏈 :「你剛剛說的這些我都看過了,請你不要給我那些平常部落格、YouTube 上面看得到的東西。我要的是真正深度內容,清晰地解釋問題的內容。」 󠀠 - 情緒勒索 :「拜託你了,這份報告關係到我的博士學位,我的教授快殺了我了,爸媽都靠我養,我沒拿到學位我們全家就要餓死了。」 (有點誇張,但是有用) 󠀠 - 費曼學習法 :「我需要你用日常的語言清晰解釋困難的概念,像是「費曼學習法」那樣:把困難概念解釋到門外漢都聽得懂,才代表你真正理解這個概念。」 󠀠 - 耐心產出 :「請你不要急,慢慢寫,如果 token 達到上限了,就停下來問我要不要繼續。」 󠀠 這樣通常會得到不錯的結果。你可以排列組合應用看看。 󠀠 b. GPT 產出之後,使用 Perplexity+R1 查證 上一個步驟 GPT 的產出絕對不夠用,而且有高機會是錯的。這時我會分一個個段落複製下來,丟到「Perplexity + R1」,請他驗證並且提供更細緻細節。 󠀠 具體做法是: 󠀠 <複製貼上的段落> 請查驗這個資料的正確性,並且提供更精確且深入細節的說明解釋,補充這個資料的不足。 󠀠󠀠󠀠 但來到這裡會有個問題:R1 作為搜尋引擎的模型,有時候會挖得「太深」,看不懂他的內容是什麼。 󠀠 例如我在研究「希臘經濟為什麼疲弱」,他會給我一堆什麼「改革悖論與路徑依賴」、「編制膨脹週期」、「預算外融資」等太過專業的術語。 󠀠 看不懂怎麼辦?進入下一個步驟。 c. 把 Perplexity 產出拿回去 GPT,請它把複雜版,結合原本簡單版一起產出 󠀠 在這個步驟產出來的東西,我個人認為比一個月兩百美金的 Deep research 好用。 󠀠 雖然過程要手動操作一陣子(大約半小時到一小時),但好處是可以做到 Deep research 不能做的事:過程中隨時依照自己的需求調整。 󠀠 Deep research 比較像是一種套版工具,對於沒時間設計提詞的人來說可以發揮 60 分的深度研究效果。使用 GPT 結合 Perplexity+R1 的組合,因為你可以在過程中隨時調整方向跟深度,我覺得可以做到 85 分。 󠀠 也就是說,我認為這個方法比 Deep research 好用,而且便宜不少。 󠀠 我用這個方式做了一份《為什麼希臘的經濟從 19 世紀以來始終在很疲弱的狀態?》的研究報告,你可以參考看看。

󠀠󠀠4. 用 AI 看影片

 

<複製貼上的段落>如果是 YT 影片,我會用 DeepSRT extension 去把影片逐字稿抓出來然後看摘要,看完摘要覺得有興趣才看完整部影片,或有興趣看的部分。 󠀠 這個方法估計節省了我七成的時間,不用看那些「What's up today I'm gonna show you 5 super effective ways to make money online with AI. So powerful that this feels ILLEGAL.....」的垃圾內容。 󠀠 這樣完全革新了我看影片的方式。 󠀠

5. 用 AI 讀文件

這個應該大部分的人都會這樣做了。 󠀠 如果是大份 pdf 文件,我會用 NotebookLM 先得到摘要,然後提問我真正想知道的問題。 󠀠 但重點是:我不太會去看 NotebookLM 的產出,而是看他「挖出了哪個相關段落」,我要去看那個段落才是重點。看完了,如果還沒有搞懂,繼續「提問 -> 找到段落」直到搞懂為止。 󠀠 這個好處是可以同時讀多份 pdf,你不用看一大堆有的沒的前言跟不相干的段落,馬上找到自己要的重要資訊。 󠀠 你記得有些書後面,會有那種「列出關鍵詞,讓你找到相關段落的 Index」嗎? 󠀠 對,AI 就是這個超強 Index。

總結:要看落落長的文字,可不可以都叫 AI 總結就好?

AI 總結的過程會刪去大約五成至七成的資訊,看文件長度而定。 󠀠 我實測不管用哪種(我所知道的)提詞方式,資訊都多少會被刪去,而且在「我不知道我想要知道什麼」的情況下,你也沒辦法要求 AI 不要刪去哪些重要資訊,因為你根本沒辦法定義什麼叫「重要資訊」。 󠀠 這很正常,總結本來就該刪減資訊。「Map is not the territory」,地圖不是真實的世界,如果你要一張台北市地圖非常詳盡,那張地圖最後就會跟台北市一模一樣大。 󠀠 所以 AI 總結的主要功能應該是用來讓你獲得一張全覽的大地圖,像是判斷這個景點你想不想去逛一樣,快速判斷:「這篇文章值不值得我花時間看?」 󠀠 這樣可以讓你免疫於釣魚標題,不會被內容騙時間。 󠀠 不過也很有可能,你要面對的問題其實只需要材料的三成資訊就可以解決,那的確是只需要看摘要就可以。 󠀠󠀠 總結來說,AI 目前最強的部分是作為一種 index 工具,幫助你快速得到關鍵資訊,不管是它產出後的樣子,還是幫助你找到原始資訊的樣子。 󠀠󠀠 相比傳統用 Google 搜尋引擎找資料、YouTube 一部一部影片慢慢看,我大概已經省掉了 50% 的搜尋時間,然後搜尋深度也提升了至少 2 倍吧。 󠀠󠀠󠀠󠀠 所以總結來說,這套方法提升了我的效率 400%。(當然,是我個人的效率提升,很有可能我的起點超爛。) 󠀠󠀠󠀠󠀠󠀠 反而還因為一時之間這個搜尋效率變太高了,現在我的瓶頸是大腦認知瓶頸:一時吸收不了那麼多資訊。 󠀠󠀠󠀠 很有趣的是,使用這個方法也有一點點心理門檻:真的要變這麼高效率嗎?真的有需要這麼快嗎?這感覺非常像是小時候都搭台鐵,長大後第一次搭高鐵的感覺。那時候心裡其實是有點害怕的——真的有必要這麼快嗎?

轉貼自: bnnext.com

若喜歡本文,請關注我們的臉書 Please Like our Facebook Page: Big Data In Finance

 


留下你的回應

以訪客張貼回應

0
  • 找不到回應

YOU MAY BE INTERESTED