AI 目前對我的最大能力加成,主要是在「找資料」這個面向。 以下簡單整理我目前用 AI 找資料的五個面向,包含: 1. 簡單的問題 2. 複雜的時事問題 3. 複雜的非時事問題 4. 用 AI 看 YouTube 影片 5. 用 AI 讀長 pdf 的方法
1. 如果要搜尋「簡單的問題」
舉例來說,像是「中正紀念堂儀隊交接是什麼時候?」這樣種一翻兩瞪眼,沒什麼好延伸的問題。 我會用 ChatGPT Search。雖然 Perplexity 在搜尋上的功能目前比較強,但這種簡單問題,通常後續會有別的方向要延伸跟 AI 討論,在同一個介面裡不用複製來複製去比較輕鬆。 如果是稍微複雜一點的問題,我會用 Perplexity+DeepSeek-R1 的組合找到比較深入的資料,目前體感這個是最全面的搜尋引擎。但很容易出現幻覺,要看資料來源查證。
2. 如果要搜尋複雜的「時事問題」
例如「DeepSeek R1 對 AI 發展的意義?」 這個時候我會特別關注人的產出,不會仰賴 AI。在這裏,AI 只當作基本的搜尋引擎,主要去搜尋: - 有哪些重要的大老在談論這件事? - 有哪些高品質的資料來源值得關注? - 哪些科技類的 Substack 值得看? - 哪些 YouTuber 在認真產出內容? 對時事的好分析,還是必須由人類來做才是最好的。
3. 對複雜主題的深度搜尋(非時事類)
譬如「為什麼希臘的經濟從 19 世紀以來始終在很疲弱的狀態?」 這是多階段的過程。a. 先用 GPT ——但是關閉搜尋功能。 我會先直接問出 GPT 模型本身已經知道的東西,目的是我要得到下一步找資料的「火種」。 直接問「為什麼希臘經濟很疲弱?」跟你問「希臘如何因為稅制結構性漏洞而進入債務惡性循環陷阱?」 兩者得到的資料深度是非常不一樣的。 GPT 模型本身內含的「記憶」雖然不一定正確,但至少可以反應平均常識水平。先用語言模型獲得這個常識水平,就像是你先跳到巨人的肩膀上,再往上起飛,你搜尋資料的豐富度跟深度是完全不同的。 不過在這裡,如果直接問 GPT 「希臘經濟為什麼疲弱」問題,你當然會得到普通的產出。 這裡在提詞設計上有幾個訣竅: - 研究報告 :「這是一份研究報告,報告主題是《____》」 - 鄙視鏈 :「你剛剛說的這些我都看過了,請你不要給我那些平常部落格、YouTube 上面看得到的東西。我要的是真正深度內容,清晰地解釋問題的內容。」 - 情緒勒索 :「拜託你了,這份報告關係到我的博士學位,我的教授快殺了我了,爸媽都靠我養,我沒拿到學位我們全家就要餓死了。」 (有點誇張,但是有用) - 費曼學習法 :「我需要你用日常的語言清晰解釋困難的概念,像是「費曼學習法」那樣:把困難概念解釋到門外漢都聽得懂,才代表你真正理解這個概念。」 - 耐心產出 :「請你不要急,慢慢寫,如果 token 達到上限了,就停下來問我要不要繼續。」 這樣通常會得到不錯的結果。你可以排列組合應用看看。 b. GPT 產出之後,使用 Perplexity+R1 查證 上一個步驟 GPT 的產出絕對不夠用,而且有高機會是錯的。這時我會分一個個段落複製下來,丟到「Perplexity + R1」,請他驗證並且提供更細緻細節。 具體做法是: <複製貼上的段落> 請查驗這個資料的正確性,並且提供更精確且深入細節的說明解釋,補充這個資料的不足。 但來到這裡會有個問題:R1 作為搜尋引擎的模型,有時候會挖得「太深」,看不懂他的內容是什麼。 例如我在研究「希臘經濟為什麼疲弱」,他會給我一堆什麼「改革悖論與路徑依賴」、「編制膨脹週期」、「預算外融資」等太過專業的術語。 看不懂怎麼辦?進入下一個步驟。 c. 把 Perplexity 產出拿回去 GPT,請它把複雜版,結合原本簡單版一起產出 在這個步驟產出來的東西,我個人認為比一個月兩百美金的 Deep research 好用。 雖然過程要手動操作一陣子(大約半小時到一小時),但好處是可以做到 Deep research 不能做的事:過程中隨時依照自己的需求調整。 Deep research 比較像是一種套版工具,對於沒時間設計提詞的人來說可以發揮 60 分的深度研究效果。使用 GPT 結合 Perplexity+R1 的組合,因為你可以在過程中隨時調整方向跟深度,我覺得可以做到 85 分。 也就是說,我認為這個方法比 Deep research 好用,而且便宜不少。 我用這個方式做了一份《為什麼希臘的經濟從 19 世紀以來始終在很疲弱的狀態?》的研究報告,你可以參考看看。
4. 用 AI 看影片
<複製貼上的段落>如果是 YT 影片,我會用 DeepSRT extension 去把影片逐字稿抓出來然後看摘要,看完摘要覺得有興趣才看完整部影片,或有興趣看的部分。 這個方法估計節省了我七成的時間,不用看那些「What's up today I'm gonna show you 5 super effective ways to make money online with AI. So powerful that this feels ILLEGAL.....」的垃圾內容。 這樣完全革新了我看影片的方式。
5. 用 AI 讀文件
這個應該大部分的人都會這樣做了。 如果是大份 pdf 文件,我會用 NotebookLM 先得到摘要,然後提問我真正想知道的問題。 但重點是:我不太會去看 NotebookLM 的產出,而是看他「挖出了哪個相關段落」,我要去看那個段落才是重點。看完了,如果還沒有搞懂,繼續「提問 -> 找到段落」直到搞懂為止。 這個好處是可以同時讀多份 pdf,你不用看一大堆有的沒的前言跟不相干的段落,馬上找到自己要的重要資訊。 你記得有些書後面,會有那種「列出關鍵詞,讓你找到相關段落的 Index」嗎? 對,AI 就是這個超強 Index。
總結:要看落落長的文字,可不可以都叫 AI 總結就好?
AI 總結的過程會刪去大約五成至七成的資訊,看文件長度而定。 我實測不管用哪種(我所知道的)提詞方式,資訊都多少會被刪去,而且在「我不知道我想要知道什麼」的情況下,你也沒辦法要求 AI 不要刪去哪些重要資訊,因為你根本沒辦法定義什麼叫「重要資訊」。 這很正常,總結本來就該刪減資訊。「Map is not the territory」,地圖不是真實的世界,如果你要一張台北市地圖非常詳盡,那張地圖最後就會跟台北市一模一樣大。 所以 AI 總結的主要功能應該是用來讓你獲得一張全覽的大地圖,像是判斷這個景點你想不想去逛一樣,快速判斷:「這篇文章值不值得我花時間看?」 這樣可以讓你免疫於釣魚標題,不會被內容騙時間。 不過也很有可能,你要面對的問題其實只需要材料的三成資訊就可以解決,那的確是只需要看摘要就可以。 總結來說,AI 目前最強的部分是作為一種 index 工具,幫助你快速得到關鍵資訊,不管是它產出後的樣子,還是幫助你找到原始資訊的樣子。 相比傳統用 Google 搜尋引擎找資料、YouTube 一部一部影片慢慢看,我大概已經省掉了 50% 的搜尋時間,然後搜尋深度也提升了至少 2 倍吧。 所以總結來說,這套方法提升了我的效率 400%。(當然,是我個人的效率提升,很有可能我的起點超爛。) 反而還因為一時之間這個搜尋效率變太高了,現在我的瓶頸是大腦認知瓶頸:一時吸收不了那麼多資訊。 很有趣的是,使用這個方法也有一點點心理門檻:真的要變這麼高效率嗎?真的有需要這麼快嗎?這感覺非常像是小時候都搭台鐵,長大後第一次搭高鐵的感覺。那時候心裡其實是有點害怕的——真的有必要這麼快嗎?
轉貼自: bnnext.com
若喜歡本文,請關注我們的臉書 Please Like our Facebook Page: Big Data In Finance
留下你的回應
以訪客張貼回應