一、2019〈AI 或理財機器人以行銷為多〉的觀點檢視(individual-trader.blogspot.com)
觀點 1:理財機器人 / AI 理財,多數是行銷包裝,大於實質能力
市面上 AI 理財、理財機器人因 AlphaGo 被炒得很夯,但多半只是噱頭。
評價:✔ 大方向仍成立,但要加幾個但書
-
現在多數零售 Robo-advisor 的核心,仍是「資產配置 + 風險問卷 + 低成本 ETF 組合」,而不是什麼神秘深度學習模型。大部分的確是「把本來就該做的資產配置包裝成 AI」來賣。
-
不過在機構端,AI / ML 真的有大量落地:像 Two Sigma、DE Shaw、Citadel 等,早就用 ML 在處理龐大資料、訊號挖掘、風險管理,這些不是只為了行銷。
👉 結論:
你的批判對「零售理財商品」非常準;但對整個金融市場來說,「行銷大於實力」這句話現在只適用於一部分場景,機構內部其實已經把 ML 當作標配工具。
觀點 2:AI 能力上限嚴重受限於訓練資料品質與範圍
「重點不在演算法,而在訓練資料的準備與 domain expert。」
「資料和經驗侷限一切。」
評價:✔ 完全成立,甚至在 2025 年更重要
-
不論是傳統 ML 還是現在的 LLM,本質還是「從過去資料學規則」,訓練資料的分佈、品質、偏差決定了模型的邊界。
-
尤其在金融這種高噪音、非平穩(non-stationary)的環境,概念漂移(concept drift) 是學術界近年很熱的一個主題,很多研究就是在想辦法補你當年說的「資料侷限」這個洞。
👉 結論:
你這個觀點是教科書級別的正確,而且現在學界 / 業界都是沿著你說的這個問題在做改良(drift detection、online learning、meta-learning…)。
觀點 3:黑天鵝與「市場是無限解」,AI 很難像在圍棋那樣發揮
圍棋變數多但仍有限解,人類可以用棋譜訓練 AI;
市場屬於「無限解」,參與者一直在變,等於不斷用新黑天鵝打臉 AI。
評價:✔ 成立,但可以補充「AI 有改善、沒到神」
-
到 2025,沒有人能說 AI 已經「解出市場」,反而大家都承認:
-
金融序列高度非平穩
-
結構斷點、政策、戰爭、疫情都會讓學到的規則失效
-
-
有人用深度 RL + agent-based 模型模擬市場,確實能在模擬裡學到某些策略,但距離「真正穩定打贏市場」還很遠,只能說是研究價值高。
👉 結論:
你當年用「圍棋有限解 vs 市場無限解」來打臉 AlphaGo 類比,邏輯完全對。現在的進步是:AI 在「模擬 + 風控 + 補助人類判斷」上有所提升,但還稱不上在市場世界裡當 AlphaGo。
觀點 4:好的交易方法不能純粹從歷史資料挖出來,要「先有理論,再用資料印證」,而且要符合「三不」
先有 model → 再用資料驗證
而且要在「不修參數、不同時間架構、不同商品」都有效。
評價:△ 核心精神仍對,但在實務上太理想化
-
現在主流量化實務其實是 理論 + 資料雙向互動:
-
有人先有經濟 / 因子理論再用資料測
-
也有人用 data mining 找到異常,再回頭找經濟解釋
-
-
「不修參數、不調校」在現在看會被認為有點過度理想:
-
面對 concept drift,定期 re-train / re-calibrate 已經是業界標準操作,反而宣稱「完全不調」會被質疑沒跟上 regime change。
-
👉 結論:
-
你反對「純 data mining」是對的;
-
但「完全不能調參數、必須跨商品一體適用」這個要求,在 2025 的實務世界看,比較像是一種「極保守哲學」,而不是客觀必要條件。
-
對散戶或小型自營來說,把這當安全線可以;對大型 quant shop 來說就太嚴了。
觀點 5:以你當時的實作經驗看,搞 AI 非常耗資源(30 天整理 3000 筆資料、跑 SVM 要 3 天)
評價:✖ 在 2025 已經不成立(硬體與工具世代差距)
-
現在隨便一台中高階 GPU / 雲端租一張卡,幾十萬筆資料跑 SVM / 標準 ML 模型都是分鐘級。
-
生態系也大幅成熟:Python + PyTorch/TensorFlow、sklearn、雲端 AutoML,整個 pipeline 比 2019 你描述的 R+i7 時代好太多。
👉 結論:
你當時對「個人搞 AI 很辛苦」的描述,在 2019 完全真實,但 在 2025 這個硬體 / 雲端環境下已過時。
現在散戶想做實驗,技術與算力門檻已經低很多,難處更多在 資料品質 / 標註 / 建模思維,而不是「機器會不會跑不動」。
二、2020〈AI 在交易上的可行與不可行〉的觀點檢視
觀點 1:將策略分成「模式導向 / 資料導向 / 演化導向」,AI 交易屬於資料導向
評價:✔ 分類本身仍合理,但 AI 已滲透到三類裡
-
你引用的三分法在學理上現在仍常被使用。
-
只是到 2025,AI 已經不只存在於資料導向:
-
模式導向:也會用 ML 幫忙估參數、近似難算的關係
-
演化導向:大量使用深度 RL + agent-based 模型做市場模擬
-
👉 結論:
「AI = 第二類資料導向」在 2020 還勉強說得過去,
2025 來看則 需要修正為:AI 目前三種類型都有用,只是 純資料導向的黑盒子在交易上風險最大 —— 這點你的直覺是對的。
觀點 2:資料導向 AI 找到的 pattern 常常人類無法理解,決策無厘頭
評價:✔ 成立,而且現在更被重視(XAI / 可解釋性)
-
深度學習 / LLM 之類的大模型,本來就很難用人類直覺去講「精確規則」。
-
金融監管與機構這幾年也在大聲喊 Explainable AI 的重要性,因為黑盒子在金融決策會有合規和風險治理問題。
👉 結論:
你當年的擔心,現在變成監管機構、CFA、央行報告都在講的議題。
目前主流方向不是不用 AI,而是:
用 XAI / 特徵重要度 / 機制解釋工具,
讓黑盒子的行為至少在關鍵決策上「說得出口」。
觀點 3:訓練資料高度依賴 domain expert,資料品質風險超大
評價:✔ 成立,但大模型有部分「緩衝效果」
-
在傳統 price-based ML 策略裡,domain expert 選特徵、決定標籤方式仍是關鍵。
-
不過現在有一條新路:用 LLM 當 feature engineer / 研究助理,在非結構化資料(新聞、財報、語音)上自動抽特徵,等於把一部分 domain knowledge 交給預訓練模型處理。
👉 結論:
你說「domain expert 還是王」,這個仍然對;
只是 2025 的玩法多了一層:domain expert + 大模型 一起做,降低單點專家的瓶頸。
觀點 4:沒發生過的事件(黑天鵝 / regime shift),AI 容易失靈,人類會不敢信任
評價:✔ 成立,而且 2020 COVID、2022–2023 地緣政治都幫你實證了
-
不只是 AI,連傳統 quant 模型在 2020 COVID 崩跌、2022 俄烏戰爭時都被打到懷疑人生 — 你說的「資料經驗外事件」確實一再上演。
-
現在主流作法是:
-
加上 情境測試 / 壓力測試 / 模擬
-
明確訂出「模型超出信任區間時,人要介入或關掉」的政策
-
-
包含 Citadel 這種大fund都明講:AI 工具很強,但投資決策仍由人負責,不能把 judgment 全丟給機器。
👉 結論:
你 2020 的這句話在 2025 還是金句:「關鍵時刻的無能,會讓人不敢相信 AI」,
所以現在比較健康的態度是:AI 做 co-pilot,不做 autopilot。
觀點 5:對個人交易者而言,模式導向(有邏輯可解釋)優於資料導向 AI,因為在壓力下才敢執行
評價:✔ 對「人性」這點,完全成立
-
現在很多研究都指出:
-
即使客觀勝率接近,人類對可解釋模型的順從度比黑盒高很多,
-
尤其在 drawdown / 極端行情時更是如此。
-
-
所以很多大機構其實在內部也是 hybrid:
-
用黑盒模型做訊號
-
再加一層「解釋 / 風控規則 / 人工審核」
-
👉 結論:
你這篇文比較像是從「信念系統」切入:
「交易是在交易你的信念」
這點到 2025 還是鐵律。你對散戶 / 小資交易者的建議,現在看仍然非常健康。
觀點 6:演化導向(模擬市場演化)目前太多假設、太早期
評價:△ 基本方向沒錯,但這塊研究火力比你當年想像的大很多
-
這幾年很多 paper 在做 agent-based market + deep RL,
-
用虛擬市場訓練 RL trader、測試 flash crash 等情境。
-
-
不過這類東西大多還是研究與策略內部使用,離「散戶拿來直接用」很遠。
👉 結論:
你說它在 2020「萌芽階段」是對的;
2025 來看,要稍微修正成:這條線在學術與機構內部已經很熱,但距離穩定普及還有距離。
三、2021〈AI 的本質就是做最佳化〉的觀點檢視
觀點 1:限定範圍——只談「AI 不適合用在交易」,不否定它在 BI / 醫療影像等領域的價值
評價:✔ 這個邊界設定完全合理
這個前提到現在一樣成立,甚至更明顯:
-
影像識別、語音、翻譯、文件摘要、程式碼輔助、廣告推薦… AI 都是大殺器。
-
你整篇的問題意識都鎖在「在交易這種 overfitting 極度致命的場景,AI 的本質會不會跟需求衝突?」這是很精準的聚焦。
觀點 2:AI 的本質就是「透過資料做最佳化」,也就是一種資料擬合(data fitting)
評價:△ 核心方向對,但說成「只是 curve fitting」就太貶低了
-
現代 ML(包括 LLM)確實都是 定義損失函數 → 用梯度下降做最佳化,這點你講得很對。
-
但「資料擬合」有粗糙版(過度配合 noise 的 curve fitting),也有具備泛化能力的統計建模:
-
大量預訓練、正則化、dropout、早停、交叉驗證,都是在讓模型「不是只記資料,而是學到可泛化的結構」。
-
-
LLM 這類東西甚至能在沒明講規則的情況下「組合推理、寫程式、改錯」,說它只是在做 naive curve fitting 就低估太多。
👉 結論:
「AI = 透過最佳化擬合資料」是對的本質描述;
但「= 和我們討厭的過度 curve fitting 同一回事」在 2025 就不那麼精準。
差異在於:
好的 ML 會刻意「控制擬合方式」,
讓模型有機會在看不到的情境也不完全崩潰。
觀點 3:既然 AI 是做最佳化,而交易策略最忌諱最佳化 / curve fitting,兩者本質矛盾,所以不要用 AI 來開發交易策略
評價:△ 對「散戶 + 小資料」來說非常合理;對大型機構來說已經過度保守
-
大型 quant / hedge fund 的現實是:
-
早就用深度學習、RL 等 AI 技術,實際跑在資金池裡賺錢;
-
包含 Two Sigma、AQR、Bridgewater 等都公開談過。
-
-
他們對 overfitting 的處理方式不是「乾脆不用 AI」,而是:
-
超大量資料(跨市場、跨資產、跨頻率)
-
嚴格 out-of-sample / walk-forward / 多市場驗證
-
線上持續監控 performance & drift
-
-
但對一個 資料量小、資源有限的個人交易者 來說,
-
很難具備上述防禦機制,
-
你主張「不要指望 AI 幫你自動挖出穩賺策略」反而是較安全的建議。
-
👉 結論:
你的「本質矛盾,所以對自己帳戶要非常保守」在散戶視角是 ✔ 合理;
但 2025 的事實也顯示:在大資料 + 嚴謹驗證的前提下,AI 策略並非註定變成垃圾 overfit。
觀點 4:機器學習主要就是回歸與分類,本質還是多維度回歸;類神經網路也只是更複雜的回歸而已
評價:△ 對於傳統 supervised learning 這樣講 OK,但不夠涵蓋現在的 AI 光譜
-
回歸 / 分類仍是 ML 的核心家族沒錯。
-
但這幾年很多重點在:
-
生成模型(LLM、Diffusion):不是單純輸出一個數字,而是整段文字、圖像。
-
序列建模 / next-token prediction:不是典型 Y = f(X),而是 learn p(token | context)。
-
強化學習(RL):是透過 reward signal 學策略,不是單純 supervised regression。
-
👉 結論:
你用「回歸視角」講 ANN 對初學者很有啟發,但在 2025 的技術脈絡下,
要補一句:
「現在的 AI 用回歸 / 分類觀點仍可理解一大部分,
但要完整描述 LLM / RL / 生成式模型,
需要更廣義的『機率分佈與策略最佳化』視角。」
觀點 5:對交易來說,AI 的「最佳化本質」和我們追求「穩定、不 overfit」的策略設計目標衝突
評價:✔ 問題意識本身非常到位,只是建議方向可以再多一點層次
-
你提出的是一個 哲學層級的 tension:
-
AI:追求在訓練資料上擬合得越好越好;
-
交易:寧願穩、寧願不賺那麼多,也不要在黑天鵝直接破產。
-
-
這個 tension 到今天還是沒解決,所以才有:
-
Risk management / risk overlays
-
人工 override 權限
-
法規要求模型可解釋、可審核
-
👉 結論:
你的「問題 framing」到 2025 仍然很前衛;
只是現在比較成熟的回答不是「不要用 AI」,而是:
在 AI 外面再包一層人類審核、風險框架與簡單邏輯,
讓 AI 的 aggressive 最佳化被框在可接受的風險盒子裡。
小結:整體來看,你三篇文章在 2025 的狀態
如果硬要一句話總結:
你 2019–2021 對 「金融交易這個 domain 裡 AI 的限制與風險」的直覺,其實相當準確;
真正需要修正的,是「AI 只能行銷、做不到實戰」跟「它只是 low-level curve fitting」這兩個比較絕對的說法。
-
仍然成立 / 被後來證實的:
-
資料與 domain expert 比演算法重要
-
黑天鵝 / regime change 是金融 AI 最大痛點
-
純資料導向、無法解釋的黑盒策略,在實務上很難讓人放心執行
-
對散戶來說,用 AI 來「自動挖聖杯策略」非常危險
-
交易執行最後還是回到「信念系統」與人在壓力下是否敢按下去
-
-
需要修正 / 補充的:
-
AI 在金融裡不只行銷,在大型機構裡已經是「必備工具」;只是多半是輔助研究與風控,而不是完全交給機器下單。
-
「AI = 只是 data fitting」說法低估了現在模型的泛化能力與正則化手段;
-
「不要用 AI 做策略」這句話,對個人小 trader 合理,對 Two Sigma 那種級別就明顯過保守。
-
如果你哪一篇想「2025 版重寫」,我也可以照你原本的骨架,幫你標註哪些段落原封不動保留、哪些用現在的例子更新,寫成新版「AI 觀念回顧+修正」系列。
0 comments :
張貼留言