2021/09/30

20210930

 





2021/09/29

20210929

 





2021/09/28

20210928

 





孔子成《春秋》而亂臣賊子懼

開課或賣文老師受人質疑後, 總找一些似是而非的理由替自己合理化; 實在看不過去三觀被無故混淆, 即使最後仍是狗吠火車(沒能改變現狀什麼吧)? 想想還是該拿出道德勇氣來 [正衣冠], 我們該有孔子成《春秋》而亂臣賊子懼的氣概才是!

許多老師可能是為了招攬學生方便, 很會凸顯他的經驗老到(20年?), 按這種老師的邏輯, 像我這種全職的交易者, 豈不可以乘上3倍到60年經驗了? 殊不知沒用的方法就算搞了60年也是枉然, 否則老師在市場裡賺了20年早已盆滿缽滿, 竟然會欠收學費冒出來當大師? 另外, 教授 [操作] 的開課老師, 最常用來合理化自已的話術便是: 《一個好的教練,未必是一個好的球員》, 舊文 性質相近的事物才能被用來類比 早論證過 --> 一個好的操作教練,就該是個好的市場贏家無誤!!!

檢驗一個贏家的標準是甚麼? 獲利始終來自於 [市場], 這是最最最基本的吧? 不然這利潤部分來自於開課. 賣文.  出書... 等, 必贏的人固然是這位盈利家 (盈家), 那必輸的 (交學費時) 不就是這位 [盈] 家的廣大學生了嗎? 所以你非要當學生不可的話, 應該向老師學習的是這 [必賺] 的 [教學] 系統, 而不是他想教的那 [未知] 的 [操作] 系統了! 不是嗎? 這樣說來, 那是否完全沒有贏家佛心來著, 願意分享出他的賺錢方法與心得? 機率雖低仍有可能的, 但通常是 [無償] 的, 你應該不會在他的分享園地看到任何想盈利的企圖, 因為他出發點是兼善天下, 想賺錢也只會往市場裡動腦, 不會把矛頭指向他想幫助的人(羊?); 真正善意夠大的贏家, 公開的文章與教學應該是免費的, 因為真的已經在市場上賺得夠多, 吸收場地費與行政費對他來說, 只是當善款捐出去而已!

真的這麼 [好為人師] 來賺學生錢的話, 該先想想老師這行業的祖師爺 --> 孔夫子說過的話:
君子疾夫舍曰『欲之』而必為之辭
翻譯: 君子痛恨那種不肯實話說自己想要那樣做, 而又一定要找出理由來為之辯解的作法

2021/09/27

20210927

 





2021/09/24

20210924

 





2021/09/23

20210923

 





2021/09/22

20210922

大盤指數才小跌2%左右, 且跌勢不夠強, 空軍要小心隨時反噬 





2021/09/17

20210917

 





2021/09/16

20210916

 





2021/09/15

月選實單測試記錄04

本月採行 [待機再擇時進入市場] 策略, 以期減少在市場中不當調整持倉的日子; 以結果來看, 雖然獲利絕對值下降, 但每口獲利率有拉升, 似乎值得繼續參酌地去施行

9月選入市後上下震幅有限, 只有在9/8以及9/10有像樣的下跌和上漲, 整體來說算是目前策略好做的盤; 不過, 也正因為沒有連續像樣的下跌, 無法用修正主義去滾出更好的獲利, 只能在基本收入上去想方設法而已!




20210915

1. 台股現貨: 波動率藍線轉上 + 指數黑線轉下 -> 轉空頭主控

2. 小道期貨: 波動率藍線在上 + 指數黑線在下 -> 持續空頭主控






2021/09/14

20210914

 





AI 的本質就是做最佳化

延伸閱讀:

https://individual-trader.blogspot.com/2019/03/3-ai.html

https://individual-trader.blogspot.com/2020/11/ai.html

前提聲明: 只侷限針對AI不適合應用於交易範圍, 做主觀的判斷與釐清; 但深信在很多的其他領域(ex: 商業智能business intelligence相關的多維度分析, 影像識別pattern recognition在醫療或保安的導入..等) 真的非常有用!!! 

接下來會對人工智慧 AI 科普半天, 我要導引的結論就是 --> AI 不過是試圖透過資料去做最佳化(所謂的訓練)而已, 根據資料找規則就是典型的資料擬合(data fitting) !!! 既然我們已經知道開發交易策略時, 做參數最佳化有很多陷阱要注意, 最忌諱 curve / data fitting, 是一種要不得的行為, 而這本質就是做最佳化或資料擬合的所謂 AI 科技, 我們真的還要用它來開發交易策略嗎?

所謂人工智慧 AI 便是想讓機器去模擬人類的思考方式, 而人類的思考最常用到的是回歸與分類! 回歸是我們試圖找尋 X 與 Y 兩者的關係, 當我們有大量(假設是 m 個)各式的 X 值和 Y 值資料的時候(即 Xi 和 Yi 有 m 個), 透過觀察分析眾多的(X軸) Xi 資料和(Y軸) Yi 資料如下圖:


當損失函數最小時, 可以做出那條藍色預測線 Y = WX - H (其中 W 代表斜率, H 代表截距); 設每個紅點到藍色預測線的垂直距離(預測失敗的損失)是 ΔYi (實際紅點和預測藍點的差距), 則讓損失函數最小便可以看做 --> 怎樣去找到合適的 Wi 和 Hi 讓 ΔYi 的平方(因為有正負)最小, 這是邏輯上的理解, 損失函數的數學表達當然不止於此. 通常我們會使用梯度下降疊代法(Gradient Descent)去找到合適的Wi 和 Hi, Gradient Descent 的邏輯是利用測試估計值 Wn+1 和最佳值(讓損失函數最小的Wi最佳解)的斜率關係(梯度)下降, 去次次逐漸逼近(疊代)出最佳值, 也就是當 Wn+1 約略等於 Wn 的時候, 我們想要的最佳解 Wi 就出現了

注意以上是只針對 Wi 的最佳化來解說(兩個維度比較好理解), 其實 Wi 和 Hi 是要同時進行最佳化的, 也就是線性回歸求解其實該是三個維度的! 然而我們真實世界要解決的問題很可能更複雜, 不會只是要看 X 和 Y 兩者的關係而已, 更可能想看的是多重變數的之間的關係, 也就是預測式等於 Y = W1X1 + W2X2 + ... + WnXn - H; 那就會變成超過三個維度, 是人類更難理解的多維度, 但反而更適合機器去幫我們做了, 機器找尋那些最佳解的過程被統稱為 [訓練]. 另外, 先前提過人類的思考最常用到的是回歸與分類, 分類的本質仍可視做為類似回歸, 比如上圖的線性回歸可以看成 --> 用藍色線把資料切分成兩大分類

啊! 不是啊! 你說了半天和我平常聽人家說的類神經網路 AI 差很多耶! 類神經網路 (ANNs, Artificial Neural Networks) 大多基於下圖的 M-P 模型 (McCulloch-Pitts model 代表一個神經元)去架構的

先前解釋過的多重變數回歸, 其複雜預測式 Y = W1X1 + W2X2 + ... + WnXn - H; 注意 M-P model  左邊的輸入訊號部分, 不就是 W1X1 + W2X2 + ... + WnXn ? 在右邊的 ϴj (閾值) 就是預測式 Y 裡面的 H, 中間的 NETj (處理單元) 我把它看做找尋最佳解過程(訓練), 再右邊的 f (轉換函數或激活函數)最常用的是 Sigmoid, 也就是類似一種normalization(只映射至 [0,1] 之間). 看到了嗎? 其實和我先前講解回歸是一樣的!!! 


無聊人士可以繼續抗辯, 你講的和我常看到的類神經網路圖不一樣耶 ? M-P model 只是一個神經元, 加多個神經元去多層串連在一起如下圖, 這是你習慣看的 ANNs 了吧?





.

.