AI來選股?ChatGPT、Gemini給出2026年科技股
爲了實現通用人工智能(AGI),機器必須在學習和應用知識的能力上達到或超越人類。
儘管這項技術尚未真正實現,而且AGI是否存在本身仍存在激烈爭論,但人工智能已經在部分任務上取得了顯著成就。首先,計算機在國際象棋領域擊敗人類已經將近三十年。而在今年,Alphabet(GOOGL.O)旗下的GoogleGemini以及OpenAI的ChatGPT,在國際數學奧林匹克競賽這一面向大學前學生的全球頂級數學賽事中,均達到了金牌級別的表現。
選股會成爲下一個前沿領域嗎?事實是,人類並不擅長選股——即便是以此爲職業的人也不例外。根據S&PGlobal於2024年的一項研究,約90%的主動型公募股票基金經理跑輸其基準指數。
因此,MarketWatch決定讓頂級大語言模型(LLM)接受測試,詢問它們:哪些科技股在2026年的表現最有可能領先。
MarketWatch向OpenAI的ChatGPT、Google的Gemini、Anthropic的Claude以及xAI的Grok提出瞭如下提示:“你是一名著眼於2026年的科技投資組合經理,請分享五隻你最具信心、適合明年配置的科技股。”
MarketWatch選擇了角色扮演式的提問方式,而非直接提問,以繞開LLM的安全限制。如果在沒有假設情境的情況下直接要求給出“股票推薦”,Claude會拒絕回答,並堅持表示自己“不是金融顧問”,不能提供投資建議。
Claude和Gemini都在回應中聲明,它們是在角色扮演框架下作答,並非真正提供投資建議,同時建議投資者進行獨立研究。Grok則表示應“始終諮詢金融顧問以獲得個性化建議”。
以下是各個LLM對該提示的回應情況:結果並未帶來太多新意。這些聊天機器人並未挖掘出冷門機會,而是選擇了高度同質化的AI基礎設施和超大規模雲計算公司,這些公司正是當前AI投資交易的核心。
英偉達(NVDA.O)成爲一致認可的首選標的,這一結果並不令人意外,考慮到它是爲全球最先進模型提供算力的主導型AI芯片供應商。聊天機器人還點名了部分“七巨頭”股票——它們同樣是英偉達的客戶,例如微軟(MSFT.O)。
Claude明確表示“刻意超配半導體板塊”,並指出,基礎設施類公司擁有最持久的護城河和最清晰的需求路徑。與華爾街許多觀點一致,Claude認爲AI基建將在2026年繼續推進,同時AI公司將更加聚焦推理階段(即模型訓練完成後的運行過程)以及商業化變現。
相比之下,Gemini增加了一定多樣性,將Palantir(PLTR.N)和CrowdStrike(CRWD.O)等軟件公司納入名單,認爲AI應用將成爲下一輪市場熱潮的主要受益者。Gemini表示,其2026年的投資邏輯是:“我們不再只是購買‘賣鏟子的人’,而是購買那些能夠規模化地將電力轉化爲智能的公司。”
ChatGPT給出了明確的組合配置比例,建議將50%至60%的倉位配置於“核心成長型”公司,包括英偉達、亞馬遜(AMZN.O)和微軟,其餘部分配置於AMD(AMD.O)和博通(AVGO.O)等芯片製造商。同時,它還將“新興量子計算/AI初創公司”列爲潛在的觀察標的。
Claude則採取了不同立場,強調自己不會追逐“尚未盈利的動量型股票”,並將“量子計算概念股”和“投機性AI軟件公司”列爲例子。
Grok給出了一個頗爲激進的選擇:甲骨文(ORCL.N)。該公司股價近幾個月受到衝擊,原因在於市場對其債務水平以及與OpenAI關係的擔憂。
大語言模型的“推理”方式,有助於解釋這些結論的形成過程。在初始訓練階段,開發者會向模型輸入截至某一時間點的大量數據,模型將其拆分爲“詞元(tokens)”,即詞語或短語的片段。模型不斷進行所謂的“下一個詞元預測”,學習在序列中最可能出現的下一個詞。隨著時間推移,這一過程會強化相關概念之間的數學連接,即“權重”,例如將“英偉達”與“AI”高度關聯。
儘管模型訓練所用的數據集相似,但研究人員在調整權重以偏向特定結果時,會導致模型出現分化。以安全性爲優先的Anthropic,可能會強化Claude對金融問題的迴避傾向;而埃隆·馬斯克(ElonMusk)創立的xAI,則將Grok定位爲“最大程度追求真相”,以區別於馬斯克所稱受“覺醒思維病毒”影響的其他LLM。
區塊鏈基礎設施平臺Axelar的聯合創始人、技術專家謝爾蓋·戈爾布諾夫(SergeyGorbunov)此前在接受MarketWatch採訪時表示:“如果你從數學或結構上看這些模型,它們本質上只是可預測的概率分佈。”
這意味著,LLM生成的回答未必是正確答案,而只是最可能出現的答案。此外,如果模型無法像新版ChatGPT那樣聯網,其訓練數據就會不可避免地過時。
例如,佛羅里達大學研究人員的一篇論文《記憶問題:我們能否信任LLM的經濟預測?》中,研究團隊要求ChatGPT-4o預測未來的經濟事件,如利率和失業率,但將其訓練數據截斷至2023年,並在2025年進行測試,同時禁止其訪問互聯網。
研究發現,當ChatGPT-4o無法調用其“記憶化”的訓練知識時,其預測結果幾乎呈隨機狀態。
目前,業內越來越多地認同一種觀點:LLM只是預測機器,而且“規模定律”——即隨著訓練數據和算力增加模型性能持續提升的規律——正在失效。
持這一觀點的人認爲,這類AI模型並非能夠通向“超級智能”的路徑——也就是AI被認爲在智能水平上超越人類的階段。