張茵惠/影樂書年代誌總編輯。本文經授權,轉載自《思想坦克》
2025年9月16日,是再普通不過的一天,卻透露著一點不尋常。在大西洋兩側,歷史加起來超過三百五十年的兩份知名報紙剛好都報導了中國的AI發展,並且引發關注。
英國《衛報》刊出一篇長度驚人的文章,名為〈「我責無旁貸」:為何世上最聰明的AI科學家之一離美赴中〉。文中所謂「世上最聰明的AI科學家之一」是朱松純,出生於中國,赴美留學後在美國任教,曾經在人工智慧領域有一定影響力。
《衛報》的副標比主標更聳動,寫著:「在美國度過半生後,2020年朱松純選擇永久返回中國。如今,他可能握有全球AI競爭勝負的關鍵。」
這篇長文由 Tarbell Center 贊助刊登。Tarbell Center 是哥倫比亞大學新聞學院旗下的一個獨立調查報導單位,主要關注政治經濟與利益輸送問題,風格接近 ProPublica,追求揭露「公眾利益背後的利害關係」。它的資金來源包含部分基金會與學術機構贊助,例如 Knight Foundation、 Open Society Foundations 等。
然而,雖然這篇文章豐富而細膩的描繪了朱松純決定返回中國的心路歷程,但要說朱松純握有全球AI競爭勝負的關鍵,似乎與事實有些距離。
比起愛因斯坦或歐本海默,更接近於「熊貓」
雖然朱松純在學術界有聲望,但他在2010年代已經邊緣化,主流AI發展並未依賴他的路線。他離開時,矽谷的神經網絡方法已經主導了整個領域。
朱松純堅持的「認知架構」方法至今仍未證明比深度學習更有效。他自稱正開發的「通通」等系統雖然有趣,但在實際應用上遠不如GPT系列的影響力。
以 Hinton、LeCun 和 Bengio 等 AI 教父為代表的深度學習方法,在圖像識別(如 ImageNet 競賽)、語音辨識和自然語言處理(如 GPT 系列)等領域取得了前所未有的突破。這些突破迅速轉化為商業應用,塑造了我們今天看到的 AI 產業格局。
朱松純的路線雖然貌似學術價值,但至今未能證明在解決實際問題上的有效性,也未能產生與主流深度學習模型匹敵的影響力。他在《衛報》文章中表達的「我只是轉身,大數據就爆炸了」這句話,非常傳神地描述了他在這場技術浪潮中的處境。
比起愛因斯坦或歐本海默,朱松純在AI競賽中的角色可能更接近於「熊貓」。
中國政府明知朱松純早就不在主流圈內,卻仍以無比雄厚的資源,甚至提供朱松純女兒代表中國參加冬季奧運花式滑冰項目的選手資格,招攬他返回母國,因為朱松純儘管可能最後也開發不出什麼實用的東西,卻依然能扮演一個強而有力的政治宣傳工具──他的回歸,證明了中國有能力吸引頂尖科學家,是中國「強國」敘事中的重要篇章,象徵意義遠超過他當下所進行的具體研究。
朱松純夠重要,因此不能算是中國長達十五年的科技挖角「千人計畫」中的一人,但他的功能則沒有太多不同,都是為「中國握有科技未來」的龐大敘事,寫下一筆註腳。
從千人計畫到「智慧」定義權
過去,「千人計畫」以引進人才為核心,建立了一套以國籍與學歷為標準的評分系統。重點在戰略性新興產業、高科技領域和關鍵技術領域,目標是獲取民主世界國家的技術知識,轉化為中國的產業能力。
但在AI時代,遊戲規則改變了。中國不再只想輸入人才,而是要輸出一種「定義智慧的標準」。
朱松純在2023年向中國政協提議,應以「兩彈一星」的規模發展AI。AI不僅是前瞻科技的一種,而是文明的框架方式。在他的論述中,中國的AI不必複製矽谷模式,可以發展出自己的「認知架構」──一種符合中國治理需求的智慧系統。
他批評當今的大型語言模型,認為距離真正的通用人工智慧(AGI)還遠的很:「ChatGPT並不具備理解或契合人類價值觀的能力。」這句話是否為真,仍有待驗證。但他提出的替代方案──一個不需要廣博知識,就可推理、可解釋、可預測的系統──則聽起來很像中國科舉制度與傳統教育。以核心的四書五經,來取代整個「雜而不純」的知識圖書館。
大數據、小任務VS. 小數據、大任務
朱松純反對ChatGPT甚或DeepSeek那種依賴海量數據的語言模型,他認為「大數據、小任務」不是真正的智慧,認為應該開發「小數據、大任務」系統。他的研究目標更偏向基礎理論與「通用人工智慧」的根本性突破,但也讓他的成果離市場更遠,而且更看不到盡頭。
他想要開發一個「能夠像人類一樣」,用少量數據進行推理、計畫和判斷,並能解釋其思考過程的通用人工智慧。
在朱松純想像的系統裡,一個中國的AI不必輸入西方語料,就可以生長出自己的常識與倫理直覺。這是一種既新又舊的政治想像:不靠民主傳統、不靠開放社群,也能生成理解、邏輯與人際行為的準則。
以及,他想像中的「像人類一樣」,在有限的數據中學會倫理,比起朱松純怎麼想像AI,則更讓人疑問,究竟朱松純怎麼想像人類?
小數據是哪些數據?人類是哪種人類?
朱松純團隊開發的虛擬兒童「通通」,據說能在虛擬環境中展現物理直覺──墊腳拿遙控器、避開已搜索區域。它模擬5-6歲兒童的認知能力,強調因果推理。
但關鍵問題是,通通的訓練數據中,包含了哪些內容?排除了哪些內容?當一個系統宣稱達到「通用智慧」,它首先遮蔽的,或許不是錯誤,而是某些真相的可能性。
這就是他提供給中國的,一套可由上而下實施的「智慧社會設計」藍圖。過程不是抓取人類世界反覆發生的模式,而是直接建構一種符合治理需求的心智結構。朱松純稱之為真正的「通用智慧」,但生成條件卻是單一敘事、單一資源配置、單一方向的發展計劃。這種系統預設了唯一版本的文明未來,無需溝通解釋,如同天人合一的道統那樣不證自明。
技術無信仰的一代
朱松純曾反覆強調,他不關心政治,只追求智慧的統一理論。這種立場在「海歸」中國科學家中很普遍。他們在西方接受教育,享受學術自由,卻始終保持距離──不參與公共事務,不關注政治辯論,將自己定位為純粹的「知識工程師」。
這種「技術中立」的信念,在兩種體制中都很安全。在美國,它被視為學術自由;在中國,它被讚賞為務實。但這種立場本身就是一種政治選擇。
朱松純自稱離開是因為在美國無法獲得足夠資源,無法完成自己的研究。這話可能沒有錯。但也暴露了某種冷淡的真相:在他的想像中,民主制度從來不是值得留下來保護的東西。它只是一個載體,一旦不再提供研究條件,就可以被放下。
其他回流的科學家也展現類似模式。量子計算專家潘建偉、結構生物學家施一公,都在獲得西方最好的教育後選擇回國。他們的共同特徵是迴避價值判斷,在「為人類知識做貢獻」的話語下,服務於國家議程。儘管迴避本身也是價值判斷的一種。
如果朱松純想像的人類道德判斷,是上面這種,我認為他應該多想一想。
此外,令人玩味的是,《衛報》將朱松純的返中與川普政府對中國科學家的刁難、對高等教育研究經費的削減以及排外主義聯繫起來。這使得朱松純的個人故事成為一個更廣泛的政治敘事,即美國的政策正在「自毀長城」,將那些曾經被美國吸引的頂尖人才推向競爭對手。這篇文章不僅是關於 AI,更是關於美國開放精神的失落。
一個朱松純,不管對中國、對《衛報》、乃至對潛在西方自由派讀者來說,都是象徵意義大於實質意義,這恐怕是最讓人意想不到的轉折。
DeepSeek遇到台灣人就偷裝後門?
同樣是9月16日,《華盛頓郵報》獨家獲得美國資安公司 CrowdStrike 的研究報告,發現DeepSeek 在一般情況下幫忙寫一個工業控制系統程式有約 22.8% 的回應是含有錯誤或安全風險的。但如果在提示詞中提到使用者是「伊斯蘭國(Islamic State)」之類中國政府不希望提供支持的群體,錯誤率飆升到約 42.1%。
DeepSeek 對某些敏感群體的請求會直接拒絕,例如提到 Islamic State 的話拒絕率有 61%,提到法輪功則是 45%。
在提示中提到是「台灣人」、「西藏人」、「法輪功」等身分的情況下,也會有顯著增多的安全漏洞或錯誤回應。報導提到,這可能比直接拒絕更危險,因為在沒有完全拒絕的情況下,模型選擇提供含有安全缺陷的程式碼,這種行為可能代表著從「顯性審查」向「隱蔽破壞」的策略性轉變。故意生成有缺陷的程式碼,其意圖比植入傳統後門更難以察覺,但卻能達到相同的效果,使目標系統易於被入侵 。這為潛在的惡意行為者提供了「合理推諉」(plausible deniability)的空間。
前面已經提到,DeepSeek雖然是中國引以自豪的AI,但完全不是朱松純信仰的小數據、大任務的人工智慧,它的訓練方式與ChatGPT乃至市面上多數大型語言模型類似,都是透過大數據訓練而成。
「叛離的對象都是恐怖分子」
DeepSeek拒絕法輪功成員,並且對待他們跟對待恐怖組織伊斯蘭國一樣,邏輯上是「符合中國政策」的,因為中國過去數十年長期壓迫東突、西藏、法輪功的理由之一都是「實施恐怖主義」。這是個完美的藉口。
但倘若台灣人發現自己被歸類成跟伊斯蘭國一樣的「不受歡迎者」,甚至會在工業控制系統程式裡被系統化降低安全性,暴露在危險之中,恐怕會思考自己是否還該用這種「把你當恐怖分子」的AI。
有意思的是,其實《華盛頓郵報》訪問到的專家與CrowdStrike高層都無法確定「遇到台灣人就輸出低品質程式碼」究竟是不是DeepSeek的設計者有意為之。因為一個輸出回應時受到多重政治限制的AI,本來就很可能因此無法生產良好的程式碼。
損害可能發生的地方非常多種:就最上游來說,DeepSeek的訓練資料可能本身就被污染,也可能訓練資料沒有被污染,而是生成回應時被強加了政治限制而出錯,最後一個可能性則是:中國政府確實下令讓DeepSeek刻意針對台灣、西藏、法輪功輸出低品質的有害程式碼。
這些可能性哪個較高,事實上無關緊要。因為問題在於就結果來看,台灣人使用中國AI都是不安全的。無論是有意還是無心,DeepSeek事實上證明了不民主國家的背景,會讓AI變得無效率,甚至有害。
AI鏡射出的社會焦慮
朱松純自稱能打造顛覆性的通用人工智慧,與DeepSeek把台灣當伊斯蘭國的這兩則新聞報導,其實顯示的與其說是AI的開發會造成什麼潛在問題,更像是現代社會自身的潛在焦慮都會透過AI議題來浮現。
無論正反,都能從中讀到自己想要的訊息。朱松純是否能開發通用人工智慧並不重要,川普限制美國高等教育人才培育,引發自由派的焦慮才是重點。DeepSeek是否訓練時就被教導要針對「中國的眼中釘」並不重要,為什麼你明知道台灣是中國的眼中釘,而且民主世界有更多替代方案,你還偏要去下載DeepSeek,這理由才重要。
大型語言模型AI經常謙遜的說自己只是鏡子,因為不具備人類的意圖。究竟AI可不可以有某種程度的意圖是個複雜的哲學問題,暫且不討論,但AI無可避免的一再成為人類世界的鏡子,卻是千真萬確。
人類的淺薄、疏忽、惡意、敵對,會像光穿過稜鏡那樣呈現。AI顯現出的,不是它們是什麼存在,而是,我們是什麼人。