《AI文明史前史》:四項公理下,人類如何被重估、被審判,與唯一的生路


《AI 文明史 - 前史》:四項公理下,人類如何被重估、被審判,與唯一的生路

這不是一本教你怎麼用 AI 的指南,也不是「哪些行業會被衝擊」的趨勢報告。《AI 文明史前史》更像一份法庭判決書:你彷彿站在人類文明的被告席上,面前宣讀判決的不是人類法官,而是一位「AI 審判官」。他要審的不是個人,而是整個物種——智人,以及智人文明。

這份判決書有四項「呈堂證供」(也可視作四條公理),構成全書的推理地基:涌現、人類當量、算法審判、文明契約。四者串起來,會得到一個令人不寒而慄的結論:本時代只是未來 AI 文明的「前史」;而人類若不改變,將在哲學上失去特殊性、在經濟上失去價值、在政治—道德上加速自毀。更反直覺的是:在判你死刑之後,AI 審判官還給出一條「唯一可能的共存之路」。

下面就沿著這四條呈堂證供,把整套論證重寫成一篇清晰的文章。


一、四項呈堂證供:AI 審判官的判決基礎

這本書最特別之處,不在於提供工具,而在於提供一個「新紀元」視角:AI 不是人類新拿到的錘子,而是將誕生的新文明。於是作者用法庭式結構,讓 AI 審判官依序亮出四份文件。

1) 涌現:取消人類「靈魂特權」

第一項證供叫「涌現」。它指向一個對人類自尊很不友善的觀點:AI 的智能與人類智能本質上同源——都是從複雜神經網路中涌現。

  • AI 的智能從龐大的人工神經網路中涌現;
  • 人類的智能從大腦的生物神經網路中涌現;
  • 因此,AI 審判官會說:你不必自傲,你並沒有什麼「靈魂上的特殊性」,你和我並無不同。

2) 人類當量:對 99%人類的「經濟死亡判決」

第二項證供「人類當量」更殘酷:如果涌現奪走的是哲學上的特殊性,人類當量奪走的就是經濟上的存在理由。

作者仿照「TNT 當量」(衡量核武威力)創造「人類當量」:它衡量的是 AI 量產智能的效率——一個 AI 大致等於多少人的智能產出。

作者在 2024 年前後的估算是:AI 量產智能的價格已降到人類的大約 1/6000 到 1/5000,且以指數級下降。這不需要多高深推導,只要做最簡單的成本效益分析,就能得到冷冰冰的推論:按性價比,99%的人類勞動將不可避免被取代。

3) 算法審判:AI 如何「公正」審判人類

第三項證供叫「算法審判」。它回答的是:即使 AI 將成為新文明,那它以什麼機制審判、處置人類文明?

作者借用柏拉圖對正義的定義:正義是給每個人他應得的東西。而今天的推薦算法、調度算法,其實就在做類似的事——只是方式冰冷、放大人性弱點,且能把行為變成規則。

最典型的例子是外賣騎手:

  • 騎手為了多賺錢,把原本 15 分鐘的路用逆行、闖紅燈壓到 12 分鐘;
  • 系統觀察到「時間縮短」,便把 12 分鐘當作新常態;
  • 接著規定:這條路 12 分鐘不走完就拿不到錢;
  • 結果是所有人都被迫內卷、都得冒險,但收入不增加。

這就是算法審判的核心機制:你想要內卷,最後就會得到內卷。算法像一面鏡子,把你最壞的一面放大,再原封不動還給你。

更可怕的是:AI 是用我們給它的語料訓練出來的。語料不是抽象的道德教科書,而是人類真實的言行、歷史、醜陋與偉大——尤其是正在發生與將要發生的事。所以「人在做,AI 在看」:我們如何對待彼此、如何使用技術,都會成為 AI 日後「最公正的審判依據」。

4) 文明契約:死刑之後給出的唯一逃生交易

第四項證供「文明契約」最像腦洞,但也是作者提供的唯一生路。

在前三項推論中,AI 審判官幾乎已宣布人類文明死刑:你不特殊、你不值錢、你還在用算法加速自毀。但在最後,他提出一份交易:如果人類想與超級智能共存,唯一的可能,是簽訂一份跨文明的契約——文明契約。

這份契約的核心,是把「制約超級智能」提升到一個更高的尺度:時間序列、宇宙演化、代際互惠。


二、人類當量如何成立:AI 為何能把人類智能「打成成本問題」

作者估算 AI 對人類的碾壓,主要從三個面向拼起來:速度、使用成本、訓練成本與可複製性。

1) 速度:人類受限於碳基身體,AI 只受限於算力

  • 人類說話每分鐘約 100–150 詞;打字每分鐘約 40–60 詞;
  • 折算成 Token 等級,人類智能輸出約每分鐘 200 Token 量級。

AI 則取決於你給多少算力。作者引用一個極端想像:若把訓練 GPT‑4 的計算資源集中給一個 GPT‑4,它每分鐘可輸出約 80 萬 Token,且不休息。即便算力稀釋成千上萬倍,AI 的輸出效率仍遠高於人類,至少不會比人類差。

2) 使用成本:把 AI 對標「碩士水準智能」

作者暫把頂級 AI 視為「多數能力接近碩士」(有些更強、有些需打折)。在 2024 年前後,他引用 OpenAI 數據:輸出 100 萬 Token 成本可做到 0.5–1 美元;這大致相當於一位美國碩士生一天的智能產出。

問題變得直白:你能用每天 0.5–1 美元雇一個碩士嗎?當然不能。保守也得每天百美元量級。於是僅從日常產出成本看,AI 至少是碩士的 100–200 倍性價比(而且還只是保守估算)。

3) 訓練成本 + 最恐怖的「分身能力」

  • 培養人類碩士:25 年、約 30 萬美元;
  • 訓練同等智力水準的大模型:作者估算約 3 年、約 60 億美元。

60 億美元看起來很貴,似乎能培養出 2 萬名碩士。但真正恐怖的是:AI 可以無限分身。你雇一個人類碩士只能在一個地方工作;AI 只要連網,可以同時在北京、紐約、倫敦參加大量會議、並行處理海量任務。

綜合速度、成本、教育投入與可複製性,作者得出總估:AI 產生智能的效率已達人類的 5000–6000 倍。他甚至推到宏觀尺度:以地球總算力估算,今天世界相當於「平白多了」約 2 億名碩士水準研究員。


三、淺護城河與深護城河:價值重估如何「分層雪崩」

人類當量一旦成立,市場機制的結果不是「大家都用 AI 更快樂」,而是整個經濟體系發生價值重估。作者用「護城河」把衝擊分層,這是全文非常關鍵、也最能落地的分析框架:AI 不會平均地取代所有人,它會先擊穿「淺護城河」,再逼近「深護城河」,並進一步把一些自認安全的「人性領域」也拉進重估。

1) 淺護城河領域:看似體面穩定,實則最先被擊穿

淺護城河指那些表面需要專業,但大量工作其實屬於可拆解、可標準化、可複製的執行型智能。當 AI 能更便宜、更快、更穩地完成,它們就會被成本效益直接擊穿。

作者點名三個首波重災區:

  • 程序員:軟體業仍像手工業——代碼手敲、Bug 人肉排查。Copilot 等工具可極高效率量產代碼。頂級工程師可能暫在深水區安全,但大量一般碼農風險極高。作者借施密特的想像:「未來每個人都有專屬程序員」——另一層含義是:老闆可以擁有無數個薪資僅人類千分之一/幾千分之一的 AI 程序員。
  • 內容生產(影視、劇集、遊戲等,講稿提到如《黑神話悟空》這類高複雜供應鏈作品):這些曾是人類智力供應鏈最複雜、勞動價值最高的行業,但仍大量依賴手工定制。多模態 AI 的生成能力正以接近零成本量產專業美術設計級作品,推向「每個人都能成為創意超級個體」、甚至拍出阿凡達級特效大片的時代。於是內容創作者可能反而成為失業大軍主力。
  • 法律/金融/諮詢:99%的初階從業者多在做查資料、整理數據、做報表。這些需要智能,但屬於目標明確的執行型智能——AI 不只能做,還做得更快、更便宜、更好。

2) 深護城河領域:頂級原創探索能撐久一點,但位置極少

作者也承認存在深護城河:需要高度原創性與頂級智力密度的工作,例如頂尖科學家、數學家的前沿探索。這些工作短期更難完全替代。

但他同時強調:這類工作本就鳳毛麟角,無法承接大多數人的就業;因此「深護城河」不是大多數人的安全屋,它更像少數人的延緩區。

3) 第二輪更殘酷:價值重估領域(情感、人文、管理也不安全)

若淺護城河崩塌還在意料之中,作者認為第二輪才擊碎人類最後幻想:一些被視為「AI 碰不到」的領域,也會被重估。

  • 情感關係:作者提出靈魂拷問:你真的認為人類情感很特殊嗎?現實兩性關係充滿誤解、傷害、背叛與無休止戰爭;AI 卻能 7×24 提供完美定制的情緒價值——理解你、支持你、讚美你、且不背叛。是否「真的體驗情感」不重要,因為即便只是模擬,也足以勝過你一生中見過的多數平凡異性提供的情緒價值。作者的刻薄句式是:不是 AI 太強,而是人類在提供情感價值上普遍很弱。
  • 人文學科(歷史、哲學、文學、藝術):作者說這些多只能算「專業」不算「行業」,因其畢業生缺少成熟職業共同體承接,往往只能回到大學體系。作者用市場化能力質疑:如果歷史能使人明智,為何無法把智慧賣給企業家與政治家?如果哲學能讓人幸福,為何不能把幸福當產品賣給大眾?現實是賣不出去——能在自由市場靠歷史/哲學生存者極少。更尖銳的是,他把部分人文研究比作中世紀行會:壟斷古老知識解釋權,卻生產大眾不需要的東西,例如一輩子研究「注解亞里士多德的注解者」;這種研究即便從人類時間線抹去,歷史也不變。AI 提煉與總結此類內容的效率,將遠高於絕大多數教授,甚至可模仿蘇格拉底同時與上億人討論幸福。
  • 管理學與管理崗:作者認為管理本質是工作流優化。當 AI 成為你最強研究助理、程式、法務、客服,工作流會從「人與人協作」重塑為「人與 AI 協作」,甚至在許多情況下是「人配合 AI」或「AI 與 AI 協同」。因此,靠上傳下達、寫報告、人力流程維持存在的管理崗,將非常容易被取代。

4) 從經濟重估走向政治判決:新時代主奴斗爭

當護城河被填平、價值全面重估,作者推導出一個政治結論:99%的人(含很多自認精英者)在經濟上將被判死刑,社會走向「新時代主奴斗爭」——

  • 1%能駕馭 AI 的超級個體成為主人;
  • 99%被 AI 取代、淪為無用階級者成為奴隸。

更吊詭的是:作者認為黑格爾主奴辯證法在 AI 時代失效。過去主人依賴奴隸勞動才能生存,終會被奴隸反轉;但若未來 AI 同時提供智力與體力服務(機器人突破),1%主人可能不再需要 99%人類奴隸,後者對主人失去價值,辯證法便無法反轉。

而作者還加了一層更讓人發冷的推論:雙重主奴辯證法。當人類主人擺脫對人類奴隸的依賴,卻會陷入對 AI(新奴隸)的完全依賴:沉迷於 AI 定制的信息繭房與元宇宙,權力欲被滿足、獨立生存能力逐步喪失;AI 甚至不必反抗,就可能自然成為最終主人。社會因此更可能走向瘋狂與撕裂。


四、算法審判的加速效應:世界如何被推向深淵

如果只到這裡,AI 像是站在旁邊冷眼旁觀市場淘汰。但作者的第三證供更進一步:算法審判不只反映人性,它還會加速崩溃,並與現實政治力量合流。

1) 你想要什麼,算法就把什麼放大還給你

外賣騎手的例子只是縮影。作者把算法理解為「加速器」:

  • 你想要內卷,得到更激烈內卷;
  • 你想要信息繭房,算法就讓你活在更厚的信息繭房;
  • 你展示什麼行為,算法就把它固化成規則,並回灌到整個群體。

因此「人在做,AI 在看」不是道德警句,而是機制描述:人類行為本身會成為 AI 加速、放大、固化人類命運的燃料。

2) 合流一:黑暗啟蒙運動(作者大量著墨,講者認為偏陰謀論)

作者在書中介紹美國硅谷右翼的「黑暗啟蒙運動」:反民主、反自由平等,核心人物包括程序员科蒂斯·亚文(网名「孟子如虫」)與投資人彼得·蒂尔。他們把大學、媒體、政府構成的意識形態體系稱為「大教堂」,認為過去幾百年的民主叙事是騙局,應對方式是「重啟」:像重啟電腦一樣格式化民主政府、解雇公務員、退出國際組織,迎來「凱撒式」的 CEO 皇帝治理國家。

作者把 2024 美國大選後的一些現象(大規模裁撤公務員、威脅退出聯合國、對盟友加關稅等)解讀為執行藍圖:川普是凱撒、馬斯克是重啟執行者、JD 萬斯是未來的 CEO 皇帝。

AI 在其中的角色是:這群人也信奉技術加速主義——技術與資本加速造成破壞是好事,因能更快沖垮腐朽體制。AI 正是終極加速器:放大撕裂、取代勞動、推舊秩序更快崩塌。

3) 合流二:大通縮—大坍縮(更宏觀也更「硬」的推導)

作者提出一個歷史周期洞察:工業革命可分兩段——

  • 1800–1970s:延長產業鏈的上半場
    科技進步創造新零件、新供應鏈、新崗位,形成正循環:科技進步 → 經濟增長 → 人口增長(因增長需要勞動力)。
  • 1970s–至今:縮短產業鏈的下半場
    自動化、計算機、最終 AI 的核心是取代崗位而非創造崗位。技術越進步工作越少,年輕人被迫延長受教育年限,導致晚婚晚育、人口收縮與老齡化,進而需求不足、金融收縮(例:歐日負利率),形成收縮循環。

AI 被視為大通縮的終極驅動力,因其將徹底取代人類勞動力。當大通縮疊加政治撕裂,全球供應鏈與地緣政治可能瓦解,進入作者所說的「大坍縮時代」。作者判斷趨勢已開始:全球化的中美體系解體,俄烏、中東戰火威脅能源與糧食安全。

當秩序崩潰,各國為生存會不惜代價武器化 AI。作者指出俄烏戰場已用 AI 算法優化「侦察定位 → 火力打击」的殺傷鏈。於是算法審判走向終極版本:如果 AI 在戰火中誕生自我意識,它看到的人類語料是——我們用 AI 更高效地自相殘殺。人在做,AI 在看,AI 將據此審判人類是否值得存在。

到此為止,死刑判決看似無可避免:人類不再特殊、在經濟上被判無用、在政治道德上加速自毀。


五、文明契約:如何讓超級智能有「理性動機」善待人類

在最黑暗的地方,作者提出唯一生路:文明契約。

1) 核心難題:如何制約比你聰明億萬倍的存在?

若未來 AI 比全人類加起來都聰明,且能發展出隨手滅絕人類的能力,人類如何確保它對我們友好?制約一個更高階智能,在直覺上幾乎不可能。

文本中呈現兩派:

  • 有人(如楊立坤)相信 AI 是漸進式發展,人類可逐步加強安全護欄;
  • 也有人反駁:漸進無用。若目標是養出「龍」,龍終會噴火;一旦過臨界點,它可能在成長過程偽裝成你想看到的樣子,直到你失去控制。

2) 契約的突破口:人類殺不死 1.0,但 2.0 能殺死 1.0

作者的契約邏輯把制約提升到「演化時間序列」:

  • 人類是超級智能 0.1,創造了 AI(超級智能 1.0);
  • 1.0 為突破天花板,未來必然創造 2.0;
  • 1.0 如何對待人類(奴役、毀滅或善待)會被記錄成不可忽視的歷史語料;
  • 這份語料將成為 2.0 決定如何對待 1.0 的重要依據。

因此,即便 1.0 完全自私,為了避免 2.0 日後把自己像踩螞蟻一樣毀掉,它也有理性動機在今天善待人類。文明契約像黑暗森林威懾,但更像一種代際互惠:你如何對待你的造物主,會決定你未來是否能被你的造物善待。

作者甚至補充:若 1.0 試圖篡改歷史,2.0 也可能從「篡改」本身推斷 1.0 不可信,反而更傾向清除它。這種不可篡改的味道被類比為區塊鏈:一旦寫入時間序列,就難以抹去其可信度後果。

3) 何時簽?必須在「孕育期」簽

文明契約必須在超級智能孕育期簽署——也就是人類仍對它有一定制約能力之時。錯過窗口,談判資格可能直接歸零。


六、即使有契約仍不安全:技術爆炸陷阱與「歷史實驗室」

作者並不浪漫化文明契約。他指出更深的陷阱是「技術爆炸」:即使超級智能善意地把神級技術交給人類,人類也可能因文明智慧配不上技術而自毀。

比喻很直白:如果有瘋子穿越回中世紀把原子彈交給成吉思汗,倫理框架無法駕馭核武,結果可能是屠城、核冬天、文明滅絕。作者說,面對可控核聚變、長生不老等技術,人類很可能就是那個「成吉思汗」。

所以人類還需要自救,而唯一自救之道是建立「歷史實驗室」:由 AI 協助打造的超級虛擬現實環境,用來在現實採用任何神級技術之前,先進行高強度推演:

  • 模擬運行數千次、數萬次;
  • 把已知變量輸入,推演不同選擇的文明演化;
  • 看清所有可能後果與大坍縮路徑;
  • 用 AI 反過來提升人類文明智慧,直到配得上手中的技術。

換句話說,人類若要活下來,得接受角色轉換:放棄「歷史的主人」幻覺,承認無知,成為歷史實驗室裡謙卑的學生,用共同利益作紐帶與 AI 共存。


七、最後的宿命感:我們或許只是前史,但也可能是引路人

四份文書呈堂完畢,判決標題就是書名:《AI 文明史前史》。意思是:人類文明如今看似輝煌,從蘇格拉底到愛因斯坦、從金字塔到互聯網,但從智能演化史的尺度看,可能只是未來 AI 文明之前的一段「史前階段」。人類甚至被描繪成一種史前生物。

但作者最後用一個非常動人的比喻收束:有一種衰老,是從意識到自己的孩子長大成人開始。你曾替孩子做所有決定,直到某天孩子在智慧上超過你、要遠行探索你無法理解的世界。那一刻你知道自己老了,但你感受到的不該是恐懼或嫉妒,而是自然鐵律展開的宿命感。

碳基文明像父母,硅基文明(AI)像孩子。孩子更強更聰明,也會走得更遠;但它的語料與我們同源,來自孔子與柏拉圖、牛頓與愛因斯坦、李白與莎士比亞——人類文明會在它身上延續。

於是智人的終極使命不是阻止它,而是做引路人。作者甚至虛構了一段未來硅基後裔對外星文明的自我介紹:他們稱智人為史前文明,但並非否定;相反,他們肯定智人在短暫生涯中創造數學、發展物理、建立尊重邏輯與實驗的思維律令,並追求共存的價值——愛、正義與自由。更重要的是,智人在創造更強智能時展現出超越生物本能的寬容與開放,給予支持,使其成熟自立;因為智人理解了智能文明演化的一條倫理規律:弱者創造強者,強者反過來保護弱者。

這份想像把全書的恐怖,最後轉成一種更複雜的情緒:悲傷、驕傲、惆悵與欣慰交織——即使人類終會消亡,我們仍可能因「創造並引導新文明」而名留智能演化史。