訂閱
糾錯
加入自媒體

舊金山“黑夜迷途”:一次停電暴露自動駕駛單車智能的當(dāng)下困境

2025-12-22 17:01
山自
關(guān)注

2025年12月20日,舊金山遭遇一場罕見的大規(guī)模停電。太平洋煤氣與電力公司(PG&E)一座變電站突發(fā)火災(zāi),導(dǎo)致全市約12.5萬用戶斷電,覆蓋西區(qū)、里士滿、海特-阿什伯里、中國城等近三分之一區(qū)域。交通信號燈集體熄滅,Muni公交停運(yùn),市長丹尼爾·盧瑞緊急呼吁市民非必要不出行。

2025年12月20日下午4:50的PG&E停電圖

然而,在這場城市應(yīng)急事件中,最引人注目的并非人類司機(jī)的混亂應(yīng)對,而是——Waymo自動駕駛車隊的集體“宕機(jī)”

社交媒體上,視頻瘋傳:多輛白色Waymo車輛在漆黑潮濕的十字路口一動不動,紅色尾燈在夜色中閃爍,后方排起長龍,人類司機(jī)或鳴笛催促,或無奈繞行。有用戶調(diào)侃:“停電摧毀了Waymos RIP。”更有觀察者尖銳指出:“看起來它們根本沒接受過停電訓(xùn)練。”

停電期間,一輛Waymo被困在路上

次日,Waymo官方承認(rèn)已暫停舊金山服務(wù),并解釋稱:“由于大范圍停電,車輛比平時停留更長時間以確認(rèn)受影響交叉路口的狀態(tài)。”但這一輕描淡寫的回應(yīng),掩蓋不了一個更深層的技術(shù)危機(jī):當(dāng)外部數(shù)字基礎(chǔ)設(shè)施崩塌,當(dāng)前主流自動駕駛系統(tǒng)為何如此脆弱?

不是“故障”,而是系統(tǒng)性脆弱鏈的暴露

從技術(shù)角度看,Waymo車輛在停電夜的停滯,并非單一模塊失效,而是一條典型的“脆弱性傳導(dǎo)鏈”:

1. 感知層失錨:紅綠燈不僅是光源,更是高置信度語義符號

L4級自動駕駛依賴多傳感器融合(攝像頭+激光雷達(dá)+毫米波雷達(dá))。在正常工況下,交通信號燈提供結(jié)構(gòu)化、高確定性的規(guī)則輸入——紅燈停,綠燈行。這種強(qiáng)語義信號極大簡化了決策邏輯。

但停電后,紅綠燈物理消失,激光雷達(dá)點云中不再有對應(yīng)結(jié)構(gòu),攝像頭在低照度下識別能力驟降。更關(guān)鍵的是,系統(tǒng)失去了“規(guī)則錨點”,被迫將決策權(quán)重轉(zhuǎn)移至對無序人類行為的預(yù)測——而這正是當(dāng)前AI的短板。

2. 決策層卡死:規(guī)則世界崩塌,博弈模型失效

美國交規(guī)規(guī)定,信號燈失效時應(yīng)視為“All-Way Stop”(所有方向停車后依次通行)。但執(zhí)行這一規(guī)則需精準(zhǔn)判斷“誰先停穩(wěn)”“誰有通行意圖”,并與其他可能不守規(guī)的人類司機(jī)進(jìn)行動態(tài)博弈。

現(xiàn)有決策規(guī)劃算法嚴(yán)重依賴預(yù)設(shè)規(guī)則和格式化場景理解。面對混亂路口中搶行、猶豫、變道的人類車輛,系統(tǒng)陷入高不確定性下的保守死循環(huán):“無法100%確認(rèn)安全 → 不行動 → 持續(xù)等待”。

3. 通信與冗余失效:孤島效應(yīng)加劇癱瘓

有分析指出,伴隨停電的蜂窩網(wǎng)絡(luò)波動或?qū)崟r交通數(shù)據(jù)中斷,可能是另一重打擊。Waymo等公司依賴遠(yuǎn)程協(xié)助(Tele-assist)處理邊緣場景。一旦通信中斷,車輛不僅“看不見”,還成了“信息孤島”,無法獲取后臺指令或路徑重規(guī)劃。

更諷刺的是,硬件冗余無法彌補(bǔ)“環(huán)境模型”的缺失。系統(tǒng)設(shè)計默認(rèn)“世界有規(guī)則”,卻未為“規(guī)則本身消失”構(gòu)建降級運(yùn)行機(jī)制。其“最小風(fēng)險狀態(tài)”(Minimal Risk Condition)策略——原地停車——在單車場景下合理,但在車隊規(guī)模部署時,反而引發(fā)系統(tǒng)性交通堵塞。

李飛飛:數(shù)據(jù)與算法的“失衡”才是根源

這場“黑夜測試”恰如一面鏡子,映照出李飛飛近期關(guān)于AI核心矛盾的深刻洞察。

在近期與鈦媒體的對話中,李飛飛明確指出:

“當(dāng)前AI的瓶頸,既非單純數(shù)據(jù)不足,也非算法缺陷,而是二者協(xié)同機(jī)制的限制。”

她進(jìn)一步強(qiáng)調(diào),行業(yè)普遍存在“算法比數(shù)據(jù)重要”的認(rèn)知偏差——算法工程師薪資更高、更受追捧,而數(shù)據(jù)工作被視為“不夠性感”。但現(xiàn)實是:所有AI從業(yè)者都承認(rèn),數(shù)據(jù)至少具有同等價值。

Waymo事件正是這一“協(xié)同失靈”的典型案例。

數(shù)據(jù)偏科:海量里程 ≠ 全場景覆蓋

據(jù)Tiger Global泄露文件,Waymo目前每周提供45萬次Robotaxi服務(wù),累計路測里程已達(dá)數(shù)億英里。但這些數(shù)據(jù)高度集中于“正常工況”:電力穩(wěn)定、信號有效、人類基本守規(guī)。

而“全域大規(guī)模停電”這類系統(tǒng)性邊緣場景(Systematic Corner Case),因其低概率、高成本、難復(fù)現(xiàn),在訓(xùn)練集中幾乎空白。算法從未在足夠多樣本上學(xué)習(xí)“規(guī)則失效時該如何反應(yīng)”,自然在真實世界中“懵圈”。

算法傲慢:缺乏內(nèi)生世界模型

更深層問題在于,當(dāng)前系統(tǒng)缺乏一個能理解物理與社會規(guī)則如何動態(tài)演化的世界模型(World Model)。

理想的世界模型應(yīng)能推理:“停電 → 信號燈失效 → 人類行為從規(guī)則主導(dǎo)轉(zhuǎn)為博弈主導(dǎo) → 路口通行效率下降 → 我應(yīng)采取更靈活但謹(jǐn)慎的策略(如跟隨前車緩慢蠕動)”。

但現(xiàn)有系統(tǒng)只是感知-預(yù)測-規(guī)劃的流水線拼接,沒有因果推理、沒有心智理論(Theory of Mind)。當(dāng)輸入異常,算法便在“不確定性過高”的循環(huán)中空轉(zhuǎn),無法調(diào)用常識進(jìn)行降級決策。

這正是李飛飛所說的:“數(shù)據(jù)和算法就像科學(xué)家的兩條腿,少哪條都走不遠(yuǎn)。”Waymo有強(qiáng)大的算法之腿,卻在關(guān)鍵數(shù)據(jù)維度上跛足前行。

為世界模型構(gòu)建“黑暗訓(xùn)練集”

李飛飛預(yù)測,未來1-2年AI將迎來技術(shù)爆發(fā),突破口正在于數(shù)據(jù)與算法的新型協(xié)同機(jī)制。對自動駕駛而言,這意味著一場數(shù)據(jù)戰(zhàn)略的范式革命。

1. 從“里程驅(qū)動”轉(zhuǎn)向“場景驅(qū)動”

行業(yè)必須放棄對總里程的迷信,轉(zhuǎn)而系統(tǒng)性構(gòu)建關(guān)鍵場景數(shù)據(jù)庫,包括:

基礎(chǔ)設(shè)施失效(停電、斷網(wǎng)、地圖過期)復(fù)雜社會博弈(無信號燈路口、大規(guī)模擁堵、應(yīng)急車輛穿行)極端人車混流(節(jié)日慶典、抗議活動、自然災(zāi)害)

這些場景需通過定向?qū)嵅、眾包上報與仿真生成相結(jié)合的方式積累。

2. 合成數(shù)據(jù):在虛擬世界中“制造黑夜”

真實停電難以復(fù)現(xiàn),但高保真仿真可以。利用生成式AI與數(shù)字孿生技術(shù),可在虛擬舊金山中反復(fù)模擬“信號燈全滅+通信中斷+人類搶行”的復(fù)合場景,生成海量訓(xùn)練樣本。

Wayve、Covariant等公司已證明,高質(zhì)量合成數(shù)據(jù)可顯著提升模型魯棒性。未來,自動駕駛公司的核心競爭力,或?qū)Ⅲw現(xiàn)在其“黑暗場景生成引擎”的能力上。

3. 數(shù)據(jù)標(biāo)注躍遷:從物體檢測到意圖與因果

世界模型需要理解“為什么”,而不僅是“是什么”。這意味著數(shù)據(jù)標(biāo)注需從傳統(tǒng)的目標(biāo)檢測、語義分割,升級為

意圖標(biāo)注:行人揮手是讓行還是求助?

因果關(guān)聯(lián):車輛減速是因為前方有障礙,還是準(zhǔn)備變道?

社會規(guī)范建模:在無信號燈路口,本地駕駛文化是“先到先走”還是“右側(cè)優(yōu)先”?

這類“高階語義數(shù)據(jù)”將成為訓(xùn)練世界模型的關(guān)鍵燃料。

4. 去中心化架構(gòu):強(qiáng)化邊緣自主性

事件也警示:過度依賴云端、高精地圖和實時通信,會引入單點故障風(fēng)險。未來系統(tǒng)需支持更強(qiáng)的邊緣智能——即使斷網(wǎng)斷電,也能基于局部感知進(jìn)行長時序風(fēng)險推演。

相應(yīng)地,訓(xùn)練數(shù)據(jù)應(yīng)包含大量“通信降級”條件下的成功處置案例,讓模型學(xué)會在信息受限時依然穩(wěn)健決策。

在探索世界模型落地路徑的過程中,國內(nèi)自動駕駛企業(yè)蘑菇車聯(lián)的實踐值得關(guān)注。其自研的 MogoMind 大模型 正嘗試構(gòu)建一個融合物理規(guī)律、交通規(guī)則與社會博弈常識的統(tǒng)一認(rèn)知框架。不同于傳統(tǒng)模塊化架構(gòu),MogoMind 通過端到端訓(xùn)練,在感知、預(yù)測與決策之間建立更緊密的協(xié)同機(jī)制。更重要的是,蘑菇車聯(lián)同步打造的 AI網(wǎng)絡(luò),一套覆蓋車端、邊緣與云端的分布式智能基礎(chǔ)設(shè)施——為大模型提供了持續(xù)進(jìn)化的數(shù)據(jù)閉環(huán):即使在局部通信中斷或信號失效場景下,車端模型仍能基于本地化世界表征進(jìn)行穩(wěn)健推理。這種“物理世界大模型+AI網(wǎng)絡(luò)”的雙輪驅(qū)動,或?qū)⒊蔀閼?yīng)對“舊金山式黑夜”的中國方案。

圖片

從“規(guī)則擬合者”到“世界理解者”

舊金山那個停電的夜晚,Waymo車隊停滯的紅燈,像一串刺眼的警示符,照亮了當(dāng)前自動駕駛技術(shù)的邊界;蛟S,真正的智能,不是在陽光明媚的規(guī)則世界中完美運(yùn)行,而是在黑夜混沌中依然知道如何前行。

未來的自動駕駛系統(tǒng),不應(yīng)只是執(zhí)行指令的機(jī)器,而應(yīng)成為能深度理解物理世界、揣摩人類意圖、在不確定性中穩(wěn)健決策的“數(shù)字生命體”,讓城市運(yùn)行更高效,讓交通管理更智能,讓人車出行更安全。

       原文標(biāo)題 : 舊金山“黑夜迷途”:一次停電暴露自動駕駛單車智能的當(dāng)下困境

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號