(資料圖片)
新京報貝殼財經訊 2月21日,清華大學智能產業研究院(AIR)發布一項研究顯示,以自動駕駛這一安全關鍵領域為載體,首次通過“人類眼動追蹤實驗+算法對比驗證”的雙軌設計,系統性拆解了人類與智駕算法視覺注意力的本質差異。其核心價值在于提出人類駕駛注意力的三階段量化劃分框架,并證實智駕算法視覺理解的核心缺陷是缺乏“語義顯著性提取能力”,而融入人類檢查階段的語義注意力,能以經濟高效的方式填補專業算法的“語義鴻溝”與大模型的“接地鴻溝”,無需依賴大規模預訓練。
研究團隊通過招募專家與新手司機完成危險檢測、可用性識別、異常檢測三類任務,結合眼動數據劃分注意力階段,再將不同階段注意力融入AxANet、UniAD等專業算法及DriveLM等視覺語言模型(VLM),最終揭示人類與智駕算法注意力的核心差異并非“空間定位”,而是“語義理解”。人類能通過自上而下的認知賦予場景特征語義優先級,而智駕算法難以自主習得這一能力。該發現為自動駕駛算法的性能提升提供了非規模化的新路徑,對資源受限的車載實時系統部署具有重要實踐意義。
版權與免責聲明:
1 本網注明“來源:×××”(非商業周刊網)的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責,本網不承擔此類稿件侵權行為的連帶責任。
2 在本網的新聞頁面或BBS上進行跟帖或發表言論者,文責自負。
3 相關信息并未經過本網站證實,不對您構成任何投資建議,據此操作,風險自擔。
4 如涉及作品內容、版權等其它問題,請在30日內同本網聯系。