選項
首頁
新聞
專注於實惠增強現實的真實對焦系統

專注於實惠增強現實的真實對焦系統

2025-06-05
45

顛覆基於投影的增強現實技術

來自著名機構電機電子工程師學會(IEEE)的研究人員在基於投影的增強現實領域取得了突破性的進展。他們的解決方案?配備了電控可變焦鏡片(ETL)的特殊眼鏡,這些鏡片模擬人類眼睛自然感知深度的方式。這種創新的方法解決了使投影系統在受控環境中真正實用的主要障礙。

想像一下走進一個房間,其中投影的3D物體看起來就像周圍的家具一樣真實。這就是該技術所承諾的那種真實感。通過根據用戶的視線調整投影圖像的焦距,該系統消除了通常困擾增強現實設置的漂浮、不自然的銳利度問題。

IEEE系統為即將投射到房間中的真實和CGI圖像重現深度平面。在這個例子中,三個斯坦福兔子的CGI模型被投射在同一個深度平面上,與三個現實世界的物體重疊,其模糊程度由觀看者的視線和焦點決定。資料來源:https://www.youtube.com/watch?v=I8DGTQnxm38

它是如何工作的?

這一切的魔力都歸功於嵌入手機鏡框中的ETL鏡片。這些鏡片與投影系統通信,使其能夠根據用戶的視線調整投影圖像的模糊程度。這樣可以確保虛擬物體在焦點和深度感知方面與其現實世界對應物完美對齊。

ETL鏡片報告用戶焦點注意力的信息,並根據每層平面設置投影幾何結構的模糊程度。資料來源:https://www.youtube.com/watch?v=I8DGTQnxm38

可用性上的突破

這篇題為《多焦立體投影映射》的研究論文為基於投影的AR引入了一個新的可用性維度。從歷史上看,這些系統一直受到一種稱為集合–適應衝突(VAC)的現象困擾,即物體的感知距離與其實際聚焦距離不匹配。這導致物體看起來不自然地銳利或模糊,破壞了沉浸感。

這種新方法通過動態調整投影圖像的焦距,直接對抗VAC,為用戶創造出更真實的體驗。與依賴大量內置處理的Microsoft HoloLens等可穿戴AR設備不同,ETL系統將大部分計算負載卸載到遠程處理器上。這大大降低了延遲,提升了性能和舒適度。

基於投影的AR的優勢

與傳統AR設備相比,基於投影的系統具有幾個關鍵優勢。首先,它們可以通过添加更多投影儀來覆蓋極大的視野。此外,這些眼鏡本身輕便,使得長時間佩戴更加舒適。而且,只要在投影區域內,多名用戶可以同時享受相同的AR體驗。

SIGGRAPH 98的一個視覺概念——辦公室環境中的增強現實,引用於新論文。資料來源:https://www.youtube.com/watch?v=I8DGTQnxm38

適用於遊戲之外的應用

雖然遊戲是這項技術的明顯受益者,但它的潛力遠不止於娛樂。博物館、建築公司、醫學院甚至視訊會議平台都可以利用基於投影的AR來創造沉浸式體驗。例如,醫學生可以在增強現實投影的逼真假人上練習手術。

文中引用的混合現實假人,採用3D投影設計,適用於醫療教育環境。資料來源:https://link.springer.com/chapter/10.1007/978-1-4614-0064-6_23

挑戰與未來展望

儘管前景光明,該系統也存在局限性。它需要在黑暗環境中才能最佳運行,類似於博物館或劇院。此外,目前版本的視角較窄,但隨著ETL技術的發展,這問題有望在未來得到解決。高速投影儀對於有效分割圖像也是必不可少的,但研究團隊成功測試了其原型,使用了現有的商用型號。

欲了解更多這項令人著迷的發展,請查看下面嵌入的相關視頻。

相關文章
微軟研究揭示AI模型在軟體除錯中的局限性 微軟研究揭示AI模型在軟體除錯中的局限性 來自OpenAI、Anthropic及其他領先AI實驗室的AI模型越來越常用於編碼任務。Google執行長Sundar Pichai於10月表示,AI在公司內生成25%的新程式碼,而Meta執行長Mark Zuckerberg則計劃在這家社群媒體巨頭中廣泛應用AI編碼工具。然而,即使是表現最佳的模型,在修復軟體錯誤時仍難以達到經驗豐富的開發者輕鬆處理的水平。微軟研發部門近期進行的微軟研究顯示,像A
AI驅動的解決方案可顯著降低全球碳排放 AI驅動的解決方案可顯著降低全球碳排放 倫敦經濟學院與Systemiq的最新研究顯示,人工智慧可在不犧牲現代便利性的前提下大幅降低全球碳排放,使AI成為對抗氣候變遷的關鍵盟友。研究指出,僅在三個領域應用智慧AI技術,到2035年每年可減少32億至54億噸的溫室氣體排放。與普遍擔憂相反,這些減排量將遠超AI運營所產生的碳足跡。題為《綠色與智慧:AI在氣候轉型中的角色》的報告,將AI視為打造可持續且包容經濟的轉型力量,而非僅僅是漸進式進展的
新研究揭示大規模語言模型實際記憶的數據量 新研究揭示大規模語言模型實際記憶的數據量 AI模型實際記憶多少?新研究揭示驚人見解我們都知道,像ChatGPT、Claude和Gemini這樣的大規模語言模型(LLMs)是在龐大數據集上訓練的——來自書籍、網站、程式碼,甚至圖像和音頻等多媒體的數兆字詞。但這些數據到底發生了什麼?這些模型真的理解語言,還是僅僅在重複記憶的片段?來自Meta、Google DeepMind、Cornell和NVIDIA的一項突破性新研究終於給出了具體答案——
評論 (2)
0/200
JustinMartin
JustinMartin 2025-07-28 09:20:03

Wow, adjustable focus AR glasses sound like a game-changer! Can't wait to see how affordable they really are.

RyanSanchez
RyanSanchez 2025-07-28 09:18:39

This AR breakthrough sounds wild! 😎 Those focus-tuning glasses could make VR headsets obsolete. Imagine gaming or working with just sleek specs—mind blown! Curious how affordable 'affordable' really is, though.

回到頂部
OR