深度探索 Google DeepMind 推出的 Gemini 2.0 模型:機器人技術再創高峰
發布日期:3/15/2025
新聞視界時報 記者 李翌淳 整理報導
Google DeepMind 推出了基於其 Gemini 2.0 模型的新型人工智慧技術,這次的突破性創新不僅令人興奮,還為機器人操作開辟了更多可能性。
新推出的「Gemini Robotics」和「Gemini Robotics-ER」兩款人工智慧模型,專為精細操作任務設計,讓機器人能夠執行像是摺紙、緊緊掐住夾鏈袋等細緻的動作。
這些微妙操作正是讓我們更加驚豔的地方,顯示出機器人對人類日常需求的更多理解和應對能力。
在這些創新的背後,Google DeepMind 引入了視覺、語言與動作相結合的「VLA」 (vision-language-action) 設計理念。
這種設計不僅強化了機器人對視覺信息的處理能力,還讓機器人在接收到語言指令後,能夠根據指令做出更加精確的動作。
這一進步讓機器人不僅僅是執行命令,更能感知和理解人類的需求,進而提供更細膩的服務。
這次的技術進步不僅讓我們對機器人未來的運用充滿了期待,也展現了人工智慧與機器人技術如何日益走向人性化,讓我們的生活更加便捷而富有趣味。
期待未來,這些技術能進一步落地,並在更多領域發揮出無限的潛力,帶給我們更美好的科技生活。