豌豆28首页
        • 0
        增强现实和Lens会是谷歌搜索的未来吗?
        统计 阅读时间大约7分钟(2462字)

        2019-05-09 10:21:56 增强现实和Lens会是谷歌搜索的未来吗?

        随着增强现实技术的发展,谷歌有机会提供更大的帮助。

        豌豆28 www.tiandaomi.com 【猎云网(微信号:ilieyun)】5月9日报道(编译:福尔摩望)

        想象一下,当你在考虑购置椅子时,可以先用谷歌搜索一些成品,然后在客厅里试用?;蛘?,当你正在查看东京地铁地图时,你会突然看到关于走哪条路线的建议,而这些建议会被翻译成你熟悉的语言。也许,Google AR和Google Lens可能要比你想象的来得更快。

        当我在山景城参加今年的谷歌I/O大会时,我通过谷歌沉浸式实验室里里的手机镜头,在桌子上查看了一份餐馆菜单??吹礁行巳さ氖澄??显示屏会闪烁,并突出显示了食物选择。

        这些并不是狂野舞龙或全息化身,没有口袋妖怪可以找,也没有奇怪的新头显需要佩戴。谷歌今年的增强现实愿景是对实用性和辅助性的双重关注,AR被应用于谷歌搜索,而Google Lens则帮助人们阅读。虽然它看起来比几年前更温和,也不像最近涉及漫威的谷歌增强现实项目那样引人注目,但该公司正试图合理地提供帮助。在经历了几十个智能眼镜和增强现实头显的洗礼之后,我们需要真正的理由来使用这项技术。谷歌能找到前进的道路吗?

        距离谷歌眼镜初次涉足智能眼镜领域已有六年时间,距离Google Tango实验性增强现实手机已有五年时间,距离Google Lens初次提供一种用手机摄像头扫描世界的方法也有两年时间了。谷歌对AR的看法可能正在转变,也许这也是不可避免的。随着手机中的增强现实已经从新奇事物转变为无处不在的现实,谷歌的下一个任务似乎是找到增强现实的好用途。

        “我们认为,随着增强现实技术的发展,谷歌有机会提供更大的帮助,”虚拟和增强现实副总裁Clay Bavor在谈到谷歌今年即将推出的各种增强现实更新时表示。你也可以说谷歌正在为下一个大事件打好基础。该公司必须成为这个尚不完全存在的服务世界的数字粘合剂。就目前而言,这意味着需要让计算机视觉更加有效。谷歌今年提出了一些新的实验想法,下面我们会对此进行概述。

        即时全息图

        当我在搜索“老虎”时,可以看到一个点击文件,它会启动一个充满轰鸣声的动画3D文件。然后我可以在房间里使用AR,看到增强现实的老虎形象。我可以把美国宇航局火星好奇号探测器的比例模型放入房间,或者可以看到人类手臂骨骼和肌肉组织的解剖模型。

        谷歌今年将AR引入了搜索之中,下面是它的工作原理:兼容的Android和iOS设备将在搜索中看到3D对象链接,该链接会调出3D模型,然后以适当的比例放入现实世界中。谷歌搜索将使用glTF格式整合3D文件,而不是苹果iOS 12中ARKit所使用的USDZ格式。据谷歌称,开发者只需添加几行代码,就可以让3D资产出现在谷歌搜索中。

        “事实证明,很多零售合作伙伴都拥有3D资产,而他们所要做的就是三行代码,”相机和AR产品副总裁兼总经理Aparna Chennapragada说?!澳谌萏峁┥滩恍枰鎏嗥渌虑??!惫雀枰丫朊拦液娇蘸教炀?、New Balance、三星、Target、Visible Body、沃尔沃和Wayfair进行合作,将3D资产整合到谷歌搜索中。增强现实效果推出了一个新的Android功能,叫做场景查看器。

        当我尝试演示时,给我留下深刻印象的是一个简单的想法:我使用谷歌搜索作为思考方式的延伸。如果启用增强现实搜索最终能被添加到一副增强现实眼镜中,也许这意味着可以毫不费力地将物体变到现实世界中,而不需要启动任何应用。

        Google Lens不断发展

        与此同时,使用Google Lens已经感觉像一副没有镜片的智能眼镜。支持摄像头的应用已经可以用于物体识别、翻译、购物和世界认知。

        但是谷歌正在探索全新的Lens功能,这些功能将在2019年让Lens得到进一步的发展,并开始更加积极地将事物叠加到现实世界中。Chennapragada说:“我们将Google Lens从一个识别工具变成了一个增强现实浏览器,从而可以让你在相机上叠加信息?!?br>

        我亲手尝试了Google Lens的最新功能,它们让人感觉不仅是诠释现实,更像是转变现实。Lens现在可以显示其他语言的翻译,翻译结果可以无缝地映射到符号或物体上,并停留在空间中,就好像文本真的存在一样。这属于谷歌翻译的进化,但是现在谷歌可以从餐馆菜单开始,分析整个文档的上下文。

        当我看着一份样本菜单时,突然菜单上的菜被高亮显示。根据谷歌地图餐馆的信息,它们是受欢迎的菜肴。轻按菜单项可以即时调出照片和评论。这几乎就像是注释过的现实。

        博物馆也在寻求类似的想法。谷歌正在旧金山的德扬博物馆进行实验,在用Google Lens分析时,可以将精选的弹出信息链接到公认的艺术品上。策展人会在有编码信息的地方建造围栏空间吗?也许吧。

        新的购物、餐饮、翻译和文本过滤器,能够帮助Lens全自动地了解上下文的内容。例如,购物过滤器帮助识别桌子上的植物,并找到购买该植物的地方。这就是挑战所在之处:如果你拿着一个能看到一切的神奇镜头,这个镜头会如何解释你需要什么呢?

        适用于低端手机

        然而,Bavor和Chennapragada最感兴趣的是Google Lens可以适用于运行Android Go软件的低端手机。即时翻译和阅读帮助能够依靠云服务,运行在对ARCore来说不够强大的手机上。

        “我们遇到的一个问题是,如果我们能教相机阅读,那能使用相机帮助人们阅读吗?”Chennapragada说?!跋匀?,这是有用的,尤其是当你在一个语言不通的外国城市时?!盋hennapragada讲述了自己在印度长大的经历:“我在印度长大,除了英语,我还会说三种语言,但仍然有其他20种语言不会说。所以,如果我进入一个邻近州府,我是绝望的,因为我除了盯着商店的招牌,什么也做不了?!?br>

        我马上想知道这是否能在某种程度上作为盲人阅读世界的视觉辅助。Chennapragada认为这种技术是“情境素养”,在未来,它很可能代替导盲犬成为通用的翻译和阅读器。

        这一新功能将在Android Go上的Google Go应用中推出,只需点击一个按钮就可以使用。谷歌不再依赖高端硬件,而是在50美元的低端手机上运行Lens功能,这引发了另一个问题:谷歌能否让辅助增强现实在未来的低功耗增强现实头显上轻松运行吗?

        “未来外形因素”

        Bavor承认,谷歌正处于迈向手机以外新技术的“深度研发”阶段,但目前的目标是首先解决手机使用问题。然而,一些其他类型的硬件方案即将出现。

        “如果你考虑语音搜索,你得到的网络答案会很好地翻译给Assistant。我们在这里也采用了同样的方法,它在智能手机领域非常有用,但也可以很好地转化为未来的外形因素,”Chennapragada说。对她来说,Lens正转向成为一个“增强现实浏览器”。

        由于今年的谷歌I/O大会没有推出新的虚拟现实或增强现实硬件,所以谷歌对服务和实用程序的关注可能表明,Lens可能会演变成其他平台的现实浏览器。

        当然,现在这还是个谜。Bavor表示,目前还没有对微软HoloLens或Magic Leap等平台做出承诺,但他承认,“你甚至不必怀疑,这些东西有太多的共同点,我认为谷歌有构建平台和服务的历史,这些平台和服务可以被广泛使用,并试图尽可能广泛地向每个人提供帮助和效用。我想我们会采取类似的策略?!?br>

        与此同时,所有这些谷歌增强现实功能都让人感觉像是一场继续实验,包括谷歌即将推出的地图增强现实导航功能。在今年的I/O大会上,甚至I/O应用都内置了AR功能来指导与会者参加会议。这一功能可能是未来增强现实导航发展的一个线索,当然,也很有可能不会。

        1、猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权。
        2、转载时须在文章头部明确注明出处、保留官方微信、作者和原文超链接。如转自猎云网(微信号:ilieyun
        )字样。
        3、猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考,猎云网不对真实性背书。
        0
        评论
        推荐阅读
        记者名字
        {{item.author_display_name}}
        {{item.author_user_occu}}
        {{item.author_user_sign}}
        ×
        RUS 万物生长2019年武汉创业创新峰会暨第二届楚馨奖颁奖盛典 ×

        豌豆28原创 | 豌豆28平台 |