你有没有哼着一首歌却怎么也想不起歌名的状况?Google 公布了一些搜寻性能的更新,其中就有一个“听歌识曲”性能,当初用户能够通过哼唱 10 到 15 秒匹配到想找的歌曲了。
Google 称,其曾经通过人工智能和机器学习来改善用户体验,除了听歌识曲还更新了拼写和搜寻查问性能。
谷歌更新 AI 性能,提供多种搜寻反对
Google 示意,听歌识曲性能目前在 iOS 上以英语提供,在 Android 上以大概 20 种语言提供,未来在两种平台上都会提供更多语言反对。
当初,用户能够通过点击 mic 图标并说:“这是什么歌”,对着手机向 Google 哼歌,机器学习算法将提供匹配的歌曲。
除了听歌识曲,谷歌更新的 AI 性能还涵盖了拼写和惯例的搜寻查问。包含应用深度神经网络的新拼写算法,Google 称该算法大大提高了其查问拼写错误的能力。
新的拼写算法能够帮忙了解拼写错误的单词的上下文,在 3 秒内找到正确的后果。同时,搜寻当初将为页面中的各个段落建设索引,以容许定位所搜寻文本块的特定地位。
神经网络也已被用于了解围绕趣味的子主题,Google 示意,当用户进行宽泛搜寻时,这将有助于提供更大的内容多样性。
举例来说,如果用户搜寻“家庭健身器材”,Google 会通过理解相干的副主题,比方器材的价格、品质或者占用空间等,在搜寻后果页面上显示更多内容,这项性能将在今年年底开始推出。
利用数据共享,搜寻后果更加多样化
2018 年 Google 启动了 Data Commons Project,从美国人口普查局、劳工统计局和世界银行等机构收集数据,将这些数据投入使用,通过搜寻使信息更容易获取和应用。
比方,当你查问“芝加哥有多少人工作”这样的问题时,自然语言解决会将搜寻映射到 Data Commons 数十亿个数据点中的一个特定汇合,以一种可视化、易于了解的形式提供正确的数据。
Google 还指出,它的 BERT 语言了解零碎当初曾经被用于简直所有的英语查问,这有助于用户失去更高质量的问题后果。通过应用人工智能,它当初能够了解视频的深层语义,并自动识别关键点。不过,这个性能目前正在测试中,它将在视频中标记时刻。
图像查问可辨认 150 亿种事物
Google 还发表了在学习和购物时应用 Google Lens 和加强事实的新办法。
通过拍摄照片或截图进行搜寻曾经可行,当初用户能够在 Google 利用或者 Android 上的 Chrome 点击并保留图片,而 Lens 会找到雷同或类似的我的项目,并提出设计办法。该性能行将在 iOS 上的 Google 利用中推出。
Google Lens 当初能够辨认 150 亿种事物,帮忙辨认动物、动物和地标,它还能够翻译 100 多种语言。
Google 还发表了其解决冠状病毒相干查问的形式的一些改良,帮忙用户更容易的放弃社交间隔。Google 还在 Live View 中增加了一个新性能,能够取得企业的根本信息,帮忙用户理解公司是否有戴口罩的要求,是否须要提前约或者是否有其余安全措施,比方发问查看等。