谷歌声称其AI在识别突发新闻和错误信息方面变得越来越出色

谷歌表示,它正在使用AI和机器学习技术来更快地发现与自然灾害等危机相关的突发新闻。谷歌搜索副总裁潘杜·纳亚克(Pandu Nayak)表示,他透露该公司的系统现在需要几分钟来识别突发新闻,而几年前是40分钟。

随着全球自然灾害的蔓延以及2020年美国大选日临近,更快地掌握最新新闻的消息将变得至关重要。像加州和俄勒冈州肆虐的野火可以一角改变(并且已经改变)路线,面对虚假信息活动,及时,准确的选举信息将是保护流程完整性的关键。

谷歌声称其AI在识别突发新闻和错误信息方面变得越来越出色

“在过去的几年中,我们已经改进了系统,以……确保我们返回的是最权威的信息,” Nayak在博客中写道。“随着新闻的发展,发布到网络上的最新信息并不总是最准确或可信赖的,人们对信息的需求会比事实得以实现的速度更快。”

谷歌表示,在相关开发中,它最近使用基于BERT的语言理解模型启动了一项更新,以改善新闻报道与可用事实检查之间的匹配。(自2017年4月起,Google开始在发布商的搜索结果中同时包括发布商对公共声明的事实检查。)据Nayak称,系统现在可以更好地了解事实检查声明是否与故事主题相关,并在Google新闻中更加突出地显示这些检查。 '全覆盖功能。

纳亚克(Nayak)表示,这些努力与Google的工作相辅相成,以提高容易受到仇恨,令人反感和误导性内容影响的主题的搜索结果的质量。他声称,从某种意义上说,从谷歌的系统可以更可靠地发现存在错误信息风险的主题领域来看,这方面也取得了进展。

例如,在显示Wikipedia片段的搜索结果面板中,Nayak表示,其机器学习工具现在可以更好地防止可能出现的不准确信息的出现,而Wikipedia是促进Google知识图谱的来源之一。他声称,当恶意破坏的Wikipedia页面上的虚假信息流失时,他认为系统可以以99%的准确率检测到这些情况。

这些改进也被归结为管理Google自动完成建议的系统,如果搜索不太可能导致可靠的内容,该系统会自动选择不显示预测。这些系统以前可以防止“仇恨”和“不适当”的预测,但是现在已经扩展到选举。谷歌表示,它将删除可能被解释为对任何候选人或政党主张或反对的主张,以及有关投票方法,要求,投票地点的状态以及选举程序的完整性或合法性的声明。

“我们有长期的政策来防止仇恨和不恰当的预测出现在自动完成中,” Nayak写道。“我们将系统设计为可以自动近似那些策略,并且已经改进了自动化系统,如果我们检测到查询可能不会带来可靠的内容,就不会显示预测。这些系统并不完美或不精确,因此,如果预测失败,我们将执行我们的政策。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除。