谷歌研究:人工智能更智能、更安全的五大规则

   日期:2021-07-01     文章发布:文章发布    网络转载:生活号    
核心提示:据消息称,谷歌与OpenAI公司、斯坦福大学和伯克利大学猜想研究人员在研发和使用AI过程中可能遇到的具体问题,而联合发表一篇题为《AI安全的具体问题》的论文。其主要的内容阐释人工智能的五大规则。
移动站源标题:http://mip.pi1688.com/news/item-4474.html

  据消息称,谷歌与OpenAI公司、斯坦福大学和伯克利大学猜想研究人员在研发和使用AI过程中可能遇到的具体问题,而联合发表一篇题为《AI安全的具体问题》的论文。其主要的内容阐释人工智能的五大规则。

     谷歌研究(Google Research)的Chris Olah)周二则在一篇博文中阐述了开发出更智能、更安全人工智能的五大规则。

  Olah提出的五个规则是:

  避免负面效应:AI在完成一组任务时不应该被周围环境打扰。

  避免奖励黑客: AI应该妥当地完成任务,而不是借助一些迂回的方法。

  可扩展的监督: AI不需要接收不断的反馈或有效的输入。

  安全探索:AI在学习时不应伤害自身或环境。

  鲁棒性到分布式的转变: AI应该能够识别出全新的环境,并在新环境中有效地完成任务。

  Olah在博文中指出:“这些都是具有前瞻性的、长期的研究问题——这些现在看起来可能是小问题,但对未来系统则至关重要。”

  “有新的研究总是好的,有新规则的提出总是好的,未来太远,对以后是否真正有用,谁也不知,谷歌就喜欢没事研究这研究那的。”一网友吐槽。

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的,并不意味着赞同其观点或证实其内容的真实性,如有侵权请通知我们删除!(留言删除
 
 
更多>同类行业

同类新闻
最新资讯
最新发布
最受欢迎
网站首页  |  黄页  |  联系方式  |  生活号  |  版权隐私  |  网站地图  |  API推送  |  网站留言  |  RSS订阅  |  违规举报