目 录CONTENT

文章目录

谷歌和 OpenAI 对 AI 监管存严重分歧

ByteNews
2023-06-17 / 0 评论 / 0 点赞 / 10,931 阅读 / 958 字 / 正在检测是否收录...
温馨提示:
本文最后更新于 2023-06-17,若内容或图片失效,请留言反馈。部分素材来自网络,若不小心影响到您的利益,请联系我们删除。

谷歌和 OpenAI 对 AI 监管存严重分歧

随着 ChatGPT 大火带来的 AI 热潮,如今,如何监管 AI 技术成为市场热议的话题。一份最新的文件显示,谷歌和 OpenAI 这两大 AI 领域的领导者对政府应如何监管人工智能持有相反的看法。

OpenAI 首席执行官 Sam Altman 最近一直在鼓吹由政府来监管 AI 技术,甚至提到要建立一个类似国际原子能机构的政府间组织来监管 AI,而且他认为,该机构应该专注于监管 AI 技术,以及为使用该技术的实体颁发许可。但谷歌则不希望 AI 监管一切都由政府统领,该公司更倾向于“多层次、多利益相关者的 AI 治理方法”。

AI 领域的其他人,包括研究人员,也表达了和谷歌类似的观点,称政府部门对 AI 进行监管可能是保护边缘化社区的更好方式——尽管 OpenAI 认为技术进步太快无法采用这种方法。

谷歌称:在国家层面,我们支持中心辐射式方法——由美国国家标准与技术研究院(NIST)等中央机构通知部门监管机构监督 AI 实施——而不是一个“人工智能部门”。AI 将在金融服务、医疗保健和其他受监管的行业带来前所未有的挑战,这些挑战将由具有这些行业经验的监管机构来应对,而不是一个新的、独立的部门来监管。

华盛顿大学计算语言学实验室教授兼主任 Emily M. Bender 说:

我完全同意所谓的 AI 系统不应该在没有某种认证程序的情况下部署。但是这个过程应该取决于系统的用途。现有的监管机构应保持其管辖权和决定权。

谷歌的这一观点与 OpenAI 和微软偏爱更集中的监管模式形成鲜明对比。微软总裁 Brad Smith 表示,他支持组建一个新的政府机构来监管人工智能,而 OpenAI 的创始人们也公开表达了他们的愿景,即组建一个类似国际原子能机构的组织来监管 AI。

谷歌全球事务总裁 Kent Walker 表示,他“不反对”由新监管机构监督大型语言模型许可的想法,但表示政府应该“更全面地”看待这项技术。

谷歌和微软在监管方面看似相反的观点表明人工智能领域的争论越来越多,争论远远超出了技术应该受到多少监管的范畴。

今年 5 月,美国副总统哈里斯在会见了 AI 界重要公司的领导人后称,这项技术“有可能极大地增加对安全和安保的威胁,侵犯公民权利和隐私,并侵蚀公众对民主的信任和信心”。

她补充说,企业有责任遵守现有的法律,以及“伦理、道德和法律责任,以确保其产品的安全和保障”。

0

评论区