选城市 : 多伦多 | 温哥华
2024年07月03日 星期三 08:28:53
dushi_city_vancouver
dushi_city_tor
dushi_top_nav_01
dushi_top_nav_05
dushi_top_nav_02
dushi_top_nav_20
dushi_top_nav_28
dushi_top_nav_30
dushi_top_nav_31
dushi_top_nav_25

Tag: OpenAI

OpenAI主要领导辞职 人工智能会不会陷入安全困境?

  【星岛都市网】扬-莱克(Jan Leike)和伊利亚-苏茨基弗(Ilya Sutskever)离开 OpenAI 的原因是他们负责监督“超级智能”人工智能系统的团队在获取资源方面遇到了问题。尽管该团队已经解散,但他们的任务将由不同部门的研究人员继续执行,这引发了人们对 OpenAI 未来人工智能安全性的担忧。 在 OpenAI,负责开发和监督“超级智能”人工智能系统(被称为 Superalignment)的团队在获取承诺的资源方面遇到了重大问题。尽管他们本应获得公司五分之一的计算资源,但他们的请求经常遭到拒绝,从而阻碍了项目的实施。这些问题和其他问题导致几名团队成员于本周辞职。其中一位离职者是该团队的共同负责人、前 DeepMind 研究员扬-莱克(Jan Leike)。他透露,他离开公司的原因是对 OpenAI 的优先事项存在分歧,尤其是他认为在引入后续人工智能模型方面准备不足。 关键人物的离职 除了莱克,作为前董事会成员的联合创始人伊利亚-苏茨基弗(Ilya Sutskever)也因与首席执行官萨姆-奥特曼(Sam Altman)的矛盾离开了 OpenAI。董事会成员对奥特曼表示不满,但奥特曼最终还是回到了自己的岗位。针对这些事件,奥特曼在 X 平台上写道,公司未来仍有很多工作要做,但这些工作将全力推进。阿尔特曼的话得到了人工智能联合创始人格雷格-布罗克曼(Greg Brockman)的支持,他强调必须更加重视安全和流程效率。 虽然 Superalignment 团队实际上已不复存在,但来自公司各部门的一组研究人员将继续开展活动。这不禁让人担心,OpenAI 是否会继续同样关注人工智能开发中的安全问题。 人员变动是否预示着工作重点的转移? 据 TechCrunch...