OpenAI AGI安全团队已流失近半成员
8月30日,有报道称OpenAI在追求人工智能技术发展以惠及全球的同时,正面临一个不容忽视的问题:大约一半专注于超级智能AI长期风险研究的专家已从该公司离职。这一情况引发了外界对OpenAI可能轻视AI安全性问题的关注。
据前治理研究员Daniel Kokotajlo透露,近期OpenAI内部负责AGI(通用人工智能)安全的团队成员流失近半。这些研究人员的职责是确保未来诞生的AGI系统不会对人类生存构成潜在危险。伴随OpenAI业务重心向产品开发与商业化倾斜,安全研究团队规模的缩减令人担忧。
Kokotajlo指出,自2024年起,该安全团队的成员数已从约30人缩减至16人左右,他相信这一变化源于个人层面的信心缺失而非有组织的行动。
针对上述担忧,OpenAI官方发言人强调,公司致力于提供高效且安全的人工智能解决方案,并自信具备科学应对相关风险的能力。
另外,值得注意的是,OpenAI的联合创始人及首席科学家Ilya Sutskever今年早些时候宣布离职,其领导的专注于安全挑战的“超级对齐”团队也随之解散,进一步加剧了外界对于OpenAI内部安全研究方向变动的猜测。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rllx.cn/RhlK/112573.gov.cn
如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈邮箱:809451989@qq.com,一经查实,立即删除!