奥特曼离开OpenAI安全委员会:可决定大模型是否发布 DATE: 2024-11-28 18:44:16
鞭牛士报道,奥特I安9月17日消息,曼离模型据外电报道,开O可决铜陵市某某教育科技运营部OpenAI 首席执行官 Sam Altman 将离开 OpenAI 于 5 月成立的全委内部委员会,该委员会负责监督与公司项目和运营相关的奥特I安关键安全决策。
OpenAI在今天的曼离模型一篇博文中表示,安全与保障委员会将成为由卡内基梅隆大学教授Zico Kolter担任主席的开O可决独立董事会监督小组,成员包括 Quora 首席执行官 Adam D'Angelo、全委美国退役陆军将军 Paul Nakasone 和前索尼执行副总裁 Nicole Seligman。奥特I安
他们都是曼离模型 OpenAI 董事会的现任成员。
OpenAI 在帖子中指出,开O可决委员会对OpenAI 的全委最新 AI 模型o1进行了安全审查——尽管 Altman 仍参与其中。该公司表示,奥特I安铜陵市某某教育科技运营部该小组将继续定期接受 OpenAI 安全团队的曼离模型简报,并保留推迟发布的开O可决权力,直到安全问题得到解决。
OpenAI 在帖子中写道:作为其工作的一部分,安全委员会将继续定期收到有关当前和未来模型的技术评估报告,以及持续发布后监测报告。我们正在基于我们的模型发布流程和实践,建立一个综合的安全框架,明确定义模型发布的成功标准。
Altman 离开安全与保障委员会之前,五名美国参议员在今年夏天致 Altman 的一封信中对 OpenAI 的政策提出了质疑。
OpenAI 曾经专注于人工智能长期风险的员工中,近一半已经离职,前 OpenAI 研究人员指责Altman 反对真正的人工智能监管,而倾向于推进 OpenAI 企业目标的政策。
正如他们所说,OpenAI 大幅 增加了 在联邦游说方面的支出,2024 年前六个月的预算为 80 万美元,而去年全年的预算为 26 万美元。
今年春天早些时候,Altman 还加入了美国国土安全部的人工智能安全与安保委员会,该委员会为美国关键基础设施中人工智能的开发和部署提供建议。
即使 Altman 被撤职,也几乎没有迹象表明安全委员会会做出严重影响 OpenAI 商业路线图的艰难决定。
值得注意的是,OpenAI 在 5 月份表示,它将寻求通过委员会解决对其工作的有效批评——当然,有效批评取决于旁观者的看法。
5 月份,OpenAI 前董事会成员海伦·托纳 (Helen Toner) 和塔莎·麦考利 (Tasha McCauley)在《经济学人》的 一篇专栏文章中表示,他们认为目前的 OpenAI 不值得信任,无法承担责任。
他们写道:根据我们的经验,我们认为自治无法可靠地承受利润激励的压力。
而OpenAI的盈利激励还在不断增长。
据传,该公司正在筹集65 亿美元以上的资金,这将使 OpenAI 的估值超过 1500 亿美元。为了达成这笔交易,OpenAI 可能会放弃其混合非营利性公司结构,该结构旨在限制投资者的回报,部分原因是确保 OpenAI 与其创始使命保持一致:开发造福全人类的通用人工智能。