前OpenAI联合创始人Ilya Sutskever周三宣布了其新人工智能公司Safe Superintelligence(SSI)。“我正在创办一家新公司,”Sutskever周三在X社交平台上写道,“我们将以一个重点、一个目标和一个产品,致力于追求安全的超级智能。”
配资公司提供杠杆比例,通常为1:2或1:3。这意味着投资者只需投入一部分资金,即可撬动数倍于本金的资金进行投资。例如,如果杠杆比例为1:3,投资者投入1万元,即可获得3万元的投资资金。
据了解,Sutskever是OpenAI的首席科学官,于上月离开了OpenAI。OpenAI核心安全团队“Superalignment”的负责人Jan Leike同日也宣布离职,加入竞争对手人工智能公司Anthropic,他们离职的原因是在如何处理人工智能安全问题上与OpenAI领导层发生了激烈争执。
OpenAI的Superalignment团队专注于指导和控制人工智能系统,但在Sutskever和Leike宣布离职后不久就解散了。
专注安全
据介绍,在这家新创办公司中,Sutskever将继续关注安全问题。Sutskever在一次采访中表示,SSI旨在在一个纯粹的研究组织内创建一个安全、强大的人工智能系统,该组织近期无意销售人工智能产品或服务。
“SSI是我们的使命、我们的名字,也是我们整个产品路线图,因为这是我们唯一的关注点,”SSI的一个账户在X上发帖称,“我们的单一重点意味着不会受到管理费用或产品周期的干扰,而我们的商业模式意味着安全、保障和进步都不受短期商业压力的影响。”
Sutskever拒绝透露SSI的财务支持者,也拒绝透露他筹集了多少资金。Sutskever与前苹果(AAPL.US)人工智能和搜索业务的Daniel Gross和前OpenAI的Daniel Levy共同创办了这家公司。该公司在加州帕洛阿尔托和特拉维夫都设有办事处。
正如公司名称所强调的那样,Sutskever将人工智能安全作为首要任务。当然,关键在于确定是什么让一个人工智能系统比另一个更安全,或者说什么是真正的安全。Sutskever目前对此含糊其辞,不过他确实表示,这家新合资企业将努力通过在人工智能系统中实现工程突破来实现安全,而不是依靠应用于该技术的护栏。他表示:“我们所说的安全,是指像核安全这样的安全,而不是‘信任和安全’那样的安全。”
考虑到Sutskever在人工智能行业中近乎神话般的地位,几个月来,围绕其地位的不确定性一直是硅谷关注的焦点。作为一名大学研究员,后来又成为谷歌(GOOGL.US)的科学家,他在开发人工智能的一些关键进展中发挥了重要作用。他在OpenAI早期的参与帮助它吸引了对其成功至关重要的顶尖人才。Sutskever以其构建更大模型的主要倡导者而闻名,这一策略帮助这家初创公司超越了谷歌,并被证明对ChatGPT的崛起至关重要。
在去年年底OpenAI的戏剧性事件之后,人们对Sutskever计划的兴趣进一步增强。他仍然拒绝对去年OpenAI董事会发生的事件透露太多。当被问及他与OpenAI CEO奥特曼的关系时,Sutskever只说“很好”,他表示奥特曼“大致”了解这家新公司。关于他过去几个月的经历,他补充道,“这很奇怪。我不知道我是否能给出比这更好的答案。”
在某种程度上,SSI是对最初OpenAI概念的回归:一个研究组织试图建立一种通用人工智能,在许多任务上可以与人类匹敌,甚至超越人类。但随着为计算能力筹集巨额资金的需求变得明显,OpenAI的结构也在随之演变。这导致该公司与微软(MSFT.US)建立了紧密的合作关系,并推动了其生产创收产品的努力。所有主要的人工智能参与者都面临着同样的难题,随着人工智能模型的规模继续以指数级的速度增长,他们需要为不断扩大的计算需求付费。
但这样的经济现实让SSI成为投资者的一场冒险,他们会押注于Sutskever和他的团队将取得突破,从而使其相对于拥有更大团队和领先优势的竞争对手占据优势。这些投资者将投入资金,但并不期望在此过程中创造出有利可图的热门产品。而且,SSI所希望实现的目标是否可能实现,这一点目前尚不清楚。
尽管如此,鉴于其创始团队的卓越背景和该领域的浓厚兴趣,SSI在筹集资金方面可能不会遇到太大困难。Gross表示:“在我们面临的所有问题中,融资不会是其中之一。”
海量资讯、精准解读,尽在新浪财经APP责任编辑:欧阳名军 炒股配资找