ChatGPT引发人工智能新机遇 chatgpt引发人工智能变革

圆圆 0 2024-06-21 10:01:51

大约一个月前,IlyaSutskever宣布离开OpenAI。考虑到OpenAI的首席执行官SamAltman在11月被解雇,并在引起轩然大波后迅速被重新聘用,这并不令人惊讶。

Sutskever是OpenAI的联合创始人兼首席科学家。他还负责让ChatGPT和其他AI产品对我们来说是安全的,并在奥特曼被解雇和CEO回归中发挥了重要作用。至少公众是这么认为的。

当Sutzkopf选择离开OpenAI的时候,ChatGPT的最新开发成果吸引了很多人的目光。我说的是OpenAI在谷歌大I/O2024活动前一天发布的GPT-4o模型,它几乎完全专注于人工智能。

我当时说我等不及要看Sutskever接下来会做什么了,因为他透露了& ldquo这个项目对我个人意义重大,具体情况我会适时分享。& rdquo快进到六月中旬,现在我们知道了项目的名称和目的。

技术。娱乐。科学。你的收件箱。

注册获取最有趣的科技和娱乐新闻。

在此输入您的电子邮件地址。

电子邮件:

youremail@gmail.com

输入某人的名字

通过注册,我同意使用条款,并已阅读隐私声明。

这家新的人工智能公司名为SafeSuperintelligenceInc。(SSI),而且我们可能不会很快听到任何关于其产品的具体消息。

SafeSuperintelligence还有另外两位联合创始人:AppleAI前负责人DanielGross和OpenAI前工程师DanielLevy。Sutskever在X上宣布了这项新业务,并概述了SafeSuperintelligence的目的。以下是公告的部分内容:

SSI是我们的使命、我们的名字和我们的整个产品路线图,因为这是我们唯一的关注点。我们的团队、投资者和商业模式都致力于SSI。

我们对安全和性能同等重视,并将其视为需要通过革命性的工程和科学突破来解决的技术难题。我们计划尽快提高性能,同时确保我们的安全性始终处于首要位置。

这样,我们就可以放心地扩大规模。

我们的专注意味着我们不会受到管理费或产品周期的干扰,而我们的商业模式意味着安全、保障和进度不会受到短期商业压力的影响。

这听起来很棒,至少在理论上是这样。开发安全超级智能的公司是我们人类直到最近才意识到需要的梦想。

我们希望超级智能是安全的。我们不希望人工智能统治世界,最终毁灭人类。这是人们关心的问题,这也是Sutskever致力于确保ChatGPT安全的原因。这也是OpenAI超对齐团队大规模变动如此令人不安的原因。

我不禁怀疑,苏茨基弗想要达到的目标是否可行。在接受彭博采访时,Sutskever表示,该公司近期不会推出任何产品。& ldquo这家公司的特别之处在于,它的第一个产品将是安全超级智能,在此之前它不会做其他任何事情。& rdquo他说。

Sutzkoff没有透露他的支持者的名字,也没有透露他为SafeSuperintelligence初创公司筹集的资金数额。这些支持者希望有所回报,无论他们与苏茨科夫的利益有多么一致。没有商业产品,这是很难实现的。

安全的超级智能,也就是产品,应该是远超人类能力的人工智能。人工智能的下一步应该是AGI(通用人工智能),或者可以像人类一样推理的人工智能。但这不一定是我们必须走的路。我们总能在AGI之前达到超级智能。

SafeSuperintelligence不会是业内唯一一家试图实现超级智能的公司。包括OpenAI在内的许多其他科技巨头和创业公司都有可能追求这一目标。

另外,不考虑名声,Sutskever并没有垄断AI安全。OpenAI,Google,微软,Meta,苹果都不想开发不安全的AI。但所有这些公司都可以通过商业产品测试他们的AI创新,SafeSuperintelligence近期不会推出任何产品。

我还想说,Sutskever在安全AI方面的工作并不能保证他的AI或者其他AI不会失控。任何拥有适当资源的人都可以训练AI模型。理论上的风险仍然是,有人会在没有将人工智能与人类利益适当结合的情况下实现AGI或超级智能。

上一篇:上眼睑下垂最佳恢复方法 上眼睑下垂的手术
下一篇:返回列表
相关文章
返回顶部小火箭