OpenAI的神秘项目“Q*”近日被曝光。(图片来源: Johannes Simon/Getty Images)
【看中国2023年11月28日讯】(看中国记者程帆编译综合报导)过去几天,科技界似乎发生了翻天覆地的变化,这要归功于AI(人工智能)先锋OpenAI公司上演的一场冒险剧。因在产品安全问题上的分歧、缺乏一致的沟通,其公司董事会宣称要解雇首席执行官(CEO)奥特曼(Sam Altman)。
尽管,上周OpenAI人事风波最终以奥特曼回归而告一段落。然而,另一个将威胁人类、代号为“Q*”的神秘项目却被抛了出来,人们对这个强大的新AI模型有太多的担忧。
根据硅谷科技新闻The Information的报导,今年早些时候,OpenAI首席科学家苏茨基弗(Ilya Sutskever)领导的团队取得了突破性进展,并建立了一个名为Q*(Q-star)的新模型。
据悉,新模型是一种能够自行解决基本数学问题的算法,包括那些超过其训练资料之外的问题。这也使得它向备受期待的AGI(即通用人工智能,使AI能够执行人脑可完成的任何智力任务)迈进了一大步。换句话说,它可能有了人类或超越人类级别的数学和逻辑能力,并能完成一些人类的中高端脑力劳动,这是GPT4等不具备或不擅长的东西。
总体来讲,Q*展示了类似人的高阶推理能力。例如,它将可以像人类一样通过逻辑和推理来开拓出新领域、得到新知识。有人也称之为“第四次”知识界限突破。
然而,这项尖端科技也引发了OpenAI内部员工的担忧。据路透社消息,他们认为,公司尚未具备足够的安全保障,来“商业化”这种先进的模式,因此它可能威胁人类。这项警告被认为是导致奥特曼解雇的最直接原因之一。
就在本月中旬召开的亚太经济合作会议(APEC)工商领袖高峰会中,奥特曼还特地提到了新模型的制作,声称将使他们“揭开无知的面纱,推进发现的前沿”。
下面是Q*项目对人类构成威胁的潜在原因:
高阶逻辑推理与对抽象概念的理解:目前网络上的所有报告都显示Q*具有逻辑推理和理解抽象概念的能力。这是一个巨大的飞跃。迄今为止,还没有任何AI模型能做到这一点。虽然在实践层面上,这是一个突破,但它也可能导致人类无法预见某些不可知的行为或决策。
深度学习与程式设计规则:研究员卡拉诺夫斯卡(Sophia Kalanovska)向商业内幕(Business Insider)介绍道,Q*这个名字是Q-learning(一种强化学习AI)和a-star(一种智能搜索方法)的融合。她表示,新模型把深度学习与人类程式设计规则结合起来,会使其比目前其他任何AI模型都更加强大和通用。从本质上讲,这可能导致该模型不仅从数据中学习,而且还能像人一样应用推理,会使人类对其控制或预测变得困难。
发展新想法的能力:截至目前,AI模型主要是重复现有讯息,而Q*则是一个里程碑,它将能够产生新想法并在事件发生之前就解决问题,或做出超越人类理解范围的决策与行动。
意外后果与误用:Q*功能也可能导致误用或出现意外。一旦被坏人掌握,可能会为人类带来灭顶之灾。即使有人出于善意使用它,Q*推理和决策的复杂性也可能导致其对人类造成某种损害。
上述是基于网上对Q*相关问题的探讨。这些担忧强调,在开发先进AI时,人们必须深思熟虑,并需要一个强而力的道德和安全监督框架护航。