星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

天下事

|
发布: 11:57pm 06/07/2023

OpenAI

人类灭绝

超级智慧AI

OpenAI

人类灭绝

超级智慧AI

超级智慧AI恐致人类灭绝 OpenAI组新团队寻对策

(旧金山6日综合电)聊天机器人ChatGPT研发公司周三表示,计划投入大量资源并创建一个新的研究团队,以确保人工智慧(AI)持续对人类保持无害,终将透过AI来监督AI自身发展。

英媒报导,OpenAI共同创办人暨首席科学家苏茨克维和协调团队负责人雷克在部落格文章中写道:“超级智慧(superintelligence)的巨大能力恐导致人类丧失权力,甚至可能导致。目前,我们对于掌控潜在的还没有解方,也无法预防AI失控。”

ADVERTISEMENT

文中预测,作为一个超越人类智慧的系统,超级智慧AI可能在这10年内诞生,人类需要比当前更厉害的技术来控制超级智慧AI,因此必须在“对齐研究”(alignment research)方面有所突破。“对齐研究”指的是聚焦于确保AI如何持续对人类有益的研究。

他们写道,微软支持的OpenAI预计将在未来4年内投入20%的运算能力,来解决这个问题。此外,公司正在针对这项目标组建一个名为Superalignment的新团队。

这个团队的目标是打造一个“人类等级”的AI对齐研究员,然后透过庞大的运算能力扩展它。OpenAI表示,这代表他们将会以人类反馈的方式来训练AI系统,训练AI系统协助人类评估,最终训练AI系统实际进行“对齐研究”。

AI安全倡议人士雷希说,这项计划有著根本性的缺陷,因为初始的人类等级AI在被迫解决AI安全问题前,就已经有可能失控并造成破坏。

AI的潜在危险一直是研究人员甚至是普罗大众关切的问题,一群AI界领袖和专家今年4月曾联署一封公开信,呼吁暂停开发比OpenAI的ChatGPT-4更强大的系统,为期至少6个月,理由是更先进的AI可能为社会带来风险。

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT