[返回爱GPT首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[坛主管理]

研究表明 AI无法独立学习或掌握新技能

送交者: guojiang[★★荒野居士★★] 于 2024-08-26 19:45 已读 1856 次 1赞  

guojiang的个人频道

+关注
研究表明 AI无法独立学习或掌握新技能

来源:煎蛋网

根据来自英国巴斯大学和德国达姆施塔特工业大学的新研究,ChatGPT和其他大型语言模型(LLMs)无法独立学习或掌握新技能,这意味着它们对人类不构成生存威胁。

这项研究今天作为第62届计算语言学协会年会(ACL 2024)的会议论文发表。ACL是自然语言处理领域的国际顶级会议。研究显示,LLMs在语言能力上表现出色,能够执行指令,但在没有明确指令的情况下,无法掌握新技能。这意味着这些模型本质上是可控、可预测且安全的。

研究团队得出结论,尽管LLMs正在接受越来越多数据的训练,并且技术仍然可能被滥用,但它们可以继续安全部署。随着模型的不断发展,它们可能会生成更复杂的语言,并更好地遵循明确和详细的提示,但不太可能获得复杂的推理能力。

巴斯大学的计算机科学家、该研究的合著者Harish Tayyar Madabushi博士表示:“认为这类AI对人类构成威胁的普遍观点阻碍了这些技术的广泛应用和发展,同时也转移了我们对真正需要关注的问题的注意力。”

由德国达姆施塔特工业大学的Iryna Gurevych教授领导的合作研究团队,进行了测试LLMs完成从未遇到过任务的实验,这被称为“突现能力”。

例如,LLMs能够回答关于社交情境的问题,而无需进行过明确的训练或编程。之前的研究认为,这是模型“了解”社交情境的结果,而研究人员则表明,这实际上是模型通过已知的“上下文学习”(ICL)能力,在给出少量示例的情况下完成任务的结果。

通过成千上万次实验,研究团队证明了LLMs的指令遵循能力(ICL)、记忆和语言能力的结合,能够解释LLMs所展示的能力和局限性。

Tayyar Madabushi博士说:“人们担心,随着模型越来越大,它们将能够解决我们目前无法预测的新问题,这会带来获得危险能力的威胁,如推理和规划。这引发了大量讨论——例如,去年在布莱奇利公园举行的AI安全峰会上,我们应邀发表了意见——但我们的研究表明,担心模型会自行做出完全出人意料、创新并可能危险的事情是没有根据的。”

“关于LLMs构成生存威胁的担忧并不仅限于非专家,全球一些顶尖的AI研究人员也表达了类似的担忧。”

然而,Tayyar Madabushi博士坚持认为这种恐惧是没有根据的,因为研究人员的测试明确证明LLMs不存在突现的复杂推理能力。

“虽然应对AI滥用的潜在风险,如假新闻的制造和欺诈风险的增加,确实很重要,但基于假定的生存威胁制定法规为时过早。”他说。“重要的是,对于最终用户来说,依赖LLMs在没有明确指令的情况下解释和执行需要复杂推理的复杂任务,可能是一个错误。相反,用户应明确指示模型需要执行的任务,并尽可能提供示例,除非是最简单的任务。我们的研究结果并不意味着AI完全没有威胁。我们只是表明,与特定威胁相关的复杂思维能力的突现并没有证据支持,我们能够很好地控制LLMs的学习过程。因此,未来的研究应该关注模型可能带来的其他风险,例如它们被用于生成假新闻的潜力。”

喜欢guojiang朋友的这个贴子的话, 请点这里投票,“赞”助支持!

内容来自网友分享,若违规或者侵犯您的权益,请联系我们

所有跟帖:   ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


用户名: 密码: [--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助

打开微信,扫一扫[Scan QR Code]
进入内容页点击屏幕右上分享按钮

楼主前期社区热帖:

>>>>查看更多楼主社区动态...



[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 创建您的定制新论坛频道 ] [ Contact us ]