Discuz! Board

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 2|回复: 0

谈一谈:用AI生成数据训练AI或导致模型崩溃

[复制链接]

15万

主题

0

回帖

47万

积分

超级版主

Rank: 8Rank: 8

积分
474342
发表于 2024-11-6 20:10:42 | 显示全部楼层 |阅读模式
《自然》24日正式发表的一篇研究论文指出了一个人工智能(AI)严重问题:用AI生成的数据集训练未来几代机器学习模型,可能会严重“污染”它们的输出,这被称为“模型崩溃”。研究显示,原始内容会在9次迭代以后,变成不相关的“胡言乱语”(演示中一个建筑文本比较终变成了野兔的字),这凸显出使用可靠数据训练AI模型的重要性。
生成式AI工具越来越受欢迎,如大语言模型等,这类工具主要用人类生成的输入进行训练。不过,随着这些AI模型在互联不断壮大,计算机生成内容可能会以递归循环的形式被用于训练其他AI模型或其自身。
包括英国牛津大学在内的联合团队一直在进行相关研究,并在去年论文预印本中提出这一概念。在正式发表的论文中,他们用数学模型演示了AI可能会出现的“模型崩溃”。他们证明了一个AI会忽略训练数据中的某些输出(如不太常见的文本),导致其只用一部分数据集来自我训练。
团队分析了AI模型会如何处理主要由AI生成的数据集。他们发现,给模型输入AI生成的数据,会减弱今后几代模型的学习能力,比较终导致了“模型崩溃”。他们测试的几乎所有递归训练语言模型,都容易出现问题。比如,一个用中世纪建筑文本作为原始输入的测试,到第9代的输出已经是一串野兔的字。
团队指出,用前几代生成的数据集去训练AI,崩溃是一个不可避免的结局。他们认为,必须对数据进行严格过滤。与此同时,这也意味着依赖人类生成内容的AI模型,或许能训练出更高效的AI模型。
对AI来说,“模型崩溃”就像癌症一样,甚至分早期与晚期。在早期时,被“喂”了生成数据的AI会开始失去一些原始正确数据;但在晚期,被“喂”了生成数据的AI会“口吐狂言”――给出完全不符合现,也和底层数据一点不相关的结果,就像本文中的例子一样。更可怕的是,“模型崩溃”的AI极其固执,错误几乎难以矫正。它会持续强化,比较终把错误结果认为是正确的。这一问题值得所有关注生成式AI的人们警惕,因为它等于是在“化”AI对真世界的认知。

为了打开市场,ai大模型不断的提升业务发展的能力,为其塑造卓尔不凡的品牌形象。欢迎来到我们的AI写作免费助手工具集合平台,这里提供了多种AI写作工具,包括免费AI写作工具、AI论文写作、AI查重、AI提示词、AI文献阅读、语法检查、同义词查询、写作模板等,旨在帮助您轻松提升写作效率和质量。https://www.aigc.cn/large-models

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|企业-展美呗贤果有限公司

GMT+8, 2024-11-16 13:06 , Processed in 0.056244 second(s), 18 queries .

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表