Zubnet AI学习Wiki › 持续学习
训练

持续学习

别名:终身学习、增量学习
模型在不忘记先前所学知识的情况下持续从新数据中学习的能力。当前的LLM训练一次后即冻结——更新它们需要昂贵的重新训练。持续学习将允许模型从每次交互中学习、与新信息保持同步并随时间适应个别用户,就像人类自然学习那样。

为什么重要

持续学习是AI的重大未解问题之一。当前模型有知识截止日期,无法从纠正中学习,并将每次对话视为一张白纸。解决持续学习将消除昂贵的重训周期的需要,实现真正适应每个用户的个性化AI,并让模型始终保持最新。

深度解析

根本障碍是灾难性遗忘:在新数据上训练会覆盖编码旧知识的权重。人类没有这个问题(学法语不会让你忘记英语),因为生物神经网络使用不同的记忆巩固机制。人工神经网络将所有知识存储在共享权重中,使任何更新都可能干扰现有能力。

当前方法

几种策略部分解决了持续学习问题:重放方法(在训练时将旧数据与新数据混合)、正则化方法(惩罚对旧任务重要的权重的改变,如EWC)、架构方法(将不同的参数分配给不同的任务)、以及检索增强方法(将知识存储在外部数据库而非权重中)。没有一种方法完全解决了这个问题,但每种都实现了一定程度的增量学习。

RAG作为务实替代

在实践中,RAG(检索增强生成)充当真正持续学习的务实替代。与其用新信息更新模型的权重,不如更新模型在推理时查询的外部知识库。这完全绕过了灾难性遗忘,但有局限性:模型的推理能力不会提升,只是它对信息的访问能力提升了。真正的持续学习将同时改善知识和能力。

相关概念

← 所有术语
← 护栏 指令微调 →