一家以Solar模型系列和Document AI产品闻名的韩国人工智能公司。他们证明了经过良好训练的小型模型可以超越规模更大的模型——其Solar 10.7B在国际基准测试中的表现远超其规模。
Upstage展示了无需百亿参数即可构建世界级语言模型的可能性。Solar 10.7B在开放基准测试中的成功挑战了“规模即一切”的主流观点,并表明巧妙的训练技术可以弥补原始规模的不足。除了模型本身,Upstage的Document AI工作解决了AI生态系统中最实用的缺口之一——将杂乱的真实世界文档转化为结构化数据——他们在首尔的成功证明,有意义的AI创新正在远离主导新闻报道的硅谷和北京走廊之外蓬勃发展。
Upstage 由 Sung Kim 于 2020 年创立,Sung Kim 曾是 Kakao Brain 的研究员,此前因在韩国(后来通过 YouTube 全球传播)教授最受欢迎的机器学习课程之一而声名鹊起。Kim 的联合创始人包括 Lucy Park 以及其他韩国自然语言处理(NLP)社区的资深人士。公司最初专注于文档理解——AI 领域中相对冷门但商业需求巨大的领域。当西方 AI 实验室追逐聊天机器人和图像生成器时,Upstage 正在构建技术,用于从杂乱的真实世界文档中读取、解析和提取结构化信息:发票、合同、手写表格、混合语言的扫描 PDF。这种务实的专注使他们在 LLM 风潮使每家 AI 公司声名鹊起之前,就已获得早期收入并在韩国企业界建立了声誉。
Upstage 的突破性时刻出现在 2023 年底发布的 Solar 10.7B。当时行业叙事是“越大越好”,实验室竞相训练 70B、180B 和万亿参数模型,而 Solar 10.7B 却登上了 Hugging Face Open LLM 排行榜榜首,击败了数倍于其规模的模型。其秘诀是 Upstage 称为深度上采样(Depth Up-Scaling,DUS)的技术,即通过复制并微调中间层,而非从头训练更大模型,对预训练基础模型进行精细扩展。这不仅仅是基准测试的技巧;该模型在实际任务中表现优异,其适度的规模意味着它可以在单个 GPU 上运行,以实用方式部署,而 70B+ 模型则无法做到。Solar 成为新兴“小而强大”LLM 开发学派的参考点,与 Mistral 的 7B 和微软的 Phi 系列并列。
尽管 Solar 获得了头条新闻,但 Upstage 的文档 AI 套件可能对公司财务表现更为重要。他们的 OCR、布局分析和文档解析工具处理企业日常面临的杂乱、多格式、多语言文档处理——而通用 LLM 仍难以应对。Upstage 为表格提取、键值对识别和手写识别构建了专用模型,针对金融、法律、医疗和政府等行业。在文档密集型工作流程常见且监管要求需要高准确率的韩国,这显然是一个自然契合点。公司通过合作伙伴关系和 API 访问扩展到国际市场,将文档 AI 定位为语言模型的补充,而非独立产品线。其卖点颇具吸引力:使用 Solar 进行推理和生成,使用文档 AI 吞吐现实世界信息以喂养这些模型。
Upstage 运营于由大型财团主导的韩国 AI 领域——三星、Naver、Kakao 和 LG,这些公司均有自己的 AI 实验室和大量资源。Upstage 拥有巨头所不具备的优势:专注和速度。当三星 SDS 将 AI 作为数千项功能之一来构建,而 Naver 将其整合到现有搜索与电商帝国中时,Upstage 能以初创企业的敏捷性快速迭代模型并推出产品。公司获得了包括 SoftBank 领投的重大融资,这为其在计算资源上竞争提供了保障,同时保持独立性。韩国政府也支持本土 AI 发展,尽管其监管环境比中国“先建设后监管”的方式更为谨慎。
Upstage 面临的挑战对所有小模型倡导者都熟悉:随着前沿模型运行成本降低且 API 价格持续下降,小模型的实用优势逐渐缩小。如果可以以每 token 数分之一美分的价格调用 GPT-4 级别的智能,那么在自己的硬件上运行 10B 模型的商业案例将变得难以成立。Upstage 的回应是继续发布改进的 Solar 模型,扩展多语言和多模态能力,并加深文档 AI 的护城河。他们还进军 API 平台业务,通过统一接口向开发者开放其完整技术栈。无论 Upstage 是否会成为韩国版 Mistral——一个规模较小但持续超越自身重量级的实验室,还是被纳入更大的生态系统,这仍是个开放问题,但其高效创新的记录使其成为美国-中国轴心之外最引人注目的 AI 公司之一。