全国统一客服热线

153-1370-2523

产品中心

PRODUCTS

公司:

德国SSB蓄电池(中国)营销总部

电话:

15313702523(微信同号)

新闻中心

当前位置:首页 > 新闻中心

SSB蓄电池STL-LLM:基于季节-趋势分解增强的大型语言模型用于电池容量衰减轨迹预测

2026-03-19 21:01:44

锂离子电池健康状况的可靠监测对电动汽车和储能系统至关重要。剩余容量老化轨迹的精确预测仍是电池管理的核心需求,然而现有机器学习方法往往难以捕捉退化数据中的长期时间依赖性,亦无法有效利用异构数据集。值得注意的是,尽管预训练大语言模型(LLMs)展现出强大的推理能力,但其在基于时间序列的容量老化轨迹预测中的应用受到根本模态失配的限制。为此,我们提出STL-LLM创新框架,通过将LOESS季节性趋势分解(STL)与冻结参数的大语言模型相结合。该框架将电池健康序列解耦为季节性和趋势分量,将这些时序特征重编程为文本对齐的提示词,并采用基于前缀的提示策略来增强时序推理能力。大型语言模型(LLM)的输出预计可生成容量老化轨迹预测。评估表明,STL-LLM在三个公开电池数据集上实现了最先进的精度,在消融实验与敏感性研究中均保持稳定优势。从方法论视角看,STL-LLM为时间序列预测提供了原则性的跨模态表征学习解决方案,使冻结参数的LLM能够通过最小调参应用于非文本领域。该框架实际为电池寿命预测提供了可扩展、可泛化的解决方案,在预测性维护与云端电池管理系统等领域具有应用潜力。更广泛而言,本研究弥合了结构化时间序列信号与预训练语言模型之间的模态鸿沟,提出了一种可迁移的LLM应用范式,对推动科学时间序列分析与序列建模具有重要价值。尽管该框架的直接应用在于新能源汽车的电池健康监测,但其为能源系统更广泛的影响开辟了路径。

引言

作为电动汽车(EV)主要的能量存储解决方案,锂离子电池因其卓越特性而占据主导地位:高能量密度、强电化学势以及长循环寿命[[1], [2], [3], [4], [5], [6], [7]]。随着充放电循环的持续进行,这些电池在使用过程中不可避免地会出现容量衰减和功率能力下降[8,9]。此类退化现象会显著缩短电动汽车的续航里程,并降低其运行效率。剩余容量作为功能耐久性的关键指标,用于量化电池在达到失效点(通常定义为初始额定容量的80%)之前剩余的循环次数[10,11]。精确评估剩余容量对于最大化电池性能、确保运行可靠性以及优化整个服役周期的寿命管理具有根本性意义[12,13]。
近年来,锂离子电池寿命预测领域取得了显著进展,特别是在利用深度神经网络预测容量老化轨迹方面。由于具备突出的鲁棒性和适应性,这些基于神经网络的方法通常在性能上超越统计方法。部分基于网络的技术[[14], [15], [16]]采用长短期记忆(LSTM)架构来建模电池老化序列中的时序退化模式。尽管LSTM的循环结构能有效捕捉长程依赖关系,但其常面临梯度不稳定问题,严重制约预测精度。其他方法采用一维卷积神经网络(CNN)来识别时序数据中的局部退化特征。然而,由于感受野固定,这些模型仅能捕捉有限的历史上下文,因而忽略了整体退化趋势。后续的混合框架[[17], [18], [19], [20]]整合了用于多特征表征的二维CNN与用于时序动态建模的LSTM,从而实现了预后精度的提升。然而传统CNN本质上假设数据具有结构化网格特性,这导致其难以解释电池单体间的异质性老化行为,因而无法构建用于状态差异分析的关系模型。
受自然语言处理(NLP)与计算机视觉(CV)领域重大进展的启发,Transformer模型被引入至能力老化轨迹预测研究。该模型通过历史数据分析能有效学习复杂的电池退化模式[21]。其自注意力机制可选择性聚焦关键数据点,捕捉电池时间序列数据中至关重要的时间依赖性,并在不同电池化学体系与运行条件下展现出卓越的泛化能力。为缓解标准Transformer在处理长序列时固有的二次方复杂度问题,赵等人[22]提出了一种卷积增强型Transformer架构,该架构采用概率稀疏自注意力机制。通过将迁移学习与一维卷积局部特征提取技术协同整合,所提出的架构实现了计算开销的显著降低。鉴于实际应用场景中往往无法获取完整充电周期数据,舒等人[23]进一步推进该领域研究,构建了仅基于部分电压片段(具体指从3.6V起始的片段)运行的轻量化Transformer。这种基于片段的数据表征方式仅需稀疏充电数据即可实现精确的健康状态(SOH)估计。现有端到端深度学习方法往往忽略健康特征中的多尺度时间模式,因而无法捕捉潜在的电池退化动态。通过采用STL(基于LOESS的季节性-趋势分解)分解方法将序列解耦为季节性与趋势性成分,我们能够显著提升退化特征的表征能力,这将成为本项工作的核心创新点。
当代基础人工智能架构的进展表明,大型语言模型(LLMs)已成为多模态语义处理的关键框架。这些系统在大量文本数据集上经过预训练,擅长识别跨领域复杂上下文关系与实体关联,涵盖文本生成、交互对话及跨语言转换等多样化场景。相较于传统时序预测模型通常需要大量领域特定数据,LLMs展现出在复杂推理与模式识别方面的高级能力[24,25]。通过利用这些能力,大型语言模型能够运用预训练过程中获得的高级概念理解进行高度精准的预测。此外,尽管专用时序模型通常以统计方法为主且固有推理能力有限,但受益于持续的架构优化与训练改进,大型语言模型已成功整合视觉、语音和文本等多模态的多样化知识[26]。这种跨模态知识使其能够实现融合多种数据类型的协同预测。此外,大型语言模型(LLMs)仅需通过一次大规模计算资源预训练,即可适配预测任务而无需从头训练。这与传统预测模型形成鲜明对比,后者通常需要进行繁重的架构搜索和超参数调优[27]。LLMs强大的泛化能力进一步保障了预训练阶段习得的知识与模式能够有效迁移至新数据、新任务或新环境[28]。综上所述,相较于当前专用建模范式,LLMs为时间序列预测提供了更具普适性、高效性、协作性和易用性的发展路径。利用这些强大模型处理时序数据,有望释放尚未开发的巨大潜力。以拥有1750亿参数的GPT-3架构为例,其展现出的卓越小样本适应能力便是明证。近期学术研究正将LLMs的应用边界拓展至时序数据分析领域。GPT4TS框架[29]通过选择性参数冻结策略使此类模型适用于序列分析,仅调整位置嵌入和归一化层,同时保持注意力机制与前馈模块固定不变。与此同时,上下文引导方法增强了任务特定对齐能力:PromptCast[30]将数值序列重构为语言模板,通过大语言模型原生能力促进预测任务实现。然而,当前主流方法采用的静态提示策略无法充分建模时变动态特性与健康特征(HFs)的复杂性,这构成了锂离子电池剩余容量精确预测的关键制约因素。
为利用大型语言模型的多模态推理能力进行电池剩余容量预测,我们提出STL-LLM方法。如图1所示,该工作流程首先通过STL分解将电池健康指标序列解构为季节性和趋势性成分,通过独立建模捕捉差异化衰减动力学特征。采用分块重组(patching)和通道独立嵌入策略将这些成分转化为语言模型兼容的代币序列——其中分块重组技术将时序数据重构为保持局部衰减语义的子序列代币。为弥合模态差异,我们创新性地设计了基于文本原型的输入重编程方法,将分解后的组件转化为与冻结骨干大语言模型兼容的语言表征。通过编码历史退化上下文的Prefix提示,时间理解能力得到增强,使代币嵌入富含短期老化模式。关键的是,虽然通道独立性确保了单细胞数据的孤立时序建模,但这种方法本质上忽略了细胞间的相关性。为此,我们引入多细胞交互模块,该模块从大语言模型生成的表征中提取集体退化特征,最终投射融合后的特征以实现能力老化轨迹预测。
此外,STL-LLM本质上缓解了基于大语言模型的预测中普遍存在的幻觉风险——例如物理上不合理的容量衰减轨迹。该方法通过将信号显式分解为循环老化(季节性)与不可逆容量衰减(趋势)两个组分,强制使解空间符合电化学原理。输入重编程技术进一步将数值序列锚定于领域相关的文本原型(如"线性容量衰减"和"周期性峰值"),从而确保与电池衰减物理机制保持一致。前缀提示注入通过提供包含数据集描述和任务规范的辅助上下文,为大型语言模型(LLM)赋予先验知识,从而促进连贯推理。与此同时,自回归微调技术将逐步生成过程建立在观测到的健康指标基础上,确保每项预测均源自经实证验证的历史状态,而非外推生成的伪影。这些机制共同保障了STL-LLM模型能够输出电化学有效的剩余容量预测结果。
我们的主要贡献可概括如下:
  • (1)
    分解增强型时序建模架构。我们构建了新颖的STL分解框架,用于分离季节性循环老化与单调趋势退化分量。该架构通过独立分量建模显式捕捉不同的电化学机制,从而实现对多尺度降解动力学的精确表征。
  • (2)
    跨模态提示范式用于大语言模型对齐。我们提出了一种新颖的文本原型引导的重编程机制,该机制通过将分解序列转化为语言结构化代币来弥合模态鸿沟。通过添加编码领域知识的前缀作为提示,该范式使冻结的大语言模型能够解析电池特异性时间模式,同时保持参数效率。
  • (3)
    严格的实验验证框架。在三个真实世界锂离子电池数据集上的广泛评估表明其性能达到业界领先水平。同时,通过消融实验和超参数敏感性实验验证了关键模块的作用及超参数配置方案。
网站首页| 关于我们| SSB蓄电池| 营销网络| 新闻动态| 技术支持| 联系我们|

版权所有 德国SSB蓄电池(中国)营销总部