Table of Contents

LIBS数据处理不同的机器学习的方法 Link to LIBS数据处理不同的机器学习的方法

BPNN模型 Link to BPNN模型

首先从组内最常用的BPNN模型来说明

本工作选择反向传输神经网络算法(Back Propagation Neural Network,简称 BPNN) 训练多变量模型。由于在后面章节的工作中均采用 3 层网络结构建立 BPNN 模型, 因此这里以 3 层网络结构为例介绍 BPNN 算法,如图 2-5 所示,3 层网络结构包括: 输入层,具有与之前 SKB 选定光谱特征相同个数的 个神经元(如添加附加特征, 则为m + 1个神经元);隐藏层,具有 n 个神经元;输出层,具有j个神经元。其中vdh 为输入层第h个神经元与隐层第ℎ个神经元间的连接权重,ŽŒ}为隐层第ℎ个神经元与 输出层第.个神经元间的连接权重。其中,隐层第ℎ个神经元的阈值用表示/gamma_{h},输出层 第.个神经元的阈值用表示。隐层第ℎ个神经元接受到的输入记为…‚, 输出层第.个神经元接收到的输入记为…,式中为隐层第ℎ个神经元的 输出。在后续工作中均使用 tanh 函数作为隐层和输出层的激活函数。对于训练集中 任一数据(xk, yk),假设神经网络的输出为,则网络在(d, ’)的均 方根误差为: 式中’“P = –(‘} − •})为网络输出值,’P为相对应的真值。 图 2-5 中共有( + Z + 1)_ + Z个(( + Z + 2)_ + Z)参数需要确定,主要包括输 入层到隐层的 × *个(如果输入附加特征,则为( + 1)*个神经元)权重值,隐层 到输出层的Z × *个权重值,*个隐层神经元的阈值,Z个输出层神经元阈值 首先,BPNN 算法随机初始化网络中所有的连接权重和阈值,然后基于随机梯度 下降算法(Stochastic gradient descent,简称 SGD)[90]以目标负梯度方向并通过多次 迭代对参数进行更新并构建最优化 BPNN 网络,其对任一参数‹的更新计算公式为 ‹ ← ‹ + ∆‹,具体推导公式见文献[91]。 本工作采用e次W-折交叉验证来优化如 2-5 所示的神经网络(如图 2-6 和图 2-8 (b)中循环W和循环e),此处以 10-折(W=10)交叉验证为例介绍W-折交叉验证,首 先将训练集样本(训练集所有光谱为数据集{)每个样品的光谱分为 10 份,然后将所 有样品的每一份光谱随机组合生成子集{,如图所示的{”, {2, … , {”˜,然后每次选择 9 个子集光谱的并集作为训练集,剩下的 1 个子集作为测试集,直到所有的子集都作 为 1 次测试集,这样进行 10 次模型训练和测试,最终返回结果为 10 次结果的平均 值,这最终完成 10-折交叉验证。由于将数据集{划分为W个子集存在多种划分方式, 为了减少由于划分方式不同导致的误差,随机使用不同的W-折交叉验证划分数据e次, 最终模型返回的结果是这e次W-折交叉验证结果的均值,通过此交叉验证过程可以生 成模型性能评估参数y、%和y、%和Oz{。

Inpu_data -> value=0 -> 训练集 Inpu_data -> value=1 -> 测试集

==> input_matrix

new new new

Thanks for reading!

LIBS数据处理不同的机器学习的方法

Tue Feb 18 2025
980 words · 5 minutes