粒子群优化的小波网络在飞参数据压缩中的应用

2024-04-21

粒子群优化的小波网络在飞参数据压缩中的应用(精选3篇)

篇1:粒子群优化的小波网络在飞参数据压缩中的应用

粒子群优化的小波网络在飞参数据压缩中的应用

飞参数据压缩是减少飞参数据的存储空间和传输通信流量的关键.针对飞参数据的特点,提出了一种基于粒子群优化的小波神经网络近无损压缩算法.该算法将小波网络参数作为原始数据的重构信息,在小波神经网络BP算法的基础上,引入粒子群优化算法,克服了粒子群优化算法的早熟收敛,增强了小波神经网络学习算法的全局搜索能力,提高了网络收敛速度;同时将重构误差作为启发信息,在保证较小失真度的情况下,通过粒子的迭代寻求最优的.小波神经网络结构.飞参数据压缩仿真实验结果表明了算法的可行性和有效性,可以获得较高的压缩比和较小的重构误差.

作 者:许磊 张凤鸣 张曙 邵芸芸 XU Lei ZHANG Fengming ZHANG Shu SHAO Yunyun  作者单位:许磊,XU Lei(空军工程大学工程学院,西安,710038;中国人民解放军93706部队装备部,河北,涿州,072757)

张凤鸣,ZHANG Fengming(空军工程大学工程学院,西安,710038)

张曙,邵芸芸,ZHANG Shu,SHAO Yunyun(中国人民解放军93706部队装备部,河北,涿州,072757)

刊 名:电光与控制  ISTIC PKU英文刊名:ELECTRONICS OPTICS & CONTROL 年,卷(期):2010 17(3) 分类号:V271.4:TP274 关键词:飞行参数   近无损压缩   粒子群优化   小波网络  

篇2:粒子群优化的小波网络在飞参数据压缩中的应用

粒子群优化算法是一类基于群智能的随机优化算法。因受到人工生命的研究结果启发, Kennedy和Eberhart[1,2]于1995年提出了粒子群优化算法, 该算法已广泛应用于函数优化、神经网络训练、模式分类、模糊系统控制以及其他的应用领域。同遗传算法类似, 它是一种基于群体的优化工具, 与遗传算法相比, 粒子群优化算法简单, 容易实现同时又有深刻的智能背景, 既适合科学研究, 又特别适合工程应用。因此, 粒子群优化算法一提出, 立刻引起了演化计算等领域的学者们的广泛关注, 并在短短的几年时间里出现大量的研究成果。然而, 粒子群优化算法有易陷入局部极值点、进化后期收敛慢、精度较差等缺点。抗体的多样性是生物免疫系统的一个重要特性, 免疫系统在保留高适应度个体的同时, 能进一步确保个体的多样性, 把这种思想引入到粒子群优化算法中, 可用来提高粒子群优化算法的全局搜索能力而不致陷于局部解。本文将免疫系统的抗体多样性保持机制引入到粒子群优化算法中, 给出了一种免疫粒子群优化算法。该算法结合了粒子群优化算法具有的全局寻优能力、实现简单和免疫系统的抗体多样性保持机制, 从而避免了粒子群优化算法易于陷入局部极值点的缺点, 提高了进化后期算法的收敛速度和精度。函数优化的计算机仿真结果说明所提出的免疫粒子群优化算法优于粒子群优化算法, 把这种免疫粒子群优化算法应用于小波神经网络学习的计算机仿真, 结果表明其收敛性能优于BP (反向传播) 学习算法。

1免疫系统及抗体浓度的定义

免疫系统是生物体的一个重要的功能系统, 它能自适应地识别和排除侵入机体的抗原性异物, 具有自学习、自组织、自调节和记忆功能。借鉴生物免疫系统, 人们提出了人工免疫系统[3,4,5]并应用于许多实际问题中。免疫系统由B细胞和T细胞组成。其基本的工作原理可以描述如下:当抗原侵入机体后, 免疫系统中的B细胞依靠其表面所带的抗体, 对抗原进行识别。如果是已知抗原, 免疫系统就从记忆细胞库中搜索相应的记忆抗体;否则就在该抗原的刺激下开始生成新的抗体。在免疫过程中, 由于抗原的刺激, B细胞分泌产生抗体, 并不断分化、繁殖, 产生大量新的抗体。抗体的产生既有原有抗体的新陈代谢, 又有经过进化繁衍的新一代抗体。抗体群不断更新进化, 最终达到清除抗原。在抗体的不断克隆选择过程中, T细胞起着控制和调节的作用。当适应度高的抗体繁衍得越来越多, 其抗体的浓度不断增高, 并达到一定值时, 该抗体的繁衍就受到抑制, 反之则相应提高浓度低的抗体产生和选择的概率。T细胞的这种机制保证了抗体群更新过程中的多样性。根据上述机理可将抗原和抗体分别对应于优化问题的目标函数、优化解xi, i=1, 2, …, NN个抗体的适应度函数值f (xi) , i=1, 2, …, N构成了一个非空集合X。若规定f (xi) 在集合X上的距离为:

ρ (xi) =j=1Ν|f (xi) -f (xj) | (1)

则抗体的浓度[6]可用如下公式表示:

D (xi) =1ρ (xi) =1j=1Ν|f (xi) -f (xj) | (2)

由式 (2) 可推导出基于抗体浓度的概率选择公式:

Ρ (xi) =ρ (xi) i=1Νρ (xi) =j=1Ν|f (xi) -f (xj) |i=1Νj=1Ν|f (xi) -f (xj) | (3)

式中, i=1, 2…, N。

由式 (3) 知, 与抗体i相似的抗体越多, 抗体i被选中的概率就越小。反之, 与抗体i相似的抗体越少, 抗体i被选中的概率就越大。这使得低适应度个体也可获得进化的机会。因此, 基于抗体浓度的概率选择公式在理论上保证了抗体的多样性。

2免疫粒子群优化算法

它是一种基于群体的具有全局寻优能力的优化工具。它通过迭代搜寻最优值, 系统初始化为一组随机解, 而粒子 (潜在的解) 在解空间追随最优的粒子进行搜索。假设在一个D维的目标搜索空间中, 有N个粒子组成一个群体, 其中第i个粒子表示为一个D维的向量xi, 即第i个粒子在D维的搜索空间中的位置是xi。每个粒子的位置就是一个潜在的解。将xi带入一个目标函数就可以计算出其适应度值, 根据适应度值的大小衡量xi的优劣。第i个粒子的“飞行”速度也是一个D维的向量, 记为vi。记第i个粒子迄今为止搜索到的最优位置为pi, 整个粒子群迄今为止搜索到的最优位置为pg, 粒子群优化算法如下:

vivi+c1r1 (pi-xi) +c2r2 (pg-xi) (4)

xixi+vi (5)

其中, i=1, 2, …, N;学习因子c1和c2是非负常数;r1和r2是介于[0, 1]之间的随机数。迭代中止条件根据具体问题一般选为最大迭代次数或 (和) 粒子群迄今为止搜索到的最优位置满足预定最小适应阈值。粒子群优化算法需要用户确定的参数并不多, 而且操作简单, 故使用比较方便。但它的缺点是易陷入局部极值点, 搜索精度不高。为改善粒子群优化算法的收敛性能, 把抗体多样性保持机制引入到粒子群优化算法中, 其算法流程如下:

① 确定参数值:学习因子c1和c2, 粒子 (抗体) 群体个数N, 免疫记忆细胞 (粒子) 个数M, 粒子 (抗体) 浓度的概率选择阈值Pr;

② 随机产生N个粒子 (抗体) xi及其“飞行”速度vi, i=1, 2, …, N;

③ 计算粒子 (抗体) 的适应度函数值及pi, i=1, 2, …, N, pg;

④ 将粒子 (抗体) 群体中前M个最大适应度值的粒子 (抗体) 作为免疫记忆细胞保留;

⑤ 根据 (3) 式计算粒子 (抗体) 的选择概率, 把概率大于Pr的粒子 (抗体) 按 (4) 式和 (5) 式进行操作;

⑥ 将M个免疫记忆细胞替换粒子 (抗体) 中适应度最差的M个粒子 (抗体) , 形成下一代粒子 (抗体) 群;

⑦ 判断是否满足结束条件, 若是, 则输出适应度值最好的粒子 (抗体) ;否则转步骤③。

图1是求函数f (x, y) 最小值的免疫粒子群优化算法和粒子群优化算法的仿真比较图。

函数f (x, y) =14000 (x2+y2) -cos (x) cos (y2) +1-600x, y600, 在[-600, 600]区间内有1个全局最小值点 (0, 0) , 全局最小值为0。算法中采用的粒子群规模N=50, 学习因子c1=1, c2=1, 免疫记忆细胞 (粒子) 个数M=2, 粒子 (抗体) 浓度的概率选择阈值Pr=0.5。为评价算法的收敛性能, 进化次数设为1000, 连续运行50次所得函数全局最小值点的平均值和全局最小值的平均值作为算法的衡量指标。为便于图示说明, 仿真图中横轴表示进化次数, 纵轴表示适应度值的对数 (即每次进化所得全局最小值的对数) 。图1中上面的一条曲线对应于粒子群优化算法, 而下面的一条曲线对应于免疫粒子群优化算法。由此可知免疫粒子群优化算法的良好收敛性能, 其它的计算机仿真结果显示亦证实了免疫粒子群优化算法的收敛性能优于粒子群优化算法的收敛性能, 限于篇幅, 这里就不再给出结果。

3在小波神经网络学习中的应用

小波神经网络[7,8,9]是在小波分析的基础上提出的一种人工神经网络,

由于小波神经网络用于非线性函数逼近时, 其性能优于同等规模的其它神经网络, 因此小波神经网络得到广泛的应用。但小波神经网络常用的学习算法是反向传播算法, 而反向传播算法是一种最速下降寻优算法, 该算法有收敛速度慢、容易陷入局部极小值, 且当学习速率较大时数值稳定性很差等缺陷。为此, 人们提出了不少改进的算法, 如:用遗传算法来训练小波神经网络, 遗传算法作为全局优化算法, 在克服局部极小方面有着独特的优势, 但由于遗传算法中存在编解码、个体杂交、变异等遗传运算操作而使得这种训练算法比较复杂。在此, 我们把免疫粒子群优化算法用于小波神经网络的训练, 这种训练算法没有遗传算法中的编解码、个体杂交、变异等复杂运算操作, 参数调整简单易行, 优化过程效率高。不失一般性, 我们考虑一个多输入单输出的小波神经网络, 其结构如图2所示。

图2所示的小波神经网络的输出可表示为:

y^=i=1Lθiψ (bi, 1x1+bi, 2x2++bi, nxn-τi) (6)

其中x=[x1, x2, , xn]ΤRn, 输出y^R, 隐层神经元的激活函数ψ (x) 为正交小波基函数 , 写成矩阵形式为:

y^=ΘΨ (Bx-τ) (7)

Θ=[θ1θ2θL]ΤB=[b1, 1b1, 2b1, nb2, 1b2, 2b2, nbL, 1bL, 2bL, n]τ=[τ1τ2τL]Ψ=[ψ (b1, 1x1+b1, 2x2++b1, nxn-τ1) ψ (b2, 1x1+b2, 2x2++b2, nxn-τ2) ψ (bL, 1x1+bL, 2x2++bL, nxn-τL) ]

其中bi, j (i=1, …, L;j=1, …, n) 为尺度因子, τi (i=1, …, L) 为平移因子, θi (i=1, …, L) 为网络权值, L为需要选定的小波神经元的个数, bi, j, τi和θi组成小波神经网络的参数集合, 记为W。假设有T个学习样本, 即: (xk, yk) , k=1, 2, , Τ, 其中xk∈Rn, yk∈R, 让y^k和yk分别表示对应于样本输入xk的小波神经网络输出和样本输出, ek=y^k-yk表示误差, 定义小波神经网络的误差目标函数为:

J (W) =k=1Τek2=k=1Τ (y^k-yk) 2

学习算法的目的就是寻找合适的W使目标函数值J (W) 最小。对于上述小波神经网络优化问题, 我们把网络参数W看作“粒子”, 选用目标函数J (W) 的值作为“粒子”的适应值。然后采用上节给出的免疫粒子群优化算法进行优化即可得到优化的小波神经网络参数W。

图3是对函数f (x) =5+7e-x3cos (4πx) , x[-1, 1]进行逼近的免疫粒子群优化算法和BP算法的仿真比较图。仿真中, 均匀采样64组样本数据, 小波基函数ψ (·) 采用Meryer小波函数, L=10。算法中采用的粒子群规模N=50, 学习因子c1=1, c2=1, 免疫记忆细胞 (粒子) 个数M=2, 粒子 (抗体) 浓度的概率选择阈值Pr=0.5。进化次数设为1000, 连续运行50次所得J (W) 值作为算法的衡量指标。为便于图示说明, 仿真图中横轴表示迭代次数, 纵轴表示J (W) 值的对数值。图3中上面的一条曲线对应于BP算法, 而下面一条曲线对应于免疫粒子群优化算法。由图3可知免疫粒子群优化算法的收敛性能优于BP算法的收敛性能。

4结论

粒子群优化算法是一类简单的随机全局优化技术。本文中, 我们把免疫系统的抗体多样性保持机制引入到粒子群优化算法中, 通过基于抗体浓度的概率选择来保持抗体的多样性, 在保留高适应度粒子的同时, 确保了粒子的多样性, 从而提高了收敛性能。该算法不仅基本保持了粒子群优化算法简单容易实现的特点, 而且增强粒子群优化算法的全局寻优能力, 加快了算法的进化速度, 提高了收敛精度。应用于小波神经网络学习的计算机仿真结果表明其收敛性能优于BP (反向传播) 学习算法。

摘要:粒子群优化算法是一类简单有效的随机全局优化技术。受生物体免疫系统抗体多样性保持机制的启发, 将抗体多样性保持机制引入到粒子群优化算法中, 并给出了一种免疫粒子群优化算法。该算法在保留高适应度粒子的同时, 确保了粒子的多样性, 从而改善了粒子群优化算法摆脱局部极值点的能力, 提高了算法的收敛速度和精度。该算法应用于函数优化和小波神经网络学习的计算机仿真, 结果表明该算法有良好的收敛性能。

关键词:粒子群优化算法,免疫系统,抗体的多样性,小波神经网络

参考文献

[1]Kennedy J, Eberhart R.Particle swarm optimization.In:IEEE Int’1Conf.On Neural Networks, Perth, Australia, 1995:1942-1948.

[2]Eberhart R, Kennedy J.A new optimizer using particle swarm theory.In:Proc of the sixth international symposium on Micro Machine andHuman Science, Nagoya, Japan, 1995:39-43.

[3]丁永生, 任立红.人工免疫系统:理论与应用[J].模式识别与人工智能, 2000, 13 (1) :52-59.

[4]Dasgupta D.Artificial Immune Systems and Their Applications.Berlin:Springer-Verlag.1999.

[5]De Castro, Von Zuben.Artificial Immune Systems:Part-A Survey ofApplications.2000.ftp://ftp.dca.fee.unicamp.br/pub/docs/von-zuben/tr_dca/trdca0200.pdf.

[6]Lu Gang, Tan Dejian.Improvement on regulating definition of antibodydensity of immune algorithm.Proceedings of the 9thinternational confer-ence on neural information processing, 2002, 5:2669-2672.

[7]Zhang Q, Benveniste A.Wavelet network.IEEE Trans.On Neural Net-works, 1992, 8 (3) :889-898.

[8]Zhang J, Walter G G, Lee W N.Wavelet neural network for functionlearning.IEEE Trans.On Signal Processing, 1995, 43:1485-1497.

篇3:粒子群优化的小波网络在飞参数据压缩中的应用

1.1 算法原理

PSO算法不像遗传算法那样对个体进行选择、交叉和变异操作,而是将群体中的每一个个体视为多维搜索空间中的一个没有质量和体积的粒子(点),这些粒子在搜索空间中以一定的速度飞行,并根据粒子本身的飞行经验和同伴的飞行经验对自己的飞行速度进行动态调整,即每一个粒子通过统计迭代过程中自身的最优值和群体的最优值来不断地修正自己的飞行方向和速度,从而形成群体寻优的正反馈机制。PSO算法就是这样依据每个粒子对环境的适应度将个体逐步移到较优的区域,并最终搜索、寻到问题的最优解。

1.2 算法的实现

在PSO算法中,用粒子的位置表示待优化问题的解,每个粒子的性能的优劣程度取决于由待优化问题的目标函数确定的适应值,每个粒子由一个速度矢量决定其飞行方向和速率大小。设在一个d维(和待估参数数目相等)的目标搜索空间中,有m个粒子组成一个群体,其中,在第t次迭代时,粒子i的位置表示为Xi(t)=(xi1(t),xi2(t),…,xid(t)),相应的飞行速度表示为。在开始进行PSO算法时,首先随机初始化m个粒子的位置和速度,然后通过迭代寻找最优解。在每一次迭代过程中,粒子通过跟踪两个极值来更新自己的速度和位置:一个极值是粒子本身迄今搜索到的最优解,称为个体极值,表示为pi(t)=(pi1(t),pi2(t),…,pid(t));另一个极值是整个粒子群到目前为止寻到的最优解,称为全局极值,表示为Pg(t)=(pg1(t),pg2(t),…,pgd(t))。在第t+1次迭代计算时,粒子i根据下列规则来更新自己的速度和位置:

Vik(t+1)=ωvik(t)+c1rand1(pik(t)-xik(t))+c2rand2(pgk(t)-xik(t))k=1,2,,d(1)Xik(t+1)=x(ik)+vik(t+1)k=1,2,,d(2)

式中:ω为惯性权重系数;c1和c2为加速因子,一般取c1=c2=2.0;rand1和rand2分别为两个在[0,1]区间内变化的随机函数。

1.3 算法步骤

标准PSO算法的步骤为[12]:

(1)随机初始化粒子群体的位置和速度。通常是在允许的范围内随机产生的,将每个粒子的pbest坐标设置为其当前位置,且计算出相应的个体极值(即个体的适应度值),而全局极值(即全局的适应度值)就是个体极值中最好的,记录该最好值的粒子序号,并将gbest设置为该最好粒子的当前位置。

(2)计算每个粒子的适应值。

(3)对每个粒子,将其适应值与个体极值进行比较,如果较优,则更新当前的个体极值。

(4)对每个粒子,将其适应值与全局极值进行比较,如果较优,则更新当前的全局极值。

(5)根据式(1)、(2),更新每个粒子的位置和飞行速度。

(6)如果达到预先设定的停止准则(一般设置为目标函数小于某个数值或者允许最大迭代次数N),则停止计算;若未达到,则返回步骤2,继续进行迭代计算。

算法步骤可以用如图1所示的流程图表示。

1.4 算法控制参数

根据上述介绍,可以知道标准PSO算法的主要算法的控制参数有粒子的数目m、惯性权重系数 和两个加速因子c1与c2,一般情况下,c1与c2的取值为:c1= c2=2.0。在有关PSO算法研究的文献中,对惯性权重系数ω的介绍较多,结果表明,较大的ω值有利于跳出局部极小值,较小的ω值有利于算法收敛。在实际运算中,一般采用动态变化的ω值,在搜索初始阶段采用较大的数值,然后按一定的规则逐渐减小。在文献[13]中建议ω值按以下线性规律递减:

ω=ωmax-Κ(ωmax-ωmin)Ν(3)

式中:ωmax为最大惯性权重系数,一般取0.9;ωmin为最小惯性权重系数,一般取0.1;K为实际迭代循环次数;N为最大迭代次数。

另一方面,有关粒子数目多少和待估参数初始取值范围对算法收敛性影响研究的报道较少。为了便于将粒子群优化算法应用于求解分析抽水试验数据,确定含水层参数的问题,将对它们的不同取值进行数值实验,分析其对算法收敛性的影响。

2 泰斯公式与目标函数

2.1 泰斯公式和井函数值的计算

在含水层为均质、各向同性和无限延伸的条件下,若以定流量进行抽水,则在抽水开始后t时刻,在含水层中距抽水主井距离为r点处的水位降深可以表示为[1]:

s=Q4πΤW(u)(4)

式中:s为水位降深;Q为抽水流量;T为含水层导水系数;W(u)为泰斯井函数,其表达式为:

W(u)=uxexp(-x)xdx(5)

式中:u为无量纲时间,其表达式为:

u=r2μ4Τt(6)

式中:μ含水层的弹性释水系数,无量纲。

从式(2)可以看出,在计算水位降深值时,需要计算广义积分。在此采用R Srivastava在文献[14]中给出的近似表达式进行计算,其为:

W(u)=-lnu+a0+a1u+a2u2+a3u3+a4u4+a5u5,u1W(u)=1ueub0+b1u+b2u2+b3u3+u4c0+c1u+c2u2+c3u3+u4,u1

其中的常数值分别为:a0=-0.577 72、a1=0.999 99、a2=-0.249 91、a3=0.055 19、a4=-0.009 76、a5=0.001 08、b0=0.267 77、b1=8.634 76、b2=18.059 02、b3=8.573 3、c0=3.958 50、c1=21.099 65、c2=25.632 96和c3=9.573 32。Rajesh指出,以上的近似表达式与泰斯公式精确解相比较,具有的相对误差小于0.001%[14]。

2.2 目标函数的构成

在应用粒子群优化算法时,要求欲估计的参数值能使下式表示的目标函数达到极小,即:

φ(θ)=1Νi=1Ν(sio-sic)2min

式中:sjo为在抽水开始后第i时刻观测到的实际水位降深值;sic为利用式(1)计算的第i时刻的水位降深值;θ为待估参数向量;i =1,2,……,N 为抽水试验过程中水位降深观测时间的序列号。

式(4)的意义为选取适当的参数θ值,使得降深观测值与其计算值间的离差平方和的均值达到极小。此时对应的参数值,即为问题所求. 对于问题(4),设含水层的导水系数为θ1,弹性释水系数为θ2。

在此,需要指出的是在构成目标函数时,除了要求待优化函数能够直接计算其函数值外,另无其他附加要求。因此,粒子群优化算法也可以用于求解其他解析模型情况下的含水层参数确定问题。也就是说,粒子群优化算法在求解分析抽水试验数据,确定含水层参数问题中将具有更宽的应用范围。

3 数值实验

3.1 实验数据与实验条件

3.1.1 实验数据

为了验证方法的可靠性,采用文献[15]中给出的原始抽水试验数据进行数值实验.试验中的抽水流量为0.073 m3/s,抽水持续时间为800 min。表1中给出的是在抽水开始后距抽水主井距离为30.48 m处观测孔中的水位降深观测数据。

3.1.2 实验条件

根据图1所示的算法程序框图,利用由VB语言编制的程序进行数值实验.实验主要针对粒子数目和待估参数初值取值范围对算法收敛性的影响而进行。利用迭代次数的多少和运算时间的长短作为判断算法收敛性的优劣的标准。在数值实验中,以目标函数的绝对值小于2×10-4作为算法终止准则。

3.2 实验结果的初步分析

3.2.1 不同方法计算结果的比较

表2中给出了利用粒子群优化算法和文献中采用其他方法分析该抽水试验数据资料的含水层参数计算结果。从表中可知,文中方法得到计算结果和其他方法得到的是非常相近的。由此可知,粒子群优化算法的计算结果是可靠的。

3.2.2 粒子数目的影响

在数值实验中,粒子数目分别取了50、80、120、200、400、600、800和1 200等8种情况。在表3中给出了不同粒子数目情况下的迭代次数和运算时间。从表中可以看出,粒子数目的多寡对迭代次数和运算时间有一定的影响。粒子数目越大,需要的迭代次数相对较少,但运算时间越大。在数值实验中也出现过在粒子数目过少的情况下,当迭代次数达到1 000次时,算法搜索不到最优解的现象。也就是说,在利用粒子群优化算法时,不宜采用过少的粒子数,以保证算法的收敛性。就文中的算例而言,粒子数目设置在200~500之间为宜。

3.2.3 参数初值取值范围的影响

可以知道,在采用传统的梯度搜索算法求解非线性函数优化问题时会遇到若待估参数初值选取不当,就会使搜索过程不收敛或产生结果不唯一的现象,这个现象的存在不利于梯度搜索方法在求解函数优化问题中的应用。为了分析待估参数初始取值范围对粒子群优化算法收敛性的影响,在数值实验中的初始取值范围为:释水系数取极端最小值为0,最大值为极端最大值0.5,导水系数的最小值取为0,最大值分别取文献[15]中利用标准曲线配线法得到结果的2、5、10、20、50和100倍,相应的实验结果见表3。从表中可以看出,在不同导水系数初值取值范围情况下,迭代次数有一定波动,但总的趋势为待估参数初值取值范围越大,迭代次数也就相应越多。此外,需要说明的是在实验条件下没有出现算法不收敛或解不唯一的情况。这个现象表明,待估参数的初始取值范围对算法的收敛速度有一定的影响,但不会影响算法最终的收敛性。

4 结 语

根据文中数值实验结果,可以知道粒子群优化算法能够有效地应用于求解分析抽水试验数据,估计含水层参数的函数优化问题.较其它现有的方法,其具有原理简单、易于编程与实现、需要人们预先确定和调整的算法控制参数少和运算过程稳定等优点。

摘要:以泰斯公式为例,将粒子群优化算法应用于求解分析抽水试验数据,确定含水层参数的函数优化问题。就粒子数目和待估导水系数初值范围等因素对算法收敛性的影响,进行了数值实验。结果表明:①粒子群算法能够有效地应用于求解分析抽水试验数据,确定含水层参数计算问题;②粒子数目的大小对运算时间和算法收敛性有一定的影响,在实际运算时,宜设置较大的粒子数;③待估导水系数的选取初值大小对收敛速度有一定的影响,但不会影响最终计算结果。与其他方法相比较,粒子群优化算法具有原理简单、易于编程和实现等优点。

上一篇:保护地黄瓜常见问题与防止措施下一篇:初试Deep Zoom Composer