粒子群算法的优缺点

2024-05-05 20:59

1. 粒子群算法的优缺点

优点:PSO同遗传算法类似,是一种基于迭代的优化算法。系统初始化为一组随机解,通过迭代搜寻最优值。同遗传算法比较,PSO的优势在于简单容易实现,并且没有许多参数需要调整。
缺点:在某些问题上性能并不是特别好。网络权重的编码而且遗传算子的选择有时比较麻烦。最近已经有一些利用PSO来代替反向传播算法来训练神经网络的论文。

扩展资料:
注意事项:
基础粒子群算法步骤较为简单。粒子群优化算法是由一组粒子在搜索空间中运动,受其自身的最佳过去位置pbest和整个群或近邻的最佳过去位置gbest的影响。
对于有些改进算法,在速度更新公式最后一项会加入一个随机项,来平衡收敛速度与避免早熟。并且根据位置更新公式的特点,粒子群算法更适合求解连续优化问题。
参考资料来源:百度百科-粒子群算法

粒子群算法的优缺点

2. 粒子群算法的优缺点

优点:PSO同遗传算法类似,是一种基于迭代的优化算法。系统初始化为一组随机解,通过迭代搜寻最优值。同遗传算法比较,PSO的优势在于简单容易实现,并且没有许多参数需要调整。
缺点:在某些问题上性能并不是特别好。网络权重的编码而且遗传算子的选择有时比较麻烦。最近已经有一些利用PSO来代替反向传播算法来训练神经网络的论文。

扩展资料:
注意事项:
基础粒子群算法步骤较为简单。粒子群优化算法是由一组粒子在搜索空间中运动,受其自身的最佳过去位置pbest和整个群或近邻的最佳过去位置gbest的影响。
对于有些改进算法,在速度更新公式最后一项会加入一个随机项,来平衡收敛速度与避免早熟。并且根据位置更新公式的特点,粒子群算法更适合求解连续优化问题。
参考资料来源:百度百科-粒子群算法

3. 粒子群优化算法的介绍

粒子群优化算法又翻译为粒子群算法、微粒群算法、或微粒群优化算法。

粒子群优化算法的介绍

4. 粒子群优化算法的与遗传算法的比较

 ①种群随机初始化。②对种群内的每一个个体计算适应值(fitness value)。适应值与最优解的距离直接有关。③种群根据适应值进行复制。④如果终止条件满足的话,就停止,否则转步骤② 。从以上步骤,我们可以看到PSO和遗传算法有很多共同之处。两者都随机初始化种群,而且都使用适应值来评价系统,而且都根据适应值来进行一定的随机搜索。两个系统都不是保证一定找到最优解。但是,PSO没有遗传操作如交叉(crossover)和变异(mutation),而是根据自己的速度来决定搜索。粒子还有一个重要的特点,就是有记忆。 演化计算的优势,在于可以处理一些传统方法不能处理的。例子例如不可导的节点传递函数或者没有梯度信息存在。但是缺点在于:1、在某些问题上性能并不是特别好。2.网络权重的编码而且遗传算子的选择有时比较麻烦。最近已经有一些利用PSO来代替反向传播算法来训练神经网络的论文。研究表明PSO 是一种很有潜力的神经网络算法。PSO速度比较快而且可以得到比较好的结果。而且还没有遗传算法碰到的问题。

5. 粒子群算法的比较

 大多数演化计算技术都是用同样的过程 :1.种群随机初始化2. 对种群内的每一个个体计算适应值(fitness value).适应值与最优解的距离直接有关3. 种群根据适应值进行复制4. 如果终止条件满足的话,就停止,否则转步骤2从以上步骤,我们可以看到PSO和GA有很多共同之处。两者都随机初始化种群,而且都使用适应值来评价系统,而且都根据适应值来进行一定的随机搜索。两个系统都不是保证一定找到最优解 。 但是,PSO 没有遗传操作如交叉(crossover)和变异(mutation). 而是根据自己的速度来决定搜索。粒子还有一个重要的特点,就是有记忆。与遗传算法比较, PSO 的信息共享机制是很不同的. 在遗传算法中,染色体(chromosomes) 互相共享信息,所以整个种群的移动是比较均匀的向最优区域移动. 在PSO中, 只有gBest (or pBest) 给出信息给其他的粒子,这是单向的信息流动. 整个搜索更新过程是跟随当前最优解的过程. 与遗传算法比较, 在大多数的情况下,所有的粒子可能更快的收敛于最优解

粒子群算法的比较

6. 最优化 粒子群法

运行结果。
function [xm,fv] = zhidaoPSO(fitness,N,c1,c2,w,M,D)
%[xm,fv] = zhidaoPSO(@fitness,40,2,2,0.8,1000,2)
%         
%         求解无约束优化问题
%         fitness         待优化目标函数
%         N         粒子数目,
%         cX         学习因子
%         W         惯性权重
%         M          最大迭代次数
%         D          自由变量的个数
%         xm          目标函数取最小值时的自由变量
%         fv          目标函数的最小值
%   Detailed explanation goes here
tic;
format long;
%------step1.初始化种群的个体------------
x = zeros(N,D);
v = zeros(N,D);
for i=1:N

    for j=1:D

        x(i,j)=100*rand - 50;  %随机初始化位置

        v(i,j)=100*rand - 50;  %随机初始化速度

    end

end

%------step2.先计算各个粒子的适应度,并初始化Pi和PgPg为全局最优-------------
p = zeros(N,1);
%y = zeros(N,D);
for i=1:N

    p(i)=fitness(x(i,:));

    %y(i,:)=x(i,:);

end
y = x;
pg = x(N,:);             %Pg为全局最优

for i=1:(N-1)

    if fitness(x(i,:))<fitness(pg)

        pg=x(i,:);

    end

end

%------step3.进入主要循环,按照公式依次迭代------------
%Pbest = zeros(M,1);
for t=1:M

    for i=1:N

        v(i,:)=w*v(i,:)+c1*rand*(y(i,:)-x(i,:))+c2*rand*(pg-x(i,:));
        for k=1:D
            if v(i,k) > 10 %10=vmax
                v(i,k) = 10;
            end
        end
        x(i,:)=x(i,:)+v(i,:);
        for k=1:D
            if x(i,k) > 50 %50=xmax
                x(i,k) = 31;
            end
        end

        if fitness(x(i,:))<p(i)

            p(i)=fitness(x(i,:));

            y(i,:)=x(i,:);

        end

        if p(i)<fitness(pg)

            pg=y(i,:);

        end

    end

    %Pbest(t)=fitness(pg);
end
xm = pg';
fv = fitness(pg);
toc;

7. 粒子群优化算法

姓名:杨晶晶  学号:21011210420  学院:通信工程学院
    
 【嵌牛导读】
  
 传统的多目标优化方法是将多目标问题通过加权求和转化为单目标问题来处理的,而粒子算法主要是解决一些多目标优化问题的(例如机械零件的多目标设计优化),其优点是容易实现,精度高,收敛速度快。
  
 【嵌牛鼻子】粒子群算法的概念、公式、调参以及与遗传算法的比较。
  
 【嵌牛提问】什么是粒子群算法?它的计算流程是什么?与遗传算法相比呢?
  
 【嵌牛正文】
  
 1. 概念
  
         粒子群优化算法(PSO:Particle swarm optimization) 是一种进化计算技术(evolutionary computation),源于对鸟群捕食的行为研究。
  
         粒子群优化算法的基本思想:是通过群体中个体之间的协作和信息共享来寻找最优解。
  
         PSO的优势:在于简单容易实现并且没有许多参数的调节。目前已被广泛应用于函数优化、神经网络训练、模糊系统控制以及其他遗传算法的应用领域。
  
 2. 算法
  
 2.1 问题抽象
  
         鸟被抽象为没有质量和体积的微粒(点),并延伸到N维空间,粒子i在N维空间的位置表示为矢量Xi=(x1,x2,…,xN),飞行速度表示为矢量Vi=(v1,v2,…,vN)。每个粒子都有一个由目标函数决定的适应值(fitness value),并且知道自己到目前为止发现的最好位置(pbest)和现在的位置Xi。这个可以看作是粒子自己的飞行经验。除此之外,每个粒子还知道到目前为止整个群体中所有粒子发现的最好位置(gbest)(gbest是pbest中的最好值),这个可以看作是粒子同伴的经验。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。
  
 2.2 更新规则
  
        PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。
                                          
        公式(1)的第一部分称为【记忆项】,表示上次速度大小和方向的影响;公式(1)的第二部分称为【自身认知项】,是从当前点指向粒子自身最好点的一个矢量,表示粒子的动作来源于自己经验的部分;公式(1)的第三部分称为【群体认知项】,是一个从当前点指向种群最好点的矢量,反映了粒子间的协同合作和知识共享。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。
  
        以上面两个公式为基础,形成了PSO的标准形式。
                                          
       公式(2)和 公式(3)被视为标准PSO算法。
  
 2.3 标准PSO算法流程
  
     标准PSO算法的流程:
  
     1)初始化一群微粒(群体规模为N),包括随机位置和速度;
  
     2)评价每个微粒的适应度;
  
     3)对每个微粒,将其适应值与其经过的最好位置pbest作比较,如果较好,则将其作为当前的最好位置pbest;
  
     4)对每个微粒,将其适应值与其经过的最好位置gbest作比较,如果较好,则将其作为当前的最好位置gbest;
  
     5)根据公式(2)、(3)调整微粒速度和位置;
  
     6)未达到结束条件则转第2)步。
  
         迭代终止条件根据具体问题一般选为最大迭代次数Gk或(和)微粒群迄今为止搜索到的最优位置满足预定最小适应阈值。
  
        公式(2)和(3)中pbest和gbest分别表示微粒群的局部和全局最优位置。
  
     当C1=0时,则粒子没有了认知能力,变为只有社会的模型(social-only):
                                          
  被称为全局PSO算法。粒子有扩展搜索空间的能力,具有较快的收敛速度,但由于缺少局部搜索,对于复杂问题
  
 比标准PSO 更易陷入局部最优。
  
      当C2=0时,则粒子之间没有社会信息,模型变为只有认知(cognition-only)模型:
                                          
        被称为局部PSO算法。由于个体之间没有信息的交流,整个群体相当于多个粒子进行盲目的随机搜索,收敛速度慢,因而得到最优解的可能性小。
  
 2.4 参数分析
  
         参数:群体规模N,惯性因子 ,学习因子c1和c2,最大速度Vmax,最大迭代次数Gk。
  
         群体规模N:一般取20~40,对较难或特定类别的问题可以取到100~200。
  
         最大速度Vmax:决定当前位置与最好位置之间的区域的分辨率(或精度)。如果太快,则粒子有可能越过极小点;如果太慢,则粒子不能在局部极小点之外进行足够的探索,会陷入到局部极值区域内。这种限制可以达到防止计算溢出、决定问题空间搜索的粒度的目的。
  
         权重因子:包括惯性因子和学习因子c1和c2。使粒子保持着运动惯性,使其具有扩展搜索空间的趋势,有能力探索新的区域。c1和c2代表将每个粒子推向pbest和gbest位置的统计加速项的权值。较低的值允许粒子在被拉回之前可以在目标区域外徘徊,较高的值导致粒子突然地冲向或越过目标区域。
  
         参数设置:
  
         1)如果令c1=c2=0,粒子将一直以当前速度的飞行,直到边界。很难找到最优解。
  
         2)如果=0,则速度只取决于当前位置和历史最好位置,速度本身没有记忆性。假设一个粒子处在全局最好位置,它将保持静止,其他粒子则飞向它的最好位置和全局最好位置的加权中心。粒子将收缩到当前全局最好位置。在加上第一部分后,粒子有扩展搜索空间的趋势,这也使得的作用表现为针对不同的搜索问题,调整算法的全局和局部搜索能力的平衡。较大时,具有较强的全局搜索能力;较小时,具有较强的局部搜索能力。
  
         3)通常设c1=c2=2。Suganthan的实验表明:c1和c2为常数时可以得到较好的解,但不一定必须等于2。Clerc引入收敛因子(constriction factor) K来保证收敛性。
                                          
        通常取为4.1,则K=0.729.实验表明,与使用惯性权重的PSO算法相比,使用收敛因子的PSO有更快的收敛速度。其实只要恰当的选取和c1、c2,两种算法是一样的。因此使用收敛因子的PSO可以看作使用惯性权重PSO的特例。
  
         恰当的选取算法的参数值可以改善算法的性能。
  
 3. PSO与其它算法的比较
  
 3.1 遗传算法和PSO的比较
  
    1)共性:
  
    (1)都属于仿生算法。
  
    (2)都属于全局优化方法。
  
    (3)都属于随机搜索算法。
  
    (4)都隐含并行性。
  
    (5)根据个体的适配信息进行搜索,因此不受函数约束条件的限制,如连续性、可导性等。
  
    (6)对高维复杂问题,往往会遇到早熟收敛和收敛 性能差的缺点,都无法保证收敛到最优点。
  
     2)差异:   
  
     (1)PSO有记忆,好的解的知识所有粒子都保 存,而GA(Genetic Algorithm),以前的知识随着种群的改变被改变。
  
     (2)PSO中的粒子仅仅通过当前搜索到最优点进行共享信息,所以很大程度上这是一种单共享项信息机制。而GA中,染色体之间相互共享信息,使得整个种群都向最优区域移动。
  
     (3)GA的编码技术和遗传操作比较简单,而PSO相对于GA,没有交叉和变异操作,粒子只是通过内部速度进行更新,因此原理更简单、参数更少、实现更容易。
  
     (4)应用于人工神经网络(ANN)
  
     GA可以用来研究NN的三个方面:网络连接权重、网络结构、学习算法。优势在于可处理传统方法不能处理的问题,例如不可导的节点传递函数或没有梯度信息。
  
     GA缺点:在某些问题上性能不是特别好;网络权重的编码和遗传算子的选择有时较麻烦。
  
     已有利用PSO来进行神经网络训练。研究表明PSO是一种很有潜力的神经网络算法。速度较快且有较好的结果。且没有遗传算法碰到的问题。

粒子群优化算法

8. 粒子群优化算法

         粒子群算法 的思想源于对鸟/鱼群捕食行为的研究,模拟鸟集群飞行觅食的行为,鸟之间通过集体的协作使群体达到最优目的,是一种基于Swarm Intelligence的优化方法。它没有遗传算法的“交叉”(Crossover) 和“变异”(Mutation) 操作,它通过追随当前搜索到的最优值来寻找全局最优。粒子群算法与其他现代优化方法相比的一个明显特色就是所 需要调整的参数很少、简单易行 ,收敛速度快,已成为现代优化方法领域研究的热点。
                                          
          设想这样一个场景:一群鸟在随机搜索食物。已知在这块区域里只有一块食物;所有的鸟都不知道食物在哪里;但它们能感受到当前的位置离食物还有多远。那么找到食物的最优策略是什么呢?
  
         1. 搜寻目前离食物最近的鸟的周围区域
  
         2. 根据自己飞行的经验判断食物的所在。
  
         PSO正是从这种模型中得到了启发,PSO的基础是 信息的社会共享 
  
         每个寻优的问题解都被想像成一只鸟,称为“粒子”。所有粒子都在一个D维空间进行搜索。
  
         所有的粒子都由一个fitness function 确定适应值以判断目前的位置好坏。
  
         每一个粒子必须赋予记忆功能,能记住所搜寻到的最佳位置。
  
         每一个粒子还有一个速度以决定飞行的距离和方向。这个速度根据它本身的飞行经验以及同伴的飞行经验进行动态调整。
                                                                                  
         粒子速度更新公式包含三部分: 第一部分为“惯性部分”,即对粒子先前速度的记忆;第二部分为“自我认知”部分,可理解为粒子i当前位置与自己最好位置之间的距离;第三部分为“社会经验”部分,表示粒子间的信息共享与合作,可理解为粒子i当前位置与群体最好位置之间的距离。
  
         第1步   在初始化范围内,对粒子群进行随机初始化,包括随机位置和速度
  
         第2步   根据fitness function,计算每个粒子的适应值
  
         第3步   对每个粒子,将其当前适应值与其个体历史最佳位置(pbest)对应的适应值作比较,如果当前的适应值更高,则用当前位置更新粒子个体的历史最优位置pbest
  
         第4步   对每个粒子,将其当前适应值与全局最佳位置(gbest)对应的适应值作比较,如果当前的适应值更高,则用当前位置更新粒子群体的历史最优位置gbest
  
         第5步   更新粒子的速度和位置
  
         第6步   若未达到终止条件,则转第2步
  
         【通常算法达到最大迭代次数或者最佳适应度值得增量小于某个给定的阈值时算法停止】
  
   粒子群算法流程图如下:
                                          
 
  
  
   以Ras函数(Rastrigin's Function)为目标函数,求其在x1,x2∈[-5,5]上的最小值。这个函数对模拟退火、进化计算等算法具有很强的欺骗性,因为它有非常多的局部最小值点和局部最大值点,很容易使算法陷入局部最优,而不能得到全局最优解。如下图所示,该函数只在(0,0)处存在全局最小值0。