药物分子设计第二讲课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《药物分子设计第二讲课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 药物 分子 设计 第二 讲课
- 资源描述:
-
1、最优化方法最优化方法Optimization Methods1第1页,共28页。最优化问题概述最优化问题概述Minimizes.t.nRx)(xFmixci,.,2,1,0)(mmixci,.,1,0)(Variable x:coordinatesObjective function F(x):energy,conformation,combination,etcConstraint ci(x):atom fixed,force field,etc目标函数目标函数变量变量/参数参数约束条件约束条件 最优化问题的一般形式为在一组限制最优化问题的一般形式为在一组限制性条件(性条件(等式等式/不等式
2、不等式、线性线性/非线性非线性)约)约束下寻找目标函数的束下寻找目标函数的极小值极小值/极大值极大值。2第2页,共28页。最优化问题概述最优化问题概述最优化问题的分类通常从最优化问题的分类通常从目标函数目标函数以及以及约束条件约束条件的特的特点入手。点入手。目标函数包括单变量函数、线性函数、线性函数平方目标函数包括单变量函数、线性函数、线性函数平方和、二次函数、非线性函数平方和、非光滑非线性函和、二次函数、非线性函数平方和、非光滑非线性函数等类型。数等类型。约束条件包括无约束、简单有界、线性函数、光滑非线约束条件包括无约束、简单有界、线性函数、光滑非线性函数等类型。性函数等类型。3第3页,共2
3、8页。最优化条件最优化条件对于任何满足上述所有约束条件 的点 称为可行点(feasible point),而所有可行点的集合称为可行区域(feasible region)。全局极小Vs.局部极小通常得到的是局部极小约束条件下没有极值极限条件才有极值如,当 ,Minimizes.t.nRx)(xFmixci,.,2,1,0)(mmixci,.,1,0)(xF(x)强局部极小全局极小弱局部极小()ic x xx ()0 xF xe4第4页,共28页。最优化方法最优化方法Optimization Methods 数值最优化方法 Numerical Optimization 最陡下降法 Steepes
4、t Descent 共轭梯度法 Conjugated Gradient 牛顿法 Newtons Methods 非数值最优化方法 Non-numerical Optimization 模拟退火 Simulated Annealing 遗传算法 Genetic Algorithm 神经网络 Artificial Neural Network5第5页,共28页。最优化方法最优化方法Optimization Methods 数值最优化方法 Numerical Optimization 最陡下降法 Steepest Descent 共轭梯度法 Conjugated Gradient 牛顿法 Newto
5、ns Methods 非数值最优化方法 Non-numerical Optimization 模拟退火 Simulated Annealing 遗传算法 Genetic Algorithm 神经网络 Artificial Neural Network6第6页,共28页。数值最优化方法数值最优化方法算法结构算法结构迭代方法迭代方法 给定一个初始点 ,按照某一迭代规则生成一个有限/无限的点序列 来估计最优解 ,当给定的某个终止条件满足时停止迭代。有限序列的最后一个点为模型最优解的最佳估计无限序列的极限点为模型最优解的最佳估计非线性最优化算法非线性最优化算法基于步长的方法 step-length-b
6、ased methods信赖域方法 trust region methodsnRx 0 x kx7第7页,共28页。数值最优化方法数值最优化方法基于步长的方法基于步长的方法 Step-length-based Methods 步长因子 搜索方向,一般选择为F(x)在点 处的下降方向1kkkkxxpkkpkx算 法给定初始点如果 满足终止条件,则跳至步骤7,否则按照某种规则构造目标函数 F(x)在 点的搜索方向确定步长因子计算下一轮的迭代点重复步骤21.算法终止0 xkxkxkpk1kkkkxxp8第8页,共28页。数值最优化方法数值最优化方法线搜索方法线搜索方法 Line Search确定步长
7、因子线搜索方法的基本结构线搜索方法的基本结构沿搜索方向 确定函数 最优值的搜索区间;通过分割或插值技术迭代的缩小该区间,直至搜索到符合给定判据的可接受值根据判断结果是否可以被接受的判据类型,线搜索方法可分为两大类:根据判断结果是否可以被接受的判据类型,线搜索方法可分为两大类:精确线搜索 Exact line search不精确的线搜索 Accurate line search kkkF xpF xkp()kkF xp0()min()kkkkF xpF xp()()0kkkF xF xp 9第9页,共28页。数值最优化方法数值最优化方法信赖域方法信赖域方法 在确保算法总体收敛的情况下,作为线搜索
8、方法的替代技术。在确保算法总体收敛的情况下,作为线搜索方法的替代技术。与基于步长的方法的最大区别:与基于步长的方法的最大区别:在迭代计算过程中,步长因子在迭代计算过程中,步长因子 几乎不变几乎不变()由于步长因子基本不变,需要按照某种规则尝试不同的方向矢量,由于步长因子基本不变,需要按照某种规则尝试不同的方向矢量,以找到合适的搜索方向以找到合适的搜索方向 ,以确保在迭代过程中目标函数值,以确保在迭代过程中目标函数值F(x)有足够多的下降。有足够多的下降。kkkpxx1k1kkp10第10页,共28页。最陡下降法最陡下降法Steepest Descent Methods最陡下降法以目标函数的最陡
9、下降法以目标函数的导数负方向导数负方向为极小化方向,又称梯度法。为极小化方向,又称梯度法。迭代公式迭代公式1kkkkxxgThe method of Steepest Descent approaches the minimum in a zig-zag manner,where the new search direction is orthogonal to the previous.11第11页,共28页。最陡下降法最陡下降法Steepest Descent is Slow线搜索线搜索 line search依赖于初始搜索方向的选择依赖于初始搜索方向的选择梯度是进行搜索的方向梯度是进行搜
10、索的方向远离最小点时收敛快,最小点附近收敛慢(梯度接近远离最小点时收敛快,最小点附近收敛慢(梯度接近0)整体收敛性好整体收敛性好适用于优化的最初阶段适用于优化的最初阶段与其它方法连用与其它方法连用12第12页,共28页。共轭梯度法共轭梯度法Conjugated Gradient Methods在每一步迭代中找到合适的搜索方向在每一步迭代中找到合适的搜索方向 ,使得该方向与所有先,使得该方向与所有先前迭代步中的搜索方向前迭代步中的搜索方向 具有具有G-共轭。(其中共轭。(其中G为目标为目标函数的正定函数的正定Hessian矩阵。)矩阵。)迭代公式迭代公式kp()jpjk111,111kkkkkk
11、kkTkkk kTkkxxppgpg ggg 13第13页,共28页。共轭梯度法共轭梯度法Conjugated Gradient Methods 特点:特点:不仅运用当前的梯度,而且采用先前的最小化不仅运用当前的梯度,而且采用先前的最小化历史来确定下一步历史来确定下一步 收敛速度快。最多经过收敛速度快。最多经过n次精确线搜索即可收次精确线搜索即可收敛敛14第14页,共28页。牛顿法牛顿法Newtons Methods直接计算直接计算Hessian矩阵矩阵收敛速度快(对正定二次函数,算法是二阶收敛,迭代一次得收敛速度快(对正定二次函数,算法是二阶收敛,迭代一次得到极小点)到极小点)局部收敛局部收
展开阅读全文