书签 分享 收藏 举报 版权申诉 / 45
上传文档赚钱

类型动态环境中的规划-课件.ppt

  • 上传人(卖家):晟晟文业
  • 文档编号:4232525
  • 上传时间:2022-11-21
  • 格式:PPT
  • 页数:45
  • 大小:1.28MB
  • 【下载声明】
    1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
    2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
    3. 本页资料《动态环境中的规划-课件.ppt》由用户(晟晟文业)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
    4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
    5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
    配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    动态 环境 中的 规划 课件
    资源描述:

    1、动态环境中的规划动态环境中的规划路径规划路径规划概要概要 规划经常是一个重复过程,且要求快速。动态环境 不精确的初始模型 真体位置有误差 基于A*的规划器类型:ARA*随时A*搜索 输出 亚优解 能在有时间约束下使用 D*与D*精简版 递增A*搜索 通过复用前次搜索结果来计算最佳解 常常能显著加速重复规划 随时D*(AD*)随时递增A*搜索 输出 亚优解 能在有时间约束下使用 常常能显著加速重复规划 所有都基于ComputePathWithReuse函数动态环境中的自动真体动态环境中的自动真体ATRV机器人Segbot机器人2D地图3D地图规划(规划(Planning)规划 利用一个问题的结构

    2、来构造一个到达目的行动计划 是以研究理性行动为己任的AI的核心部分 路径规划:对求解问题的路径及其代价进行规划基于搜索的规划基于搜索的规划离散化机器人对世界的认识规划图基于搜索的规划基于搜索的规划离散化规划图转化成图形搜索图形得到一条从sstart到sgoal的最小代价路径8向连接网,为什么?机器人对世界的认识基于高维搜索的规划基于高维搜索的规划2D(x,y)规划54千个状态规划快执行慢4D(x,y,V)规划超过2千万个状态规划慢执行快基于高维搜索的规划基于高维搜索的规划6DOF机器人手臂3x109个状态20DOF机器人手臂1026个状态实际规划实际规划 由于下面原因,需多次再规划 环境变化

    3、导航时,有人在附近 自动驾驶时,有其它车辆在路上 环境模型不精确 位置估计有误差 需快速再规划实际规划实际规划由于下面原因,需多次再规划环境变化 导航时,有人在附近 自动驾驶时,有其它车辆在路上环境模型不精确位置估计有误差需快速再规划!用随时D*(即随时动态A*)来做4D规划实际规划实际规划用随时D*(即随时动态A*)来做3D停车规划用随时D*(即随时动态A*)来做4D规划实际规划实际规划 随时规划算法,例如,A*的随时复用版,即ARA*快速找到第一个可能的亚优解,然后用其余时间来改进它。允许满足时间约束。再规划算法,例如,A*递增版,也即D*与D*精简版 复用以前规划来加速再规划 很适合于动

    4、态和/或部分已知的环境。随时再规划算法,例如,随时递增A*,即随时D*结合上述两者的优点。搜索最小代价路径搜索最小代价路径 计算相关态的g值 g(s):一条从sstart到s最小代价路径的代价估值。最佳值满足:g(s)=mins”pred(s)(g(s”)+c(s”,s)由s3到sgoal边的代价c(s3,sgoal)搜索最小代价路径搜索最小代价路径 最小代价路经是由回溯(backtracking)获得的一条的贪婪路径 从sgoal开始,并且从任一状态s移向其前任状态s,使得:s=argmins”pred(s)(g(s”)+c(s”,s)A*搜索搜索 计算相关态的最佳g值 在某一时刻:g(s)

    5、h(s)目前找到的一条从sstart到s最短路径的代价一条从s到sgoal最短路径的代价的(低)估值A*搜索搜索 计算相关态的最佳g值主函数:g(sstart)=0;所有其它g值是无穷;OPEN=sstart;ComputePath();给出结果;ComputePath函数:while(sgoal没有被扩展)从OPEN中移去f(s)(=g(s)+h(s)最小的s;扩展s;注:OPEN是扩展候选态的集。如果启发方式是一致性的,则每个扩展态的g(s)都是最佳的。A*搜索搜索 计算相关态的最佳g值ComputePath函数:while(sgoal没有被扩展过)从OPEN中移去f(s)(=g(s)+h

    6、(s)最小的s;把s插入CLOSED;对s的每个不在CLOSED中的后续态sif g(s)g(s)+c(s,s)g(s)=g(s)+c(s,s);把s 插入OPEN;注:CLOSED是已扩展状态的集。if体中重新给g(s)赋值,是试图用找到的从sstart到s的路径来降低g(s)。A*搜索:例子搜索:例子计算相关态的最佳g值ComputePath函数:while(sgoal没有被扩展)从OPEN中移去f(s)(=g(s)+h(s)最小的s;把s插入CLOSED;对s的每个不在CLOSED中的后续态sif g(s)g(s)+c(s,s)g(s)=g(s)+c(s,s);把s 插入OPEN;CLO

    7、SED=OPEN=sstart下一个扩展状态:sstartg(s2)g(sstart)+c(sstart,s2)A*搜索:例子搜索:例子计算相关态的最佳g值ComputePath函数:while(sgoal没有被扩展)从OPEN中移去f(s)(=g(s)+h(s)最小的s;把s插入CLOSED;对s的每个不在CLOSED中的后续态sif g(s)g(s)+c(s,s)g(s)=g(s)+c(s,s);把s 插入OPEN;CLOSED=sstartOPEN=s2下一个扩展状态:s2A*搜索:例子搜索:例子计算相关态的最佳g值ComputePath函数:while(sgoal没有被扩展)从OPEN

    8、中移去f(s)(=g(s)+h(s)最小的s;把s插入CLOSED;对s的每个不在CLOSED中的后续态sif g(s)g(s)+c(s,s)g(s)=g(s)+c(s,s);把s 插入OPEN;CLOSED=sstart,s2OPEN=s1,s4下一个扩展状态:s1A*搜索:例子搜索:例子计算相关态的最佳g值ComputePath函数:while(sgoal没有被扩展)从OPEN中移去f(s)(=g(s)+h(s)最小的s;把s插入CLOSED;对s的每个不在CLOSED中的后续态sif g(s)g(s)+c(s,s)g(s)=g(s)+c(s,s);把s 插入OPEN;CLOSED=sst

    9、art,s2,s1OPEN=s4,sgoal下一个扩展状态:s4A*搜索:例子搜索:例子计算相关态的最佳g值ComputePath函数:while(sgoal没有被扩展)从OPEN中移去f(s)(=g(s)+h(s)最小的s;把s插入CLOSED;对s的每个不在CLOSED中的后续态sif g(s)g(s)+c(s,s)g(s)=g(s)+c(s,s);把s 插入OPEN;CLOSED=sstart,s2,s1,s4OPEN=sgoal,s3下一个扩展状态:sgoalA*搜索:例子搜索:例子计算相关态的最佳g值ComputePath函数:while(sgoal没有被扩展)从OPEN中移去f(s

    10、)(=g(s)+h(s)最小的s;把s插入CLOSED;对s的每个不在CLOSED中的后续态sif g(s)g(s)+c(s,s)g(s)=g(s)+c(s,s);把s 插入OPEN;CLOSED=sstart,s2,s1,s4,sgoalOPEN=s3结束A*搜索:例子搜索:例子计算相关态的最佳g值ComputePath函数:while(sgoal没有被扩展)从OPEN中移去f(s)(=g(s)+h(s)最小的s;把s插入CLOSED;对s的每个不在CLOSED中的后续态sif g(s)g(s)+c(s,s)g(s)=g(s)+c(s,s);把s 插入OPEN;对每个已扩展状态,g(s)是最

    11、佳的。对每个其它状态,g(s)是一个上限。现在能计算一个最小代价路径。加权加权A*以f(s)=g(s)+h(s)(1)为次序来扩展状态。亚优:cost(解)cost(最佳解)。在解许多问题时,比A*快得多。A*的最佳性质的最佳性质 f(s)=g(s)+h(s)为次序来扩展状态。C*为最佳路径的代价,A*搜索:将扩展f(s)C*的任何结点 特例:h(s)=0,f(s)=g(s)UCS搜索,需扩展当前态的所有后续态 h(s)=h*(s),f(s)=g(s)+h*(s),只扩展当前态的最佳后续态加权加权A*:示例:示例A*11,054次扩展代价=168,204=10的加权A*1,138次扩展代价=1

    12、77,876构建随时搜索构建随时搜索 执行一系列降低的加权A*搜索:置为大值;while 1,并且仍留有时间来规划执行加权A*搜索;给出当前亚优解;降低;=2.513次扩展解=11次移动=1.515次扩展解=11次移动=1.020次扩展解=10次移动构建随时搜索构建随时搜索 执行一系列降低的加权A*搜索:=2.513次扩展解=11次移动=1.515次扩展解=11次移动=1.020次扩展解=10次移动 效率低,这是因为:不同搜索循环之间的许多状态值保持不变。应复用上一次搜索的结果。ARA*:有效随时搜索:有效随时搜索 执行一系列降低的加权A*搜索。修改每次的加权A*搜索,使其复用上次搜索结果。持

    13、续保证亚优界。复用加权复用加权A*搜索搜索置所有 的初值为无穷;ComputePath函数:while(sgoal没有被扩展)从OPEN中移去f(s)(=g(s)+h(s)最小的s;把s插入CLOSED;(s)=g(s);对s的每个不在CLOSED中的后续态sif g(s)g(s)+c(s,s)g(s)=g(s)+c(s,s);把s 插入OPEN;注:值是一个状态在其扩展过程中的值。g(s)=mins”pred(s)(v(s”)+c(s”,s)OPEN:一个(s)g(s)(即不一致性)状态的集,其它所有状态有(s)=g(s)(即一致性)。复用加权复用加权A*搜索搜索用所有的不一致性的状态来初值

    14、化OPEN;ComputePathWithReuse函数:while(sgoal没有被扩展)从OPEN中移去f(s)(=g(s)+h(s)最小的s;把s插入CLOSED;(s)=g(s);对s的每个不在CLOSED中的后续态sif g(s)g(s)+c(s,s)g(s)=g(s)+c(s,s);把s 插入OPEN;注:值是一个状态在其扩展过程中的值。g(s)=mins”pred(s)(v(s”)+c(s”,s)OPEN:一个(s)g(s)(即不一致性)状态的集,其它所有状态有(s)=g(s)(即一致性)。初始化OPEN时,使用上次搜索结果。示例:复用示例:复用A*(=1)CLOSED=OPEN

    15、=s4,sgoal下一个扩展状态:s4g(s)=mins”pred(s)(v(s”)+c(s”,s)初始的OPEN包含所有不一致性的状态示例:复用示例:复用A*(=1)CLOSED=s4OPEN=sgoal,s3下一个扩展状态:sgoal示例:复用示例:复用A*(=1)CLOSED=s4,sgoalOPEN=s3结束现在能够计算一个最小代价路径当ComputePath终止后:所有状态的g值都等于最终A*的g值回到实例回到实例 执行一系列降低的加权A*搜索:=2.513次扩展,解=11次移动=1.515次扩展,解=11次移动=1.020次扩展,解=10次移动 ARA*:执行一系列降低的Compu

    16、tePathWithReuse函数:=2.513次扩展,解=11次移动=1.51次扩展,解=11次移动=1.09次扩展,解=10次移动高维状态空间的高维状态空间的ARA*规划规划0.05秒的ARA*规划90秒的ARA*规划增加再规划功能增加再规划功能 在动态环境下,边的代价会改变。如果边的代价减小,则可用与上面相同的ComputePathWithReuse函数来重新计算一条路径;如果边的代价增加,则可用类似的函数来计算。最佳再规划器:最佳再规划器:D*与与D*精简版精简版置 为1;执行直到达到目标为止:ComputePathWithReuse();公布当前亚优解路径;沿着该路径移动直到探测到某

    17、种地图上没有的物体为止;更新相应的边的代价;置sgoal为真体的当前状态;参考文献:S.Koenig and M.Likhachev,“Fast Replanning for Navigation in Unknown Terrain,”IEEE Trans.Robotics,21,(3),354-363,2005 最佳再规划器:最佳再规划器:D*与与D*精简版精简版置 为1;执行直到达到目标为止:ComputePathWithReuse();公布当前亚优解路径;沿着该路径移动直到探测到某种地图上没有的物体为止;更新相应的边的代价;置sgoal为真体的当前状态;注:搜索是向后进行的:sstar

    18、t=真体的目标,sgoal=真体的当前状态,所有的边是反向的。这样,在两次叫ComputePathWithReuse之间,sstart总是不变的,而g值也很可能不变。D*与与D*精简版:示例精简版:示例初始知识与初始目标距离机器人移动之后的知识与目标距离灰色区域的g值改变D*与与D*精简版:示例精简版:示例初次A*搜索初次D*精简版搜索二次A*搜索二次D*精简版搜索随时再规划器:随时随时再规划器:随时D*置 为大值;执行直到到达目标为止:ComputePathWithReuse();公布当前亚优解路径;沿着该路径移动直到探测到某种地图上没有的物体为止;更新相应的边的代价;置sgoal为真体的当

    19、前状态;if 观察到重要的变化增加 或重新规划;else减小;随时随时D*规划规划 3DOF机器人手臂操纵一个末端效果器穿越动态环境。在每步中有1秒钟的时间用于改善和(或)再规划。开始时,=20。总结总结 规划经常是一个重复过程,且要求快速。动态环境 不精确的初始模型 真体位置有误差 基于A*的规划器类型:ARA*随时A*搜索 输出 亚优解 能在有时间约束下使用 D*与D*精简版 递增A*搜索 通过复用前次搜索结果来计算最佳解 经常能显著加速重复规划 随时D*(AD*)随时递增A*搜索 输出 亚优解 能在有时间约束下使用 经常能显著加速重复规划 上述所有都基于ComputePathWithReuse函数

    展开阅读全文
    提示  163文库所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    关于本文
    本文标题:动态环境中的规划-课件.ppt
    链接地址:https://www.163wenku.com/p-4232525.html

    Copyright@ 2017-2037 Www.163WenKu.Com  网站版权所有  |  资源地图   
    IPC备案号:蜀ICP备2021032737号  | 川公网安备 51099002000191号


    侵权投诉QQ:3464097650  资料上传QQ:3464097650
       


    【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。

    163文库