点击切换搜索课件文库搜索结果(7177)
文档格式:PDF 文档大小:252.65KB 文档页数:27
本章叙述中为了区别图中的顶点和解空间树中的顶点,凡是在解 空间树中出线队顶点一律称为结点。 分支限界法同回溯法类似,它也是在解空间中搜索问题的可行解 或最优解,但搜索的方式不同。回溯法采用深度优先的方式,朝纵深 方向搜索,直至达到问题的一个可行解,或经判断沿此路径不会达到 问题的可行解或最优解时,停止向前搜索,并沿原路返回到该路径上 最后一个还可扩展的结点
文档格式:PDF 文档大小:716.83KB 文档页数:122
文本分类概述 特征提取 主要分类算法 Rocchio 法 贝叶斯 K近邻 决策树
文档格式:PPT 文档大小:435KB 文档页数:28
在许多商业决策中,期望货币值的确是一种不错的决 策准则。但还有许多时候,期望货币值(注意力集中 在收入)根本无法提供希望的最佳决策方案 例如:为一幢房子购买保险的决策并不会比不买保险 带来更高的期望货币值,否则,保险公司如何赚钱? 类似地,即使决策的期望货币值是负的,许多人还是 会买彩票! 这说明:货币值对决策者来说并不是所有可能结果的 真实价值的唯一之度量--效用分析的意义在于:关 注产出的同时,需要关注风险!--如,投资决策 重点:掌握效用分析基础及其与度量的关系
文档格式:PPT 文档大小:667.5KB 文档页数:50
通过本项目学习,使学生了解在产品和完工产品的含义;理解生产费用在完工产品与在产品之间分配的基本原理;掌握各种费用分配方法的特点、适用范围和计算方法等
文档格式:PDF 文档大小:3.33MB 文档页数:99
背景 MDPs 强化学习问题 蒙特卡洛方法 (Monte Carlo Methods) 蒙特卡洛预测(Monte Carlo Prediction) 蒙特卡洛控制(Monte Carlo Control) 时序差分学习 (Temporal-Difference Learning) 时序差分预测(TD Prediction) 时序差分控制(TD Control) Sarsa:on-policy Q-learning : off-policy 策略梯度 (Policy Gradient) Monte-Carlo Policy Gradient Actor-Critic Policy Gradient 深度强化学习 Deep Q-Networks (DQN) Policy Gradients for Deep Reinforcement Learning
文档格式:DOC 文档大小:19KB 文档页数:1
1. 简要叙述试验数据的处理方法。 2. 分析对比试验数据的处理的三种方法。 3. 试对已知的一组试验数据进行回归分析。 4. 简述动态测试数据的分类
文档格式:DOC 文档大小:19KB 文档页数:1
1. 什么是误差,相对误差和绝对误差如何定义。 2. 简要说明误差的来源。 3. 简要说明系统误差的分类,如何消除。 4. 简要说明随机误差的分布,如何消除
文档格式:DOC 文档大小:19KB 文档页数:1
2-1.信号一般有哪几种分类方法?各分为哪几类?请简要说明。 2-2.请简述信号的几种描述方法。 2-3.写出周期信号两种展开式的数学表达式,并说明系数的物理意义
文档格式:PPT 文档大小:862.5KB 文档页数:45
6.1 z 变换 一、从拉普拉斯变换到z变换 二、收敛域 6.2 z 变换的性质 6.3 逆z变换 6.4 z 域分析 一、差分方程的变换解 二、系统的z域框图 三、利用z变换求卷积和 四、s域与z域的关系 五、离散系统的频率响应
文档格式:PDF 文档大小:387.93KB 文档页数:23
6.1 统计量 6.2 由正态分布导出的几个重要分布 6.3 样本均值的分布与中心极限定理
首页上页446447448449450451452453下页末页
热门关键字
搜索一下,找到相关课件或文库资源 7177 个  
©2008-现在 cucdc.com 高等教育资讯网 版权所有