正在加载图片...
王宇睿2015201906 n_estimators=160,其余参数取默认值时,最佳结果accuracy为0.8888889。在不设置 n_estimators时,随机森林分类器的速度比SVM快很多,但牺牲了精确性 使用网格搜索GridSearchCV对SVM分类器进行参数调优,网格搜索的结果显示,当C取大于 等于1的2的幂次方时,对结果不造成影响,最佳结果accuracy>为0.90277778,与交叉验证结 果相近 图像情感识别: 将数据集s1-s8中的每个视频按照每秒3张的速度提取图片,使用openface对图片进行姿势检 测和校准.并将图片的大小裁剪为96.共获得处理时的图片6478张。利用openface提取图片 特征,获得6个标签 及特征矩阵6478128。测试SVM的linear核 rbf核,DecisionTree GaussianNB,DBN等分类器,并使用GridSearchCV取cv=5来寻找SVM的最佳参数。经过实 验,最佳的结果是取SVM分类器,最佳参数是C=1,kernel--linear',但预测结果的 accuracy50%左右,可能是数据集并不具有普遍性。 2.小组继续完善ACr功能,使得小车可以自动追踪红色电烙铁。将手机固定在小车上,利用 软件将手机作为网络摄像头,使得电脑可以通过相应的访问手机摄像头,通过这种方式,将 手机拍摄到的画面实时传送到电脑。在电脑端,我们使用opencv>对传回的视屏进行处理,本 次实验中。我们对识别的规则讲行了设定,利用红色电格铁上的红色方形风域.使得程序能够 根据颜色和形状的信息识别视频中合 并给出电烙铁上的红色方形区域的质心在小车的 视野中的坐标,根据坐标信息判断电烙铁在小车的那个方向,然后通过蓝牙串口给小车发送改 变运动方向的指令,小车收到指令后会做出相应的反应,从而使小车跟踪视屏中的电烙铁。 第九周Ensemble Learning and Random Forests 课堂笔记 这章介绍了很多集成学习方法,并介绍了随机森林 投票分类器:投票分类器的原理是结合了多个不同的机器学习分类器,使用多数票或者平均预 测概率.预测类标。这类分类器对一组相同表现的模型十分有用,同时可以平衡各自的弱点 Soft Voting:返回预测概率值的总和最大的标签.可通讨参数weiahts指定每个分类器的权 重;若权重提供了,在计算时则会按照权重计算,然后取平均;标签则为概率最高的标签 Bagging and Pasting:获得多样分类器的一种方法是使用不同的算法,另一种方法是使用相 同的算法,但是在训练数据的不同子集上进行训练。如果针对训练数据的抽样是有放回的抽样 那么这样的方法是bagging,如果针对训练数据的抽样是没有放回的抽样,那么这样的方法是 pasting。 相比past ng, bagging有放回的抽样虽然会略微提高偏差, 但是能够提高模型的多 样性,降低方差。总的来说,bagging通常能够取得更好的效果。但是,如果时间允许,可以 考虑比较bagging和pasting的结果。 Out-of-Bag Evaluation:在bagging的过程中,部分训练数据可能会被多次抽样,部分训练数 据可能不会被抽样。因为训练特定模型时,0b的训练数据是不被使用的 所以可以利用这些 数据对当前模型进行验证,而不需要单独的验证集或进行交叉验证。可以通过这些结果的平均 值衡量集成学习的结果。在sklearn里,可以通过设置oob_score=True实现。 随机森林:随机森林是决策树的集成,通常根据bagging的思想训练,max_sam lesi通常是训 练数据的规模。随机森林在训练决策树分裂结点时不是从所有特征中寻找最优的特征,而是从 o王宇睿 2015201906 n_estimators=160,其余参数取默认值时,最佳结果accuracy为0.8888889。在不设置 n_estimators时,随机森林分类器的速度⽐SVM快很多,但牺牲了精确性。 使⽤⽹格搜索GridSearchCV对SVM分类器进⾏参数调优,⽹格搜索的结果显示,当C取⼤于 等于1的2的幂次⽅时,对结果不造成影响,最佳结果accuracy为0.90277778,与交叉验证结 果相近。 图像情感识别: 将数据集s1~s8中的每个视频按照每秒3张的速度提取图⽚,使⽤openface对图⽚进⾏姿势检 测和校准,并将图⽚的⼤⼩裁剪为96,共获得处理过的图⽚6478张。利⽤openface提取图⽚ 特征,获得6个标签,及特征矩阵6478*128。测试SVM的linear核、rbf核,DecisionTree, GaussianNB,DBN等分类器,并使⽤GridSearchCV取cv=5来寻找SVM的最佳参数。经过实 验,最佳的结果是取SVM分类器,最佳参数是C=1,kernel=‘linear',但预测结果的 accuracy50%左右,可能是数据集并不具有普遍性。 2. ⼩组继续完善AiCar功能,使得⼩⻋可以⾃动追踪红⾊电烙铁。将⼿机固定在⼩⻋上,利⽤ 软件将⼿机作为⽹络摄像头,使得电脑可以通过相应的ip访问⼿机摄像头,通过这种⽅式,将 ⼿机拍摄到的画⾯实时传送到电脑。在电脑端,我们使⽤opencv对传回的视屏进⾏处理,本 次实验中,我们对识别的规则进⾏了设定,利⽤红⾊电烙铁上的红⾊⽅形区域,使得程序能够 根据颜⾊和形状的信息识别视频中的电烙铁,并给出电烙铁上的红⾊⽅形区域的质⼼在⼩⻋的 视ᰀ中的坐标,根据坐标信息判断电烙铁在⼩⻋的那个⽅向,然后通过蓝⽛串⼝给⼩⻋发送改 变运动⽅向的指令,⼩⻋收到指令后会做出相应的反应,从⽽使⼩⻋跟踪视屏中的电烙铁。 第九周 Ensemble Learning and Random Forests - 课堂笔记 这章介绍了很多集成学习⽅法,并介绍了随机森林。 投票分类器:投票分类器的原理是结合了多个不同的机器学习分类器,使⽤多数票或者平均预 测概率,预测类标签。这类分类器对⼀组相同表现的模型⼗分有⽤,同时可以平衡各⾃的弱点。 Soft Voting:返回预测概率值的总和最⼤的标签,可通过参数weights指定每个分类器的权 ᯿;若权᯿提供了,在计算时则会按照权᯿计算,然后取平均;标签则为概率最⾼的标签。 Bagging and Pasting:获得多样分类器的⼀种⽅法是使⽤不同的算法,另⼀种⽅法是使⽤相 同的算法,但是在训练数据的不同⼦集上进⾏训练。如果针对训练数据的抽样是有放回的抽样, 那么这样的⽅法是bagging,如果针对训练数据的抽样是没有放回的抽样,那么这样的⽅法是 pasting。相⽐pasting,bagging有放回的抽样虽然会略微提⾼偏差,但是能够提⾼模型的多 样性,降低⽅差。总的来说,bagging通常能够取得更好的效果。但是,如果时间允许,可以 考虑⽐较bagging和pasting的结果。 Out-of-Bag Evaluation:在bagging的过程中,部分训练数据可能会被多次抽样,部分训练数 据可能不会被抽样。因为训练特定模型时,oob的训练数据是不被使⽤的,所以可以利⽤这些 数据对当前模型进⾏验证,⽽不需要单独的验证集或进⾏交叉验证。可以通过这些结果的平均 值衡量集成学习的结果。在sklearn⾥,可以通过设置oob_score=True实现。 随机森林:随机森林是决策树的集成,通常根据bagging的思想训练,max_samples通常是训 练数据的规模。随机森林在训练决策树分裂结点时不是从所有特征中寻找最优的特征,⽽是从 10
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有