
机器学习与智能金融第十二章源源不断的新思想
机器学习与智能金融 第十二章 源源不断的新思想

本讲主要内容数据不够,算法来凑:半监督学习-.博采众家之长:集成学习以人为师的思想四因果科学的新起点五AIGC的时代六与人连接的挑战:脑机接口七MOSS与金融:量子金融
本讲主要内容 一 数据不够,算法来凑:半监督学习 二 博采众家之长:集成学习 三 以人为师的思想 四 因果科学的新起点 五 AIGC的时代 六 与人连接的挑战:脑机接口 七 MOSS与金融:量子金融

本讲知识点与学习自标迁移学习元学习GPT半监督学习因果机器学习增量学习扩散模型集成学习因果发现脑际接口量子计算了解本章相关新概念和思想了解并思考本章内容在金融中的应用场景或方式AIGCQubit量子金融
本讲知识点与学习目标 半监督学习 集成学习 迁移学习 增量学习 元学习 因果发现 因果机器学习 扩散模型 GPT AIGC 脑际接口 Qubit 量子计算 量子金融 了解本章相关新概念和思想 了解并思考本章内容在金融 中的应用场景或方式

本讲主要内容数据不够,算法来凑:半监督学习博采众家之长:集成学习以人为师的思想四因果科学的新起点五AIGC的时代六与人连接的挑战:脑机接口七MOSS与金融:量子金融
本讲主要内容 一 数据不够,算法来凑:半监督学习 二 博采众家之长:集成学习 三 以人为师的思想 四 因果科学的新起点 五 AIGC的时代 六 与人连接的挑战:脑机接口 七 MOSS与金融:量子金融

半监督学习聚类假设流形假设平滑假设(manifoldassumption)(clusterassumption)"+"!"+"?"-"主动学习(金均标记)观察到待判别样本未标记样本训练模型预测待测数提O未标记+T数据鼻尖标记弱监普学习(纯)半监肾学习M半不准确蓝智训练>预测待测数据模型不确切盗暂未标记监数据督不完全监督直推学习学半监督学习未标记习未标记>训练模型>预测数据T栋数据款
半监督学习 聚类假设 (cluster assumption) 流形假设 (manifold assumption) 平滑假设

直推学习(自训练方法)在已标记的数据上训练,然后对未标记数据进行预测,取预测置自训练的思路信度最高的样本直接对其进行标签定义,然后将这类样本纳入当前训练样本中,重新学习以得到新的模型过程这一过程不断迭代,直到满足终止条件
直推学习(自训练方法) 这一过程不断迭代,直到满足终止条件。 在已标记的数据上训练,然后对未标记数据进行预测,取预测置 信度最高的样本直接对其进行标签定义,然后将这类样本纳入当 前训练样本中,重新学习以得到新的模型。 自训练的 思路 过程

生成式方法判别方法生成方法由数据直接学习决策函数Y=f(X)或者条件概率分布由数据学习联合概率密度分布P(X,Y),然后由P(YX)P(YIX)作为预测的模型,即判别模型。判别方法关心=P(X,Y)/P(X)求出条件概率分布P(YIX)作为预测的模型的是对于给定的输入X,应该预测什么样的输出Y。即生成模型。典型的生成模型有:朴素贝叶斯和隐马典型的判别模型包括k近邻,感知机,决策树,支持尔科夫模型等。向量机等。半设所有数据(无论是否有标记)都是由潜在的模型“生成”的。这个假设使得我能通过潜在模型的参数将未标记数据与学习目标联系起来,而未标记数据的标记作模型的缺失参数,通常可基于EM算法进行极大似然估计求解出来
生成式方法 由数据学习联合概率密度分布P(X,Y),然后由P(Y|X) =P(X,Y)/P(X)求出条件概率分布P(Y|X)作为预测的模型, 即生成模型。典型的生成模型有:朴素贝叶斯和隐马 尔科夫模型等。 由数据直接学习决策函数Y=f(X)或者条件概率分布 P(Y|X)作为预测的模型,即判别模型。判别方法关心 的是对于给定的输入X,应该预测什么样的输出Y。 典型的判别模型包括k近邻,感知机,决策树,支持 向量机等。 判别方法 生成方法 半设所有数据(无论是否有标记)都是由潜在的模型“生成”的。这个假设使得我能通过潜在模 型的参数将未标记数据与学习目标联系起来,而未标记数据的标记作模型的缺失参数,通常可基 于EM算法进行极大似然估计求解出来

>>>例子:来自于高斯混合分布Np(α) =ai p(α / i, E,) ,E步:根据当前模型参数计算未标记样本E属于各高斯混合成分的概率i=lp(aw,E)YizW(a,E)f(a) = argmaxp(y = jla)jeyM步:基于更新模型参数,其中表示第类的有标记样本数目N1Ep(y=j,O=i[a)argmaxT7Tiai+Mi+jeya,ED,i=1(asM)EDiymiz,EDN1E (aj -μ)(j -μ)TEp(y=j[0=i,a)·p(0=i[α)+4=argmaxEED,e,EDjeyi=l()(jμ)(ay)eD,Aggmai.p(i,E)① E [1,2,..., N) : p(0=ila)=~N+OEEp(a I ui,Ei)E,ED-1
例子:来自于高斯混合分布

半监督支撑向量机半监督支持向量机(Semi-SupervisedSupportVectorMachine,简称S3VM)是支持向量机在半监督学习上S3VM划分超平面的拓展。低密度分割半监督支持向量机中最著名的是TSVMTransductiveSupportVectorMachinell++Cumin8w,b,y,si=1i=/+1s.t.y(wTai+b)≥1-Si,i=1,2,...,lg(wTai+b)≥1-si,i=l+1,l+2,...,m,SVM划分超平面si≥0, i=1,2,...,m
半监督支持向量机 (Semi-Supervised Support Vector Machine,简称 S3VM) 是支持向量机在半监督学习上 的拓展。 半监督支撑向量机 低密度分割 半监督支持向量机中最著名的是 TSVM Transductive Support Vector Machine

图半监督学习给定一个数据集,我们可将其映射为一个图,数据集中每个样本对应于图中一个结点。若两个样本之间的相似度很高(或相关性很强),则对应的结点之间存在一条边边的“强度”(strength)正比于样本之间的相似度(或相关性)。我们可将有标记样本所对应的结点想象为染过色,而未标记样本所对应的结点尚未染色。于是,半监督学习就对应于“颜色”在图上扩Iter:1Iter:10Iter:30散或传播的过程。标签传播标签扩散Iter:150Iter:300Iter:100
图半监督学习 给定一个数据集,我们可将其映射为一个图, 数据集中每个样本对应于图中一个结点。 若两个样本之间的相似度很高(或相关性很 强),则对应的结点之间 存在一条边 边的 “强度” (strength) 正比于样本之间的相似度 (或相关性)。 我们可将有标记样本所对应的结点想象为染过 色,而未标记样本所对应的结点尚未染色。 于是,半监督学习就对应于“颜色”在图上扩 散或传播的过程。 标签传播 标签扩散