点击下载:广东工业大学:《机器学习》课程教学资源(PPT讲稿)第18讲 变换器模型 Transformer
正在加载图片...
自注意力机制 要使用n个输入生成n 个输出,我们可以将每个 输入复制为键(key), Outputs 值(value)和查询 Self-attention (quey)中 Keys,values, queries ·不保留顺序信息 ·并行计算 t-1 t+1 D2L.ai自注意力机制 • 要使用 n 个输入生成 n 个输出,我们可以将每个 输入复制为键(key), 值(value)和查询 (query)中 • 不保留顺序信息 • 并行计算
<<向上翻页
向下翻页>>
点击下载:广东工业大学:《机器学习》课程教学资源(PPT讲稿)第18讲 变换器模型 Transformer
©2008-现在 cucdc.com 高等教育资讯网 版权所有