Transformers共0篇
Transformers
RWKV – transformer 与 RNN 的强强联合-五八三

RWKV – transformer 与 RNN 的强强联合

在 NLP (Natural Language Processing, 自然语言处理) 领域,ChatGPT 和其他的聊天机器人应用引起了极大的关注。每个社区为构建自己的应用,也都在持续地寻求强大、可靠的开源模型。自 Vaswani ...
admin的头像-五八三admin2年前
0110
在Transformers 中使用约束波束搜索引导文本生成-五八三

在Transformers 中使用约束波束搜索引导文本生成

引言 本文假设读者已经熟悉文本生成领域波束搜索相关的背景知识,具体可参见博文 如何生成文本: 通过 Transformers 用不同的解码方法生成文本。 与普通的波束搜索不同,约束 波束搜索允许我们控...
admin的头像-五八三admin2年前
040
使用 Transformers 为多语种语音识别任务微调 Whisper 模型-五八三

使用 Transformers 为多语种语音识别任务微调 Whisper 模型

本文提供了一个使用 Hugging Face ? Transformers 在任意多语种语音识别 (ASR) 数据集上微调 Whisper 的分步指南。同时,我们还深入解释了 Whisper 模型、Common Voice 数据集以及微调等理论知...
admin的头像-五八三admin2年前
090
据说,Transformer 不能有效地进行时间序列预测?-五八三

据说,Transformer 不能有效地进行时间序列预测?

简介 几个月前,我们介绍了 Informer 这个模型,相关论文 (Zhou, Haoyi, et al., 2021) 是一篇获得了 AAAI 2021 最佳论文奖的时间序列论文。我们也展示了一个使用 Informer 进行多变量概率预测...
admin的头像-五八三admin2年前
0270
基于 Habana Gaudi 的 Transformers 入门-五八三

基于 Habana Gaudi 的 Transformers 入门

几周前,我们很高兴地 宣布 Habana Labs 和 Hugging Face 将开展加速 transformer 模型的训练方面的合作。 与最新的基于 GPU 的 Amazon Web Services (AWS) EC2 实例相比,Habana Gaudi 加速卡...
admin的头像-五八三admin2年前
0140

【不要】重复自己*——如何为现代机器学习设计开源库

不要 重复自己* 如何为现代机器学习设计开源库 ? Transformers 设计理念 “不要重复自己 (Don’t Repeat Yourself)” ,或 DRY,是广为人知的软件开发原则。该原则出自《程序员修炼之道: 从小工...
admin的头像-五八三admin2年前
0130
带你上手基于Pytorch和Transformers的中文NLP训练框架-五八三

带你上手基于Pytorch和Transformers的中文NLP训练框架

合集 - AI(22)1.CutMix&Mixup详解与代码实战04-272.绘画手残党的福音:涂鸦线稿秒变绝美图像05-053.探讨AIGC的崛起历程,浅析其背后技术发展05-104.创新 = 颠覆?AI创新如何做大蛋糕07-195....
admin的头像-五八三admin2年前
0300
解码器 | 基于 Transformers 的编码器-解码器模型-五八三

解码器 | 基于 Transformers 的编码器-解码器模型

基于 transformer 的编码器-解码器模型是 表征学习 和 模型架构 这两个领域多年研究成果的结晶。本文简要介绍了神经编码器-解码器模型的历史,更多背景知识,建议读者阅读由 Sebastion Ruder 撰...
admin的头像-五八三admin2年前
050
编码器 | 基于 Transformers 的编码器-解码器模型-五八三

编码器 | 基于 Transformers 的编码器-解码器模型

基于 transformer 的编码器-解码器模型是 表征学习 和 模型架构 这两个领域多年研究成果的结晶。本文简要介绍了神经编码器-解码器模型的历史,更多背景知识,建议读者阅读由 Sebastion Ruder 撰...
admin的头像-五八三admin2年前
0100