如何生成文本: 通过 Transformers 用不同的解码方法生成文本简介 近年来,随着以 OpenAI GPT2 模型 为代表的基于数百万网页数据训练的大型 Transformer 语言模型的兴起,开放域语言生成领域吸引了越来越多的关注。开放域中的条件语言生成效果令人...AI 技术文章# Transformers3年前04480
在 Transformers 中使用约束波束搜索引导文本生成引言 本文假设读者已经熟悉文本生成领域波束搜索相关的背景知识,具体可参见博文 如何生成文本: 通过 Transformers 用不同的解码方法生成文本。 与普通的波束搜索不同,约束 波束搜索允许我们控...AI 技术文章# Transformers3年前04470
使用 🤗 Transformers 进行概率时间序列预测介绍 时间序列预测是一个重要的科学和商业问题,因此最近通过使用基于深度学习 而不是经典方法的模型也涌现出诸多创新。ARIMA 等经典方法与新颖的深度学习方法之间的一个重要区别如下。 概率预测 通常,经...AI 技术文章# Transformers3年前04400
CPU 推理 | 使用英特尔 Sapphire Rapids 加速 PyTorch Transformers在 最近的一篇文章 中,我们介绍了代号为 Sapphire Rapids 的第四代英特尔至强 CPU 及其新的先进矩阵扩展 (AMX) 指令集。通过使用 Amazon EC2 上的 Sapphire ...AI 技术文章# PyTorch# Sapphire Rapids# Transformers3年前04370
SetFit: 高效的无提示少样本学习与标准微调相比,SetFit 能更高效地利用训练样本,同时对噪声也更健壮。 如何处理少标签或无标签的训练数据是每个数据科学家的梦魇 😱。最近几年来,基于预训练语言模型的少样本 (few-shot) 学...AI 技术文章# Prompts# Transformers3年前04320
大规模 Transformer 模型 8 比特矩阵乘简介 – 基于 Hugging Face Transformers、Accelerate 以及 bitsandbytes引言 语言模型一直在变大。截至撰写本文时,PaLM 有 5400 亿参数,OPT、GPT-3 和 BLOOM 有大约 1760 亿参数,而且我们仍在继续朝着更大的模型发展。下图总结了最近的一些语言模型...AI 技术文章# Accelerate# bitsandbytes# Transformers3年前04240
句子嵌入: 交叉编码和重排序这个系列目的是揭开嵌入的神秘面纱,并展示如何在你的项目中使用它们。第一篇博客 介绍了如何使用和扩展开源嵌入模型,选择现有的模型,当前的评价方法,以及生态系统的发展状态。第二篇博客将会更一步深入嵌入并解...AI 技术文章# Bi-encoder# Cross Encoder# LLM2年前04210
基于 Hugging Face Datasets 和 Transformers 的图像相似性搜索通过本文,你将学习使用 🤗 Transformers 构建图像相似性搜索系统。找出查询图像和潜在候选图像之间的相似性是信息检索系统的一个重要用例,例如反向图像搜索 (即找出查询图像的原图)。此类系统试...AI 技术文章# Datasets# Transformers2年前04210
在 Transformers 中使用对比搜索生成可媲美人类水平的文本 🤗1. 引言 自然语言生成 (即文本生成) 是自然语言处理 (NLP) 的核心任务之一。本文将介绍神经网络文本生成领域当前最先进的解码方法 对比搜索 (Contrastive Search)。提出该方法...AI 技术文章# Transformers3年前04100
授权调用: 介绍 Transformers 智能体 2.0简要概述 我们推出了 Transformers 智能体 2.0! ⇒ 🎁 在现有智能体类型的基础上,我们新增了两种能够 根据历史观察解决复杂任务的智能体。 ⇒ 💡 我们致力于让代码 清晰、模块化,并确...AI 技术文章# Transformers# 智能体2年前04090