在 Transformers 中使用对比搜索生成可媲美人类水平的文本🤗1. 引言 自然语言生成 (即文本生成) 是自然语言处理 (NLP) 的核心任务之一。本文将介绍神经网络文本生成领域当前最先进的解码方法 对比搜索 (Contrastive Search)。提出该方法...AI 技术文章# Transformers3年前04090
使用 SpeechT5 进行语音合成、识别和更多功能我们很高兴地宣布,SpeechT5 现在可用于 🤗 Transformers (一个开源库,提供最前沿的机器学习模型实现的开源库)。 SpeechT5 最初见于微软亚洲研究院的这篇论文 SpeechT...AI 技术文章# SpeechT5# Transformers# TTS2年前04050
俄罗斯套娃 (Matryoshka) 嵌入模型概述在这篇博客中,我们将向你介绍俄罗斯套娃嵌入的概念,并解释为什么它们很有用。我们将讨论这些模型在理论上是如何训练的,以及你如何使用 Sentence Transformers 来训练它们。 除此之外,我...AI 技术文章# Matryoshka# MultiNLI# Sentence Transformers2年前03920
Google Colab 现已支持直接使用 🤗 transformers 库Google Colab,全称 Colaboratory,是 Google Research 团队开发的一款产品。在 Colab 中,任何人都可以通过浏览器编写和执行任意 Python 代码。它尤其适...AI 技术文章# Google Colab# transformer# Transformers2年前03880
深入理解 BigBird 的块稀疏注意力4## 引言 基于 transformer 的模型已被证明对很多 NLP 任务都非常有用。然而,$$O(n^2)$$ 的时间和内存复杂度 (其中 $$n$$ 是序列长度) 使得在长序列 ($n >...AI 技术文章# BERT# BigBird# Longformer2年前03870
Transformers.js:Web 上的最新机器学习技术我们的工程师,Transformers.js 作者Joshua Lochne在2023年11月18日在杭州举办 FEDAY 上带来了主题为「Transformers.js: State-of-the...AI 技术文章AI 视频教程# transformer# Transformers# Web2年前03840
Hugging Face 开源大语言模型生态系统概览如何找到、缩小、适配并部署开源大型语言模型? 分享这个10分钟的教程,帮助你了解Hugging Face 🤗 中的各种工具,包括transformers、PEFT、TRL、TGI、Hub、Huggin...AI 视频教程# Hub# Hugging Chat# Hugging Face2年前03790
欢迎 Mixtral – 当前 Hugging Face 上最先进的 MoE 模型最近,Mistral 发布了一个激动人心的大语言模型: Mixtral 8x7b,该模型把开放模型的性能带到了一个新高度,并在许多基准测试上表现优于 GPT-3.5。我们很高兴能够在 Hugging ...AI 技术文章# GPTQ# Mixtral# MoE 模型2年前03680
使用 FHE 实现加密大语言模型近来,大语言模型 (LLM) 已被证明是提高编程、内容生成、文本分析、网络搜索及远程学习等诸多领域生产力的可靠工具。 大语言模型对用户隐私的影响 尽管 LLM 很有吸引力,但如何保护好 输入给这些模型...AI 技术文章# FHE# Fully Homomorphic Encryption# GPT22年前03650
🤗 Transformers 中原生支持的量化方案概述本文旨在对 transformers 支持的各种量化方案及其优缺点作一个清晰的概述,以助于读者进行方案选择。 目前,量化模型有两个主要的用途: 在较小的设备上进行大模型推理 对量化模型进行适配器微调 ...AI 技术文章# Transformers# 量化2年前03600