🤗 Transformers 中原生支持的量化方案概述本文旨在对 transformers 支持的各种量化方案及其优缺点作一个清晰的概述,以助于读者进行方案选择。 目前,量化模型有两个主要的用途: 在较小的设备上进行大模型推理 对量化模型进行适配器微调 ...AI 技术文章# Transformers# 量化2年前03600
机器学习即代码的时代已经到来译者注: 到底是 AI 会吃掉软件还是软件会吃掉 AI?为了 job security 工程师应该把宝押在哪儿?这篇 2021 年的文章提供的一些视角似乎印证了它现在的流行,有点“运筹于帷幄之中,决胜...AI 技术文章# Kubeflow# ML# MLOps2年前03390
使用 FHE 实现加密大语言模型近来,大语言模型 (LLM) 已被证明是提高编程、内容生成、文本分析、网络搜索及远程学习等诸多领域生产力的可靠工具。 大语言模型对用户隐私的影响 尽管 LLM 很有吸引力,但如何保护好 输入给这些模型...AI 技术文章# FHE# Fully Homomorphic Encryption# GPT22年前03650
在 Transformers 中使用约束波束搜索引导文本生成引言 本文假设读者已经熟悉文本生成领域波束搜索相关的背景知识,具体可参见博文 如何生成文本: 通过 Transformers 用不同的解码方法生成文本。 与普通的波束搜索不同,约束 波束搜索允许我们控...AI 技术文章# Transformers3年前04470
解码器 | 基于 Transformers 的编码器-解码器模型基于 transformer 的编码器-解码器模型是 表征学习 和 模型架构 这两个领域多年研究成果的结晶。本文简要介绍了神经编码器-解码器模型的历史,更多背景知识,建议读者阅读由 Sebastion...AI 技术文章# Transformers3年前05260
编码器 – 解码器 | 基于 Transformers 的编码器 – 解码器模型基于 transformer 的编码器-解码器模型是 表征学习 和 模型架构 这两个领域多年研究成果的结晶。本文简要介绍了神经编码器-解码器模型的历史,更多背景知识,建议读者阅读由 Sebastion...AI 技术文章# Hugging Face# Transformers3年前04970
背景 | 基于 Transformers 的编码器 – 解码器模型!pip install transformers==4.2.1 !pip install sentencepiece==0.1.95 Vaswani 等人在其名作 Attention is all ...AI 技术文章# Hugging Face# Transformers3年前05340
RWKV – transformer 与 RNN 的强强联合在 NLP (Natural Language Processing, 自然语言处理) 领域,ChatGPT 和其他的聊天机器人应用引起了极大的关注。每个社区为构建自己的应用,也都在持续地寻求强大、可...AI 技术文章# Hugging Face# RNN# Transformers3年前04970
在 Transformers 中使用对比搜索生成可媲美人类水平的文本 🤗1. 引言 自然语言生成 (即文本生成) 是自然语言处理 (NLP) 的核心任务之一。本文将介绍神经网络文本生成领域当前最先进的解码方法 对比搜索 (Contrastive Search)。提出该方法...AI 技术文章# Transformers3年前04100
使用 Transformers 进行图分类在之前的 博文 中,我们探讨了图机器学习的一些理论知识。这一篇我们将探索如何使用 Transformers 库进行图分类。(你也可以从 此处 下载演示 notebook,跟着一起做!) 目前,Tran...AI 技术文章# Transformers3年前04520