更快的辅助生成: 动态推测⭐ 在这篇博客文章中,我们将探讨 动态推测解码 ——这是由英特尔实验室和 Hugging Face 开发的一种新方法,可以加速文本生成高达 2.7 倍,具体取决于任务。从 Transformers🤗 ...AI 技术文章# Transformers1年前01790
基于 Quanto 和 Diffusers 的内存高效 transformer 扩散模型过去的几个月,我们目睹了使用基于 transformer 模型作为扩散模型的主干网络来进行高分辨率文生图 (text-to-image,T2I) 的趋势。和一开始的许多扩散模型普遍使用 UNet 架构...AI 技术文章# Diffusers# Quanto# Transformers1年前02030
用 Sentence Transformers v3 训练和微调嵌入模型Sentence Transformers 是一个 Python 库,用于使用和训练各种应用的嵌入模型,例如检索增强生成 (RAG)、语义搜索、语义文本相似度、释义挖掘 (paraphrase min...AI 技术文章# Transformers2年前02730
授权调用: 介绍 Transformers 智能体 2.0简要概述 我们推出了 Transformers 智能体 2.0! ⇒ 🎁 在现有智能体类型的基础上,我们新增了两种能够 根据历史观察解决复杂任务的智能体。 ⇒ 💡 我们致力于让代码 清晰、模块化,并确...AI 技术文章# Transformers# 智能体2年前04090
万事通,专精部分领域的多功能 Transformer 智能体介绍 我们很高兴分享“万事通”(Jack of All Trades,简称 JAT) 项目,该项目旨在朝着通用智能体的方向发展。该项目最初是作为对 Gato (Reed 等,2022 年) 工作的公开...AI 技术文章# JAT# Transformers2年前03110
Hugging Face Transformers 萌新完全指南欢迎阅读《Hugging Face Transformers 萌新完全指南》,本指南面向那些意欲了解有关如何使用开源 ML 的基本知识的人群。我们的目标是揭开 Hugging Face Transfo...AI 技术文章# Transformers2年前03430
Hugging Face 开源大语言模型生态系统概览如何找到、缩小、适配并部署开源大型语言模型? 分享这个10分钟的教程,帮助你了解Hugging Face 🤗 中的各种工具,包括transformers、PEFT、TRL、TGI、Hub、Huggin...AI 视频教程# Hub# Hugging Chat# Hugging Face2年前03790
欢迎 Mixtral – 当前 Hugging Face 上最先进的 MoE 模型最近,Mistral 发布了一个激动人心的大语言模型: Mixtral 8x7b,该模型把开放模型的性能带到了一个新高度,并在许多基准测试上表现优于 GPT-3.5。我们很高兴能够在 Hugging ...AI 技术文章# GPTQ# Mixtral# MoE 模型2年前03680
俄罗斯套娃 (Matryoshka) 嵌入模型概述在这篇博客中,我们将向你介绍俄罗斯套娃嵌入的概念,并解释为什么它们很有用。我们将讨论这些模型在理论上是如何训练的,以及你如何使用 Sentence Transformers 来训练它们。 除此之外,我...AI 技术文章# Matryoshka# MultiNLI# Sentence Transformers2年前03900
使用 Hugging Face 微调 Gemma 模型我们最近宣布了,来自 Google Deepmind 开放权重的语言模型 Gemma现已通过 Hugging Face 面向更广泛的开源社区开放。该模型提供了两个规模的版本:20 亿和 70 亿参数...AI 技术文章# Cloud TPU# Colab# DeepMind2年前05570