欢迎 Mixtral – 当前 Hugging Face 上最先进的 MoE 模型最近,Mistral 发布了一个激动人心的大语言模型: Mixtral 8x7b,该模型把开放模型的性能带到了一个新高度,并在许多基准测试上表现优于 GPT-3.5。我们很高兴能够在 Hugging ...AI 技术文章# GPTQ# Mixtral# MoE 模型2年前03680
使用 PyTorch FSDP 微调 Llama 2 70B引言 通过本文,你将了解如何使用 PyTorch FSDP 及相关最佳实践微调 Llama 2 70B。在此过程中,我们主要会用到 Hugging Face Transformers、Accelera...AI 技术文章# Accelerate# FSDP# Llama 2 70B2年前03570
Google Colab 现已支持直接使用 🤗 transformers 库Google Colab,全称 Colaboratory,是 Google Research 团队开发的一款产品。在 Colab 中,任何人都可以通过浏览器编写和执行任意 Python 代码。它尤其适...AI 技术文章# Google Colab# transformer# Transformers2年前03870
深入理解 BigBird 的块稀疏注意力4## 引言 基于 transformer 的模型已被证明对很多 NLP 任务都非常有用。然而,$$O(n^2)$$ 的时间和内存复杂度 (其中 $$n$$ 是序列长度) 使得在长序列 ($n >...AI 技术文章# BERT# BigBird# Longformer2年前03860
Transformers.js:Web 上的最新机器学习技术我们的工程师,Transformers.js 作者Joshua Lochne在2023年11月18日在杭州举办 FEDAY 上带来了主题为「Transformers.js: State-of-the...AI 技术文章AI 视频教程# transformer# Transformers# Web2年前03830
🤗 Transformers 中原生支持的量化方案概述本文旨在对 transformers 支持的各种量化方案及其优缺点作一个清晰的概述,以助于读者进行方案选择。 目前,量化模型有两个主要的用途: 在较小的设备上进行大模型推理 对量化模型进行适配器微调 ...AI 技术文章# Transformers# 量化2年前03600
机器学习即代码的时代已经到来译者注: 到底是 AI 会吃掉软件还是软件会吃掉 AI?为了 job security 工程师应该把宝押在哪儿?这篇 2021 年的文章提供的一些视角似乎印证了它现在的流行,有点“运筹于帷幄之中,决胜...AI 技术文章# Kubeflow# ML# MLOps2年前03390
使用 FHE 实现加密大语言模型近来,大语言模型 (LLM) 已被证明是提高编程、内容生成、文本分析、网络搜索及远程学习等诸多领域生产力的可靠工具。 大语言模型对用户隐私的影响 尽管 LLM 很有吸引力,但如何保护好 输入给这些模型...AI 技术文章# FHE# Fully Homomorphic Encryption# GPT22年前03650
Hugging Face 音频 AI 派对直播回放(上)为了庆祝 Hugging Face 新开设的免费开源 Audio Transformers 课程的启动,我们组织了一场不容错过的网络直播活动!这是直播回放的第一部分,错过直播的 宝子们别错过回放噢~AI 技术文章AI 视频教程# Audio# Transformers2年前04970
在 Transformers 中使用约束波束搜索引导文本生成引言 本文假设读者已经熟悉文本生成领域波束搜索相关的背景知识,具体可参见博文 如何生成文本: 通过 Transformers 用不同的解码方法生成文本。 与普通的波束搜索不同,约束 波束搜索允许我们控...AI 技术文章# Transformers3年前04470