欢迎 Gemma: Google 最新推出开源大语言模型今天,Google 发布了一系列最新的开放式大型语言模型 —— Gemma!Google 正在加强其对开源人工智能的支持,我们也非常有幸能够帮助全力支持这次发布,并与 Hugging Face 生态完...AI 技术文章# Gemma# Google# LLM2年前05220
如何使用 Megatron-LM 训练语言模型在 PyTorch 中训练大语言模型不仅仅是写一个训练循环这么简单。我们通常需要将模型分布在多个设备上,并使用许多优化技术以实现稳定高效的训练。Hugging Face 🤗 Accelerate 的创...AI 技术文章# Hugging Face# LLM# Train2年前05120
Hugging Face 音频 AI 派对直播回放(上)为了庆祝 Hugging Face 新开设的免费开源 Audio Transformers 课程的启动,我们组织了一场不容错过的网络直播活动!这是直播回放的第一部分,错过直播的 宝子们别错过回放噢~AI 技术文章AI 视频教程# Audio# Transformers2年前04970
编码器 – 解码器 | 基于 Transformers 的编码器 – 解码器模型基于 transformer 的编码器-解码器模型是 表征学习 和 模型架构 这两个领域多年研究成果的结晶。本文简要介绍了神经编码器-解码器模型的历史,更多背景知识,建议读者阅读由 Sebastion...AI 技术文章# Hugging Face# Transformers3年前04970
RWKV – transformer 与 RNN 的强强联合在 NLP (Natural Language Processing, 自然语言处理) 领域,ChatGPT 和其他的聊天机器人应用引起了极大的关注。每个社区为构建自己的应用,也都在持续地寻求强大、可...AI 技术文章# Hugging Face# RNN# Transformers3年前04970
使用英特尔 Sapphire Rapids 加速 PyTorch Transformers 模型(第一部分)大约一年以前,我们 展示[1] 了如何在第三代 英特尔至强可扩展[2] CPU (即 Ice Lake) 集群上分布式训练 Hugging Face transformers 模型。最近,英特尔发布了...AI 技术文章# PyTorch# Sapphire Rapids# Transformers3年前04940
在英特尔 CPU 上加速 Stable Diffusion 推理前一段时间,我们向大家介绍了最新一代的 英特尔至强 CPU (代号 Sapphire Rapids),包括其用于加速深度学习的新硬件特性,以及如何使用它们来加速自然语言 transformer 模型的...AI 技术文章# CPU# Intel# Stable Diffusion3年前04930
重要变更 | Hugging Face Hub 的 Git 操作不再支持使用密码验证在 Hugging Face,我们一直致力于提升服务安全性,因此,我们将对通过 Git 与 Hugging Face Hub 交互时的认证方式进行更改。从 2023 年 10 月 1 日 开始,我们将...AI 技术文章# Git# Hugging Face Hub2年前04900
越小越好: Q8-Chat,在英特尔至强 CPU 上体验高效的生成式 AI大语言模型 (LLM) 正在席卷整个机器学习世界。得益于其 transformer 架构,LLM 拥有从大量非结构化数据 (如文本、图像、视频或音频) 中学习的不可思议的能力。它们在 多种任务类型 上...AI 技术文章# Chat# Hugging Face3年前04890
使用 diffusers 训练你自己的 ControlNet 🧨简介 ControlNet 这个神经网络模型使得用户可以通过施加额外条件,细粒度地控制扩散模型的生成过程。这一技术最初由 Adding Conditional Control to Text-to-I...AI 技术文章# ControlNet# Diffusers3年前04890