辅助生成: 低延迟文本生成的新方向大型语言模型如今风靡一时,许多公司投入大量资源来扩展它们规模并解锁新功能。然而,作为注意力持续时间不断缩短的人类,我们并不喜欢大模型缓慢的响应时间。由于延迟对于良好的用户体验至关重要,人们通常使用较小...AI 技术文章# TXT2年前04340
使用 LoRA 进行 Stable Diffusion 的高效参数微调LoRA: Low-Rank Adaptation of Large Language Models 是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。目前超过数十亿以上参数的具有强能力的大...AI 技术文章# LoRA# Stable Diffusion2年前04740
基于 Hugging Face Datasets 和 Transformers 的图像相似性搜索通过本文,你将学习使用 🤗 Transformers 构建图像相似性搜索系统。找出查询图像和潜在候选图像之间的相似性是信息检索系统的一个重要用例,例如反向图像搜索 (即找出查询图像的原图)。此类系统试...AI 技术文章# Datasets# Transformers2年前04210
StarCoder: 最先进的代码大模型关于 BigCode BigCode 是由 Hugging Face 和 ServiceNow 共同领导的开放式科学合作项目,该项目致力于开发负责任的代码大模型。 StarCoder 简介 StarC...AI 技术文章# LLM2年前04050
从 GPT2 到 Stable Diffusion:Elixir 社区迎来了 Hugging Face上周,Elixir 社区向大家宣布,Elixir 语言社区新增从 GPT2 到 Stable Diffusion 的一系列神经网络模型。这些模型得以实现归功于 刚刚发布的 Bumblebee 库。Bu...AI 技术文章# Elixir# GPT2# Stable Diffusion2年前04210
使用 🧨 Diffusers 实现 ControlNet 高速推理自从 Stable Diffusion 风靡全球以来,人们一直在寻求如何更好地控制生成过程的方法。ControlNet 提供了一个简单的迁移学习方法,能够允许用户在很大程度上自定义生成过程。通过 Co...AI 技术文章# ControlNet# Diffusers2年前04700
辅助生成:低延迟文本生成的新方向大型语言模型如今风靡一时,许多公司投入大量资源来扩展它们规模并解锁新功能。然而,作为注意力持续时间不断缩短的人类,我们并不喜欢大模型缓慢的响应时间。由于延迟对于良好的用户体验至关重要,人们通常使用较小...AI 技术文章# GPT# Hugging Face# Transformers2年前04800
使用 Megatron-LM 训练语言模型在 PyTorch 中训练大语言模型不仅仅是写一个训练循环这么简单。我们通常需要将模型分布在多个设备上,并使用许多优化技术以实现稳定高效的训练。Hugging Face 🤗 Accelerate 的创...AI 技术文章# LLM# PyTorch# Transformers2年前04790
“StackLLaMA”: 用 RLHF 训练 LLaMA 的手把手教程如 ChatGPT,GPT-4,Claude语言模型 之强大,因为它们采用了 基于人类反馈的强化学习 (Reinforcement Learning from Human Feedback, RLHF...AI 技术文章# LLaMA# RLHF# StackLLaMA2年前03930
道德与社会问题简报 #3: Hugging Face 上的道德开放性使命:开放和优秀的机器学习 在我们的使命中,我们致力于推动机器学习(ML)的民主化,我们在研究如何支持 ML 社区工作并有助于检查危害和防止可能的危害发生。开放式的发展和科学可以分散力量,让许多人集体...AI 技术文章# AI道德2年前03790