在英特尔 CPU 上加速 Stable Diffusion 推理前一段时间,我们向大家介绍了最新一代的 英特尔至强 CPU (代号 Sapphire Rapids),包括其用于加速深度学习的新硬件特性,以及如何使用它们来加速自然语言 transformer 模型的...AI 技术文章# CPU# Intel# Stable Diffusion3年前04950
使用 Informer 进行多元概率时间序列预测介绍 几个月前,我们介绍了 Time Series Transformer,它是 Vanilla Transformer (Vaswani et al., 2017) 应用于预测的模型,并展示了单变量...AI 技术文章# Informer# Longformer# transformer2年前05340
在一张 24 GB 的消费级显卡上用 RLHF 微调 20B LLMs我们很高兴正式发布 trl 与 peft 的集成,使任何人都可以更轻松地使用强化学习进行大型语言模型 (LLM) 微调!在这篇文章中,我们解释了为什么这是现有微调方法的有竞争力的替代方案。 请注意, ...AI 技术文章# LLM# RLHF3年前04420
Kakao Brain 的开源 ViT、ALIGN 和 COYO 文字最近 Kakao Brain 在 Hugging Face 发布了一个全新的开源图像文本数据集 COYO,包含 7 亿对图像和文本,并训练了两个新的视觉语言模型 ViT 和 ALIGN ViT 和 A...AI 技术文章# ALIGN# COYO# Datasets2年前04070
使用 🧨 Diffusers 实现 ControlNet 高速推理自从 Stable Diffusion 风靡全球以来,人们一直在寻求如何更好地控制生成过程的方法。ControlNet 提供了一个简单的迁移学习方法,能够允许用户在很大程度上自定义生成过程。通过 Co...AI 技术文章# ControlNet# Diffusers2年前04720
开发 Diffusers 库的道德行为指南我们正在努力让我们每次发布的库更加负责! 我们很荣幸宣布我们发布了 道德守则,并将作为一部分其放入 Diffusers 库的说明文档。 由于扩散模型在现实世界上的实际应用例子会对社会造成潜在的负面影响...AI 技术文章# Diffusers3年前04210
为大语言模型建立红队对抗在巨量文本数据下训练的大语言模型非常擅长生成现实文本。但是,这些模型通常会显现出一些不良行为像泄露个人信息 (比如社会保险号) 和生成错误信息,偏置,仇恨或有毒内容。举个例子,众所周知,GPT3 的早...AI 技术文章# LLM3年前04410
🤗 PEFT:在低资源硬件上对十亿规模模型进行参数高效微调动机 基于 Transformers 架构的大型语言模型 (LLM),如 GPT、T5 和 BERT,已经在各种自然语言处理 (NLP) 任务中取得了最先进的结果。此外,还开始涉足其他领域,例如计算机...AI 技术文章# PEFT3年前04050
使用 SpeechT5 进行语音合成、识别和更多功能我们很高兴地宣布,SpeechT5 现在可用于 🤗 Transformers (一个开源库,提供最前沿的机器学习模型实现的开源库)。 SpeechT5 最初见于微软亚洲研究院的这篇论文 SpeechT...AI 技术文章# SpeechT5# Transformers# TTS2年前04070
使用 ChatGPT 设计游戏剧情——基于 AI 5 天创建一个农场游戏,完结篇!欢迎使用 AI 进行游戏开发! 在本系列中,我们将使用 AI 工具在 5 天内创建一个功能完备的农场游戏。到本系列结束时,您将了解到如何将多种 AI 工具整合到游戏开发流程中。本文将向您展示如何将 A...AI 技术文章# ChatGPT# Game3年前04760