使用 Gradio 的“热重载”模式快速开发 AI 应用在这篇文章中,我将展示如何利用 Gradio 的热重载模式快速构建一个功能齐全的 AI 应用。但在进入正题之前,让我们先了解一下什么是重载模式以及 Gradio 为什么要采用自定义的自动重载逻辑。如果...AI 技术文章# Gradio2年前04770
欢迎 Llama 3:Meta 的新一代开源大语言模型介绍 Meta 公司的 Llama 3 是开放获取的 Llama 系列的最新版本,现已在 Hugging Face 平台发布。看到 Meta 持续致力于开放 AI 领域的发展令人振奋,我们也非常高兴地...AI 技术文章# Llama3# LLM# 大语言模型2年前03460
Hugging Face Transformers 萌新完全指南欢迎阅读《Hugging Face Transformers 萌新完全指南》,本指南面向那些意欲了解有关如何使用开源 ML 的基本知识的人群。我们的目标是揭开 Hugging Face Transfo...AI 技术文章# Transformers2年前03430
笔记本电脑上的聊天机器人: 在英特尔 Meteor Lake 上运行 Phi-2对应于其强大的能力,大语言模型 (LLM) 需要强大的算力支撑,而个人计算机上很难满足这一需求。因此,我们别无选择,只能将它们部署至由本地或云端托管的性能强大的定制 AI 服务器上。 为何需要将 LL...AI 技术文章# Meteor Lake# Phi-2# 聊天机器人2年前03520
在 Google Cloud 上轻松部署开放大语言模型今天,我们想向大家宣布:“在 Google Cloud 上部署”功能正式上线! 这是 Hugging Face Hub 上的一个新功能,让开发者可以轻松地将数千个基础模型使用 Vertex AI 或 ...AI 技术文章# Google Cloud# 大语言模型# 开源大语言模型2年前03890
用于显著提高检索速度和降低成本的二进制和标量嵌入量化我们引入了嵌入量化的概念,并展示了它们对检索速度、内存使用、磁盘空间和成本的影响。我们将讨论理论上和实践中如何对嵌入进行量化,然后介绍一个 演示,展示了 4100 万维基百科文本的真实检索场景。 目录...AI 技术文章2年前03820
Hugging Face 开源大语言模型生态系统概览如何找到、缩小、适配并部署开源大型语言模型? 分享这个10分钟的教程,帮助你了解Hugging Face 🤗 中的各种工具,包括transformers、PEFT、TRL、TGI、Hub、Huggin...AI 视频教程# Hub# Hugging Chat# Hugging Face2年前03790
Quanto: PyTorch 量化工具包量化技术通过用低精度数据类型 (如 8 位整型 (int8)) 来表示深度学习模型的权重和激活,以减少传统深度学习模型使用 32 位浮点 (float32) 表示权重和激活所带来的计算和内存开销。 减...AI 技术文章# PyTorch# PyTorch 量化工具包# Quanto2年前04490
为 Hugging Face 用户带来无服务器 GPU 推理服务今天,我们非常兴奋地宣布 部署到 Cloudflare Workers AI 功能正式上线,这是 Hugging Face Hub 平台上的一项新服务,它使得通过 Cloudflare 边缘数据中心部...AI 技术文章# Cloudflare Workers AI# GPU# Hugging Face2年前03880
利用 🤗 Optimum Intel 和 fastRAG 在 CPU 上优化文本嵌入嵌入模型在很多场合都有广泛应用,如检索、重排、聚类以及分类。近年来,研究界在嵌入模型领域取得了很大的进展,这些进展大大提高了基于语义的应用的竞争力。BGE、GTE 以及 E5 等模型在 MTEB 基准...AI 技术文章# BGE# E5# fastRAG2年前04170