欢迎 Mixtral – 当前 Hugging Face 上最先进的 MoE 模型最近,Mistral 发布了一个激动人心的大语言模型: Mixtral 8x7b,该模型把开放模型的性能带到了一个新高度,并在许多基准测试上表现优于 GPT-3.5。我们很高兴能够在 Hugging ...AI 技术文章# GPTQ# Mixtral# MoE 模型2年前03680
Hugging Face 年度回顾:2023,开源大模型之年在 2023 年,大型语言模型(Large Language Models,简称 LLMs)受到了公众的广泛关注,许多人对这些模型的本质及其功能有了基本的了解。是否开源的议题同样引起了广泛的讨论。在 ...AI 技术文章# Hugging Face# LLM2年前03790
Reformer 模型 – 突破语言建模的极限Reformer 如何在不到 8GB 的内存上训练 50 万个词元 Kitaev、Kaiser 等人于 20202 年引入的 Reformer 模型 是迄今为止长序列建模领域内存效率最高的 trans...AI 技术文章# LSH# Reformer# Reformer 模型2年前03510
混合专家模型 (MoE) 详解随着 Mixtral 8x7B (announcement, model card) 的推出,一种称为混合专家模型 (Mixed Expert Models,简称 MoEs) 的 Transforme...AI 技术文章# MoE# 混合专家模型2年前03880
3D 高斯点染简介3D 高斯点染技术由 3D Gaussian Splatting for Real-Time Radiance Field Rendering 一文首次提出。作为一种栅格化技术,3D 高斯点染可用于实...AI 技术文章# 3D# 3D 高斯点染# SfM2年前03410
Project Guideline: 开源的计算机视觉无障碍技术平台作者 / Google 研究软件工程师 Dave Hawkey 两年前,我们 宣布推出 Google 研究和 Guiding Eyes for the Blind 合作的 Project Guidel...AI 技术文章# ARCore# DeepLabV3+# MediaPipe2年前03630
Google Colab 环境现已无需手动登录 HF 账号Google Colab,全称 Colaboratory,是 Google Research 团队开发的一款产品。在 Colab 中,任何人都可以通过浏览器编写和执行任意 Python 代码。它尤其适...AI 技术文章# Colaboratory# Google Colab2年前03370
在灾难推文分析场景上比较用 LoRA 微调 Roberta、Llama 2 和 Mistral 的过程及表现引言 自然语言处理 (NLP) 领域的进展日新月异,你方唱罢我登场。因此,在实际场景中,针对特定的任务,我们经常需要对不同的语言模型进行比较,以寻找最适合的模型。本文主要比较 3 个模型: RoBER...AI 技术文章# Llama 2# LoRA# Mistral2年前03620
3D 高斯喷溅 🤗 为什么图形永远不会相同高斯喷溅 (Gaussian Splatting) 技术是一种翻天覆地的渲染手段,能够以 144 帧每秒的速度渲染出高质量的场景,这和传统的图形处理流程截然不同 🎨 这种将高斯数据转换成图像的过程,与...AI 技术文章AI 视频教程# 3D# Gaussian Splatting2年前04050
使用 PyTorch FSDP 微调 Llama 2 70B引言 通过本文,你将了解如何使用 PyTorch FSDP 及相关最佳实践微调 Llama 2 70B。在此过程中,我们主要会用到 Hugging Face Transformers、Accelera...AI 技术文章# Accelerate# FSDP# Llama 2 70B2年前03610