使用 FHE 实现加密大语言模型近来,大语言模型 (LLM) 已被证明是提高编程、内容生成、文本分析、网络搜索及远程学习等诸多领域生产力的可靠工具。 大语言模型对用户隐私的影响 尽管 LLM 很有吸引力,但如何保护好 输入给这些模型...AI 技术文章# FHE# Fully Homomorphic Encryption# GPT22年前03650
重磅| Falcon 180B 正式在 Hugging Face Hub 上发布!引言 我们很高兴地宣布由 Technology Innovation Institute (TII) 训练的开源大模型 Falcon 180B 登陆 Hugging Face! Falcon 180B...AI 技术文章# Falcon 180B# Hugging Face Hub# LLM2年前03650
面向生产的 LLM 优化注意 : _本文同时也是 Transformers 的文档。_ 以 GPT3/4、Falcon 以及 LLama 为代表的大语言模型 (Large Language Model,LLM) 在处理以人为...AI 技术文章# Falcon# GPT3# GPT3/42年前03630
人工智能水印技术入门:工具与技巧近几个月来,我们看到了多起关于“深度伪造 (deepfakes)”或人工智能生成内容的新闻报道:从 泰勒·斯威夫特的图片、汤姆·汉克斯的视频 到 美国总统乔·拜登的录音。这些深度伪造内容被用于各种目的...AI 技术文章# Fawkes# Glaze# GLTR2年前03620
在灾难推文分析场景上比较用 LoRA 微调 Roberta、Llama 2 和 Mistral 的过程及表现引言 自然语言处理 (NLP) 领域的进展日新月异,你方唱罢我登场。因此,在实际场景中,针对特定的任务,我们经常需要对不同的语言模型进行比较,以寻找最适合的模型。本文主要比较 3 个模型: RoBER...AI 技术文章# Llama 2# LoRA# Mistral2年前03610
🤗 Transformers 中原生支持的量化方案概述本文旨在对 transformers 支持的各种量化方案及其优缺点作一个清晰的概述,以助于读者进行方案选择。 目前,量化模型有两个主要的用途: 在较小的设备上进行大模型推理 对量化模型进行适配器微调 ...AI 技术文章# Transformers# 量化2年前03610
Huggy Lingo: 利用机器学习改进 Hugging Face Hub 上的语言元数据太长不看版: Hub 上有不少数据集没有语言元数据,我们用机器学习来检测其语言,并使用 librarian-bots 自动向这些数据集提 PR 以添加其语言元数据。 Hugging Face Hub ...AI 技术文章# Hugging Face Hub# Huggy Lingo# 语言元数据2年前03590
使用 PyTorch FSDP 微调 Llama 2 70B引言 通过本文,你将了解如何使用 PyTorch FSDP 及相关最佳实践微调 Llama 2 70B。在此过程中,我们主要会用到 Hugging Face Transformers、Accelera...AI 技术文章# Accelerate# FSDP# Llama 2 70B2年前03570
Project Guideline: 开源的计算机视觉无障碍技术平台作者 / Google 研究软件工程师 Dave Hawkey 两年前,我们 宣布推出 Google 研究和 Guiding Eyes for the Blind 合作的 Project Guidel...AI 技术文章# ARCore# DeepLabV3+# MediaPipe2年前03540
笔记本电脑上的聊天机器人: 在英特尔 Meteor Lake 上运行 Phi-2对应于其强大的能力,大语言模型 (LLM) 需要强大的算力支撑,而个人计算机上很难满足这一需求。因此,我们别无选择,只能将它们部署至由本地或云端托管的性能强大的定制 AI 服务器上。 为何需要将 LL...AI 技术文章# Meteor Lake# Phi-2# 聊天机器人2年前03520