【AI安全探索】AI 流行的时代,我们应该担心什么?

Sasha Luccioni 作为Hugging Face 道德和可持续人工智能研究员,被邀请做了TED演讲📢 演讲主题也是最近在AI伦理道德方面的热门话题:人工智能流行的时代,我们...

🤗 Transformers 中原生支持的量化方案概述

本文旨在对 transformers 支持的各种量化方案及其优缺点作一个清晰的概述,以助于读者进行方案选择。 目前,量化模型有两个主要的用途: 在较小的设备上进行...

Hugging Face 联合 Meta, Scaleway, STATION F启动人工智能创业项目 📢

Hugging Face、Meta、Scaleway 与法国创业孵化基地 STATION F 合作的人工智能创业项目正式启动 📢 🔥 申请截止日期为 12 月 1 日 本项目旨在利用开源人工智能的...

开源模型 Zephyr-7B 发布——跨越三大洲的合作

最近我们刚刚发布了新的开源模型 Zephry-7B ,这个模型的诞生离不开全球三大洲开源社区的协作 ❤️。 我们的 CSO Thomas 录了一个视频介绍了它的起源故事: ✨ ...

用 bitsandbytes、4 比特量化和 QLoRA 打造亲民的 LLM

众所周知,LLM 规模庞大,如果在也能消费类硬件中运行或训练它们将是其亲民化的巨大进步。我们之前撰写的 LLM.int8 博文 展示了我们是如何将 LLM.int8 论文 ...

使用 MakerSuite 的调整功能快速生成高质量模型

作者: AI 开发者关系团队 Joe Fernandez,以及 AI 开发者营销 人工智能 (AI) 是我们正在积极探索的前沿科技领域。尽管很多人都对使用 AI 感兴趣,但我们意识...

【发布会回放】Gradio 4.0 正式发布!

Gradio 的目标是使机器学习模型的演示更容易定制和访问,以满足不同用户的需求。在 4.0 正式版的发布活动上,Hugging Face 的 Gradio 团队介绍了自己为了提高...

长程 Transformer 模型

Tay 等人的 Efficient Transformers taxonomy from Efficient Transformers: a Survey 论文 本文由 Teven Le Scao、Patrick Von Platen、Suraj Patil、Yaci...

Hugging Face: 代码生成模型的预训练和微调

和大家分享我们的机器学习工程师 Loubna Ben Allal 在 10 月上海 KubeCon 大会的主题演讲 题目是: 代码生成模型的预训练和微调 演讲介绍了构建和训练大型代...

面向生产的 LLM 优化

注意 : _本文同时也是 Transformers 的文档。_ 以 GPT3/4、Falcon 以及 LLama 为代表的大语言模型 (Large Language Model,LLM) 在处理以人为中心的任务上能...
1121314151622