乐趣区

关于人工智能:Hugging-News-0821-新的里程碑一百万个代码仓库

每一周,咱们的共事都会向社区的成员们公布一些对于 Hugging Face 相干的更新,包含咱们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,咱们将其称之为「Hugging News」。本期 Hugging News 有哪些乏味的音讯,快来看看吧!🎉😍

重磅更新

庆贺 Hugging Face 模型核心上的一百万个代码仓库!🤯🔥

最近 Hugging Face 又获得一个重要里程碑,咱们的模型核心(Hub)上曾经领有一百万个代码仓库了!🔥🤗

自 2023 年 1 月 3 日起咱们的模型增长状况:

  • 模型:22 万 -> 51 万
  • 数据集:5 万 -> 23 万
  • Spaces(空间):3.9 万 -> 22 万

这所有都归功于开源的力量!🤝

Accelerate 减速库下载量过 3000 万!

在短短的两个月内,咱们的 Hugging Face Accelerate 减速库下载量从 2000 万增长到了 3000 万!看到 PyTorch 生态系统内的增长和应用状况十分令人惊叹,咱们对将来的倒退充斥期待!

🤗 Accelerate 减速库是一个可能通过仅增加四行代码在任何分布式配置下运行雷同 PyTorch 代码的库!它使得规模化进行训练和推断变得简略、高效且灵便。

🤗 Accelerate 减速库基于 torch_xla 和 torch.distributed 构建,负责解决沉重的工作,因而你无需编写任何自定义代码来适应这些平台。将现有代码库转换为应用 DeepSpeed,执行齐全分片的数据并行操作,并主动反对混合精度训练!如果想要理解更多对于 Accelerate 减速库的信息,请拜访我的项目:

💻GitHub:https://github.com/huggingface/accelerate
📘文档:https://huggingface.co/docs/accelerate/index

🤗 与 MLCommons 单干推出 MedPerf

Hugging Face 非常高兴可能与 MLCommons 单干,独特推出一个应用联结评估的医疗基准测试框架 MedPerf 🤗

这个凋谢的迷信倡导已在 NatMachIntell(天然 - 机器智能杂志)上发表,这是在严格和隐衷爱护的医疗 AI 模型评估迈出的重要一步。咱们置信医疗 AI 畛域须要更多的凋谢迷信致力,因而咱们很开心可能与 20 多个学术机构、9 家医院和 20 多家公司一起为这一致力作出贡献。

论文链接:https://nature.com/articles/s42256-023-00652-2
网站链接:https://medperf.org

开源更新

Hugging Face 物体检测排行榜 🥇🤗📢

非常高兴与大家分享咱们的最新创作:物体检测排行榜 🥇🤗📢

📐 开放式指标检测排行榜旨在跟踪、排名和评估存储在 Hub 中的视觉模型,这些模型旨在在图像中检测对象。社区中的任何人都能够申请对一个模型进行评估并将其增加到排行榜中。查看 📈 指标选项卡能够理解如何评估这些模型。

如果你想要没有列在此处的模型的后果,能够通过邮件 ✉️✨向咱们提出对其后果的申请。如果你有一个模型,也欢送带过去看看它的体现如何!🤗

快去看看吧:http://huggingface.co/spaces/rafaelpadilla/object_detection_leaderboard

推出 Agent.js 🥳🎉

咱们最近推出了 Agents.js,这是 huggingface.js 库的一个新内容,能够让你通过工具为你的 LLM 提供能源,仅应用 JavaScript 就能实现,能够让你从 JavaScript 中在浏览器或服务器上为 LLM 提供工具拜访!🚀 它装备了多模态工具,能够从 Hub 调用推理端点,并且能够轻松地通过你本人的工具和语言模型进行扩大。

在这里浏览更多信息:https://huggingface.co/blog/agents-js

用 2 行代码将 Bark 的文本转语音减速 30% ⚡

想要减速你的文本转语音生成吗?感激 Hugging Face 的 Optimum 和半精度,当初你只需两行代码就能够让 Bark 的生成速度晋升近 30%!

在这里测试每种优化:https://colab.research.google.com/drive/1XO0RhINg4ZZCdJJmPeJ9lOQs98skJ8h_?usp=sharing

如果你的内存受限,你能够通过只减少一行额定的代码来缩小 GPU 的内存占用,将其升高 60% 🤯,采纳 CPU 卸载!你也能够应用批处理取得收费的吞吐量,将批处理设置为 8 并应用 fp16,你能够取得 6 倍的吞吐量,而仅减慢 1.3 倍的速度!

💬 Bark 是由 Suno AI 在 suno-ai/bark 中提出的基于 transformer 的文本转语音模型。

Bark 由 4 个次要模型组成:

  • BarkSemanticModel(也称为“文本”模型):一种因果自回归 transformer 模型。
  • BarkCoarseModel(也称为“粗声学”模型):一种因果自回归 transformer,它以 BarkSemanticModel 模型的后果作为输出。它的指标是预测 EnCodec 所需的前两个音频码书。
  • BarkFineModel(“细声学”模型),这次是一种非因果自编码 transformer,它基于先前码书嵌入的总和,迭代地预测最初的码书。
  • 在预测了 EncodecModel 的所有码书通道后,Bark 应用它来解码输入音频数组。

HF Optimum 是 Hugging Face 开发的一个优化库,旨在进步深度学习模型训练的效率和性能。它主动地为模型抉择适合的超参数,如学习率、批大小等,以最大水平地进步训练速度和模型性能。HF Optimum 利用了主动调参技术,通过屡次试验不同的超参数组合,找到最优的组合,从而缩小了用户手动调参的工作量。

半精度(Half Precision)是一种深度学习训练中的数值示意形式,应用较少的位数来示意模型参数和梯度。传统的单精度浮点数应用 32 位示意,而 half precision 应用 16 位示意。尽管应用较少的位数会导致数值范畴的放大和精度的升高,但它可能显著缩小模型计算的工夫和内存需要,从而放慢训练速度。许多古代的深度学习库和硬件加速器都反对 half precision 训练,使得在性能和资源之间获得了均衡。

本期内容编辑: Shawn


以上就是本期的 Hugging News,新的一周开始了,咱们一起加油!💪🎉

退出移动版