共计 1572 个字符,预计需要花费 4 分钟才能阅读完成。
每一周,咱们的共事都会向社区的成员们公布一些对于 Hugging Face 相干的更新,包含咱们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,咱们将其称之为「Hugging News」,本期 Hugging News 有哪些乏味的音讯,快来看看吧!
重磅更新
safetensors 将成为保留模型的默认格局
咱们近期与 EleutherAI 和 Stability AI 密切合作,独特对 safetensors
库进行了一次平安审计,后果证实其安全可靠,咱们也将默认采纳应用这个格局来保留模型,并在其余相干库中提供反对和更新,为机器学习带来更平安、高效的体验。
下载报告: https://huggingface.link/hf-st-report
查看 EleutherAI 的博客文章理解更多:
https://blog.eleuther.ai/safetensors-security-audit/
开源更新
发表与微软的单干,将开源模型带到 Azure 中
微软与咱们单干,将开源模型引入了 Azure Machine Learning。本次单干使用户们能够在 Azure ML 模型目录中找到成千上万个 Transformer 模型,仅需几次点击即可部署它们。AzureML 提供了托管的在线 endpoint,用于平安和可扩大的推理。
发表与 IBM 企业 AI 工作室 Watsonx.ai 的单干
watsonx.ai 是新一代的企业工作室,针对那些有严格合规问题、只能在公司外部的基础设施上解决秘密数据的需要提供了一个开源的解决方案,通过 watsonx.ai 你能够建设本人外部的机器学习平台,应用规范的 DevOps 工具进行部署和治理。
watsonx.ai 还集成了许多 Hugging Face 开源库,如 transformers、accelerate、peft 和咱们的文本生成推理服务器等。
Jsonformer: 一个 Gradio 利用示例,通过语言模型生成语法正确的 JSON 内容
通过限度 / 缩减语言模型的输入空间,生成语法正确的 JSON 内容,快来上手试试看吧!
https://huggingface.co/spaces/mishig/jsonformer
全新教程: 如何应用 🤗Transformers 从头训练一个语言模型
Keras 官网公布了一个教程文章,演示了如何应用 🤗 Transformers 和 TPU 训练掩码语言模型。包含数据筹备、模型初始化、优化器设置和训练过程,能够学习到如何利用 TPU 的高性能和可扩展性进行大规模模型训练。
https://keras.io/examples/nlp/mlm_training_tpus/
无需服务器,间接在浏览器中运行 🤗 Transformers!
transformers.js 是一个用于网页端的机器学习库,能够间接在浏览器中运行 🤗 Transformers,它反对自然语言解决、计算机视觉、音频和多模态工作。transformers.js 2.2.0 曾经与上周正式公布,退出了应用 Whisper 进行多语言语音辨认和翻译的性能。
你能够在这里体验:
https://hf.co/spaces/Xenova/whisper-web
流动回放
AI 快速增长年 – 来自 HuggingFace 开源社区的新进展
【视频】
2023 北京智源大会胜利召开,咱们的机器学习工程师黄靖雅带来的分享《AI 快速增长年 – 来自 HuggingFace 开源社区的新进展》让全场观众播种满满,并对 Hugging Face 正在做的开源有了更深一步的理解。请在下面的视频号上查看本次演讲的回放内容,或者来哔哩哔哩视频链接下方与咱们互动。
https://www.bilibili.com/video/BV1qk4y1n7qa/
以上就是本周 Hugging News,祝大家有一个欢快的周末,购物之余不要遗记陪伴本人的父亲过一个父亲节!