关于人工智能:Hugging-News-0317-ChatGLM-会成为-HF-趋势榜的第一名吗

1次阅读

共计 2005 个字符,预计需要花费 6 分钟才能阅读完成。

每一周,咱们的共事都会向社区的成员们公布一些对于 Hugging Face 相干的更新,包含咱们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,咱们将其称之为「Hugging News」,本期 Hugging News 有哪些乏味的音讯,快来看看吧!

社区活动

寰球社区的 Keras Dreambooth 流动公布

咱们的寰球 Hugging Face 社区正在举办一个应用 KerasCV 训练 Dreambooth 模型的流动,工夫是 3 月 7 日到 4 月 1 日。欢送大家加入!

  • 流动页面: https://hf.co/keras-dreambooth
  • Notebook: https://bit.ly/keras-dreambooth-sprint

同时不要遗记加入咱们中国社区 与 PaddlePaddle 联结的举办的微调黑客松,以及 与百姓 AI 联结举办的聊天机器人黑客松流动。

开源库更新

Diffusers 现已反对应用 ControlNet

感激社区贡献者 Takuma Mori (@takuma104) 的巨大贡献,帮忙将 ControlNet 集成到 Diffusers 中,Diffusers 现已反对应用 ControlNet。相似 Diffusers 中的其余 Pipeline,Diffusers 同样为 ControlNet 提供了 StableDiffusionControlNetPipeline 供用户应用。StableDiffusionControlNetPipeline 的外围是 controlnet 参数,它接管用户指定的训练过的 ControlNetModel 实例作为输出,同时放弃扩散模型的预训练权重不变。

更多详细情况和应用阐明,请查看咱们的推文:《应用 🧨 Diffusers 实现 ControlNet 高速推理》。

Gradio 3.20 现已公布,退出聊天机器人组件

除了聊天机器人组件,3.20 版的 Gradio 还退出了很多图像展现、下拉菜单、滑块等 UI/UX 的改良。查看 Gradio 官网理解更多:
https://gradio.app/

Flan UL2 曾经在 Hugging Face 上开源

Google 开源的预训练大语言模型 Flan-UL2 曾经公布到 Hugging Face Hub,欢送来这里理解更多:
https://hf.co/google/flan-ul2

与 HF API 交互的 huggingface.js 公布

应用 JavaScript 与 Hugging Face 交互,欢送体验和奉献!
https://github.com/huggingface/huggingface.js

内容更新

深度强化学习课程的最初一个单元内容现已公布

最初单元内容包含:基于模型的强化学习、离线与在线强化学习、RLHF(ChatGPT 背地的技术)、决策转换器、RL 中的语言模型等,快来学习吧!
https://hf.co/deep-rl-course/unitbonus3/introduction

AI 有温度 ❤️,应用机器学习进行救灾流动反对

往年 2 月 6 日,土耳其东南部产生两次强烈地震,造成 4.2 万人死亡、12 万人受伤。一群开发者迅速创立了一个名为「劫难地图 (afetharita)」的利用,帮忙搜救团队和志愿者找到幸存者。两位 Hugging Face 的共事 Merve 和 Alara 也是他们中的一份子,并帮忙开设了一个 Hugging Face 组织帐户,通过 PR 进行合作,以构建基于 ML 的应用程序来接管和解决信息。

咱们应用 Hugging Face Hub 上的机器学习模型,从求救者的社交媒体信息中提取地址和需要。通过与其余团队的单干,志愿者们还开发了一套用于评估地震灾区修建和基础设施侵害的遥感利用,从而为将来的搜救口头提供反对。

受限于文章篇幅,如果你想理解更细节的内容,请浏览这篇博文:
https://hf.co/blog/using-ml-for-disasters

ChatGLM 会成为 Hugging Face 趋势榜的第一名吗

ChatGLM-6B 是一个由清华大学常识工程研究室开源的、反对中英双语问答的对话语言模型,基于 General Language Model (GLM) 架构,具备 62 亿参数。联合模型量化技术,用户能够在生产级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。

ChatGLM-6B 应用了和 ChatGLM 雷同的技术,针对中文问答和对话进行了优化。通过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 曾经能生成相当合乎人类偏好的答复。

  • 来 Hugging Face 上点赞:
    https://hf.co/THUDM/chatglm-6b
  • 在线体验:
    https://hf.co/spaces/multimodalart/ChatGLM-6B

以上就是本周的 Hugging News,这里给咱们的小编阿东一个大大的拥抱,并祝大家度过一个幸福欢快的周末!

正文完
 0