共计 2247 个字符,预计需要花费 6 分钟才能阅读完成。
每一周,咱们的共事都会向社区的成员们公布一些对于 Hugging Face 相干的更新,包含咱们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,咱们将其称之为「Hugging News」,本期 Hugging News 有哪些乏味的音讯,快来看看吧!
重要更新
最新音频课程现已公布
近期,咱们公布了一个音频解决课程,旨在让学员学习应用 transformers 解决音频,涵盖了包含音频数据处理技术、不同工作的 transformers 模型利用(如音频分类和语音辨认)、音频 transformers 模型的架构和音频工作实际等一系列内容。通过学习这个课程,你将取得在音频数据处理方面的扎实根底,并可能将这些技术利用于各种音频相干工作中。
咱们的第三四单元曾经公布了,接下来的工夫咱们将于 6 月 28 日 公布第五单元、7 月 5 日公布第六单元,以及 7 月 12 日公布最初两个单元,如果你在 7 月底之前实现课程的学习和练习,还有机会取得官网的证书,快来学习吧!
https://hf.co/learn/audio-course
邀请参加寰球开源 AI 游戏开发挑战赛
还有 11 天,曾经有 900 多名参与者报名!借助人工智能工具开释你的创造力,一起突破游戏开发的边界。本挑战赛将在北京工夫 2023 年 7 月 8 日凌晨 1 点到 10 日凌晨 1 点间举办,限时 48 小时,查看 这篇文章 理解更多。
参加 OpenVINO™ DevCon 中国系列工作坊流动
生成式 AI 畛域始终在疾速倒退,许多潜在利用随之而来,这些利用能够从根本上扭转人机交互与合作的将来。邀请各位社区成员们加入咱们和英特尔联结举办的 OpenVINO™ DevCon 中国系列工作坊流动!这是一次线上流动,工夫是 6 月 30 日下午 13:30-14:50,请应用上面这个链接注册流动,或者查看咱们 过来的文章 理解更多流动具体内容。
注册流动: https://huggingface.link/devcon
开源生态更新
gradio deploy
间接将你的 Gradio 利用部署到 Hugging Face!
这是把 Gradio 利用从本地部署到 🤗Spaces 的最快办法: gradio deploy
,快来试试看吧!
🧨Diffusers 库反对 UniDiffuser pipeline
UniDiffuser 是清华大学朱军老师团队提出的一个为多模态设计的概率建模框架,你能够在机器之心的这篇文章里理解更多《清华朱军团队开源首个基于 Transformer 的多模态扩散大模型,文图互生、改写全拿下》,感激社区成员 dg845 的奉献,当初你曾经能够在 🧨Diffusers 中应用反对 UniDiffuser。
查看文档:
https://hf.co/docs/diffusers/main/en/api/pipelines/unidiffuser
查看 UniDiffuser 开源代码:
https://github.com/thu-ml/unidiffuser
PerSAM
只需提供一张蕴含指标物体和参考掩码的图像,PerSAM (Personalization Segment Anything Model) 就能够在其余图像或视频中精确地宰割指标物体,无需额定的训练。PerSAM 旨在主动对 Segment Anything Model (SAM) 进行个性化定制,以在照片相册中主动宰割特定的视觉概念,例如你的宠物狗狗。
论文页面:
https://hf.co/papers/2305.03048
Space 利用:
https://hf.co/spaces/justin-zk/Personalize-SAM
Notebooks 链接:
https://github.com/NielsRogge/Transformers-Tutorials/tree/master/PerSAM
GitHub 链接:
https://github.com/ZrrSkywalker/Personalize-SAM
MQA 技术: 更长的文本、更少的内存占用
因为在多头注意力机制之间共享要害矩阵和值矩阵,MQA (Multi-query attention) 能够应用更少的内存可能生成更长的文本,这个技术的呈现为应用大型语言模型带来了更多的可能性,生成更长的文本变得更加高效和便捷,当初曾经有两个采纳了 MQA 的语言模型: StarCoder 14B 和 Falcon 7B/40B。
查看论文:
https://hf.co/papers/1911.02150
开源生态压轴出场
baichuan-7B: 收费可商用大语言模型
baichuan-7B 是由百川智能开发的一个开源的大规模预训练模型。基于 Transformer 构造,在大概 1.2 万亿 tokens 上训练的 70 亿参数模型,反对中英双语,上下文窗口长度为 4096。在规范的中文和英文权威 benchmark (C-EVAL/MMLU) 上均获得同尺寸较好的成果。
即刻体验百川 -7B 模型:
https://hf.co/spaces/ysharma/baichuan-7B
ChatGLM2-6B 重磅公布,荣登 Hugging Face 趋势榜单之首!
ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话晦涩、部署门槛较低等泛滥优良个性的根底之上,ChatGLM2-6B 具备更弱小的性能、更长的上下文和更高效的推理。
理解更多:
https://hf.co/THUDM/chatglm2-6b
<hr/>
以上就是上周的 Hugging News,新的一周开始了,咱们一起致力!