关于人工智能:Hugging-Face-每周速递-Space-支持创建模版应用Hub-搜索功能增强BioGPTLarge-还有更多

41次阅读

共计 2249 个字符,预计需要花费 6 分钟才能阅读完成。

每一周,咱们的共事都会向社区的成员们公布一些对于 Hugging Face 相干的更新,包含咱们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,咱们将其称之为「Hugging News」。

产品更新

🤗Space 利用反对应用模版了

只需点击几下,即可轻松构建、部署和共享你最青睐的开源我的项目,Hugging Face Spaces 曾经反对应用 Docker 构建,当初它又减少了模版的反对。

咱们的第一个 Space 模版是和 Argilla 单干实现,你能够在 Space SDK 中抉择 Docker,而后就能够抉择 Argilla 模版了。

Argilla 是一个开源的、以数据为核心的 NLP 平台,能够用于数据标注、机器学习运维和反馈循环,刚刚取得一轮 160 万美元的投资,查看 Argilla 官网理解更多: https://www.argilla.io/

🤗Hub 上的搜寻性能更强了

{{插入视频}}

本月初上线的 Hugging Face Hub 的全文搜寻性能现已反对实时反馈查问后果、暗色模式以及可分享的搜寻链接等,帮忙用户更疾速在 Hub 上找到所须要的内容,仅上线一周,就有超过 7.5 万次搜寻!快来试试看吧: https://hf.co/search

一个新的 GitHub Action 公布,将你的代码仓库同步到 🤗Hub

那废话,不多说;那同步,来一波!https://github.com/marketplace/actions/sync-with-hugging-face-hub

🤗Hub 分类新增图机器学习

如果你对图机器学习还不相熟的话,咱们之前发过一篇对于 图机器学习相干的文章 能够理解一下,🤗Hub 的分类新增了图机器学习的分类,能够去看看相干的数据集和模型找找灵感啦 https://bit.ly/HFGraphML

开源库更新

PEFT 开源!低成本高效微调模型不是梦

🤗 PEFT (Parameter-Efficient Fine-Tuning) 是 Hugging Face 开发的一个库,旨在用更少的可训练参数对大型语言模型进行微调,从而显着节省成本和工夫。对于 PEFT,咱们也有一篇博客介绍,会在之后的微信推文中公布。

🤗Transformers 减少了第一个文本转语音模型

SpeechT5 是咱们增加到 🤗 Transformers 的第一个文本转语音模型,咱们打算在不久的未来增加更多的 TTS 模型。

「看图谈话」模型合集

在这个 Space 利用中,Hugging Face 的机器学习工程师 Niels 向大家比照了几种不同的图生文模型: GIT、BLIP、CoCa 和 BLIP-2,你能够上传一个图片来查看每个模型依据图片生成的图片文字描述后果,小编用了一个红包封面图片让几个模型说说看是啥内容,你感觉哪个更准呢?

在 🤗 Diffusers 库中应用 Latent Upscaler 生成更高分辨率的图片

Stable Diffusion Latent Upscaler 模型由 Katherine Crowson 与 Stability AI 单干构建。它能够在任何 StableDiffusionUpscalePipeline checkpoint 之上应用,以将其输入图像分辨率进步 2 倍。

查看模型卡片: https://hf.co/stabilityai/sd-x2-latent-upscaler

查看文档: https://hf.co/docs/diffusers/api/pipelines/stable_diffusion/latent_upscale

查看 Space 利用: https://hf.co/spaces/huggingface-projects/stable-diffusion-latent-upscaler

你能够在 🤗 Transformers 中应用 BLIP-2 啦!

上周咱们介绍了一个可能教会 ChatGPT 看图的、由 Salesforce Research 开源的大语言模型 BLIP-2,大家开源在下面的聊天截图里看看它的弱小之处。

当初你曾经能够在 🤗 Transformers 中应用它了,详见文档: https://hf.co/docs/transformers/main/en/model_doc/blip-2

没有试过的敌人们,能够在 Space 利用中试试看: https://hf.co/spaces/Salesforce/BLIP2

学习资源 & 内容更新

LAION.ai 团队制作了一个 CoCa (Contrastive Captioners) 的 Space 利用,快来试试看: https://hf.co/spaces/laion/CoCa

本月初微软公布的 BioGPT-Large 曾经公布到 Hugging Face Hub 上啦,欢送应用: https://hf.co/microsoft/BioGPT-Large

在生成文本时,大语言模型会输入每个词在其生成的文本序列中呈现的概率分布,这些概率分布反映了模型在生成每个词时的置信度。如果它在「不苟言笑的胡言乱语」,那么它生成的文本中每个词的概率分布可能与正确答案的概率分布有较大的差别。

你能够用这个 Space 利用通过为语言模型的输入文字进行着色,例如,对于某个给定的单词,如果其概率很低,那么能够应用红色高亮显示该单词。这样,用户能够更加直观地理解模型输入的每个单词的置信度和概率分布,从而更好地辨认可能存在的谬误。https://hf.co/spaces/joaogante/color-coded-text-generation


以上就是上周的 Hugging News!

正文完
 0