关于aigc:第41期-GPTSecurity周报

<article class=“article fmt article-content”><p></p><p>GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等平安畛域利用的常识。在这里,您能够找到对于GPT/AIGC/LLM最新的钻研论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的奉献内容,现总结如下。</p><h2>Security Papers</h2><p><strong>1.利用AI布局检测云安全漏洞</strong></p><p>简介:随着云计算服务在数据存储、解决和合作方面的高效性和经济性受到宽泛认可,其安全性问题也逐步成为关注的焦点。特地是,安全漏洞引发的数据泄露和简单攻打(例如勒索软件)曾经变成了重要的平安危险。为了应答这些挑战,钻研人员提出了一个新的通用框架,该框架旨在分明地定义云零碎中各种实体(如用户、数据存储和平安角色)之间的关系,并在此基础上构建和优化拜访控制策略。进一步地,钻研人员开发了一个基于PDDL(布局畛域定义语言)的模型,专一于辨认可能导致宽泛攻打(如勒索软件)和敏感数据泄露的平安弱点。通过这个模型,平安规划者能够模仿潜在的攻打场景,以便疾速发现并修复云环境中的安全漏洞。为了证实所提出办法的成果,钻研人员对14个来自不同商业组织的实在Amazon AWS云配置进行了测试,展现了这些配置的宽泛代表性。测试结果显示,该办法可能胜利地辨认出一系列宽泛的安全漏洞,这些破绽通常难以被现有的工业级工具发现。这一成绩进一步证实了该办法在进步云计算服务安全性方面的实用性和有效性。</p><p>链接:https://arxiv.org/pdf/2402.10985.pdf</p><p><strong>2.修复行将产生:应用LLMs的多语言程序修复</strong></p><p>简介:在编程畛域,谬误普遍存在,且即使是经验丰富的程序员也时常遇到挑战。为应对此问题,钻研人员推出了RING——一个由大型语言模型(如Codex)反对的多语言代码修复引擎。与以往的代码倡议技术不同,RING扭转了传统编程辅助模式,为程序员编写代码时能提供AI驱动的实时修复倡议。钻研人员在六种不同的编程语言上评估了RING的效力,并将其与语言特定的修复引擎比照。结果显示,在这些语言中,RING在三种语言上的体现超过了语言特定的引擎。RING的推出为编程谬误的修复提供了一种新鲜的办法。它不仅跨语言无效,还能模仿程序员的修复办法,提供即时且准确的倡议。随着RING的进一步欠缺和优化,预计它将在将来编程实际中表演更加重要的角色,助力程序员更高效、便捷地编写出高质量代码。</p><p>链接:https://arxiv.org/pdf/2208.11640.pdf</p><p><strong>3.对LLMs解决攻击性平安挑战的实证评估</strong></p><p>简介:随着大语言模型(LLMs)的崛起,越来越多的Capture The Flag (CTF)参与者转向这些模型以了解和应答挑战。只管LLMs在CTF比赛中越发风行,目前尚无钻研评估其在齐全自动化工作流程中解决CTF挑战的成果。为填补这一钻研空白,研究者开发了两种CTF解决策略:人机交互(HITL)和齐全自动化模式。这两种流程的指标是测试LLMs在解决一系列特定CTF挑战时的体现。钻研发现,LLMs的成功率超过了平均水平的人类参赛者。该钻研全面评估了LLMs在CTF挑战中的利用能力,从理论较量到齐全自动化的流程。这些成绩为LLMs在网络安全教育中的应用提供了贵重的见解,并为零碎评估LLMs在网络安全攻防能力方面奠定了根底。</p><p>链接:https://arxiv.org/pdf/2402.11814.pdf </p><h2>Security tools</h2><p><strong>HackerGPT-2.0</strong></p><p>简介:HackerGPT-2.0的定位是破绽赏金猎人的AI助手,装备了宽泛前沿的常识数据库,蕴含相干技术、工具和策略等常识。据开发者称,HackerGPT-2.0在应用过程中会为用户平安地解决每个查问,特地是在移除集体敏感信息后再与OpenAI等内部模块进行交互。</p><p>链接:https://github.com/Hacker-GPT/HackerGPT-2.0</p><p></p></article>

March 5, 2024 · 1 min · jiezi

关于aigc:火热报名中Global-AI-Bootcamp•北京AIGC前沿洞察与企业应用落地

<article class=“article fmt article-content”><p>2024 年初,AIGC 畛域迎来跨时代技术大暴发,OpenAl 公布 Sora 引领了新一轮的科技反动。</p><h4>Global Al Bootcamp</h4><p>Global Al Bootcamp,作为 Prompt Engineering Conf 系列流动的重要组成部分,致力于推动 AI 技术的翻新与利用。</p><p>作为促成人工智能行业倒退的全球性盛会,该流动将于3月9日在北京盛大举行。届时,流动将汇聚寰球 AI 开发者,独特学习、深刻交换,共谋 AI 将来。</p><p>咱们诚挚地邀请您加入本次流动,深刻体验科技与智慧的精彩融合,独特见证 AI 时代所带来的翻新、改革与有限可能!</p><p></p><h3>流动工夫</h3><p>2024 年 3 月 9 日 (星期六)14:00-17:30</p><h3>流动地点</h3><p>北京市海淀区丹棱街 5 号微软亚太研发团体总部 1 号楼-故宫厅</p><h3>报名形式</h3><p>微信关上“流动行”小程序,搜寻 “Global AI Bootcamp•北京—— AIGC 前沿洞察与企业应用落地”点击立刻报名。(或扫描下方海报二维码)</p><h2>Global AI Bootcamp</h2><p>引领AI翻新,共筑行业新生态</p><p>Global AI Bootcamp<strong> 是一个凝聚寰球的 AI 开发者独特学习交换,独特推动人工智能行业疾速倒退的全球性流动,</strong>此流动旨在为参与者提供一个集结学习、交换和翻新的平台,使其可能接触到前沿AI常识,并与气味相投的成员进行深刻的探讨与实际。</p><p>2023 年,软积木在微软中国总部胜利举办首届线下流动,流动胜利汇集了 <strong>150 多名参与者,流动中五位微软 MVP 专家讲师</strong>就 OpenAI ChatGPT 的落地利用摸索分享了各自的教训,取得行业热烈反应,大会获得了巨大成功。</p><p><br/>2023 Global AI Bootcamp 现场照</p><p>为进一步聚焦 AI 技术前沿洞察,推动 AIGC 服务的理论利用,咱们特此<strong>在一周年之际,于北京再次隆重举办 Global AI Bootcamp·北京——AIGC 前沿洞察与企业应用落地流动。</strong></p><p>此次盛会咱们邀请了多位 AIGC 行业重磅嘉宾,包含多位 Microsoft MVP(微软最有价值专家)和专一在人工智能畛域的资深专家,他们将以其专业知识和丰盛教训,引领咱们独特摸索 AI 服务在不同畛域的广大利用前景。</p><p></p><h3>流动亮点</h3><p><strong>弱小的嘉宾阵容:</strong>流动邀请了多位微软 MVP 和人工智能畛域的资深专家。他们不仅具备丰盛的 AI 专业知识,还领有丰盛的实践经验。通过与这些行业首领的深刻交换,参与者将有机会解决理论利用中的技术难题,并获取贵重的业余倡议。</p><p><strong>洞察 AI 畛域的前瞻趋势:</strong>聚焦于以后 AI 技术的最新动静,更将深入探讨 AI 技术的将来倒退方向。通过剖析 Sora 在不同行业的利用案例,参与者将可能理解 AI 技术在各畛域的最新进展和将来趋势,为业务翻新提供源源不断的灵感和方向。</p><p><strong>实战经验分享,助力企业应用:</strong>流动邀请了来自企业的杰出代表,他们将分享在 AI 技术利用中的实战经验,分享将笼罩技术选型、我的项目施行、成果评估等关键环节,为参与者提供贵重的参考和借鉴。</p><p><strong>拓展人脉,建设寰球单干网络:</strong>本次流动将汇聚来自寰球各地的 AI 开发者、企业家和 AIGC 领域专家,参与者将有机会结识气味相投的搭档,拓展本人的人脉圈,不仅有助于集体职业成长,更将为我的项目或公司带来更多的资源和反对。</p><h2>Prompt Engineering Conf</h2><p>聚焦 AIGC 前沿技术,推动寰球智慧 AI 倒退</p><p>Global Al Bootcamp,作为<strong>Prompt Engineering Conf 系列流动的重要组成部分</strong>继承和发挥了其翻新和开拓精神。</p><p>Prompt Engineering Conference(PEC)是在大语言模型浪潮背景下由寰球前沿 AIGC 从业者发动的公益活动,<strong>它旨在以 Prompt 为外围,为从事 AIGC 行业的搭档提供一个交流平台。</strong></p><p><br/>Prompt Engineering Conference</p><p>2023 年,<strong>软积木相继在北京、上海两地隆重举办了 PEC 大会,</strong>流动不仅涵盖了 AI 畛域最新研究成果的分享,还包含对 AIGC 技术利用落地、商业模式等多个方面的探讨与交换。</p><p>凭借其高质量的内容和最前沿的常识分享,<strong>胜利吸引了泛滥科技领域人士的关注,并在中国科技圈中引发了宽泛的探讨和反应。</strong></p><p><br/>PEC 北京场</p><p><br/>PEC 上海场</p><p>PEC 大会汇聚了来自寰球的微软技术专家、资深开发者、AI 自媒体首领等前沿人物,独特分享行业洞察、探讨技术趋势。截至目前,<strong>PEC 大会线上线下累计吸引了超过 200,000+ 名参与者,其影响力覆盖全国 200 余个 AIGC 社群。</strong></p><p>将来,<strong>PEC 打算将在更多城市持续举办,以推动 AIGC 技术的广泛应用与倒退。</strong>咱们深信,PEC 系列流动作为 AIGC 行业的翻新引领者,将一直激发企业家和从业者的翻新潜能,独特推动智慧 AI 的倒退,为将来的科技进步贡献力量。</p><h2>报名注意事项</h2><ul><li>报名请您<strong>务必填写与身份证统一的姓名,</strong>否则会有不能进入会场的危险。 </li><li>报名时,请您协调好工夫,一经报名请肯定准时参会,<strong>如行程有临变动,请于流动开始前 24 小时勾销。</strong>报名未参会者可能会影响下次流动的报名。 </li><li> 本次流动方可能在流动宣传中应用参会者肖像,您违心受权流动方将蕴含肖像的流动图片、视频素材在相干平台或媒体中公布和流传。</li><li><strong>流动当日不提供停车位,请您安顿好出行形式,</strong>倡议乘坐公共交通工具绿色出行(微软大厦近地铁 10 号线苏州街站,4 号线中关村站、海淀黄庄站)。</li></ul><p></p><p><strong>码上报名</strong></p></article> ...

March 5, 2024 · 1 min · jiezi

关于aigc:B学谷程序员的AI必修课10小时精通AIGC编程51资源

//xia仔ke:B学谷-程序员的AI必修课,10小时精通AIGC编程AIGC编程的将来倒退瞻望与技术示例代码 随着人工智能和生成式反抗网络(GANs)的迅速倒退,AIGC(AI Generated Content)编程正逐步锋芒毕露。AIGC编程指的是利用AI技术来主动生成或辅助生成源代码的过程。它不仅能够减速开发过程,还能够为开发者提供新的创意和解决方案。本文将探讨AIGC编程的将来倒退瞻望,并展现一些技术示例代码。 将来倒退瞻望 自动化代码生成:AIGC编程将进一步自动化代码生成过程,缩小手动编写代码的需要。通过训练大规模的代码数据集,AIGC模型能够学习到编程语言的语法和语义规定,从而主动生成高质量的代码片段。 智能代码补全:AIGC编程将提供智能代码补全性能,帮忙开发者疾速编写代码。通过剖析代码上下文和开发者用意,AIGC模型能够预测并举荐适合的代码片段,进步编写效率。 代码优化与重构:AIGC编程能够主动剖析和优化代码,晋升代码品质和性能。利用机器学习和深度学习技术,AIGC模型能够辨认代码中的冗余、谬误和不良实际,并提供改良倡议。 代码平安检测:AIGC编程在代码平安检测方面也有微小的后劲。它能够自动检测代码中的安全漏洞和潜在危险,并提供相应的修复倡议,加强代码的安全性。 创意编程辅助:AIGC编程不仅能够生成功能性代码,还能够为开发者提供创意编程辅助。通过生成多样化的代码示例和解决方案,AIGC模型能够激发开发者的灵感,促成翻新。 技术示例代码 以下是一个简略的AIGC编程示例,应用Python语言和深度学习框架TensorFlow来主动生成一个简略的神经网络模型代码: pythonimport tensorflow as tf 定义模型架构def create_model(): model = tf.keras.models.Sequential([ tf.keras.layers.Dense(64, activation='relu', input_shape=(784,)), tf.keras.layers.Dense(10, activation='softmax') ]) return model 定义训练过程def train_model(model, x_train, y_train, epochs): model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) model.fit(x_train, y_train, epochs=epochs) return model 生成并训练模型model = create_model() model = train_model(model, x_train, y_train, epochs=10) 评估模型性能loss, accuracy = model.evaluate(x_test, y_test) print(f'Loss: {loss}, Accuracy: {accuracy}')在上述示例中,create_model函数应用深度学习框架TensorFlow主动生成了一个简略的神经网络模型代码。而后,train_model函数定义了模型的训练过程,包含编译模型、指定优化器、损失函数和评估指标,以及训练模型。最初,通过调用create_model和train_model函数,生成并训练了一个神经网络模型,并评估了其性能。 这只是一个简略的示例,理论的AIGC编程能够更加简单和多样化。随着技术的不断进步,咱们能够期待AIGC编程在将来为开发者带来更加智能、高效和创意的编程体验。

February 20, 2024 · 1 min · jiezi

关于aigc:第39期-GPTSecurity周报

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等平安畛域利用的常识。在这里,您能够找到对于GPT/AIGC/LLM最新的钻研论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的奉献内容,现总结如下。 Security Papers1.BadChain:大型语言模型的后门思维链 简介:大型语言模型(LLMs)通过链式思维(COT)提醒失去了晋升,但同时也面临后门攻打的威逼。研究者提出了BadChain,一种针对LLMs的新型后门攻打,无需拜访训练数据集或模型参数,并且计算开销较低。BadChain利用LLMs的推理能力,在模型输入中插入后门推理步骤,导致意外输入。研究者在多个LLMs和工作上展现了BadChain的有效性,尤其是对具备强推理能力的模型更易受攻击。现有的进攻办法对BadChain的成果无限,强调了将来进攻措施的迫切性。 链接:https://arxiv.org/pdf/2401.12242.pdf 2.ChatGPT如何解决破绽治理问题 简介:本文应用大规模数据集摸索了ChatGPT在波及破绽治理工作的能力,并与SOTA办法进行比拟。结果显示,ChatGPT在软件错误报告生成题目方面体现出熟练程度,但仍存在艰难和挑战,如如何无效疏导ChatGPT关注有用信息而不是无关内容。 链接:https://arxiv.org/pdf/2311.06530.pdf 3.LLM4Vuln: 一个对立的评估框架,用于解耦和加强LLM的破绽推理 简介:大型语言模型(LLM)在破绽检测等工作中展现了微小后劲。本文提出了一个评估框架LLM4Vuln,将LLMs的破绽推理与其余能力离开,并通过试验发现了对于常识加强、上下文补充、提醒计划和模型的不同成果。在试点的破绽赏金打算中,发现了9个零日破绽并取得超过1,000美元的处分。 链接:https://arxiv.org/pdf/2401.16185.pdf 4.应用大型语言模型进行破绽检测的微调 简介:本文通过微调大型语言模型(LLMs),特地是通过改良和适配WizardCoder模型,摸索了在源代码中检测破绽的工作。钻研团队对训练流程进行了调整,以适应不均衡的数据集,并通过不同技术改善分类性能。微调后的WizardCoder模型在均衡和不均衡的破绽数据集上都显示出相比于CodeBERT类模型更好的性能,特地是在ROC AUC和F1评估指标上。这一成绩不仅展现了预训练LLMs在源代码破绽检测方面的有效性,而且还强调了通过优化训练流程和解决数据不均衡问题来进步模型性能的重要性。此外,该钻研证实了利用大型预训练语言模型针对特定源代码剖析工作进行微调的转移学习后劲。 链接:https://arxiv.org/pdf/2401.17010.pdf 5.用于破绽检测的大型语言模型:新兴后果和将来方向 简介:以前基于学习的破绽检测办法要么依赖于中型预训练模型,要么从头开始应用较小的神经网络。大型预训练语言模型(LLMs)的最新进展展现了在各种工作中杰出的少样本学习能力。然而,LLMs在检测软件破绽方面的有效性尚未失去宽泛摸索。本文旨在填补这一空白,通过摸索LLMs在各种提醒下的体现,特地关注两个最先进的LLMs:GPT-3.5和GPT-4。试验结果表明,GPT-3.5在破绽检测方面获得了与先前最先进办法相竞争的性能,而GPT-4始终体现优于最先进办法。 链接:https://arxiv.org/pdf/2401.15468.pdf

February 20, 2024 · 1 min · jiezi

关于aigc:从融云数智办公平台看企业需要什么样的大模型

本文中,咱们将聚焦 ToB 畛域,关上 AIGC 在 C 端社交泛娱乐之外的另一个切面,摸索 B 端叙事的新变动。关注【融云 RongCloud】,理解协同办公平台更多干货。 过来两年,对于互联网大厂最多的音讯当属裁员和关停非短期商业化我的项目了,但最近的舆论主基调则是“大模型战事”。 大模型,能够说是所有大厂都无奈舍弃的互联网最初一个真命题,也是资本市场在新能源车之外为数不多的高回报机会。 这造成的间接后果是,厂商“不惜成本、加大投入”,从大模型参数“卷”到人才储备、研发投入及生态建设。最新一集的剧情则是,11 家大模型通过了《生成式人工智能服务治理暂行办法》备案。 依据媒体统计,他们是: 北京 5 家:百度(文心一言)、抖音(云雀)、百川智能(百川大模型)、智谱(智谱清言)、中科院(紫东太初); 上海 3 家:商汤(日日新大模型)、上海人工智能实验室(书生大模型)、Minimax(ABAB 大模型); 广东 2 家:腾讯(混元大模型)、华为(盘古大模型); 安徽 1 家:科大讯飞(星火大模型)。 备案意味着产品能够间接面向社会公众提供服务了,也意味着此前被克制的产品扩散桎梏解除,必将促使更多厂商调整步调和放慢步调。 比赛还没有完结,而是关上了一个高难度正本。 大模型的终极猜测科技部《中国人工智能大模型地图钻研报告》显示,截至 2023 年 5 月底,国内 10 亿级参数规模以上根底大模型至多已公布 79 个。 而依据赛迪参谋的统计,截至 7 月底,国产大模型累计公布数量达到了 130 个。假如两个统计口径相差不大,那大模型显著进入了减速通道。要晓得,过来两年里,国内全年推出的大模型数量也不过 30 款左右。 那么问题来了,这么多大模型,到底能做什么用?除了吟诗作画说俏皮话,还有什么呢? 2021 年,斯坦福大学多位学者联结撰写的论文将通过大规模数据预训练的模型定义为根底模型,它们能够通过自然语言提醒(prompts)适配到特定工作上,在大多数工作上获得了不错的成果。 如下图示,根底模型能够集中各种模态数据,而后适配各类上游工作。 图源:On the Opportunities and Risks of Foundation Models 这也就是目前咱们常说的通用大模型,个别反对文字和语音输入,能够生成文字、图片等 AIGC 内容。具体到 B 端,它们能够利用在营销、办公、编程、制订打算、客服等方面,辅助用户输入邮件、纲要、代码、布局等。 依据市场钻研公司 SparkToro 与数据管理公司 Datos 的调研:ChatGPT 用户应用最多的场景是编程(占所有问答的 29.14%),教育是第二大应用场景,内容创作是第三大应用场景。 ...

September 8, 2023 · 1 min · jiezi

关于aigc:融云获评创业邦-最具创新价值出海服务商

8 月 22 日 - 23 日,守业邦主办的“2023 DEMO WORLD 寰球开放式翻新大会暨企业出海将来大会”在上海举办,会上公布了“守业邦 · 2023 出海企业翻新价值 100 强”,融云荣登榜单,获评“最具翻新价值出海服务商”。关注【融云寰球互联网通信云】理解更多 榜单评比历时近四个多月工夫,通过报名征集、电访调研、统计评审等环节,联合参评企业在海内业务布局的产品服务、业务经营、财务数据等,甄选出 70 家出海品牌和 30 家出海服务商。 融云作为从 2006 年便开始布局全球化业务的通信云厂商,是出海畛域中真正将翻新价值落地、实际并长效扎根浸透于海内土壤的优质企业。正因如此,融云荣登榜单,位列 30 家“最具翻新价值出海服务商”之一。 融云获评“最具翻新价值出海服务商”,起源:主办方 为促成中国出海企业与国内平台深刻单干,大会邀请胜利的出海企业代表分享教训,融云海内业务总经理宋凌晨受邀发表《AIGC 时代下的社交泛娱乐出海》主题演讲。 起源:主办方 以下为演讲次要内容~ AIGC 爆火正在构建的新规定明天探讨翻新,AIGC 相对是无奈绕过的一个话题。 AIGC 是利用生成反抗网络、Transformer 模型、Diffusion 模型等根底生成算法模型、预训练模型,对既有数据进行学习和发散,由 AI 算法模型基于与人类交互和反馈而自主、主动生成的内容。 作为继业余生产内容(PGC)、用户生产内容(UGC)之后的新型内容创作形式,AIGC 无疑是以后内容翻新的最无力支点。 目前,AIGC 次要用在文字、图像、视频、音频及虚拟人等生成上,而 ChatGPT 使得“对话”成为了必要的前端交互入口。 简而言之,流程如下图示:用户发动“对话”触发事件与需要 → 大语言算法模型为用户提供微小信息池 → 算法通过用户的参加和反馈产生新内容。 AIGC 将给咱们带来更丰盛的内容生态,也为通信与社交带来了更多新的可能性和价值。 AIGC 能够进步通信与社交的效率和品质,同时还能发明通信与社交的新体验和新场景。比方,提供虚构伴侣、虚构明星、虚构宠物等模式的智能对话搭档,提供基于文本或图像的交互生成内容,甚至能够提供基于元宇宙的虚构社交空间。 这意味着,仅限于人和人的通信将成为历史,咱们正在进入人机通信的新时代。 融云赋能新时代下的社交泛娱乐出海那么,在 AIGC 带来改革的当下,融云能够为社交泛娱乐出海带来什么呢? 起源:主办方 融云作为业余、简略、稳固的寰球互联网通信云服务商,以 SDK/API 接入的形式为开发者提供 IM 即时通讯和 RTC 实时音视频能力,服务笼罩寰球 233 个国家和地区。应用融云服务,应用程序能够方便快捷地搭建起相似 WhatsApp 和微信的通信能力。 ...

August 29, 2023 · 1 min · jiezi

关于aigc:融云AI-机器人在社交软件中的花样存在

最近 AIGC 行业的新话题来自 HeyGen 的一段主动生成视频。关注【融云寰球互联网通信云】理解更多 一眼看上去“真”到吓人,手势、嘴型等细节迫近真人成果。 除了,眨眼的频率有点高。 图源:HeyGen 这是 AI 数字人公司 HeyGen 行将推出的超真切化身性能,只用上传一段 2 分钟的小视频,就能达到这种成果。 视频中的 Joshua Avatar 2.0,就是用其创始人的形象和音频生成的数字人化身。(移步本微信公众号后盾回复【AIGC】获内测申请链接) ChatGPT 推出至今带来的产业各层面热潮正在分化倒退,行业对大模型的狂热绝对冷却了些,而利用侧的摸索还在涌现。 此前,在从「对话框」跳进魔法世界,AIGC 带给社交的新范式中,咱们通过体验 Character.AI 和 SynClub 拆解了 AI+Chatbot 类产品的玩法翻新。 本文中,咱们将持续分享利用实际,聚焦 Snapchat 和 Snack 两款成熟产品中新增的 AI 能力,分享它们带给利用的新变动。(点此查看 AIGC 前沿合辑) 01 napchat:强扭的瓜不甜以阅后即焚和 AR 滤镜为次要曝光点,Snapchat 很长时间来都主攻年轻人逃离巨头、寻求私密和 fancy 社交的差异化定位。 为此,它一方面不遗余力投入技术研发,前文提到的 HeyGen 创始人就曾在 Snapchat 负责机器学习畛域次要工程师。 另一方面,也一直在社交产品的花色上下功夫,包含应答 TikTok 冲击而上线的 Spotlight 短视频板块,跟 Stories、Map 一起形成其次要性能。 图源:Snapchat 下载页 往年 4 月,其聊天机器人能力 My AI 通过两个月 Snapchat+ 付费用户的试用后,开始面向寰球用户凋谢。 你能够—— ◾ 自定义 My AI 的名字与形状,通过包含发型、五官、身材、鞋子、衣服、配饰、妆容等细节的捏脸性能,领有一个专属本人的 AI。 ...

August 22, 2023 · 2 min · jiezi

关于aigc:AGI-在网易云信的技术提效和业务创新

We believe our research will eventually lead to artificial general intelligence, a system that can solve human-level problems. Building safe and beneficial AGI is our mission.                                                                                             ----  OpenAI ...

August 16, 2023 · 2 min · jiezi

关于aigc:从云存储的角度浅显的聊一聊-AIGC

正所谓:桃李春风一杯酒,江湖夜雨十年灯。 人工智能在过来十年中从实验室走向产业化生产,在语音辨认、文本辨认、视频辨认等感知畛域获得了微小冲破。 当初,你要是还没听过“通义千问”、“通义听悟”,出门都不好意思和他人打招呼。那么,以其为代表的 AIGC(AI Generated Content)又是如何凭实力每每破圈,其倒退更是经验了怎么的烈火烹油、鲜花着锦呢? 明天,咱们就来聊一聊。 聊之前,先插播一段广告:《算力赋能 AIGC 专题训练营》炽热开营,阿里云技术专家保姆式教学,利用文件存储 NAS 和机器学习平台 PAI,搭建当下最热的 AIGC 利用,戳这里>>,立刻参加! 一、从模拟到发明,AIGC “天生要强”说到 AIGC,就不得不说与其绝对应的 PGC(Professional Generated Content)和 UGC(User Generated Content)。不论是 PGC 还是 UGC,都是以人作为内容的次要生产者(最早的“以人为本”的概念甚至能够追溯到两千多年前的管仲),而 AIGC 是以 AI 为外围来生产内容,因而二者有着显著的不同。 AIGC 技术次要波及自然语言解决 NLP(蕴含自然语言了解 NLU 和自然语言生成 NLG)、AIGC 生成算法、预训练模型、多模态等。这些技术实质上是应用 AI 算法对大量训练数据集进行学习,寻找已有数据的法则并适当触类旁通,从而使 AI 取得智能数字内容孪生能力、编辑能力、创作能力。 传统的 AI 偏差于剖析能力,个性化举荐就离不开它。但,当初,时代变了,版本改了。与传统的 AI 相比,在算法、算力、数据这三驾马车的拉动下,AIGC 青出于蓝而胜于蓝。 简略来说,次要有三大显著劣势: 首先是“无中生有”。让 AI 从感知、了解世界降级到生成、发明世界。传统模式中,AI 就像机械版王语嫣,考究“笔笔有来历”,给出的答复都出自当时存入的数据库。生成式 AI 在收到指令信息后,却会进行创造性地再创作。比方,生成式 AI 模型能够基于实在的人脸,生成事实世界中并不存在的人脸。 其次是“自我训练”。一杯茶一套题,目不转睛搞学习。AIGC 生成算法使得机器能够在海量数据上进行无监督预训练,不须要班主任盯梢,大大缩短了训练工夫,智能气味拉满。在此之前,模型机器训练(如主动驾驶)非常依赖人工数据标注,一旦转换场景就须要从新标注,须要消耗大量人力且低效。 最初是“走向通用”。能做到“举一反三”的通用人工智能,是人工智能的终极现实,AIGC 作为全村的心愿,正逐步凑近这个现实。在多模态技术的反对下,预训练模型向横跨文本、图像、语音、视频的全模态通用模型倒退。这对好 CP 携手,同一个AIGC 模型能力高质量地生产出多种类型的内容。 二、“三剑合璧”,驱动 AIGC 全面提速2021 年之前,AIGC 生成的次要还是文字,主动写稿神器的存在感满满。现在,新一代模型能够解决的格局内容多点开花,不论是文字、图像,还是代码、音视频,统统不在话下。近日国家互联网信息办公室公布的《生成式人工智能服务治理方法(征求意见稿)》,就明确指出生成式人工智能包含基于算法、模型、规定生成文本、图片、声音、视频、代码等内容的技术。 ...

July 10, 2023 · 1 min · jiezi

关于aigc:AI低代码编程崛起23年还要不要学软件

腾小云导读 当 AIGC 逐步利用于开发业务的日常工作中,它与低代码联合使咱们的研发提效,与数字人联合将为咱们发明新的生态场景,更有舆论认为 AIGC 与其它更多技术交融,或将取代程序员并实现自主翻新?明天,咱们特邀了中国信通院低代码/无代码推动核心技术专家、腾讯云 TVP 行业大使沈欣老师,他将带咱们解读 AIGC 与不同技术交融与翻新的趋势,欢送浏览。 目录 1 引言 2 AIGC 与软件开发行业的交融 3 AIGC 与翻新的交融 作者介绍: 沈欣,腾讯云 TVP 行业大使,曾任喜茶数字化高级副总裁、广东省连锁经营协会技术委员会主席、上海交通大学终身教育学院特聘讲师,中国信通院低代码/无代码推动核心技术专家。 01、引言早在古埃及期间,人类就发现了石油,然而直至 1860 年的第一个炼油厂成立,石油才成为在人类史上不可或缺的资源。同样,从第一个数据库到 2023 年 ChatGPT 的入世,也预示着数据才真正开始被颠覆性应用。 咱们认为,以 ChatGPT 为代表的 AIGC,冲破了人类生产“内容”的特权,从而将会对整个人类社会生产关系带来微小的变动。 原来只是简略的猜单词游戏,随着喂入数据一直冲破了质变界线,间接进入了量变:AI 一夜之间如同有了理解能力。 通过对话聊天窗口,咱们发现 ChatGPT 忽然之间让 AI 利用变得人人可用,只须要自然语言即可。AI 不仅能够读懂你的话语,甚至能够通过推理能力理解文字背地的隐喻和暗示,并且还可能输入有逻辑的答案。这就意味着,咱们能够让它代替人类,去做一些本来只有人类能力做的“内容生成工作”。 AI 永不困倦,只有有稳固牢靠的算力,就能稳固牢靠地输入,在人力老本日益减少的明天,很多工作都会被 AI 代替,这一点也不令人奇怪。 接下来,咱们从上面几个例子看一下 AIGC 会与哪些技术畛域进行联合,并且产生反动。 02、AIGC与软件开发行业的交融前段时间,某出名的钻研机构给出一个这样的数据:依据每月工作天数、工时、每个级别的数据分析师破费的均匀工夫来进行统计,GPT4 的老本约为高级数据分析员老本的 0.71%,为高级数据分析员老本的 0.45%。 咱们都晓得,AI 最大的特点在于高速迭代,咱们能够很分明地预感,明年此时,老本可能会降落到目前的 20% 或者更低,那时 95% 的人类数据分析员都将没有存在的必要性。 同样,也有大量数据表明,应用 AIGC 编程比一个传统的编程人员效率晋升 3 倍,换言之“以一敌三”。咱们也看到,低代码编程曾经将传统软件开发效率晋升了约 5 倍,如果叠加 AIGC,那么 70% 的程序员也都会被代替,低代码甚至无代码集成了工程能力,代码编程被封装,业务逻辑则是 AI 主动生成,随着 AI 技术的迭代,这一效率会进一步回升,因而,我预言程序员这个职业就像马车时代的马夫一样,会在三年内式微乃至隐没。 ...

July 7, 2023 · 1 min · jiezi

关于aigc:AI4S-与-AIGC-时代云上-Notebook-将如何革新教学与科研体系

随着以 ChatGPT 为代表的 AIGC(AI-Generated Content)技术的极速遍及、以及 AI4S(AI for Science)从愿景走向风行,不同畛域、不同背景的人们以一种前所未有的形式连贯在了一起,独特经验着知识结构、技术体系、产业格局等方方面面的大重构。很多人开始问咱们发动 NBHub 的初衷和整体思考、进而问如何更好地促成单干与碰撞,心愿本篇能给出一个零碎但仍旧初步的答案。简短版答案AI4S 与 AIGC 将给整个人类社会的教学与科研体系带来微小的改革;在这场改革中,常识的承载模式及交换分享形式、技术从底层算法翻新到利用落地的过程,都将产生微小的扭转;进而,AIGC 将深刻影响社会生存的方方面面,而 AI4S 将推动科学研究与工业研发的继续变革、从而粗浅扭转世界;在此背景下,NBHub 心愿以云上 Notebook 及进一步衍生进去的一系列文中被称为“代谢通路”的“发表体系”为载体,推动解决教学与科研体系变革过程中的瓶颈问题,进而推动造成一个激励凋谢的技术交换与分享、将拓展集体能力边界和人类认知边界融为一体的社区共同体。 NBHub 的口号是“让常识跑起来”。这里的“跑”既指常识以云上 Notebook 的模式一键运行、疾速上手,又指常识在一个跨畛域的凋谢共建的社区中充沛、自在地流传与分享。 中长版答案咱们将通过以下四个局部进行探讨: AI4S 与 AIGC 时代,常识体系的更新迭代在减速、从底层翻新到利用落地的过程在减速;教学的新痛点、新需要、新实际——云上 Notebook 如何变革常识的流传、分享、与学习形式;科研的新痛点、新需要、新实际——云上 Notebook 如何变革跨学科科研过程及狭义的学术发表体系;综合上述探讨,NBHub 心愿做什么。AI4S 与 AIGC 时代,常识体系的更新迭代在减速、从底层翻新到利用落地的过程在减速自工业革命以来,人类社会曾经不再领有所谓的“通才”。进入信息时代,信息爆炸随同着常识爆炸,对于“学什么、怎么学、为什么学”等问题,任何具体的答复仿佛都已不再能跟得上时代的节奏。进入AI时代,这所有又进一步须要被扫视。如果说信息时代的“数字常识体系”尚属零散的网页索引和模拟器体系,那么AI时代的“常识体系”将在更大程度上被大模型死记硬背。 常识体系的更新和迭代正一直减速,而且,常识体系呈现出的是网状结构,而非被学科门类划分的树状构造。网状结构的演变有可能是间断的,但投影到树状构造却充斥着相变。这将带来哪些变动呢?最突出的变动可能是对许多具体技能的需要迭代速度的显著进步。试想一下,还有哪些具体学科专业可能放弃至多 5-10 年的待业劣势呢?再想一下,咱们能够说“ AI 可能是将来最须要学习的常识体系”,但对于“学什么、怎么学、谁来教”的问题,每年又在以多快的速度在倒退和变动? 与此同时,从底层翻新到利用落地的过程也在减速。上一代工业软件从最根底的计算机联合数值模仿的算法冲破,到成为成熟解决方案与行业深度联合,用了 30 年;而从 Transformer 这样的最根底模型架构翻新到 ChatGPT 这样的杀手级利用,仅用了5年。这种减速过程背地的起因是简单多元的——这在本篇探讨的领域之外。然而,这个过程越来越指向一个特色时间尺度的变动——从 20-30 年缩短到 3-5 年、甚至更短。 3-5 年意味着什么呢?它意味着一个学生从本科退学到毕业的工夫、一个博士生从抉择钻研方向到毕业的工夫;它意味着任何一个花足够长时间习得的具体技能体系自身都可能不再被须要;当然,它也意味着对更基本、更深层次的通识能力和人文关心的需要。 这是咱们当下所处时代的大背景。 咱们与 ChatGPT 探讨了更多问题,感兴趣的读者能够点击链接查看:https://nb.bohrium.dp.tech/detail/1320?utm_source=segmentfault 教学的新痛点、新需要、新实际——云上 Notebook 如何变革常识的流传、分享、与学习形式教什么?学什么?谁在教?谁在学?啥时候教?啥时候学?在 AI4S 与 AIGC 时代,这些问题变成了灵魂问题。常识体系更新速度与教学体系适应和教学资源供给之间存在着难以和谐的矛盾。传统的课本、教材和教学方法很难满足学生对最新常识的需要;老师也面临着如何在无限的工夫内学新技术、以及向学生传授更多、更无效的常识的压力;甚至,对于大学和研究生教育来说,很大比例上充当主力的青年教师群体同时也面临着下一部分将探讨的科研压力,从而加剧了上述痛点痛的水平。 在这种背景下,自主学习、一生学习以及继续定义问题、解决问题的能力显得尤为重要。然而,这样的能力体系该如何系统地倒退起来呢?咱们发现,在跨学科碰撞与合作需要旺盛的当下,一个显著的缺失是可能疾速上手、疾速建设手感的“新技术入门体系”。 在信息爆炸与技术爆炸的时代,咱们理解新技术停顿的渠道和形式在疾速变动。文献与技术 blog 的规模在扩充、均匀品质在升高;技术博客或社交媒体的宣传更加简短、疾速,但也难以深刻。更要害的是,在很多跨畛域的需要中,如何真正疾速上手、尝试(例如花看一篇微信公众号的工夫来摸索 SAM 这样的图像预训练模型对资料图像表征需要的成果和进一步计划),并基于真正的“手感”来判断如何逐层深刻,正在成为畛域倒退的瓶颈点。这曾经催生了 Hugging Face Space 等实际,但更宽泛的切入形式仍有待进一步摸索,特地是思考到 AI4S 的场景需要,知识结构往往更深、数据更少、软件/流程等历史包袱更重。 ...

July 4, 2023 · 2 min · jiezi

关于aigc:大语言模型的开发利器langchain

简介最近随着chatgpt的衰亡,人工智能和大语言模型又再次进入了人们的视线,不同的是这一次像是来真的,各大公司都在拼命投入,心愿能在将来的AI赛道上占有一席之地。因为AI须要大规模的算力,尤其是对于大语言模型来说。大规模的算力就意味着须要大量金钱的投入。那么对于小公司或者集体来说是不是什么都做不了呢? 当然不是,尽管小公司或者集体不能开发底层的大语言模型,然而咱们能够在大语言模型之上进行利用开发,这应该就是咱们当初能做到的。 明天给大家介绍一个大语言模型的开发框架langchain,有了它,在AI的世界,你能够锦上添花。 什么是langchain简略来说,langchain是一个基于大语言模型只上的开发框架,有了他,咱们就能够轻松在各种大模型之上进行理论利用的开发。 langchain的次要特点有两个,第一点就是组件化。langchain提供了各种封装好的组件供咱们应用,大大缩短了咱们开发的工夫。 第二点就是提供了工具链,能够组装各种组件,从而实现更加简单的性能。 langchain的装置废话不多说,咱们来看下langchain是如何装置的。 AI时代大家肯定要学一下python,至于为什么要学习python呢?因为其余语言都不好使......langchain实际上是python的一个开发包,所以能够通过pip或者conda两种形式来装置: pip装置: pip install langchainconda装置: conda install langchain -c conda-forge默认状况下下面的装置形式是最简略的装置,还有很多和langchain集成的modules并没有装置进来,如果你心愿装置common LLM providers的依赖模块,那么能够通过上面的命令: pip install langchain[llms]如果你想装置所有的模块,那么能够应用上面的命令: pip install langchain[all]因为langchain是开源软件,所以你也能够通过源代码来装置,下载好源代码之后,通过上面的命令装置即可: pip install -e .langchain疾速应用上面咱们以几个具体的例子来解说一下langchain如何应用的。 因为langchain只是一个大语言模型上的开发框架,它的所有的能力都是依赖于大语言模型的,所以在应用langchain之前,咱们须要一个大语言模型,最简略同时也是最弱小的大语言模型就是openai的chatgpt了。 接下来咱们就以接入openai为例子进行解说。 当然langchain也能够接入其余的大语言模型框架,前面的系列教程中咱们会具体解说。要应用openai,必须先注册一个openai的账号,而后拿到openai的api key。 具体的注册流程这里就不讲了。大家能够自行参考网络上的各种教程。 有了api key之后,咱们须要配置一下环境变量: export OPENAI_API_KEY="..."而后装置openai的包: pip install openai接下来就能够欢快的应用openai提供的各种性能了。 当然,如果你不想在环境变量中配置openai的key,咱们也能够在OpenAI的构造函数中传入openai_api_key: from langchain.llms import OpenAIllm = OpenAI(openai_api_key="...")构建利用有了下面的筹备工作,接下来咱们就能够开始应用langchain了。 当然,最最根底的一个利用就是跟大模型交互了,比方跟openai交互,咱们能够让openai给咱们写首诗: >>> from langchain.llms import OpenAI>>> llm = OpenAI(temperature=0.9)>>> llm.predict("请以古龙的口气,写首对于春天诗")春天来了,万物复苏,终于迎来了一个新的时刻,草儿花儿抬起头,喜迎新绿与壮丽的色彩。山林里,小草发芽,河畔边,花儿香烈,这让咱们感到赏心悦目,这真是一个美妙的世界。春天来了,列位敌人,请喜迎这样一个新时刻,不要埋怨什么,享受春的和煦与快慰。尽管写进去了,然而我感觉写的一般般吧。 然而这不重要,咱们晓得了如何通过langchain来调用openai的大模型,这个才是最重要的。 聊天模式下面咱们调用LLM应用用的是"text in, text out"的模型。 尽管聊天模式也是基于LLM,然而他更进了一步,因为他保留了会话的高低问题,所以在对话上更加智能化。 在代码上,传入的就不是文本了,而是message对象。 在langchain中,目前反对上面几种音讯类型:AIMessage, HumanMessage, SystemMessage 和 ChatMessage。 ...

June 28, 2023 · 2 min · jiezi

关于aigc:使用-PAIBlade-优化-Stable-Diffusion-推理流程

背景AIGC是人工智能计算畛域里倒退迅速的重要业务。Stable Diffusion 是其中最热门的开源模型,受到宽泛关注。然而,随着利用场景不断扩大,Stable Diffusion所面临的推理时延和计算成本问题也越来越突出。 简介PAI-Blade是 PAI 推出的通用推理优化工具,能够通过模型零碎联结优化,使模型达到最优推理性能。PAI-Blade依靠于齐全动静尺寸的AI编译器BladeDISC 和 基于深度学习主动调度的高性能计算库BlaDNN, 为包含图像生成模型Stable Diffsuion, 大语言模型LLM, 大规模稠密举荐模型CTR, 语音辨认模型ASR等等在内的泛滥模型提供主动的高性能推理优化。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1221568?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

June 27, 2023 · 1 min · jiezi

关于aigc:AIGC时代基于云原生-MLOps-构建属于你的大模型下

为了满足企业在数字化转型过程中对更新迭代生产力工具的需要,灵雀云近日推出了Alauda MLOps 解决方案,帮忙企业疾速落地AI技术、实现智能化利用和服务。 AIGC大模型已成为企业翻新引擎随着ChatGPT的爆火,越来越多的人思考应用AI来晋升咱们日常工作的效率和品质,通过对话帮助生成须要的文本数据。无论是将数据汇总成表格,还是依据提醒编写文章,或者进行专业知识问答,都能够通过适合的prompt工程,让ChatGPT给出最佳的答复,甚至能够取代一部分人类的工作。此外,AI 生成的内容不仅限于文本数据,还包含 AI 绘画(stable diffusion),乐曲创作(Amper Music),电影生成(Runway)等工具,这些都是 AIGC( AI Generated Content) 的领域,它们也在一直刷新许多行业的生产力。 Alauda MLOps助力企业疾速构建属于本人的大模型然而,企业须要一个本人领有并管控的本地部署的模型来实现上述工作,因为这样能够保障: · 平安因素:在进行对话时,企业不心愿把企业外部数据发送到互联网上的 AI 模型;· 性能定制:心愿应用本人的数据,加强模型在特定场景的能力(fine tunning);· 内容审查:依据法律法规要求,对输出、输入内容进行二次过滤。 那么,在这样的场景下,企业如何疾速搭建、定制这样的模型呢?答案是应用云原生 MLOps + 公开模型! 依据OpenAI公司的介绍,其在训练ChatGPT / GPT-4等超大规模模型时,应用了Azure + MPI的大规模 GPU 计算集群。在公有云原生环境,应用MLOps工具链,企业同样能够领有能够横向扩大的大规模机器学习算力。在应用MLOps平台时,能够取得如下的晋升: · 更适宜大规模预训练模型的训练和预测流程;· 升高对大模型的利用门槛:内置应用预训练大模型教程流程,一步上手;· 欠缺的惯例机器学习,深度学习平台;· 应用流水线+调度器对立编排大规模分布式训练任务,反对自定义各种分布式训练方法和框架,包含 DDP、Pipeline、ZERo、FSDP;· 流程自定义:依据理论业务,抉择 MLOps 工具链条中的子集,构建适合的业务流程;· 欠缺的MLOps平台:提供顺畅、残缺的MLOps工具链。接下来,咱们以Alauda MLOps平台为例,介绍如何在此之上基于LLaMa预训练模型的chat模型(lora)来构建属于你的“ChatGPT”,定制并启动一个LLM对话模型。 此外,应用其余HuggingFace预训练模型,也能够疾速构建本人的模型,如Vicuna、 MPT等模型,请感兴趣的读者自行尝试。 · 获取形式 ·企业版MLOps:https://www.alauda.cn/open/detail/id/740.html开源版MLOps:https://github.com/alauda/kubeflow-chart 如何在云原生MLOps下实现大规模预chat模型的定制和部署?首先,咱们须要启动一个Notebook环境,并为其调配必要的GPU资源(实测中,训练 alpaca 7b 半精度模型须要4块 K80,或一块 4090,以及足够的显存大小): 而后,咱们须要从github和hugging face筹备对应的代码和模型文件。 · 下载我的项目:https://github.com/tloen/alpaca-lora,而后拖拽上传到Notebook文件导航栏。也能够在Notebook内应用命令行执行git clone下载;· 下载语言模型预训练 weights:https://huggingface.co/decapoda-research/llama-7b-hf,并拖拽上传到Notebook中。也能够在Notebook中应用 git lfs clone下载模型;· 下载lora模型预训练 weights: https://huggingface.co/tloen/alpaca-lora-7b,并拖拽上传到Notebook中。也能够在Notebook中应用git lfs clone下载模型。 这里上传较大的模型会有较长的等待时间,如果和huggingface网络连接良好,能够抉择在Notebook内间接从网络下载。 接着,咱们先应用方才下载的预训练模型,启动一个AI对话web利用验证成果,挂载Notebook应用的磁盘以读取这些模型文件: 而后咱们就能够应用以上yaml配置或者原生利用创立表单形式创立预测服务。留神推理服务只须要应用1块 K80 GPU 即可启动。 ...

June 25, 2023 · 1 min · jiezi

关于aigc:达摩院OpenVIAIGC技术在图像超分上的创新应用

一、背景随着扩散模型DiffusionModel在实践和实际中的有效性失去越来越多的验证,在大数据、大模型的加持下,多模态学习倒退热火朝天,促成了当今AIGC的火爆。同时以此为根底的视觉加强底层工作,也带来了一些突破性成绩。明天重点给大家展现下,扩散模型在图像超分辨率这方面的新的利用,展现出其超过GAN的生成多样性和真实性。看完后,你会发现,还在用GAN做图像超分辨率吗?曾经OUT了,快来试试DiffusionModel吧! 二、办法2.1 经典算法Real-ESRGAN先来看下GAN来利用到图像超分辨率的经典办法Real-ESRGAN,如图1根本流程。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1223817?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

June 16, 2023 · 1 min · jiezi

关于aigc:玩转AIGC-基于PAIEAS挂载OSS5步构建专属文生图能力

人工智能生成内容(Artificial Intelligence Generated Content,简称AIGC)是当下最火的概念之一。AIGC被认为是继业余生成内容(Professional Generated Content, PGC)和用户生成内容(User Generated Content, UGC)之后,利用人工智能技术主动生成内容的新型生产方式。本试验场景中次要介绍如何应用模型在线服务(PAI-EAS)部署AIGC。通过PAI EAS模型在线服务,同时利用OSS挂载性能,使用户无需放心因为PAI服务进行或删除导致数据失落的问题,充沛解决AI服务长久化存储与扩容需要。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1218803?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

June 15, 2023 · 1 min · jiezi

关于aigc:AnalyticDBADBLLM构建AIGC时代下企业专属Chatbot

为什么Chatbot须要大语言模型+向量数据库?这个春天,最让人震感的科技产品莫过于ChatGPT的横空出世,通过大语言模型(LLM)让人们看到了生成式AI能实现到和人类语言高度相仿的语言表达能力,AI不再遥不可及而曾经能够走进人类的工作和生存,这使得寂静一段时间的AI畛域从新焕发了能量,有数的从业者正趋之若鹜地投身于下一个扭转时代的机会;据不齐全统计,在短短的4个月工夫内,美国曾经实现了超4000笔的生成式AI的行业融资。生成式AI曾经成为了资本和企业都无奈漠视的下一代的技术明码,而其对于底层的基础设施能力提供了更高的要求。 大模型可能答复较为普世的问题,然而若要服务于垂直业余畛域,会存在常识深度和时效性有余的问题,那么企业如何抓住机会并构建垂直畛域服务?目前有两种模式,第一种是基于大模型之上做垂直畛域模型的Fine Tune,这个综合投入老本较大,更新的频率也较低,并不适用于所有的企业;第二种就是在向量数据库中构建企业自有的常识资产,通过大模型+向量数据库来搭建垂直畛域的深度服务,实质是应用数据库进行提醒工程(Prompt Engineering)。以法律行业为例,基于垂直类目标法律条文和判例,企业能够构建垂直畛域的法律科技服务。如法律科技公司Harvey,正在构建“律师的副驾驶”(Copilot for Lawyer)以进步法律条文的起草和钻研服务。 将企业知识库文档和实时信息通过向量特征提取而后存储到向量数据库,联合LLM大语言模型能够让Chatbot(聊天机器人)的答复更具专业性和时效性,构建企业专属Chatbot。 本文接下来将重点介绍基于大语言模型(LLM)+向量数据库打造企业专属Chatbot的原理和流程,以及ADB-PG构建该场景的外围能力。 什么是向量数据库?在事实世界中,绝大多数的数据都是以非结构化数据的模式存在的,如图片,音频,视频,文本等。这些非结构化的数据随着智慧城市,短视频,商品个性化举荐,视觉商品搜寻等利用的呈现而爆发式增长。为了可能解决这些非结构化的数据,咱们通常会应用人工智能技术提取这些非结构化数据的特色,并将其转化为特征向量,再对这些特征向量进行剖析和检索以实现对非结构化数据的解决。因而,咱们把这种能存储,剖析和检索特征向量的数据库称之为向量数据库。 向量数据库对于特征向量的疾速检索,个别会采纳构建向量索引的技术手段,咱们通常说的向量索引都属于ANNS(Approximate Nearest Neighbors Search,近似最近邻搜寻),它的核心思想是不再局限于只返回最准确的后果项,而是仅搜寻可能是近邻的数据项,也就是通过就义可承受范畴内的一点精确度来换取检索效率的进步。这也是向量数据库与传统数据库最大的差异。 为了将ANNS向量索引更加不便的利用到理论的生产环境中,目前业界次要有两种实际形式。一种是独自将ANNS向量索引服务化,以提供向量索引创立和检索的能力,从而造成一种专有的向量数据库;另一种是将ANNS向量索引交融到传统结构化数据库中,造成一种具备向量检索性能的DBMS。在理论的业务场景中,专有的向量数据库往往都须要和其余传统数据库配合起来一起应用,这样会造成一些比拟常见的问题,如数据冗余、数据迁徙过多、数据一致性问题等,与真正的DBMS相比,专有的向量数据库须要额定的业余人员保护、额定的老本,以及十分无限的查询语言能力、可编程性、可扩展性和工具集成。而交融了向量检索性能的DBMS则不同,它首先是一个十分齐备的古代数据库平台,能满足应用程序开发人员的数据库性能需要;而后它集成的向量检索能力一样也能够实现专有的向量数据库的性能,并且使向量存储和检索继承了DBMS的优良能力,如易用性(间接应用SQL的形式解决向量)、事务、高可用性、高可扩展性等等。本文介绍的ADB-PG即是具备向量检索性能的DBMS,在蕴含向量检索性能的同时,还具备一站式的数据库能力。在介绍ADB-PG的具体能力之前,咱们先来看一下Demo视频中Chatbot的创立流程和相干原理。 LLM大语言模型+ADB-PG:打造企业专属Chatbot案例-本地常识问答零碎对于后面Demo视频联合大语言模型LLM和ADB-PG进行时事新闻点评解答的例子,让LLM答复"通义千问是什么"。能够看到,如果咱们让LLM间接答复,失去的答案没有意义,因为LLM的训练数据集里并不蕴含相干的内容。而当咱们应用向量数据库作为本地常识存储,让LLM主动提取相干的常识之后,其正确地答复了"通义千问是什么"。 同样地,这种形式能够利用于解决文档,PDF,邮件,网络资讯等等尚未被LLM训练数据集笼罩到的内容。比方: 1.联合最新的航班信息和最新的网红打卡地点等游览攻略资源,打造游览助手。比方答复下周最适宜去哪里游览,如何最经济实惠的问题。 2.体育赛事点评,时事热点新闻点评,总结。明天谁是NBA较量的MVP。 3.教育行业,最新的教育热点解读,比方,通知我什么是AIGC,什么是Stable Diffusion以及如何应用等等。 4.金融畛域,疾速剖析各行业畛域金融财报,打造金融征询助手。 5.业余畛域的客服机器人... 实现原理本地常识问答零碎(Local QA System)次要是通过联合了大语言模型的推理能力和向量数据库的存储和检索能力。来实现通过向量检索到最相干的语义片段,而后让大语言模型联合相干片段上下文来进行正确的推理失去论断。 在这个过程中次要有两个流程: a.后端数据处理和存储流程 b.前端问答流程 同时其底层次要依赖两个模块: 1.基于大语言模型的推理模块 2.基于向量数据库的向量数据管理模块 后端数据处理和存储流程上图彩色的局部为后端的数据处理流程,次要是将咱们的原始数据求解embedding,并和原始数据一起存入到向量数据库ADB-PG中。这里你只须要关注上图的蓝色虚线框局部。彩色的解决模块和ADB-PG向量数据库。 Step1:先将原始文档中的文本内容全副提取进去。而后依据语义切块,切成多个chunk,能够了解为能够残缺表白一段意思的文本段落。在这个过程中还能够额定做一些元数据抽取,敏感信息检测等行为。Step2:将这些Chunk都丢给embedding模型,来求取这些chunk的embedding。Step3:将embedding和原始chunk一起存入到向量数据库中。前端问答流程在这个过程中次要分为三个局部 1.问题提炼局部 2.向量检索提取最相干常识 3.推理求解局部。在这里咱们须要关注橙色局部。单单说原理可能比拟艰涩,咱们还是用下面的例子来阐明。 Part1 问题提炼这个局部是可选的,之所以存在是因为有些问题是须要依赖于上下文的。因为用户问的新问题可能没方法让LLM了解这个用户的用意。比方用户的新问题是"它能做什么"。LLM并不知道它指的是谁,须要联合之前的聊天历史,比方"通义千问是什么"来推理出用户须要求解答案的独立问题"通义千问能做什么"。LLM没法正确答复"它有什么用"这样的含糊问题,然而能正确答复"通义千问有什么用"这样的独立问题。如果你的问题自身就是独立的,则不须要这个局部。失去独立问题后,咱们能够基于这个独立问题,来求取这个独立问题的embedding。而后去向量数据库中搜寻最类似的向量,找到最相干的内容。这个行为在Part2 Retrieval Plugin的性能中。 Part2 向量检索独立问题求取embedding这个性能会在text2vec模型中进行。在取得embedding之后就能够通过这个embedding来搜寻曾经当时存储在向量数据库中的数据了。比方咱们曾经在ADB-PG中存储了上面内容。咱们就能够通过求取的向量来取得最相近的内容或者常识,比方第一条和第三条。通义千问是...,通义千问能够帮忙咱们xxx。 Part3 推理求解在取得最相干的常识之后,咱们就能够就能够让LLM基于最相干的常识和独立问题来进行求解推理,失去最终的答案了。这里就是联合“通义千问是...”,“通义千问能够帮忙咱们xxx”等等最无效的信息来答复“通义千问有什么用”这个问题了。最终让GPT的推理求解大抵是这样: 基于以下已知信息,简洁和业余的来答复用户的问题。 如果无奈从中失去答案,请说"依据已知信息无法回答该问题"或"没有提供足够的相干信息",不容许在答案中增加 假造成分,答案请应用中文。已知内容:1.阿里巴巴“通义千问”大模型4月11日也亮相云峰会...2.通义千问能够帮忙咱们xxx 问题: 通义千问有什么用ADB-PG:内置向量检索+全文检索的一站式企业常识数据库为什么ADB-PG适宜作为Chatbot的常识数据库?ADB-PG是一款具备大规模并行处理能力的云原生数据仓库。它反对行存储和列存储模式,既能够提供高性能的离线数据处理,也能够反对高并发的海量数据在线剖析查问。因而咱们能够说ADB-PG是一个反对分布式事务、混合负载的数据仓库平台,同时也反对解决多种非结构化和半结构化数据源。如通过向量检索插件实现了对图片、语言、视频、文本等非结构化数据的高性能向量检索剖析,对JSON等半结构化数据的全文检索剖析。因而在AIGC场景下,ADB-PG既能够作为一款向量数据库满足其对向量存储和检索的需要,也能够满足其余结构化数据的存储和查问,同时也能够提供全文检索的能力,为AIGC场景下的业务利用提供一站式的解决方案。上面咱们将对ADB-PG的向量检索、交融检索和全文检索这三方面的能力进行具体介绍。ADB-PG向量检索和交融检索性能于2020年首次在私有云上线,目前曾经在人脸识别畛域失去了十分宽泛的利用。ADB-PG的向量数据库继承自数据仓库平台,因而它简直领有DBMS的所有益处,如ANSISQL、ACID事务、高可用性、故障复原、工夫点复原、可编程性、可扩展性等。同时它反对了点积间隔、汉明间隔和欧氏间隔的向量和向量的类似度搜寻。这些性能目前在人脸识别、商品辨认和基于文本的语义搜寻中失去了广泛应用。随着AIGC的爆炸式增长,这些性能为基于文本的Chatbot奠定了松软的根底。另外,ADB-PG向量检索引擎也应用Intel SIMD指令极其无效地实现了向量相似性匹配。上面咱们用一个具体的例子来阐明ADB-PG的向量检索和交融检索如何应用。假如有一个文本知识库,它是将一批文章宰割成chunk再转换为embedding向量后入库的,其中chunks表蕴含以下字段: 那么对应的建表DDL如下: CREATE TABLE chunks( id serial primary key, chunk varchar(1024), intime timestamp, url varchar(1024), feature real[]);为了对向量检索进行减速,咱们还须要建设一个向量索引: ...

June 14, 2023 · 1 min · jiezi

关于aigc:思否黑马圆满收官28-支队伍创意使用-Jina-AI-三款-AIGC-装备

上周末,杭州被 AI 热潮所沸腾!SegmentFault AI Hackathon 杭州站暨思否 11 周年特地流动在 G5 创投核心拉开帷幕,超过 30 支团队加入了 32 小时的极限编程挑战,他们的产品展现直击评委的心,其中 28 支队伍失去了 Jina AI 三款产品的能力加持!快来看看大家的奇思妙想吧! Jina AI 作为本次大赛的「技术合作伙伴」,为所有线下参赛队伍提供了三款 AIGC 产品 API 收费调用的特地福利,buff 拉满、配备降级! SceneXplain.jina.ai 为图片生成更好的文字描述PromptPerfect.jina.ai 寰球首个提醒词优化神器Rationale.jina.ai帮忙感性决策神器 在开放性命题之下,大赛连续 Hack with AI, Rebuild Everything with AI 的主题,激励开发者应用 Generative AI 技术构建翻新利用,以解决理论问题。 揭幕典礼上,Jina AI 创始人兼 CEO 肖涵博士作了启发演讲,为大家介绍 Jina AI 三款 AIGC 产品,支付黑马福利大礼包形式及黑马专项奖的评比规定。 随后,选手们便开始了为期 2 天 1 夜的极限编程挑战。Jina AI 踊跃地为选手们提供保障,肖涵博士亲自下场帮忙选手答疑解惑,工程师近程在北京为选手技术支持。 最终在 24 小时的 CODING 后,30 个翻新利用顺利诞生。通过强烈角逐,SegmentFault AI Hackathon 杭州站获奖名单出炉。prompts 乐高、织梦、Rainbow AI、IntelliSquad、TraFinity、无涯之旅、J&M、赛博海王、归零造物、Genie 共计 10 个团队取得 Jina AI 提供的 10 组 1024 RMB 专项奖。 ...

June 13, 2023 · 2 min · jiezi

关于aigc:AI-运营是替代还是协作

明天让咱们来聊点不一样的 ,聊聊 AI 在经营这一块,到底是要帮咱们忙,还是抢咱们的饭碗呢。当初的 AI 像个刚刚踏入社会的孩子,尽管经常会让人眼前一亮,却又充斥不确定性。那么你说,这孩子会颠覆所有,自个儿独挑大梁,把经营赶出厨房呢?还是它会和咱们搭把手,咱们一起做出更好吃的大餐呢?让咱们一起探讨一下,看看将来的厨房,会是什么样子的。Jina AI 的技术经营张飒,Jina AI 社区沉闷用户、同合杉天创始人何承翰,一起做客了《扩博智聊》播客栏目,发表了一些“正当的危险舆论”... 扫描下方二维码即可收听! 本期话题:AI 在多媒体内容创作和经营畛域的利用 主持人:潘天一 ️ 嘉宾:张飒,Jina AI 技术经营 何承翰,同合杉天创始人节目笔记  主持人发问 :最近用到什么好玩的 AI 工具能够举荐给大家吗?  张飒举荐 :PromptPerfect.jina.ai(寰球首个提醒词优化器) 想要将 AI 大模型最疾速、最不便地转化为生产力,提醒词工程就是一辆直通车,PromptPerfect.jina.ai 是一个 AI 主动提醒词优化工具,以最低的应用门槛帮忙用户将本人的原始提醒词进行优化,向 ChatGPT 精准传播批示,就是所谓的“用魔法战胜魔法”。 目前 PromptPerfect 反对了简直市面上所有风行大模型,可能一键优化提醒词,并且反对 API 调用,能够无缝集成到本人的开发利用中! 此外还有进阶性能,比方「流水线」依据不同模型定制优化策略,反对自定义抉择提醒词优化流程,如缩短提醒词、绕过道德过滤器、查看输入。还有「竞技场」,能够给定一个提醒词,比拟多个模型下的体现。 主持人发问 :同合杉天核心技术应用 Jina AI 的多模态人工智能开源平台,也是社区的沉闷贡献者。这个单干是怎么开始的? 何承翰 :Jina AI 的产品对于同合杉天来说相当于一个驱动层,相似于电脑接入了显卡或者硬盘之类的内部设施,须要打个驱动能力真正应用。对于同合杉天来说这个硬件就是那个 AI 模型,Jina 相当于驱动层。AI 模型利用到产品中可能晋升产品吸引力,为创作者的作品赋能为观众晋升观看体验。 企业或开发者想要开发一个 AI 工具须要十分多工程师资源,即使上线一个简略的 AI 模型,也须要招算法工程师去做这些模型的部署、微调,再去把它封装成一个 API 给外部团队或者内部团队应用,并且保障服务稳固是须要大量人力和资金投入的。 张飒 :这也就是 Jina AI 推出 Inference 的起因,服务那些想要低成本、高效率地在本人的利用中退出 AI 能力的企业。 实战案例:Jina AI 全新 Inference 服务,LangChain 开发体验从未如此丝滑  ...

June 13, 2023 · 1 min · jiezi

关于aigc:Stable-Diffusion-WebUI-环境

Stable Diffusion 是热门的文本到图像的生成扩散模型,本文介绍了如何筹备其 WebUI 环境。 Stability AI Stability API Extension for Automatic1111 WebUIStable Diffusion web UI环境根底OS: Ubuntu 22.04.2 LTSKernel: 5.19.0CPU: AMD Ryzen 7 3700XGPU: NVIDIA GeForce RTX 2080 TiRAM: 16GB环境装置Nvidia 驱动# 查看可用驱动信息ubuntu-drivers devices# 装置 Nvidia 驱动(可选提醒 recommended 的)sudo apt install nvidia-driver-530# 查看 Nvidia 驱动(查看不了,可重登录或重启)nvidia-smiAnacondaAnaconda: https://www.anaconda.com/download# 装置 Anaconda, 都 yesbash Anaconda3-2023.03-1-Linux-x86_64.shPyTorchPyTorch: https://pytorch.org/# 创立虚拟环境conda create -n sdwebui python=3.10.6 -yconda activate sdwebui# 装置 PyTorch with CUDAconda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia -y查看 PyTorch 版本, ...

June 13, 2023 · 2 min · jiezi

关于aigc:社交泛娱乐出海如何抓住AIGC我在融云WICC上看到了答案

大模型掀起的AIGC时代,所有企业的所有业务与产品都值得利用大模型技术重做一遍,接下来也将有越来越多依靠AIGC技术的翻新利用涌现。关注【融云寰球互联网通信云】理解更多 在社交泛娱乐赛道,AI大模型技术也呈现出了减速落地的态势。日前,罗超频道加入了融云与白鲸出海联结主办的“WICC·泛娱乐出海嘉年华”。不出所料,AIGC成了与会嘉宾们的热点话题之一,已有越来越多的社交泛娱乐出海开发者在摸索利用AIGC技术来晋升用户体验和进步经营效率。风起于青萍之末,罗超频道认为,AIGC将成为社交泛娱乐赛道乃至整个互联网产业的趋势,企业用好AIGC技术可再上一层楼,反之则可能被颠覆。 社交泛娱乐出海开发者开“卷”AIGC新技术中国科技企业始终在踊跃走出国门,在海内市场寻求增长。近年来出海的主力军团从电商、工具、游戏等利用变为社交泛娱乐类利用,其中涌现出了TikTok、欢聚、赤子城、雅乐科技、昆仑万维、WePlay等大大小小的明星公司,以及成千上万家“水面之下”的潜行者,仅仅在广州就有蜗牛互动、工夫在线、舵手互娱等颇具规模的社交泛娱乐出海守业公司。 并且,跟前些年互联网Copy 2 China不同,挪动开发者长于“卷翻新”。中国长出了许多令海内艳羡的原创产品,比方社交类超级利用、共享经济、直播带货等,一些海内科技巨头踊跃学习中国翻新掀起“Copy From China”的新潮流。在这样的态势下,中国开发者正在“卷”向海内,他们一边将中国市场的成功经验复制进来,与不同市场的外乡特色交融实现“寰球本地化”;另一边则一直利用新技术去发明新的泛娱乐玩法,靠翻新的产品去不同区域市场抢夺用户。 2023年,AIGC成了新技术的明日之星,融云在流动上重磅公布的《社交泛娱乐出海作战地图》(下简称《出海作战地图》)也指出,AIGC新技术正在给社交泛娱乐发明新的业态:娱乐+AIGC畛域呈现了趣味图像/音视频生成、虚构偶像IP、用户虚构分身、互动问答等利用;音乐+AIGC畛域则呈现了智能MV、AI海报、AI曲谱等利用…… 这张地图在现场非常吸睛,参会的出海人纷纷排队抢领,流动未过半第一批地图就已断货。出品方融云紧急制作了第二批地图(原价89.9),罗超频道为大家申请了名额,感兴趣的同学能够移步【融云寰球互联网通信云】回复【地图】获取申领,数量无限,领完即止。 “某游戏公司裁掉了半数原画师”是国内社交泛娱乐产业拥抱AIGC技术的缩影。而在海内市场,也呈现了不少利用AIGC赚得钵满盆满的开发者,比方AI版美图利用Lensa在用户上传10-20张自拍照片后可生成 50-200张不同格调的AI自画像/头像,生成 50/100/200张图片的价格别离为3.99/5.99/7.99美元,靠此其日支出已达 300万美元。 在利用新技术实现新玩法这件事上,长于翻新的中国社交泛娱乐出海开发者不遑多让。本次WICC上,欢聚团体Hago产品总监马思勰、Hinow&Heyy CEO高振胜都分享了各自在大模型技术利用方面的实际。Hago的次要尝试在营销内容生成、智能客服训练、用户虚构形象等方面,Hinow&Heyy则利用大模型技术来解决1V1视频出海利用十分辣手的视频鉴黄难题。 从WICC上开释的信号来看,始终崇尚“卷技术”的社交泛娱乐出海开发者已在开“卷”AIGC新技术,这也将是接下来行业的重大看点。 不管过来还是未来技术都是社交泛娱乐的基石《出海作战地图》展现了社交泛娱乐出海的全局详情,这一产业包含社交约会、趣味社区、音频、直播、游戏和虚拟人等细分赛道,它们均具备如下特点: 1、内容属性极强,不管PGC、UGC还是PUGC,音讯、图片、音频、视频、直播、游戏等等内容均在产品体验中都施展着重要的作用,说社交泛娱乐实质是内容生意也不夸大,腾讯、字节两大巨头均兼具社交、内容与泛娱乐三大属性也足以阐明这一点。 2、互动体验极强,每一个社交泛娱乐产品的外围体验,均高度依赖人与人、人与内容、人与社区的互动。所以,通信技术的倒退和社交泛娱乐的凋敝出现相辅相成之势,也让寰球通信云服务商融云成为利用出海基础设施般的存在。 总之,内容与互动的双重个性让社交泛娱乐利用高度依赖技术:最底层离不开IM即时通讯和RTC实时音视频通信技术,下层则要利用超级群、虚拟人、AIGC等场景技术实现玩法翻新和体验优化,内容经营、合规审核、用户增长、商业变现等经营环节也须要技术加持。 《出海作战地图》发现了一个很有意思的法则:社交泛娱乐出海从无到有乃至成为产业,都离不开“社交+”这一增长动能,也就是社交泛娱乐与不同技术的交融实现的产品翻新,比方“社交+社区”不断涌现出二次元、游戏、健身社区等翻新利用;再比方“社交+音频”催生了风靡寰球的语聊房爆款,也是中国出海创业者的劣势我的项目,体现强势的有Yalla、YoYo、YoHo、Litmatch、StarMaker等明星产品。 出海市场的不同个性进一步强化了对新技术的依赖。 我国的社交泛娱乐市场绝对集中,被字节、腾讯等巨头掌控。但海内则是不同的现象,《出海作战地图》出现了东南亚、中东、欧美、拉美、非洲等市场的差异性,出海当地的利用将受经济&人口、宗教与文化风俗、政策、用户需要以及互联网根底等元素的综合影响。 比方,沙特、阿联酋、卡塔尔、科威特、阿曼、巴林等六个被称为“海湾六国”的中东国家,人口宏大,消费力强,线下社交受限,蕴含强烈的在线社交需要。但同时,受制于宗教文化等因素,很难间接复制国内互联网产品的胜利。针对这样的个性,不露脸只发声的“社交+音频”类利用在当地受到热捧,多家主打语聊房类利用的出海开发者在当地掘金胜利。 简单的海内市场意味着出海开发者不能只靠“一款产品打天下”。在更加多元、简单和激烈的全球化竞争中,开发者要适应市场特色,既要就地取材也要与时俱进,不断创新、疾速迭代。更强的翻新要求,更快的市场节奏,更简单的市场局势,对技术提出了比国内市场还要高的要求。 不论是过来、当初还是未来,技术都将是社交泛娱乐产业的基石。因为技术驱动的个性,在社交泛娱乐开发者出海的过程中,也都须要以融云为代表的通信云技术服务商的保驾护航。 社交泛娱乐减速出海通信云服务保驾护航社交泛娱乐开发者出海面临的第一个技术问题就是:如何给当地用户提供顺畅的交互体验?不论是IM还是RTC互动,都比在国内更难实现,因为不同海内市场互联网根底截然不同,网络制式、网络设施、流量资费、用户终端等差别微小。 Hinow&Heyy CEO高振胜对这一点感触颇深,他在2016年开始做海内视频聊天业务,面对简单的环境因素,消耗了微小精力才让产品胜利运行,“对融云这样的通信云服务需要很紧迫。” 也正是在2016年,融云就发现了出海开发者广泛面对的通信技术痛点,并开始布局海内。7年来,融云在安全可靠的寰球通信网根底上,为开发者提供IM、RTC通信服务及“社交+”场景解决方案,让开发者不须要反复造轮子就能领有稳固、极致的通信体验。 融云成立于2014年,据融云CEO董晗介绍,“融云外围团队来自于中国移动的飞信团队,飞信一度领有2亿互联网日活客户,而融云的高可用、高并发技术架构也是从飞信,从18年的通信技术业余服务教训积攒而来的。” 在“飞信基因”加持下,融云在IM PaaS畛域展示着极强的统治力,始终稳居IM通信云市场首位(源自艾瑞相干数据报告)。而随着助力中国开发者进军寰球市场的深刻实际,融云对社交泛娱乐产品和寰球市场造成了深刻理解,其对寰球通信网络不断完善和优化,最终造成“IM即时通讯+RTC实时音视频+X扩大服务”的残缺通信解决方案,服务出海开发者对翻新场景的摸索。 开发者借助融云一站式全生态出海解决方案,可在不同市场麻利翻新,大幅升高试探海内市场的周期和老本,抓住转瞬即逝的市场机会、用好突飞猛进的新技术、专一日益重要的外乡经营,大幅提高其海内生产能力和发展潜力。 迄今为止,融云已累计给寰球数十万开发者提供业余、简略、稳固的互联网通信云服务,笼罩寰球233个国家和地区,是30万+App背地的“通信云功臣”。 与此同时,融云也在促成行业交换、推动技术倒退和场景落地等方面贡献力量。现在未然成为行业风向标的WICC,全称World Internet Communication Cloud Conference(寰球互联网通信云大会),由董晗发动于2019年。迄今为止,WICC曾经在上海、深圳、北京、广州、成都等地胜利举办,吸引各赛道头部玩家参加,数十万开发者通过线上线下的形式获益。 融云给开发者们提供的技术也在一直与时俱进,WICC上,融云CTO还首次公开宣讲了融云整合AIGC等新技术造成的解决方案。 据岑裕介绍,融云的日音讯峰值超过2000亿,SDK触达的总设施数超过80亿,在寰球范畴之内能够做到端到端提早低于100ms,适配寰球三千款机型,SDK解体率低至万分之一,可撑持App在出海状况上来做各种新场景的摸索,包含AIGC。“融云将IM即时通讯、RTC实时音视频通信与AIGC联合,让通信零碎不便地嵌入到AIGC的获取和生成流程中,并且可反对其高效晋升AIGC生成的品质。” 另一方面,AIGC也给底层的IM通信带来了新的挑战。据岑裕介绍:“以前IM是把一条音讯从A发到B,然而联合ChatGPT等AIGC利用的运行形式,模型须要一直依据追加内容来为用户服务。这就要求音讯在整个交互过程中是可被扭转的,而融云的音讯批改、音讯追加等接口能力能够大大地晋升利用与AIGC的交互效率。” 出海开发者拥抱AIGC是大势所趋,据岑裕走漏,融云正在减速研发AIGC相干解决方案,“集成便捷、开箱即用、简略可经营的AIGC解决方案”将很快与开发者见面。 写在最初2023年,ChatGPT热度未消,苹果用Vision Pro重燃XR产业热度,掀起了“空间计算”技术新浪潮,这些新技术对社交泛娱乐出海开发者都是翻新机会。面对简单的市场环境和突飞猛进的新技术,出海开发者们梦寐以求的是在关键时刻有趁手的好工具,至多不能让技术成为倒退的短板。不过,这一点正在变得越来越难,因为新技术越来越简单,AIGC、XR、空间技术、虚拟人等等新技术都存在整合度高、门槛高、老本低等个性,开发者靠自研已不事实。正因为此,越到前面融云这样的“送水人”越重要,他们通过一直强化新技术布局造成“开箱即用”的解决方案,成为社交泛娱乐乃至中国互联网产业出海的全程助手,让互联网出海不再须要烦忧技术层面的难题。 另外,融云公布的这张《出海作战地图》,在市场、赛道信息整合和出海从0到1方法论方面都有不少实用价值,举荐大家通过下方海报支付钻研下。

June 12, 2023 · 1 min · jiezi

关于aigc:每日互动个推CTO叶新江AIGC时代大模型推动数据要素商业化

ChatGPT在一夜之间火爆互联网,让AIGC受到世界范畴内的高度关注。时至今日,AIGC热度继续低落,各大互联网公司争相布局这一畛域。日渐成熟的技术、显著的降本增效劣势以及日益增长的市场需求等因素,曾经推动AIGC成为互联网公司新一轮必争之地。在近期举办的2023数据安全倒退大会·数据智能平安与倒退论坛上,每日互动(个推)CTO叶新江学生围绕AIGC时代下大模型给大数据企业带来的时机与挑战进行了深刻分享。图:每日互动(个推)CTO叶新江在数据智能平安与倒退论坛上分享AIGC话题 大模型将推动数据因素商业化上世纪90年代开始,随着大规模集成电路、芯片技术的冲破,个人电脑进入了千家万户。个人电脑能为大家所宽泛应用,还有一个外围起因就是,操作系统的呈现大大降低了人们操作电脑的难度。也有人将LLM根底下AIGC技术的冲破看作是智能操作系统的迭代,认为其标记着多模态智能时代的降临。犹如之前计算机、互联网的遍及给整个人类社会带来微小的生产和效率的晋升,AIGC技术也将会扭转人们工作、生存的范式,具备里程碑式的作用。它将整体晋升人类的常识程度,而如何更好地应用各种“副驾驶”,将成为将来的竞争重心。实际上,在这样一个时代下,拓宽每个人的认知边界,“学识”(即“学习如何更好地问”)将成为更重要的能力。对此,叶新江认为在VUCA时代,要冲破生产效率,必须有新的能源或能量。而在数据因素市场,这个“能源+能量”就是“数据+智能”,即以数据因素联合人工智能为外围的多种技术的联合,从而能减速推动数据因素的商业化。在数据智能畛域,大模型能够以LLM作为外围思考能力,联合行业常识,来疾速造成合乎行业要求的解决方案,同时晋升交互体验,晋升智能化产品的开发效率。用户通过应用自然语言进行对话式交互,能够很不便地去加工和操作数据、了解和合成问题、构建和执行解决方案,智能化零碎的应用门槛也因而大为升高。叶新江做了一个活泼的比喻,新呈现的大模型相当于是一个全新的大脑,输入中枢能力,但它须要手和脚,能力和环境互动、反馈和优化,并实现各种具体的动作。每日互动从成立之初到当初,外围业务逻辑就是“DMP(Data-Machine-People)”,形成“数据积攒-数据治理-数据利用”的业务闭环。每日互动以数据思维作为牵引,数据作为生产因素(D),通过大数据、云计算、机器学习等技术治理(M),以理论业务场景的利用为指标(P),实现和开掘数据价值。通过每日互动打造的数据智能操作系统DiOS(Data Intelligence Operating System),能够把“大脑”的能力输给各行各业应用。 垂直畛域更须要“可控大模型”在AIGC技术中,大模型的训练离不开大规模数据的“投喂”。通过与行业常识联合,大模型能从海量的数据中提取出有价值的信息,为业务决策提供智能反对。然而在理论利用中,叶新江认为这不足以满足具体的业务场景需要,垂直行业更须要“可控大模型”。叶新江分享,每日互动始终专一数据智能畛域,通过充沛开掘数据因素价值来赋能产业。大模型目前不足对价值观的判断,每日互动推广的是可控大模型在垂直畛域里的利用。比方,中国(温州)数安港为数据安全和利用搭建了一个“港湾”,在数安港的大数据联结计算平台上,多方数据得以进行平安的交融计算,在合规、受控的环境内实现可控的利用,撑持简单的业务场景实现平安高效的智能利用,优质的垂直数据将来就能在这样的大模型上施展更大的价值。叶新江举了一个例子,交警部门非常重视如何把交通高危的事变,特地是事变伤亡率降下来,可控大模型就能够解决这个问题。每日互动和交警部门通过大数据联结计算,首先进行数据洞察,辨认出高危人群的特色;而后通过辨认进去的特色去建模,对人群进行评级,最初把80%的资源放在前20%的高危人群,进行重点宣教,从而把伤亡率真正降下来,对人民大众的生命和财产平安有很大的晋升。 AIGC有序监管正在逐步推进技术之热必须面对法律之冷。当咱们寄希望于AIGC成为新的经济增长点的同时,不得不面对一些由此带来的法律问题:如何对海量的AIGC进行监管?如何均衡AIGC生产过程中的数据利用和集体权利爱护?对此,叶新江示意,“数据作为生产因素,是跟AI联合产生智能当前,才可能施展其真正的价值。利用大模型须要充沛开掘数据模型的能力,在此意义上,数据安全是利用大模型时必须思考的问题。数据安全包含爱护数据受控应用方面的平安以及数据内容自身是否是实在的、平安的。”叶新江提到,4月份国家网信办公布了首个国家AIGC监管文件《生成式人工智能服务治理方法(征求意见稿)》,它对AIGC的合法性及权力归属在法律层面做出了明确界定,可能极大水平上打消市场主体的顾虑,进一步推动数字化技术畛域的长足发展。数据和网络安全是咱们国家的重要保障,对于AIGC技术的疾速倒退,目前很多国内外顶尖的专家其实也存在认识上的一致。叶新江认为,在看到技术先进性一面的同时,咱们也须要关注其另外一面。对于数据智能行业来说,“为大多数人提供美妙的服务”是一个能够遵循的价值取向,每日互动还是会踊跃地去深刻理解大模型的能力,更好地应用它,为客户发明更多的价值。在踊跃拥抱新技术和新趋势的同时,每日互动也将踊跃和行业各方合作,在保障数据安全的前提下,推动行业的有序倒退。

May 26, 2023 · 1 min · jiezi

关于aigc:Orillusion-引擎正式开源AIGC-时代下的-WebGPU-轻量级-3D-渲染引擎

开源生态的建设根植于社区,开发者在社区共享、共创、共赢,将会激发出有限的创造力,这就是开源最大的魅力!抉择开源,源于咱们深信,“独行快,众行远”!Orillusion 引擎WebGPU 通过六年的工夫,终于在 2023 年 4 月 6 日,由 Chrome 团队公布。5 月 2 号,在 Chrome113 版本上,WebGPU 被默认启动。自此,Web 上无望呈现 3A 级渲染的 3D 利用了! Orillusion 团队三年前开始关注 WebGPU 倒退,通过两年多研发,屡次框架重构,性能调优后,Orillusoin 引擎在明天以开源的模式正式跟大家见面! Orillusion 致力于在浏览器中实现桌面级的渲染成果,反对超大简单场景的 3D 出现,为 3D 场景暴发时代提供底层引擎根底工具。 Github 地址:https://github.com/Orillusion/orillusion 引擎劣势WebGPU 是基于 Web 浏览器的全新古代图形 API,使网页可能间接调用 GPU 执行计算工作,并绘制简单图像。 Orillusion 是一套基于 WebGPU 图形 API 的 Web3D 渲染引擎,可能媲美 PC 端图形 API 的渲染能力。Orillusion 引擎中应用了十分多的 GPU 凋谢能力,比方灵便操作的 GPU 缓存(GPU Buffer),弱小的着色器(Webgpu Shader/WGSL),以及备受瞩目的 Compute Shader 计算内核,充分发挥 GPU 在非光栅化阶段的并行处理能力。 ECS 组件零碎Orillusion 应用 ECS(Entity-Components-System/实体-组件-零碎)组件式架构做为引擎的整体设计思路。打消了继承模式中的继承链简单、性能交错的问题,通过解耦,封装和模块化设计,开发者能够更灵便的进行性能组合及扩大。实体(entity)一旦挂接了组件(component),不须要简单的继承关系就领有了组件的全副能力,再配合上零碎内设定的生命周期,使得开发者能够实现更灵便调用。 ...

May 10, 2023 · 3 min · jiezi

关于aigc:玩转AIGC5分钟-Serverless-部署-Stable-Diffustion-服务

有没有一种可能,其实你早就在AIGC了?阿里云将提供收费Serverless函数计算产品资源,邀请你,体验一把AIGC级的毕加索、达芬奇、梵高等巨匠作画的快感。上面请纵情施展你的设想空间!!双重奖品设置,实现体验场景可得社区1000 积分兑换奖品,还可加入 AI 生成图像较量赢取 Airpods、500 元猫超卡及社区定制抱枕!体验地址:https://developer.aliyun.com/topic/aigc 你也能够轻松做出下方画作 残缺内容请点击下方链接查看:https://developer.aliyun.com/article/1194520?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 8, 2023 · 1 min · jiezi

关于aigc:大咖观点-AIGC与因果推断的双向赋能

近日,由DataFun主办的第三届数据迷信在线峰会隆重举办。聚焦机器学习与数据挖掘、AB试验、因果推断、数据中台与数字化转型、用户增长与经营、数据迷信最佳实际等6大数据迷信主题,数十位国内外一线数据科学家围绕数据迷信前沿技术成绩和利用实践经验深刻分享和交换。九章云极DataCanvas公司深度参加峰会,并分享前沿数据科学技术的最新研究进展。 峰会上,九章云极DataCanvas公司AI架构师何刚发表“AIGC与因果推断的双向赋能”主题演讲,探讨近期人工智能高热技术AIGC和经典技术因果推断的交融翻新可能。 何刚示意,AIGC在非结构化内容的生成中体现惊艳,对于结构化数据分析目前还处于空白状态,而因果推断则是以后结构化数据分析畛域最受注目的关键技术之一;以Agent-Based Modeling(ABM多智能体建模)为桥梁,能够构建AIGC与因果推断的链接,并实现AIGC与因果推断的双向赋能。ABM多智能体建模 ABM多智能体建模是一种用来模仿具备自主意识的智能体的口头和相互作用的计算模型,具备高仿真性、涌现属性、可解释性等劣势。ABM的运行模式是在不同的参数组合下进行仿真运行,运行过程中能够输入数据,并将数据存储下来造成数据集,是十分残缺且具备反事实可获取、特色完整性、可控制性等优质个性的数据资产。教训证,从ABM零碎中获取的优质数据在因果推断中的因果效应预计、因果发现、评估指标等畛域都具备很好的适用性,冲破因果推断钻研畛域无反事实样本的限度。ABM为因果推断提供优质的数据根底 由此可见,ABM多智能体建模非常适合作为AI载体,实现AIGC从非结构化数据到结构化数据生成的拓展,补救AIGC在结构化数据畛域的短板。 同时,因果推断将减速ABM多智能体建模流程,尤其在校准数据和涌现剖析这两个重要流程环节体现优异。在校准数据环节,通过将因果效应预计利用到参数剖析,能够更贴近校准指标、减速仿真的校准过程,放慢推动业务推演和辅助决策;在涌现解释环节,通过组合因果发现算法生成因果图,将因果发现、机器学习、敏感性剖析技术相结合,能够对涌现行为做出更丰盛的解释,进一步加强涌现解释能力。 联合九章云极DataCanvas公司近年来在因果推断畛域的实践翻新成绩和YLearn因果学习软件这一开源重器的研发教训,何刚提出,拓延AIGC产生结构化数据能力,利用AIGC生成因果学习模型报告,以及利用因果推断拓展AIGC的因果解释能力能够成为将来因果推断与AIGC技术深度交融的三个钻研方向。 由九章云极DataCanvas公司开源公布的YLearn因果学习软件,是寰球开源工具中惟一可能端到端地解决“因果发现、因果量辨认、因果效应预计、反事实推断和策略学习”五大因果学习工作的软件工具。YLearn冲破了机器学习基于相干关系建模的局限性,挖掘数据中稳固的因果关系,实现在反事实条件下的推断,能够充沛赋能ABM多智能体建模,助力AIGC涌现能力的开掘。 将来,作为以“硬科技”立身的人工智能根底软件供应商,九章云极DataCanvas公司将继续专一AI根底能力研发畛域,进一步推动AIGC与因果推断等前沿技术的交融翻新,并减速前沿技术的产业化利用,为AI热潮奉献一份自主翻新能量。

May 4, 2023 · 1 min · jiezi