关于人工智能:TT语音×个推流失预测准确率超90撬动存量增长

当挪动互联网进入存量时代,如何更高效地进行用户全生命周期治理、晋升用户生命周期价值,变得尤为重要。TT语音是国内当先的趣味社交平台,累计注册用户数高达数亿。为了进一步盘活存量用户价值,TT语音从2019年起便与个推单干,继续发展数智经营实际,用数据驱动APP经营效率、成果双增长。对于APP来讲,获取一个新客的推广费用往往会高于维系老客的老本。近期,TT语音和个推单干,在用户散失预防场景进行了大量摸索,心愿可能借助个推的数智能力,实现更加智能化的用户散失预防,在升高经营老本的同时做好用户留存和维系,缩短用户生命周期。为实现这个指标,首先,须要将散失用户清晰地定义进去。思考到其社交属性,个推与TT语音一起定义,该APP的用户如数天未登录应用,就意味着已散失。依照这个定义,TT语音提供了相应的散失数据给个推,用于后续的剖析扩量。其次,依据种子用户特色进行look-alike相似性扩量,找到更多“有散失偏向”的用户。个推将TT语音的种子用户同本身海量鲜活的端外数据相结合,深度剖析该用户群体的行为特色,为TT语音打造了专属的散失预测模型。通过继续的训练和迭代优化,TT语音应用该散失预测模型进行相似性扩量,模型预测的准确率高达90%以上,可能帮忙经营人员精准、无效地辨认出高散失危险人群,实现在用户散失前的智能预警。在此基础上,个推还依靠本身数据能力,帮忙TT语音对预测找出的高散失危险人群进一步细分,从更丰盛的数据维度帮忙经营人员评估各细分用户群的挽留价值,针对其中的“高价值”人群深刻洞察,理解其内在需要和趣味变迁,“对症下药”地制订和施行挽留策略,升高经营老本,晋升用户经营效率。个推数智经营服务也蕴含了丰盛的用户防散失相干性能和策略工具,比方个推打造了流程画布性能,能够反对TT语音的经营人员提前配置好自动化的防散失策略,模型辨认出用户有较高散失危险后,主动触发相应的音讯推送、利用内弹窗等,精细化地为该局部用户推送优惠券、赠送VIP体验等,更及时地进行干涉挽留;此外,个推还在流程画布中融入了A/B test性能,帮忙APP智能找到最优的散失挽回策略,牢牢抓住用户的心。单干5年以来,个推继续为TT语音提供数智经营服务,并曾经在用户触达、散失用户预测等场景获得了十分突出的成绩。特地是此次发展散失用户预测,模型预测准确率达到了90%以上,极大晋升了TT语音用户全生命周期治理的效率。接下来,个推也将继续与更多畛域的APP发展单干,以丰盛的行业教训和继续进阶的产品服务能力,为APP的经营增长提效增能。

February 23, 2024 · 1 min · jiezi

关于人工智能:使用代理IP后仍然可能被封禁怎么办

应用代理IP后依然可能被封的起因较多,以下是一些常见的情景: 代理IP品质不高:如果应用的代理IP容易被指标网站辨认为代理,比方通明代理或一般匿名代理,对方服务器能够检测到实在的客户端IP地址,从而进行封禁。 IP池小且反复使用率高:如果共享的代理IP池规模无限,同一IP被多个用户短时间内频繁拜访同一个网站,这种异样行为极易引起网站反爬虫机制的警惕,导致IP被封。 拜访频率过高:即便是高质量的代理IP,若在短时间内发送大量申请,超出失常用户的拜访频率,也可能会被认为是歹意抓取或攻击行为,进而被封禁。 违反服务条款:应用代理IP从事违反指标网站服务条款的行为,如爬取受版权保护的内容、批量注册账号等,会导致IP被封。 指标网站有严格的反代理策略:一些大型网站和服务商会采取高级的反爬虫技术,可能无效检测和屏蔽各种类型的代理IP。 代理IP被列入黑名单:某些代理IP因为先前的不良行为曾经被网站记录并退出黑名单。 防止应用代理IP被封禁,能够采取以下策略: 应用高质量代理: 高匿名(Elite/Anonymous)的代理能更好地暗藏您的实在IP地址和代理状态,升高被指标网站检测到的危险。 抉择信用良好、更新频繁、IP池大的代理服务商,确保应用的IP是洁净且未被列入黑名单的。 管制拜访频率与速度: 模仿人类浏览行为,设置正当的延时,防止短时间内大量疾速申请,触发反爬机制。 散布拜访工夫,防止集中在某一时段内对同一资源进行高密度抓取。 多IP轮换: 应用代理池零碎,主动切换不同的代理IP以扩散申请,避免单个IP因申请过多而被封闭。 对于大规模数据抓取工作,实现智能轮换策略,每个IP应用一段时间后主动更换,防止繁多IP负载过高。 恪守网站规定: 不违反指标网站的服务条款和robots.txt文件中的领导准则,只抓取容许公开拜访的数据。 假装头部信息: 设置User-Agent和其余HTTP头部信息,使其看起来像是来自常见浏览器,减少假装成果。 验证机制: 如果可能,为账户启用平安验证,如手机验证或邮箱验证,这有助于进步账户安全性,并缩小因为疑似歹意登录而引起的IP封禁。 放弃代理IP衰弱: 定期检查并移除生效或已被封禁的代理IP,保障代理的有效性。 正当分配资源: 一个IP尽量对应一个账号,防止多个账号通过同一个IP拜访,特地是对于须要账号登录的状况。 通过以上措施的综合利用,能够显著升高因为应用代理IP而被封禁的可能性。同时,继续关注指标网站的防爬策略变动,一直调整优化本人的代理策略也是必要的。

February 23, 2024 · 1 min · jiezi

关于人工智能:本地ip被限制可以用代理ip吗是怎么实现的

本地IP被限度时,的确能够应用代理IP来解决这个问题。以下是如何通过代理IP实现这一指标的根本过程:  起因与解决方案:    当本地IP地址因为拜访频率过高、违反服务条款或者受到防火墙规定屏蔽等起因而无法访问某个网站或服务时,能够通过代理IP替换本地IP地址,绕过这些限度。  代理IP工作原理:    - 代理IP服务器作为一个中间人,您的网络申请不是间接发送到指标服务器,而是先发送给代理服务器。   - 代理服务器接管到申请后,它会用本人的IP地址(即代理IP)向指标网站发动申请。   - 指标网站返回数据给代理服务器,而后代理服务器再将数据转发回给您的设施。   - 在整个过程中,指标网站看到的是代理服务器的IP地址而非您本地的理论IP地址,从而解除了对本地IP的拜访限度。  如何配置代理IP:    配置代理IP的办法取决于您的操作系统和所应用的应用程序。例如,在Windows零碎中,能够在网络设置里为特定的连贯或全局设置代理;在浏览器中,能够在其网络或高级设置里增加代理服务器信息;对于编程语言如Python等,也能够在代码中指定HTTP(S)代理。    - 对于Web浏览器,通常须要输出代理服务器的IP地址、端口号以及可能的认证信息。   - 对于服务器环境,能够通过批改配置文件(如Nginx、Apache等反向代理配置),或者在利用程序代码中动静设置代理。  获取和应用代理IP:    - 能够从市场上的付费代理服务提供商处购买高质量的代理IP,这些代理通常更稳固、速度更快且安全性更高。   - 收费代理IP也可用,但往往不稳固且存在安全隐患,不适宜商业用途或敏感操作。 总之,当本地IP受限时,正确应用代理IP能无效地假装本地IP并复原对受限资源的拜访。不过,请确保非法合规地应用代理服务,并留神网络安全与隐衷爱护。

February 23, 2024 · 1 min · jiezi

关于人工智能:让-K8s-更简单8款你不得不知的-AI-工具Part-2

在 part 1 中,咱们探讨了目前比拟风行的四种 OpenAI 开源工具。在明天的 part 2 中咱们将探索另外三种不同的 OpenAI 开源工具并介绍一些与 Appilot 相干的内容。   Kubectl-GPTKubectl-GPT 是一个 kubectl 插件,可应用 GPT 模型从自然语言输出生成 kubectl 命令。该插件引入了 kubectl GPT 命令,它的惟一使命就是在 Kubernetes 集群中实现您的申请。     装置Homebrew:   # Install Homebrew: https://brew.sh/ brew tap devinjeon/kubectl-gpt https://github.com/devinjeon/kubectl-gptbrew install kubectl-gpt  Krew:   # Install Krew: https://krew.sigs.k8s.io/docs/user-guide/setup/install/kubectl krew index add devinjeon https://github.com/devinjeon/kubectl-gptkubectl krew install devinjeon/gpt  须要应用自然语言输出运行命令行工具,生成 kubectl 命令。   kubectl gpt "<WHAT-YOU-WANT-TO-DO>"  前提条件开始之前,请确保将 OpenAI API 密钥设置为名为 OPENAI_API_KEY 的环境变量。 ...

February 23, 2024 · 4 min · jiezi

关于人工智能:青否数字人源码独立部署的应用红利

率先发现新世界“财产明码”的人,正在“闷声发大财”。 某酒旅行业头部品牌的数字人直播间内,2023年曾经播种了超过10亿的GMV(商品交易总额);双十一期间,某B2B2C头部品牌,采纳数字人和真人各播50%的时长的模式,日均观看量超过1000万;某咖啡品牌的繁多数字人直播间,仅在单日的5小时内,就播种了85.6万的营收。 作为研发数字人技术的企业之一,青否数字人同样筹划了广大的前景。 在常识生产畛域,数字人实质上是站在前台的演员,要想出现一台出彩的剧目,还须要幕后的编剧、场务、灯光等人员。换而言之,在短视频博主具备肯定专业知识的根底上,在数字人和平台的辅助下,每日的短视频生产量能够实现几倍甚至十几倍的翻跃。 而从商业的角度登程,目前国内的业余线上医疗、法律咨询服务尚处在供不应求的阶段,优质IP一旦破圈,曝光量和粉丝量便会进入到裂变增长的阶段,继而解决服务商的获客问题。 数字人技术能显著改善以后社会资源有余的问题。在教育和医疗两个畛域,都存在着优质资源集中于大城市的问题。通过AIGC,青否数字人能够将名师、名医数字化,让优质教育、医疗惠及百姓。2024年数字人直播为商家降本增效,失去广泛应用,数字人直播间怎么可能搭建(:zhibo175)? 1.在生成的数字人模特库中抉择数字人! 2.关上青否数字人直播性能后盾选中数字人主播形象 调整主播比例,调整主播地位 ,调整主播图层 3.设置默认背景 或自定义背景 ,上传到数字人SaaS零碎后盾即可 4.减少直播间装璜 ,增加默认装璜或者自定义装璜上传到后盾 ,调整装璜比例即可 5.创立产品:反对用户新建及批改单个产品,或者新建及批改对应的话术,能够上传音频话术,或者文本话术 设置主播应用的语言、说速,以及音色仅针对文本话术失效,如上传的话术内容都是音频,则无需设置主播语言 抉择主播的语言后,上传的文本也须要与主播的语言保持一致,如主播的语言选择英语,则上传的文本也需改为英语。 无论抉择哪种语言,都能够抉择与此对应的主播音色格调,以及均可调整每种语言的语速。 7.增加所需的产品素材 即可 画面左侧:设置直播流程9.互动规定设置 设置须要匹配的弹幕区关键词:通过匹配弹幕区的关键词,主播/助播进行回答,以后反对互动的平台:抖音,快手,视频号,tiktok 主播/助播回复弹幕区的打断形式为【智能】,弹幕区关键词触发后,主播正在口播的话术不会被立刻打断,而是须要将以后的讲品话术口播完,再进行回复。 同一条回复的话术反对设置多个关键词10.产品公布 将直播间装修结束,并设置好规定后,可点击保留,或者点击保留并公布,实现之后就能够连贯直播平台进行直播带货了。 青否数字人零碎源码对于数字人直播问题给出了解决方案,也含有具体的操作教程,可供参考! 往年会是数字人失去垂直利用的一年,将来生存中无处不在,所以也是数字人直播失去红利的一年,肯定要抓住机会!

February 23, 2024 · 1 min · jiezi

关于人工智能:数字人直播如何变现

“AI数字人直播零碎不仅能够代替真人实现店播,而且成果可能更好。这是是用数字人进行直播的用户心声 ”数字人直播零碎不仅可能帮忙品牌方解决经营老本昂扬、优良主播造就难、相干人才紧缺等直播难题,而且可能打造可复制、可治理、可迭代的数字资产,为其降级产品、欠缺服务、晋升治理提供牢靠的数据撑持。 AI数字人超过真人直播的条件除了技术能力外,还须要强有力的经营反对。如果您有经营能力再适合不过了! 从“有AI主播”到“做好直播”之间的间隔还很远。直播看上去是个非常简单的生意,手机能够随时开播。但为什么只有多数人能做好,因为直播胜利背地,经营这一因素的占比十分大。在咱们看来,直播须要有至多6个因素促使它胜利,别离是科技、经营、供应链、IP、金融和账号。如果只有数字人这个工具,就跟你期待买台电脑就能写出一个好的这个程序一样,从有数字人工具到把直播做好,两者之间的间隔太远了。 很多客户一开始抱着买了数字人就可能赚钱的想法,到最初心愿落空。咱们心愿解决这一行业痛点,给大家提供了丰盛的经营材料!除此之外,基于这样的行业痛点,往往客户通过数字人直播失败后,会认为是数字人不行,导致数字人工具的口碑变得很差,这样也是很伤行业的。 一.适宜是用数字人直播零碎(:zhibo175)有哪些? 1.真人直播曾经做得很好的品牌,应用数字人直播等于是锦上添花。如果品牌曾经有了一个胜利的直播间,意味着它更有能力复制下一个甚至多个,大品牌能够通过数字人绝对低成本地扩充的本人的直播矩阵。2.直播间代经营机构,他们能够缓缓利用数字人来代替真人代播。 3.从未做过直播的商家,数字人能够帮忙品牌老本较低地度过直播间的学习和过渡期,数字人是个很好的陪跑工具。 青否数字人源码迭代速度十分快,基本上每周都要更新一个新版本,因为它每周都在训练。企业越早接触这个技术,越能疾速适应这项技术对企业组织的扭转。同时,等到技术在市场中齐全成熟了再投入,可能会让企业失去肯定的先发劣势。 抖音凋谢了本地生存业务,这对数字人直播是个十分大的契机。此前咱们在抖音开播,大概率会被封号。当本地生存业务暴发出更多的直播需要,且咱们跑出了比拟好的数据和案例后,全行业便逐步跑开了。 抖音平台目前对数字人直播的价值是认可的,比方抖音在往年5月9号凋谢了数字人接口。但目前还没有针对数字人十分齐备的监管标准和法律法规出台,只是因为行业还在倒退初期。因而,作为从业者,咱们认为在谋求倒退的过程中应该要放弃克服,将行业向好的方向疏导。 现有的品牌心愿利用数字人实现24小时不间断的直播间,尽管这一点技术上是能够实现的,但咱们认为没有必要,因为直播一旦超过肯定工夫就无奈防止反复的内容,这些反复内容是没有意义的,并且会挫伤行业。从商业的角度能够做,但从科技向善的角度咱们抉择不做。 目前直播整体的开播率还不到20%,还有80%的市场空白。同时,本地生存敞开了更大的市场,此外,还有海内直播市场。 当数字人填补了残余80%的市场空白,咱们肯定会来到考量品效的阶段。直播间很多,但超群绝伦的直播间很少,咱们能不能在奉献劳动力的同时拿到后果?所以最终数字人直播竞争的天花板将还是来源于内容的优质性,数字人直播的利用门槛将会变得越来越低。 所以如果您有成熟的经营教训,有自身做起来的账号,数字人直播可能真正为您做到降本增效! 二.数字人的利用场景还有哪些? 青否数字人除了数字人直播外,还有常识生产、数字永生和数字娱乐。 常识生产目前次要波及到咱们的短视频业务,输入常识科普向的内容,将来开发法律大模型和医疗大模型,并将大模型和数字人联合,模仿实在的征询场景,用户在一问一答中就可能取得常识解答和帮忙。 数字永生这一产品实际上曾经能够实现与任何一个人在线上开展对话,他/她能够是明星,或者曾经逝世的人。特地是后者,很多人心愿能和逝世的家人交换,保留和已逝家人的记忆。数字娱乐方面,当初曾经在用AI拍剧,拍电影了,有十分宽泛的利用! 当初的AI就像刚入职场的求职者,在不同的工作中一直尝试本人的能力和价值,将来必定会在产出价值最高的场景里进一步成熟倒退。目前看来,影视可能是投入产出比最高的中央。 这项技术的边界目前咱们还看不到,咱们只晓得,中国在这项技术上的当先度是很高的。青否数字人还是很有劣势的走在行业前端!

February 23, 2024 · 1 min · jiezi

关于人工智能:青否数字人源码助力数字永生让爱延续

“丫丫的生命只有2分钟,我要给她残缺的毕生。”《漂泊地球2》中刘德华饰演的图恒宇,用数字生命技术“复活”女儿丫丫。 在电影中,数字图丫丫在数百次迭代后领有了自主意识,但因为算力无限,她的生命时长仅有2分钟。最初,在超强算力的量子智能计算机MOSS的运算下,数字丫丫的生命从2分钟缩短至70年。 数字永生从新定义了咱们对生命、爱和回顾的传统认知,为失去的亲情和未竟的爱开拓了一条新的通道。 当咱们在《漂泊地球2》中看到一个父亲试图通过数字世界给亡女一个新生时,那份刻骨的爱与不舍让咱们的心也紧紧相连。这不仅是科幻电影中的情节,更是人类深层诉求的摸索与渴望。 现实生活中,那些试图用AI技术“复活”逝者的尝试,不论是出于对逝去亲人的思念还是对科技边界的摸索,都触动了咱们心田最柔软的局部。设想一下,如果咱们可能与已离世的亲人从新对话,那些未曾辞别的遗憾是否就能失去安慰?在青否数字人数字永生的三个阶段: 第一阶段数字孪生,即克隆形象和声音,通过青否数字人实现形象和声音的克隆,包含企业家、医生、老师、律师、明星偶像的数字分身克隆,也有已故名人的“AI复活”,如梅兰芳和谢晋导演。 青否数字人克隆零碎: 首先拍摄一段5-8分钟真人出镜,正视镜头谈话的绿幕视频,用于数字人模型构建,把人物口型、动作、情态等1:1高度还原。青否数字人领有行业高精度中文唇形驱动技术,性能劣势与性价比处于全国领先水平。 1.首先您须要独立部署青否数字人SaaS零碎,您能够依据以下步骤克隆一个数字人主播。 第1步:首先拍摄一段5-8分钟真人出镜,正视镜头谈话的绿幕视频,用于数字人模型构建,把人物口型、动作、情态等1:1高度还原。青否数字人领有行业高精度中文唇形驱动技术,性能劣势与性价比处于全国领先水平,视频上传到青否数字人saas零碎的克隆端 第2步:依据青否数字人SaaS零碎(:zhibo175)提供的超具体课程,针对主播形象主动进行克隆训练。 克隆出的数字人主播妆容、神气、动作与真人主播100%统一,完满还原真人主播的微表情,动作和声音。第二阶段数字原生,在克隆形象的根底上减少了局部思维的克隆,AI人物模型训练好后,须要让数字人闭口谈话,有本人的思维,因而须要用很多很多文本常识让他学习,去空虚他的电脑。AI严伯钧的诞生即是将严伯钧的1400多条视频、100多万字的语料投喂给AI大模型进行训练,实现了他自己形象和思维的全面AI化。“数字人”和“AI大脑”构建好后,通过多种技术手段,让数字人了解用户说的话,并把大脑内容传输进来。 第三阶段数字永生,达到对于思维的全面复制,全方位进化成为具备自己情感人格、思维模式、语言习惯、常识体系,可交换对话的Agent数字人(智能体)。 截止目前,数字永生已助力数千家庭AI重聚,通过AIGC数字人技术1:1克隆还原自己的外貌、声音、性情,为用户出现领有集体情感、实在形状的数字化智能体。

February 23, 2024 · 1 min · jiezi

关于人工智能:复盘了今年春节主打一个AI应用让我机智过人

鞭炮声声辞旧岁,春光融融迎新年。春节,这一喜庆离散的节日意味着万象更始,一幅簇新的画卷曾经徐徐开展——在数字化、智能化的时代背景下,科技为这一历史悠久的节日注入了新的生机与魅力。春节与科技的强强联合,不仅展示了中华民族的智慧与翻新精力,也让传统佳节焕发出更加璀璨的荣耀。  飞桨星河社区,就是这样一个凝聚着开发者智慧的星际港湾,在春节期间,仍然有一群热衷于技术研发的开发者们坚守在属于本人的“星辰大海”。他们以春节的冷落气氛为背景,借助文心一言大模型技术,继续摸索和开掘技术的有限可能,让科技真正服务于社会,点亮万家灯火,为新春削减了别样的科技荣耀。在这个非凡的季节,他们以实际行动诠释了“技术无界,翻新不止”的信念,让春节这一传统文化符号与现代科技力量交错共生,谱写着新时代的华章。 相亲判官 : 在爱护隐衷的前提下进行相亲信息交互利用介绍 本利用是基于数据挖掘技术、文本加密、解密与匹配技术的相亲助手工具,能够帮忙相亲人士在充沛爱护隐衷的前提下理解本人和心中的那个TA是否适合。您只须要输出相亲介绍以及集体爱好,通过简略操作,实现个人信息的加密,通过大模型匹配剖析后,即可得悉二人是否适合,高效、平安地帮您实现专属配对。当然,本我的项目后果仅用于参考,相亲后果还应由当事人慎重考虑后进行决定哦~ 智对“刁难” :应答亲朋好友多场景问答利用介绍 本利用是使用深度学习和上下文了解等技术的高情商语言沟通专家。过年回家您是否又被亲戚“折磨”?面对密集的“关怀”您是否疲于应答?快来看看本利用,您只需输出亲戚讲的话,即可取得一句优雅回怼的话,省心又省力!保障便捷又风趣,足够多样,足够共性,让您的春节更舒心! AI龙年写真:智能捕获人像生成你的专属风采利用介绍 在龙年之际,你是否心愿领有一张可能展示你独特魅力和风采的写真照片?AI龙年写真正是为此而生!利用最新版本的飞桨框架和InstantID模型,这款利用可能为你打造一张充斥创意和艺术感的写真照片。你只须要上传一张清晰的人像照片,即可轻松取得一张充斥创意和艺术感的AI龙年写真。在龙年之际,用AI龙年写真记录下你的独特风采和魅力,让这一刻成为永恒的回顾。快来试试吧,展示你的最佳状态,迎接新的一年! 新年拜年语:全网无雷同的吉祥话创作指南利用介绍 本利用是基于自然语言解决等技术的龙年拜年语私人定制小助手。面对泛滥亲朋好友,您是否还在苦思冥想新年祝福语?那这款利用肯定不能错过哦。它具备多元化、文采斐然等特点,您只须要输出拜年对象的年纪、身份、祝福语长度等要求,即可疾速定制属于你的新年祝福语。新的一年,就从一段充斥创意的拜年语开始吧! 龙年Citywalk指南:一键定制专属旅行布局利用介绍 本利用基于上海市优良历史修建的根底数据,利用举荐零碎算法和数据采集等技术,能够依据用户需要疾速生成Citywalk路线布局。它具备精准、智能化、方便快捷等特点,在地图上选中Citywalk路线终点,输出申请,即可设计一条路线、生成路线攻略以及景点的举荐理由;并且可点击地图上的图标获取相干故事,帮忙用户深刻理解城市的历史、文化和特色。它让旅行更具共性和趣味性,也能帮忙城市开掘乐趣与魅力,丰盛文旅业倒退。 春节期间,文心大模型携手飞桨,以“龙码精力,龘在星河”为主题发动 4 大流动,筹备了一场专属于开发者们的惊喜盛会,回馈新老开发者! 新年伊始,酷爱技术、谋求翻新的开发者们还不抓紧时间报名“充电”?

February 23, 2024 · 1 min · jiezi

关于人工智能:欢迎-Gemma-Google-最新推出开源大语言模型

明天,Google 公布了一系列最新的开放式大型语言模型 —— Gemma!Google 正在增强其对开源人工智能的反对,咱们也十分有幸可能帮忙全力支持这次公布,并与 Hugging Face 生态完满集成。 Gemma 提供两种规模的模型:7B 参数模型,针对生产级 GPU 和 TPU 设计,确保高效部署和开发;2B 参数模型则实用于 CPU 和挪动设施。每种规模的模型都蕴含根底版本和通过指令调优的版本。 咱们与 Google 严密单干,确保 Gemma 可能无缝集成到 Hugging Face 的生态系统中。在 Hub 上,你能够找到这四个公开可拜访的模型(包含两个根底模型和两个通过调优的模型)。此次公布的亮点包含: Hub 上的模型,包含模型阐明和受权信息 Transformers 的集成与 Google Cloud 的深度集成与推理端点 (Inference Endpoints) 的集成应用 TRL 在单个 GPU 上对 Gemma 进行微调的示例Gemma 是什么?Gemma 是 Google 基于 Gemini 技术推出的四款新型大型语言模型(LLM),提供了 2B 和 7B 两种不同规模的版本,每种都蕴含了预训练根底版本和通过指令优化的版本。所有版本均可在各类生产级硬件上运行,无需数据量化解决,领有高达 8K tokens 的解决能力: gemma-7b:7B 参数的根底模型。gemma-7b-it:7B 参数的指令优化版本。gemma-2b:2B 参数的根底模型。gemma-2b-it:2B 参数的指令优化版本。 Gemma 模型的性能如何?以下是其根底版本与其余凋谢模型在 LLM 排行榜 上的比拟(得分越高越好): 模型许可证商业应用预训练大小 [tokens]排行榜分数 ⬇️LLama 2 70B Chat (参考)Llama 2 许可证✅2T67.87Gemma-7BGemma 许可证✅6T63.75DeciLM-7BApache 2.0✅未知61.55PHI-2 (2.7B)MIT✅1.4T61.33Mistral-7B-v0.1Apache 2.0✅未知60.97Llama 2 7BLlama 2 许可证✅2T54.32Gemma 2BGemma 许可证✅2T46.51在 7B 参数级别,Gemma 表现出色,与市场上最佳模型如 Mistral 7B 并驾齐驱。而 2B 版本的 Gemma 尽管规模较小,但在其类别中的体现也颇具竞争力,只管在排行榜上的得分并未超过相似规模的顶尖模型,例如 Phi 2。咱们期待社区对这些模型的实在应用反馈,以进一步优化和调整。 ...

February 22, 2024 · 3 min · jiezi

关于人工智能:开源大语言模型作为-LangChain-智能体

概要开源大型语言模型 (LLMs) 现已达到一种性能程度,使它们适宜作为推动智能体工作流的推理引擎: Mixtral 甚至在咱们的基准测试中 超过了 GPT-3.5,并且通过微调,其性能能够轻易的失去进一步加强。 引言针对 因果语言建模 训练的大型语言模型 (LLMs) 能够解决宽泛的工作,但它们常常在逻辑、计算和搜寻等根本工作上遇到困难。最蹩脚的状况是,它们在某个畛域,比方数学,体现不佳,却依然试图本人解决所有计算。 为了克服这一弱点,除其余办法外,能够将 LLM 整合到一个零碎中,在该零碎中,它能够调用工具: 这样的零碎称为 LLM 智能体。 在这篇文章中,咱们将解释 ReAct 智能体的外部工作原理,而后展现如何应用最近在 LangChain 中集成的 ChatHuggingFace 类来构建它们。最初,咱们将几个开源 LLM 与 GPT-3.5 和 GPT-4 进行基准测试。 什么是智能体?LLM 智能体的定义十分宽泛: 它们指的是所有将 LLMs 作为外围引擎,并可能依据察看对其环境施加影响的零碎。这些零碎可能通过屡次迭代“感知 ⇒ 思考 ⇒ 口头”的循环来实现既定工作,并经常融入布局或常识管理系统以晋升其体现效力。你能够在 Xi et al., 2023 的钻研中找到对智能体畛域综述的精彩评述。 明天,咱们将重点放在 ReAct 智能体 上。ReAct 采纳一种基于“推理 (Reasoning)”与“口头 (Acting)”联合的形式来构建智能体。在提醒词中,咱们论述了模型可能利用哪些工具,并疏导它“逐渐”思考 (亦称为 思维链 行为),以布局并施行其后续动作,达成最终的指标。 ReAct 智能体外部工作原理示例上述图解虽显得有些形象,但其外围原理其实相当间接。 参见 此笔记本: 咱们借助 Transformers 库展现了一个最根底的工具调用实例。 实质上,LLM 通过一个循环被调用,循环中的提醒蕴含如下内容: 这里是一个问题: “{question}”你能够应用这些工具: {tools_descriptions}。首先,你须要进行‘思考: {your_thoughts}’,接下来你能够:- 以正确的 JSON 格局发动工具调用,- 或者,以‘最终答案:’为前缀来输入你的答案。接下来,你须要解析 LLM 的输入: ...

February 22, 2024 · 3 min · jiezi

关于人工智能:2024-年向量数据库的性能卷到什么程度了

对于数据库(尤其是向量数据库)而言,“性能”是一个非常要害的指标,其用于掂量数据库是否可能在无限资源内,高效解决大量用户申请。对于向量数据库用户而言,只管可能在某些状况下对延时的要求不高,但对性能指标的高要求却判若两人,从未扭转。 这也很好了解,起因在于: 基于近似最近邻搜寻(ANNS)的向量搜寻,可能会为了进步性能而就义一点精度。但性能的进步却能够让用户在满足雷同业务需要场景下,扩充搜寻、进步准确度。在查问提早雷同,应用资源雷同的状况下,数据库性能越高、吞吐量越高,能够适应更大的用户数量。雷同场景下,性能越高意味着须要更少的计算资源。向量数据库实质上是计算密集型的数据库,在计算向量间隔时须要应用大量资源——通常超过总体资源的 80%。因而,负责解决向量搜寻工作的向量搜索引擎,是决定向量数据库整体性能的关键因素。 Zilliz 始终致力于晋升向量数据库性能,无论是 Milvus(https://github.com/milvus-io/milvus) 还是全托管的 Zilliz Cloud(https://zilliz.com.cn/cloud),与竞品相比都展现出了卓越的性能。其中,Milvus 的向量搜索引擎 Knowhere(https://github.com/zilliztech/knowhere),施展了重要作用,为新一代的向量搜索引擎奠定了根底。而 Zilliz Cloud 最近公布的外围向量搜索引擎 Cardinal,间接将搜索引擎的性能比原来晋升了 3 倍,搜寻性能(QPS)是 Milvus 的 10 倍。 咱们通过开源向量数据库性能测试工具(https://github.com/zilliztech/VectorDBBench)评估了新版 Zilliz Cloud 的性能,并将其与应用旧引擎的 Milvus 和 Zilliz Cloud 进行了比拟,评估后果如下图所示: Cardinal 到底是何方神圣?为何能有如此杰出的体现?底层逻辑是什么?本文将一一揭晓。 01.Cardinal 是什么?Cardinal 是 Zilliz 专门研发的多线程、基于 C++ 语言开发的向量搜索引擎,其整合了最实用、最风行的 ANNS 办法,应用 Cardinal 能够实现高效的计算资源使用率。 Cardinal 可能: 执行暴搜创立和批改 ANNS 索引执行索引 Top-K 和索引范畴搜寻(Range Search)解决包含 FP32、FP16 和 BF16 在内的各种输出数据格式应用内存中数据或提供基于内存、磁盘和 MMap 等不同形式的索引依据用户提供的规范在搜寻过程中过滤后果Cardinal 的能力包含: Zilliz internal 的高性能 ANN 算法实现,通过大量可调整参数适配多种场景。默认会主动调整参数适配不同的场景,在放弃正当精度(召回率)的同时最大化搜寻速度(QPS,每秒查问数)。高效实现反对 ANNS 的各种算法,例如,提供样本过滤性能的算法。为搜寻或索引构建过程中大多数计算密集型操作优化的专用 low-level 内核,反对多种硬件平台。除了各种类似度类型外,Cardinal 还蕴含 fused 内核和数据预处理内核。反对异步操作、内存映射 I/O 能力、缓存、内存分配器、日志记录等性能。02.Knowhere vs CardinalKnowhere 是 Milvus 的外部外围引擎,负责向量搜寻,是基于行业标准开源库(如 Faiss、DiskANN 和 hnswlib 等)的加强版本。 ...

February 22, 2024 · 2 min · jiezi

关于人工智能:卷出来的那些-10-倍开发者-编码人声

“10 倍”这个概念早在咱们探讨古代程序员之前就曾经存在了。随着各类 AI Copilot 工具的呈现,这个词又开始在社交网络中呈现 —— 在各类 AI 技术的加持下,开发者的开发效率和能力边界,能达到十倍晋升么?所谓的「10 倍开发者」,又体现在哪些方面? 本期节目中,咱们邀请了商汤最强程序员之一@张涛、全栈技术实践者@狼叔、资深独立开发者@白宦成别离作为三类「10 倍程序员」的代表,深刻分析一下什么是所谓的「10 倍程序员」,探讨「10 倍」的背地到底有什么意义,兴许咱们能找到一种更好的形式来定义 AI 时代开发者的价值。 本期嘉宾狼叔:Node.js 技术布道者,Node 全栈公众号运营者,曾就任于去哪儿、新浪、网秦,做过前端、后端、数据分析,是一名全栈技术的实践者。已出版《狼书(卷 1) :更了不起的 Node.js》《狼书(卷 2) :Node.js Web 利用开发》《狼书(卷 3) Node.js 高级技术》。 张涛:商汤科技大模型利用技术负责人。毕业于北京邮电大学通信工程业余,领有 16 年先进技术的工程利用教训,先后在视频通信,计算机视觉,CV 异构推理框架,大语言模型利用等畛域,主导过大型软件架构的设计和研发工作。现专一于 AI 利用产品的研发,率领团队开发上线了商汤编程 AI 助手 “代码小浣熊 Raccoon”,已为数万名开发者提供了近亿次编程辅助服务。 白宦成:开发者生态参谋,资深技术专家,阿里云 MVP,Linux 中国开发组组长,是多个开源软件我的项目的作者或管理者。 朱峰:「津津有味播客网络」创始人,产品及技术专家。 听友福利本期节目,咱们会从小宇宙评论区中筛选5位优质评论,随机送出以下礼品之一: RTE开发者社区提供的 围炉煮茶套装狼叔签名版 《狼书(卷 3) Node.js 高级技术》商汤的 周边抱枕祝大家新年快乐,龙年不卷! 制作团队前期 / 卷圈监制 / 姝琦产品兼顾 / bobo联结制作 / RTE开发者社区录音间 / 声湃轩北京站 对于「编码人声」 「编码人声」是由「RTE开发者社区」策动的一档播客节目,关注行业倒退改革、开发者职涯倒退、技术冲破以及守业翻新,由开发者来分享开发者眼中的工作与生存。 录制嘉宾笼罩信通院 & 科委专家、国内外资深投资人、VR/AR & 虚拟人 & AIGC 等新兴技术畛域头部创业者、一线网红 & 硬核开发者、跨界画家 & 作家 & 酿酒师等。 ...

February 22, 2024 · 1 min · jiezi

关于人工智能:苹果历时-13-年最终胜诉谷歌发布-Gemma-大模型华为首超苹果成中国平板市场第一丨-RTE-开发者日报-Vol149

开发者敌人们大家好: 这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。咱们的社区编辑团队会整顿分享 RTE (Real Time Engagement) 畛域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有思考的 文章 」、「有看点的 会议 」,但内容仅代表编辑的个人观点,欢送大家留言、跟帖、探讨。 本期编辑:@CY 01 有话题的新闻1、谷歌正式推出开源大语言模型 Gemma,宣称超过 Meta Llama-2 竞品 谷歌将公布两种权重规模的模型:Gemma 2B 和 Gemma 7B。每种规模都有预训练和指令微调版本,应用条款容许所有组织(无论规模大小)负责任地进行商用和散发。谷歌介绍,Gemma 模型与其规模最大、能力最强的 AI 模型 Gemini 共享技术和基础架构。 谷歌示意,Gemma 采纳与 Gemini 模型雷同的钻研和技术,由 Google DeepMind 和谷歌其余团队开发,专为负责任的 AI 开发而打造。谷歌声称,Gemma 模型 18 个语言了解、推理、数学等要害基准测试中,有 11 个测试分数超过了 Meta Llama-2 等更大参数的开源模型。而且 Gemma「可能间接在开发人员的笔记本电脑或台式电脑上运行」。除了轻量级模型之外,谷歌还推出了激励合作的工具以及负责任地应用这些模型的指南。 均匀分数方面,Gemma -7B 的基准测试平均分高达 56.4,远超过 Llama-13B(52.2)、Mistral-7B(54.0),成为目前寰球最弱小的开源模型。(@界面新闻) 2、苹果历时 13 年最终胜诉:VirnetX 专利侵权诉讼战闭幕 通过长达 13 年的诉讼纠纷,苹果公司终于在与 VirnetX 的专利侵权案中获得了最终胜利。美国最高法院近日回绝了 VirnetX 要求复审其索赔 5.03 亿美元的申请,标记着这场旷日持久的法律战正式闭幕。早在 2012 年,VirnetX 就对苹果提起了一系列专利侵权诉讼,前者被外界称为 “专利流氓”。 ...

February 22, 2024 · 2 min · jiezi

关于人工智能:OpenAI-Sora-关键技术详解揭秘时空碎片-Spacetime-Patches-技术

编者按:近日,OpenAI公布其首个视频生成模型“Sora”,该模型生成的视频内容能够呈现出多个角色、特定动作以及简单场景,为构建可能了解和模仿事实世界的人工智能模型奠定了根底。 本文解析的重点即是 Sora 背地的核心技术 Spacetime Patches,作者认为该技术通过翻新的时空数据建模办法,让 Sora 学会预测时空维度上事件和对象的变动、静止和互动,从而建设起视频世界的物理模型,生成极其真切的视频。 这的确是生成模型畛域的里程碑,也是一个 AGI 的里程碑。编者置信,没准有一天,哆啦A梦的二次元口袋照相机也可能成为事实。 作者 | Vincent Koc 编译 | 岳扬 人工智能如何将动态图像转换为动静、真切的视频?OpenAI的 Sora 通过创新性地应用时空碎片技术(spacetime patches)给出了一个答案。 在疾速倒退的生成模型畛域,OpenAI 的 Sora [1]是一个重要的里程碑,无望重塑咱们对视频生成的了解和意识。本文将解读 Sora 背地的技术[2]以期激发新一代模型在图像、视频和3D内容创立方面的后劲。 OpenAI 应用以下提醒词生成生成了一段视频:A cat waking up its sleeping owner demanding breakfast. The owner tries to ignore the cat, but the cat tries new tactics and finally the owner pulls out a secret stash of treats from under the pillow to hold the cat off a little longer.  —— 通过Sora生成的视频内容简直达到了无以伦比的真切水平。因为 Sora 正在进行测试,残缺模型尚未齐全向公众公布。 ...

February 22, 2024 · 1 min · jiezi

关于人工智能:跨越千年医学对话用AI技术解锁中医古籍知识构建能够精准问答的智能语言模型成就专业级古籍解读助手LLAMA

逾越千年医学对话:用AI技术解锁西医古籍常识,构建可能精准问答的智能语言模型,成就专业级古籍解读助手(LLAMA)介绍:首先在 Ziya-LLaMA-13B-V1基线模型的根底上退出西医教材、西医各类网站数据等语料库,训练出一个具备西医常识理解力的预训练语言模型(pre-trained model),之后在此基础上通过海量的西医古籍指令对话数据及通用指令数据进行有监督微调(SFT),使得模型具备西医古籍常识问答能力。 0.模型信息 Model Information需要 Demand工作 Task系列 Series模型 Model参数 Parameter额定 Extra通用 GeneralAGI 模型姜子牙 ZiyaLLaMA13BEnglish&ChineseBrief Introduction姜子牙通用大模型V1是基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已实现大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。pip install torch==1.12.1 tokenizers==0.13.3 git+https://github.com/huggingface/transformers0.1持续预训练 Continual pretraining原始数据蕴含英文和中文,其中英文数据来自 openwebtext、Books、Wikipedia 和 Code,中文数据来自荡涤后的悟道数据集、自建的中文数据集。在对原始数据进行去重、模型打分、数据分桶、规定过滤、敏感主题过滤和数据评估后,最终失去 125B tokens 的无效数据。 为了解决 LLaMA 原生分词对中文编解码效率低下的问题,咱们在 LLaMA 词表的根底上减少了 7k + 个常见中文字,通过和 LLaMA 原生的词表去重,最终失去一个 39410 大小的词表,并通过复用 Transformers 里 LlamaTokenizer 来实现了这一成果。 在增量训练过程中,咱们应用了 160 张 40GB 的 A100,采纳 2.6M tokens 的训练集样本数量和 FP 16 的混合精度,吞吐量达到 118 TFLOP per GPU per second。因而咱们可能在 8 天的工夫里在原生的 LLaMA-13B 模型根底上,增量训练 110B tokens 的数据。 ...

February 22, 2024 · 1 min · jiezi

关于人工智能:重磅MongoDB推出Atlas-Stream-Processing公共预览版

日前,MongoDB发表推出Atlas Stream Processing公共预览版。 在Atlas平台上有趣味尝试这项性能的开发者都享有齐全的拜访权限,可返回“浏览原文”链接点击理解更多详细信息或立刻开始应用。开发者喜爱文档型数据库的灵活性、易用性以及Query API查问形式,可能在MongoDB Atlas中以代码形式解决数据。借助Atlas Stream Processing,MongoDB将这些雷同的根本准则利用于流解决中。 Atlas Stream Processing于2023年美国纽约MongoDB用户大会上首次推出,它旨在重塑聚合和丰盛疾速变动的事件数据流的体验,并对立了解决流数据和静态数据的办法。 在内测阶段,MongoDB收到数千个开发团队对于心愿获取拜访权限的申请,并且从数百个参加团队中收集了有价值的反馈意见。其中一些用例包含: ● 某寰球当先的航空公司利用简单的聚合技术,疾速解决保护和经营数据,以确保航班可能准时腾飞和达到,满足成千上万名乘客的需要;● 某大型能源设施制造商应用Atlas Stream Processing来间断监控泵设施的海量数据,以防止意外停机并晋升运行成果;● 某创新型企业“软件即服务”(SaaS)提供商充分利用Atlas Stream Processing中丰盛的解决性能来及时提供蕴含背景信息的产品内警报,从而晋升产品参与度。 这些用例仅仅是MongoDB在各行各业中察看到的Atlas Stream Processing泛滥利用实例中的一小部分。 除了MongoDB察看到的泛滥用例外,开发者也向MongoDB提供了丰盛的见解,使MongoDB理解到他们心愿将来Atlas Stream Processing应增加哪些性能。 除了通过变更流在Atlas数据库中实现对数据的继续解决之外,许多开发者正在将Atlas Stream Processing与Kafka数据联合应用,这些Kafka数据被托管在Confluent Cloud、Amazon MSK、Azure Event Hubs和Redpanda等重要合作伙伴提供的服务中。在Atlas开发者数据平台性能方面,MongoDB的指标始终是为开发者所依赖的关键技术提供更好的体验。 随着应用团队数量的减少,MongoDB正在扩大性能,以便将在内测阶段收集到的呼声最高的反馈意见纳入其中。 通过梳理大量的反馈意见,MongoDB从中总结出了三个独特的主题:晋升开发者体验、扩大高级个性和性能、改善运行和加强安全性。 MongoDB在内测阶段就将开发者体验置于外围地位,这对于促使Atlas Stream Processing成为开发团队的首选解决方案至关重要。在公共预览版中,MongoDB更重视晋升开发者的体验,为此MongoDB减少了两项增强型性能。 ● VS Code集成。MongoDB VS Code插件减少了对连贯流解决实例的反对。对于那些曾经应用了该插件的开发者而言,随着这项新性能的引入,团队可能在相熟的开发环境中轻松地创立和治理处理器。这象征开发者不再须要频繁切换工具,而能够将更多工夫用来构建应用程序!● 改良死信队列(DLQ)性能。DLQ反对是实现弱小流解决性能的要害因素,在公开预览版中,MongoDB进一步扩大了DLQ性能。当初,当应用sp.process()来执行管道操作以及在运行中的处理器上运行.sample()时,DLQ音讯将主动显示,这样能够简化开发工作,而无需设置指标汇合来充当DLQ。 Atlas Stream Processing本来就曾经反对很多罕用的聚合操作符,这些操作符在静态数据Query API查问中常常被开发者所应用。而且MongoDB还减少了弱小的窗口性能,以及可轻松合并数据并将其发送到Atlas数据库或Kafka主题的性能。 公开预览版将提供更多功能,以满足那些依附流解决来提供卓越客户体验的先进团队的需要,包含: ●工夫序列汇合反对。Atlas Stream Processing现已反对将处理器的处理结果发送到工夫序列汇合中。这使得开发者可能通过Atlas Stream Processing间断地对数据进行预处理,并且将数据保留下来以便未来在工夫序列汇合中进行回顾拜访(工夫序列汇合是Atlas平台上专为高效存储和查问工夫序列数据而构建的一种汇合类型)。● $lookup操作符。当初,开发者能够通过应用近程Atlas集群的数据,对流处理器中正在解决的文档以及指标汇合中的字段进行连贯,从而丰盛流处理器中正在解决的文档。●变更流变更前后文档信息的存储。许多开发者正在应用Atlas Stream Processing通过变更流继续解决Atlas数据库(作为源)中的数据。MongoDB在公共预览中加强了变更流$source变量,以反对变更前和变更后文档信息的存储。这一性能使得开发者可能解决一些常见的用例,包含计算文档中字段之间的增量或差别,以及拜访已删除文档的残缺内容等。● 在合并和收回阶段应用动静表达式进行条件路由。通过条件路由,开发者能够应用Atlas Stream Processing正在解决的文档中的字段值,动静地将特定的音讯发送到不同的Atlas汇合或Kafka主题。当初$merge和$emit阶段也反对应用动静表达式。基于此,用户能够依据需要,在须要将信息散发到不同汇合或主题的用例中应用Query API查问。● 闲暇流超时。当初,用户能够对那些因不足传入数据导致水印无奈更新的流进行配置,在特定时间段后敞开这些数据流,并输入窗口后果。这对于解决数据流不统一的流媒体源来说至关重要。 最初,在最近几个月,MongoDB加大投入力度,改善Atlas Stream Processing的运行和平安。其中一些亮点包含: ● 检查点。目前,Atlas Stream Processing通过执行检查点的形式,在解决数据流过程中保留状态信息。因为流处理器处于继续运行状态,无论呈现数据问题还是基础设施故障,都须要一种智能的复原机制来确保它可能继续牢靠地运行。通过采纳检查点机制,用户能够轻松地从进行收集和解决数据的地位复原流处理器的失常运行。● Terraform提供商反对。Terraform目前反对创立连贯和流解决实例(SPI)。这样能够将基础架构编写为可反复部署的代码。● 平安角色。Atlas Stream Processing引入了我的项目级角色,为用户提供了执行流解决工作所需的残缺权限。流处理器可能在特定角色的环境下运行,反对最低权限的配置选项。● Kafka消费者群组反对。Atlas Stream Processing中的流处理器当初采纳Kafka消费者群组来进行偏移跟踪。得益于此,用户能够轻松地调整处理器在流操作中的地位,并实时监控潜在的处理器提早状况。 ...

February 22, 2024 · 1 min · jiezi

关于人工智能:AI去水印超级好用

最近写文章的时候 须要网上的一张配图 然而发现有第三方水印在 就想着怎么移除它 我的需要收费不必注册不必下载自动识别水印主动移除水印在网上找了一圈 发现不少要不是免费的 要不就是要本人手动操作 找到AI主动去水印的 十分好用 dewatermark满足我所有的要求,收费无需注册下载 应用形式也很简略 间接上传带水印的图片即可 我在网上找了一张水印图,看下成果 原图 去水印 右下角的水印主动就去掉了 还能够间接编辑批改去水印后的图 获取公众号回复dewatermark 本文由mdnice多平台公布

February 22, 2024 · 1 min · jiezi

关于人工智能:性能最佳实践事务处理和读写策略原来这么关键

MongoDB针对高级,中级及纯熟的技术开发人员推出系列技术文章与行业案例。深入浅出地分析MongoDB产品根底原理,应用技巧,典型行业场景及利用,还有Code Demo及线上线下流动举荐!欢送浏览无关MongoDB性能最佳实际的系列博文。MongoDB的文档模型能够将相干数据会集到一起,简化了传统关系型数据库中须要通过父子表关系建模的复杂性。其单文档操作具备原子性,可能满足大多数应用程序对数据完整性的要求。在MongoDB中,单个操作能够同时更新多个字段,包含对多个子文档和数组元素的批改。MongoDB首先会确保文档在更新过程中的齐全隔离;同时,任何操作谬误都会触发回滚机制,保障客户端获取的文档总是统一的。MongoDB中的事务为开发者提供了一种相熟的体验,如同关系型数据库中的事务一样,具备多语句反对和类似的语法结构,便于集成到任何应用程序中。事务通过提供快照隔离来确保数据的一致性,并且遵循“全有或全无”的准则,同时对那些不依赖于事务个性的工作负载的性能没有负面影响。您能够通过查阅咱们在VLDB会议上公布的论文中的TPC-C基准测试后果来理解事务的性能体现。此外,咱们提供了一些策略,帮忙您在应用程序中最大限度地利用MongoDB事务的劣势。创立长时间运行的事务,或在单个ACID事务中执行过多操作,都可能对WiredTiger存储引擎的缓存造成显著压力。这是因为缓存须要从最早的快照创立开始,就为后续所有的写入操作放弃状态。因为事务在运行过程中始终应用同一快照,因而缓存中会一直积攒新的写入,直到长时间运行的事务提交或停止,开释其所持锁定时,这些写入能力从缓存中被革除。为了放弃数据库性能的可预测性,开发人员应思考以下倡议。1 事务运行时限度默认状况下,MongoDB会主动终止运行工夫超过60秒的多文档事务。不过,如果服务器的写入负载绝对较低,您能够调整事务设置,缩短其执行工夫。为了避免事务超时,倡议将大型事务拆分成多个较小的操作,确保它们可能在设定的工夫限度内实现。同时,该当优化查问模式,并确保领有适合的索引,这样能够在事务过程中快速访问数据。2 事务中的操作数量尽管在事务中读取的文档数量并没有严格的限度,但从最佳实际来看,倡议在一个事务中批改的文档数量不要超过1,000个。对于须要批改超过1,000个文档的操作,开发人员应思考将这些操作合成为多个局部,每个局部解决一批文档,以此来组织事务。3 分布式、多分片事务跨多个分片执行的事务会带来较高的性能开销,因为这须要在多个节点间通过网络进行协调。在多分片环境中,只有应用快照读关注点(snapshot read concern)能力保障提供统一的数据快照。然而,如果对提早的敏感度超过了对跨分片读取一致性的需要,能够抉择默认的本地读关注点,该选项在每个分片的本地快照上进行操作。4 异样解决当事务被停止时,相干的异样会被返回给客户端驱动程序,并且事务的更改会被齐全撤销。开发人员须要在应用程序中实现逻辑来捕捉这些异样,并对因暂时性问题(例如多版本并发管制(MVCC)的写入抵触、短暂的网络谬误或主节点选举)而停止的事务进行重试。当启用可重试写入性能时,MongoDB的驱动程序会主动重试提交事务的操作。5 写入提早的劣势只管刚开始可能不那么直观,但应用多文档事务实际上能够通过缩小提交所需的提早来晋升写入性能。当采纳“w:majority”这一写关注点时,如果执行10次独立的更新操作,每次更新都必须期待复制到少数节点的工夫。而如果把这10个更新操作放入一个事务中执行,这些操作会在事务提交时一次性复制。这种做法能够将提早升高到原来的十分之一。MongoDB容许您在执行写操作时抉择所需的持久性级别,这被称为写关注点(write  concern)。值得注意的是,写关注点实用于数据库中的所有操作,无论是对单个文档的简略操作还是多文档事务的一部分。您能够依据须要在每个连贯、数据库、汇合,甚至是单个操作的根底上配置以下选项:●  已确认写入:这是默认设置。mongod确认执行了写操作,这样客户端就能捕捉到网络问题、键抵触、模式验证谬误等异样。● 已写入日志:mongod仅在操作被记录到主节点的操作日志后才确认写操作。这确保了即便mongod解体,写操作也能失去保留,保障了写入的持久性。● 已复制:您还能够抉择期待操作被正本集中的其余成员确认。MongoDB反对将写入确认到指定数量的正本。这也确保了写操作被记录在包含主节点在内的辅助节点的日志中。● 大多数:这种写关注点期待写操作被大多数正本集成员利用,并且在主节点选举事件中不会被回滚。这也确保了写操作被记录在这些成员的日志中,包含主节点。以上是MongoDB中对于写关注点的选项,它们帮忙您依据利用需要调整数据的持久性和复制保障。与写关注点相似,读关注点也实用于数据库中的任何查问操作,无论是对单个文档或一组文档的惯例读取,还是作为多文档事务的一部分。为了保证数据的隔离性和一致性,能够将读关注点设置为majority。这意味着只有当数据曾经被复制到正本集大多数成员之后,这些数据才会返回给应用程序,从而保障在主节点选举过程中数据不会产生回滚。MongoDB还提供了“可线性化”(linearizable)的读关注点级别。启用可线性化读关注点能够确保在读取数据时,该节点仍是正本集的主节点,并且在产生主节点切换后,所返回的数据不会被回滚。然而,配置此级别的读关注点可能会显著减少提早,因而倡议设置maxTimeMS值来为长时间运行的操作设定超时限度。因果一致性确保在客户端会话中,无论申请被哪个正本节点服务,每次读操作都能看到前一次写操作的后果。您能够依据须要启用因果一致性,仅在须要保障读操作的程序性时应用它,从而缩小潜在的提早影响。设置阿里云MongoDB 的默认写关注。阿里云MongoDB 已最新反对 7.0 版本,您能够在阿里云MongoDB  实例详情页的「参数设置」局部,依据须要,对于阿里云MongoDB 的默认写关注进行设置。

February 22, 2024 · 1 min · jiezi

关于人工智能:一文读懂AWS-网络对等互连VPC-peering实用操作指南

VPC peering connection-网络对等互连在您的 Atlas VPC 和云提供商的 VPC 之间建设公有连贯。该连贯将流量与公共网络隔离以进步安全性。本篇文章有VPC peering的操作指南以及价格等信息。如还有疑问请分割咱们MongoDB的销售,客户胜利经理或解决方案架构师。 1 应用集群注意事项此性能不适用于 M0 收费集群、M2 和 M5 集群。此性能不适用于servrless instance. 2 什么是 VPC peering connection-网络对等互连网络对等互连在您的 Atlas VPC 和云提供商的 VPC 之间建设公有连贯。该连贯将流量与公共网络隔离以进步安全性。Atlas 反对 AWS、Google Cloud 和 Azure 以及多云分片集群上托管的专用集群的网络对等连贯。 3 VPC peering的劣势从较高层面来看,亚马逊的 VPC 服务旨在为您提供相似于企业数据中心应用的公有云解决方案的服务。益处次要有两个:i. 增强管制:您能够抉择 IP 地址范畴并为 VPC 内的实例调配 IP 地址ii. 平安:Amazon VPC 应用平安组作为防火墙来管制实例级别的流量,应用网络访问控制列表作为防火墙来管制子网级别的流量。VPC 还容许您在硬件上创立“专用实例”,对它们进行物理隔离。注意事项:i. Atlas 不反对部署在不同云提供商的单个区域中的集群之间的网络对等互连。例如,您无奈在 AWS 上单个区域中托管的 Atlas 集群与 GCP 上单个区域中托管的应用程序之间设置网络对等互连。ii. 权限须要: 要设置网络对等连贯,您必须具备organization owner 组织所有者或project owner我的项目所有者对我的项目的拜访权限。 4 为 AWS 反对的集群配置网络对等互连在 AWS 中,启用 DNS hostnanes (主机名)和 DNS resolution (解析)。i.  登录您的 AWS 账户。ii.  返回VPC仪表板iii. 关上您的 VPC 资源列表。iv. 抉择您想要建设对等关系的 VPC。v.  启用 DNS 主机名和 DNS 解析。这些设置可确保当您的应用程序连贯到 VPC 内的集群时,它应用公有 IP 地址。在 Atlas 中,为您的我的项目增加新的网络对等连贯。抉择须要建设对等连贯的集群(操作面板左上方),点击network access,抉择peering,点击add peering connection。填写相干信息Atlas VPC Region: Atlas VPC所在的AWS区域。如果您抉择的区域没有 M10 或更大的集群或 VPC 对等连贯,Atlas 会在您抉择的区域中为 Atlas 我的项目创立一个 VPC。革除与应用程序 VPC 区域雷同以抉择与应用程序 VPC 所在位置不同的区域。VPC CIDR: Atlas 将此 Atlas CIDR 块用于我的项目中创立的所有其余网络对等连贯。 Atlas CIDR 块在以下其中一项中必须至多为 /24,至少为 /21专用网络。如果给定区域中已存在 M10 或更大的集群或网络对等连贯,Atlas 会锁定该区域的该值。要批改 CIDR 块,指标我的项目不能具备:i. 指标区域中具备节点的任何 M10 或更大集群ii. 指标区域中存储的任何云备份快照iii. 与指标区域的任何其余 VPC 对等连贯您还能够创立一个新我的项目,而后创立一个网络对等连贯来为该我的项目设置所需的 Atlas VPC CIDR 块。注意事项:Atlas 依据 CIDR 块和为项目选择的区域限度每个网络对等连贯的 MongoDB 节点数量。例如: AWS 区域中反对 3 个可用区和 /24 的 Atlas CIDR VPC 块的我的项目仅限于相当于 27 个三节点正本集。填写结束后点击initiate peering, 稍等片刻, 创立好后能够在network access看到。而后在aws vpc对等连贯中承受该连贯申请。 (申请将在 7 天后过期)更新您的 VPC 的路由表i. 在 VPC 仪表板中,单击路由表。ii. 抉择您的 VPC 或子网的路由表。iii. 单击“路线”选项卡。iv. 单击编辑路线。v. 单击增加路线。vi. 将Atlas VPC 的 CIDR 块增加到指标列。vii. 将 AWS 对等连贯 ID 增加到指标列。viii. 该值应用 pcx- 前缀。ix. 单击“保留”。 ...

February 22, 2024 · 1 min · jiezi

关于人工智能:超-5-万人参与浙大吴息凤教授团队新作健康与办公场所绿化水平有关

作为人类赖以生存和倒退的物质基础,生态环境对人类衰弱的影响是耳濡目染的。近年来,除了力促医疗技术晋升、着力欠缺社保体系等方面外,相干畛域科学家不谋而合地将眼光聚焦在了钻研生态环境与人类衰弱之间的关联上。 近期,Environment International 登载了一篇由浙江大学公共卫生学院吴息凤传授课题组联结发表的,题为「 Beneficial associations between outdoor visible greenness at the workplace and metabolic syndrome in Chinese adults」的论文,次要钻研了工作场合室外可视绿化与成年人代谢综合征的无益分割。 所谓代谢综合征 (Metabolic syndrome, MetS),即一组在代谢上互相关联的临床症候群,次要包含瘦削、高血糖、血脂异样以及高血压等,它是导致糖尿病、心脑血管疾病等多种疾病的重要危险因素。 事实上,针对绿色环境可能会对 Mets 起到肯定预防作用的钻研并非个例,越来越多的钻研发现,这两者之间确实存在着肯定水平的关联 。不过,目前大多数钻研次要利用归一化植被指数 (Normalized Difference Vegetation Index, NDVI) 来评估个体的绿色空间裸露程度,这些指标不足辨别绿色空间类型的能力,只能提供一个鸟瞰视角,因而可能无奈精确反映人们理论感知到的绿色空间裸露 (greenness exposure) 程度。 此外,过来绝大多数钻研评估都以参与者寓居地区环境的绿色空间裸露为准,但却漠视了成年人在工作环境中的绿色空间裸露。需通晓的是,成年人在工作场合中停留的工夫可能比寓居环境还要长。因而,钻研工作场合可视绿化程度与成年人代谢综合征之间是否存在无益关联就非常有意义。 针对于此,吴息凤传授课题组通过卷积神经网络模型,基于街景图像的绿色视图指数 (Green View Index, GVI) 对可见绿色裸露进行评估。课题组通过逻辑回归模型对杭州市 5 万多名成年人的工作环境室外可视绿化程度进行评估,证实了两者间的无益关联。这为绿色环境因素可能有益于 MetS 防备提供了最新的流行病学根据,同时也从城市规划角度对公共卫生正向干涉提供了重要领导根据。 钻研亮点: 通过卷积神经网络模型,应用基于街景图像的绿色景观指数 (GVI) 对室外可见绿化进行评估工作场合四周较高的绿色景观指数有利于成年人升高 MetS 危险这一类爱护对男性的作用更强,但在不同年龄组中未察看到差别 论文地址:https://doi.org/10.1016/j.envint.2023.108327关注公众号,后盾回复「街景」下载残缺论文。 钻研办法:海量数据、AI 辅助为了保障课题钻研的有效性,尽可能防止误差呈现,课题组选取了超过 5 万人的超大样本。钻研人群由 2018 年 1 月至 2021 年 12 月在浙江大学医学院第二从属医院衰弱管理中心承受健康检查的 51,552 名参与者组成,课题组对这些参与者所波及到的共 1,182 个工作场合进行了剖析。 ...

February 22, 2024 · 2 min · jiezi

关于人工智能:青否数字人源码70更新支持直播无限续写功能

一.青否数字人源码重点更新以下四点(:zhibo175): 1.互动反对多平台:次要是小红书、美团直播、淘宝,其次是京东、阿里巴巴 2.互动反对智能互动,直播、短视频接入AI文案 3.直播音色反对自定义音色 4.权限治理:员工权限、性能治理、代理商/管理员的员工治理 5.直播文案有限续写,参考硅基直播助手app性能 二.青否数字人源码的性能出现 1.唇形驱动媲美头部 唇形驱动AI技术曾经实现与真人形象的1:1克隆,唇形、牙齿和舌头高清,唇形驱动成果能够与硅基等头部数字人厂商相媲美。只须要上传真人出镜、正视镜头谈话的高清视频,就能够克隆出100%还原视频中人物妆容、情态与动作的数字人。 传统视频的拍摄流程长,人员老本与工夫老本较高,费用繁冗且昂扬,难以规模化复制。 2.口播视频批量制作 青否数字人的客户端,只须要输出一段录音或者文字,抉择克隆好的主播形象、音色,即可主动驱动数字人生成海量口播视频。音色可抉择克隆好的音色或者零碎音色,零碎音色反对301种TTS音色,语速、音量能够自定义,视频公布前反对一键试听。 画面比例能够抉择16:9或者9:16,数字人模特、背景、装璜可自在拖拽,还反对自定义上传直播背景、视频、装璜等素材。 3.24小时直播带货 数字人直播无需场地、设施、真人保护,只须要提前准备好直播话术,输出文字/录音,数字人主播即可24小时不间断自主开播带货。直播间数字人、背景、装璜可自在拖拽,还反对自定义上传素材。可增加多个直播产品,每个产品设置不同的直播话术,增加对应的产品素材。直播过程中,产品能够随机或者依照程序解说,解说不同产品时对应的产品素材会主动更换。咱们提供直播文案资料库,也反对有限续写性能,不再有文案的焦虑,不放心直播过程中文案反复!数字人主播不仅与真人无异,还能够与直播间的观众实时互动。"阿凡达”自主配音玩法:反对真人开麦接管,或者输出文字抉择音色接管,实现你的声音和数字人主播口型1:1比对,实时驱动数字人主播在直播间回复。 用户实时交互,真实感满分:后盾设置关键词及回复内容,数字人主播辨认关键词,一对一主动回复。 直播间气氛疏导:新人欢送、关注感激、点赞感激等,反对数字人主播/助播画外音2种互动形式。 4.产品力遥遥领先 洽购数字人SaaS零碎源码,有以下3点须要重点关注: (1)唇形驱动,数字人克隆零碎针对专人主播进行AI训练,唇形、牙齿和舌头的清晰度,唇型驱动的成果,这是AI数字人的外围,青否数字人的唇形驱动可比肩硅基等头部厂商。 (2)实时驱动,直播中真人开麦/打字接管,实现你的声音和数字人主播口型1:1比对,实时驱动数字人,在源码独立部署的厂商中,青否数字人是惟一反对这项技术的。 (3)产品性能,青否数字人提供口播视频批量制作+7*24小时直播全套解决方案,产品性能、细节能够跟硅基、战火等相媲美。 5.源码独立部署 青否数字人SaaS零碎反对源码独立部署,所有版权信息均能够自定义,一次购买,一生应用。 独立部署后,能够无限量收费克隆数字人形象、克隆声音。 无限量开明商家子账号,设置周卡/月卡/年卡,以及生成数字人的视频时长。无限量开明OEM代理商,设置代理商预贷款及开明商家账号折扣。 青否数字人为单干客户搭建专属服务群提供售后反对,零碎反对一键更新降级。服务过程中,随时近程提供技术支持 在数字人SaaS零碎的经营上,咱们提供了残缺的材料合集: 数字人源码更新性能,功能性残缺,性价比更高!

February 22, 2024 · 1 min · jiezi

关于人工智能:青否交互式数字人的两种互动方式

在理解交互式数字人开始咱们先理解一下AI数字人是什么?是利用人工智能技术实现与真人直播形象的1:1克隆,即克隆出一个数字化的你本人,包含你的形象、表情、动作和声音都会被克隆下来,让你可能领有靠近真人的表现力。你能够通过咱们的零碎克隆出多个AI形象,每个数字人都有独特的共性和格调。无论是批量制作短视频,还是直播7*24小时都能够(:zhibo175)。 第一种形式: 数字人直播的实时互动:数字人直播中公屏问题没有触发到关键词,没有主动回复,就能够应用阿凡达”自主配音玩法:反对真人开麦接管,或者输出文字抉择音色接管,实现你的声音和数字人主播口型1:1比对,实时驱动数字人主播在直播间回复。在源码独立部署的厂商中,青否数字人是惟一反对这项技术的。用户实时交互,真实感满分:后盾设置关键词及回复内容,数字人主播辨认关键词,一对一主动回复。 直播间气氛疏导:新人欢送、关注感激、点赞感激等,反对数字人主播/助播画外音2种互动形式。 第二种形式: 实时互动数字人抉择终端利用: AI数字人接入大模型驱动数字交互,大模型领有跨畛域的常识和语言理解能力,实现问答对话和文学创作等工作。继续从海量文本数据和大规模语法常识中学习进化,实现从提出问题、布局问题到解决问题的全流程闭环利用场景,数字人互动利用星火认知大模型弱小的多任务处理能力, 为各行各业赋能! 数字人的对话流程:用户谈话--ASR语音辨认--NLU自然语言了解--DM对话治理--NL自然语言生成--TTS文字生成语音--STV语音生成视频接入大模型数字人可能进行学习实时输入问题,能与用户依照流程产生交互,数字人大脑再多语言多情景下进行交互, 智能一体化青否数字人大屏,数字人员工打造沉迷式交互体验: 1.人脸识别:反对摄像头辨认活体以及人脸,主动唤醒数字人,被动欢送打招呼,晋升交互体验 2.语音辨认:通过麦克风阵列算法对多路语音进行算法解决。回声打消、声源定向、乐音克制、神经网络降噪等技术 3.定向收音:半径1.5M扇形区域内定向收音,聚焦发音人实时互动数字人的利用还是很广的,一方面在直播的利用能代替人工主播,缩短工作时长,可能及时回复公屏问题,与用户进行线上交互,也是一种防封伎俩另一方面可能抉择终端进行个场景服务用户,进行问题的答疑及回复,目前互动数字人的技术在倒退,有待开发新的方向,青否数字人的源码开发始终在路上,不断完善和更新,致力于走在市场利用的前端!

February 22, 2024 · 1 min · jiezi

关于人工智能:LiRank-LinkedIn在2月新发布的大规模在线排名模型

LiRank是LinkedIn在2月份刚刚公布的论文,它联合了最先进的建模架构和优化技术,包含残差DCN、密集门控模块和Transformers。它引入了新的校准办法,并应用基于深度学习的摸索/利用策略来优化模型,并且通过压缩技术,如量化和词表压缩,实现了高效部署。 LinkedIn将其利用于Feed、职位举荐和广告点击率预测后,带来了显著的性能改良:Feed的会员会话减少了0.5%,工作申请减少了1.76%,广告点击率进步了4.3%。 Large ranking modelsFeed排名模型 LinkedIn的次要Feed排名模型应用逐点办法来预测每个member 和候选post对的各种行为(喜爱、评论、分享、投票、点击和长停留)的可能性。这些预测被线性组合起来计算出一个post的最终得分。 模型是建设在TensorFlow多任务学习架构上,有两个次要组件:用于点击和长停留概率的点击塔,以及用于奉献动作和相干预测的奉献塔。两个塔应用雷同的规范化密集特色和多个全连贯层,而稠密ID嵌入特色通过查找特定嵌入表转换为密集嵌入。 广告点击率模型 广告抉择应用点击率预测模型来预计会员点击举荐广告的可能性,而后为广告拍卖决策提供信息。一些广告商会计算“喜爱”或“评论”等社交互动,而另一些广告商只思考对广告网站的访问量,所以广告商能够定义什么是可免费的行为。CTR预测模型是一个MTL模型,有三个头用于不同的免费类别,将类似的免费行为分组在一起。每个头应用独立的交互块,包含MLP和DCNv2。模型还联合了来自会员和广告商的传统特色,以及代表广告商、流动和广告的ID特色。 DCNv2 为了加强特色交互捕捉能力,采纳了DCNv2模块。作者用两个低秩矩阵替换了权重矩阵,并通过嵌入表查找升高了输出特色维度,实现了近30%的参数缩小,这样能够大大降低DCN在大特色输出维度下的参数数量。另外还退出了低秩近似的注意力机制。 等温校准层(Isotonic Calibration Layer) 在深度神经网络(DNN)中,等温校准层(Isotonic Calibration Layer)用于改善网络输入概率的校准。校准指的是预测的概率与实在事件产生的概率之间的一致性。 模型校准对于确保预计的类别概率精确反映真实情况至关重要,因为参数空间的限度和多特色的可扩展性问题,传统的校准办法如Platt标度和等温回归在深度神经网络中面临挑战。为了克服这些问题,作者开发了一个定制的等温回归层,并间接与深度神经网络集成。这一层在网络中是可训练的,它应用分段拟合的办法对预测值进行分类,并为每个分类调配可训练的权重。ReLU激活函数通过非负权重保障了等温性。对于具备多个特色的校准,将权重与校准特色的嵌入示意相结合,加强了模型的校准能力。 门控和MLP 个性化嵌入被增加到全局模型中,能够促成密集特色之间的交互,包含多维计数和分类特色。作者发现减少MLP层的宽度能够进步模型性能,最大的测试配置是具备4层的MLP,每个层宽3500个单元,次要在应用个性化嵌入时显示增益。作者在暗藏层引入了受Gate Net启发的门控机制来调节信息流,以最小的额定计算成本加强学习,并继续进步在线性能。 增量训练 大型举荐零碎须要常常更新,作者应用增量训练,不仅从先前的模型初始化权值,而且依据以后和先前模型权值的差别增加信息正则化项,并通过忘记因子进行调整。为了进一步加重灾难性忘记,还将初始冷启动模型和先验模型都用于权重初始化和正则化,并且引入一个称为冷权重的新参数来均衡初始模型和先验模型的影响。 训练的可扩展性 为了加强训练大型排名模型的可扩展性,应用了几种优化技术: 4D模型并行:利用Horovod跨多个gpu扩大同步训练,在TensorFlow中实现了4D模型并行办法。该办法通过全对全通信模式促成特色替换,缩小了梯度同步工夫,将训练工夫从70小时缩小到20小时。 Avro张量数据集加载器:作者实现了一个优化的TensorFlow Avro读取器(并且开源),实现了比现有读取器快160倍的性能。优化包含删除不必要的类型查看、交融I/O操作和主动均衡线程,从而将端到端训练工夫减半。 预取数据到GPU:为了解决CPU到GPU内存复制的开销,特地是在更大的批处理规模下,应用自定义的TensorFlow数据集管道和Keras输出层在下一个训练步骤之前并行预取数据到GPU,优化训练期间GPU资源的应用。 试验后果 增量训练利用于Feed排名和广告点击率模型,在调整参数后显示出指标的显著的改良和训练工夫的缩小。 对于Feed排名,通过伪随机排名办法预计在线贡献率(喜爱、评论、转发),应用离线“重放”指标来比拟模型。这种办法容许对模型进行无偏的离线比拟。 在工作中,嵌入字典压缩和特定于工作的DCN层在没有性能损失的状况下,显著晋升了工作职位搜寻和JYMBII模型的离线AUC。这使得在线a /B测试中的合格工作申请程序进步了1.76%。 对于广告点击率,在多层感知机基线模型的根底上,应用ID嵌入、量化和等渗校准等技术进行了渐进式改良。这些技术使得在线a /B测试的点击率绝对进步了4.3%。 总结这是一篇十分好的论文,不仅介绍了模型的细节,还介绍了LinkedIn是如何在线上部署训练和治理模型、解决大量数据的,这些教训都值得咱们学习。 为什么LinkedIn会始终关注排名模型? LinkedIn是一个面向职业人士的社交网络平台也就是说它的用户比FB更加业余,更加集中。这样对于数据方面是有人造的劣势的。另外LinkedIn的业务也比拟繁多,所以应用AI来改善业务需要也比FB等大型公司要大的多,并且成果也十分好评估,所以LinkedIn的这篇文章十分值得咱们去深刻的钻研和学习。 论文地址: https://avoid.overfit.cn/post/e3d54a21fd8b4cce8f730110aa1a65f2 作者:Andrew Lukyanenko

February 22, 2024 · 1 min · jiezi

关于人工智能:AI-Agent深入浅出以ERNIE-SDK和多工具智能编排为例

在过来一年里,通用大语言模型(LLM)的飞速发展引起了寰球的关注。百度等科技巨头推出了各自的大模型,一直进步语言模型性能的下限。然而,业界对LLM所设定的指标不再局限于根本的问答性能,而是寻求利用大模型来执行更简单、多样的工作。这就是Agent(智能体)概念的诞生背景。 Agent,能够了解为一个可能自主布局决策、综合使用多种工具以实现简单工作的零碎。在这个零碎中,大语言模型充当着“外围调度器”的角色。该调度器负责解读用户的自然语言输出,布局出一连串可执行的动作,并依靠记忆模块等其余组件和内部工具,逐渐实现这些工作。 2024年,人工智能行业的焦点从通用大模型转向AI原生利用。这一技术改革,离不开AI Agent的深度参加。AI Agent的外围价值在于适应多变的环境和需要,以及做出无效决策及牢靠操作,这预示着咱们正在步入AGI(人工通用智能)时代。正如比尔·盖茨预言:“在将来五年内,这所有都将彻底改变。你无需针对不同工作切换利用,只需用日常语言与你的设施沟通,软件便能依据你分享的信息提供个性化反馈,因为它对你的生存有了更深刻的理解。” ERNIE SDK ERNIE SDK近日新增了一项弱小的性能——Agent开发,标记着LLM开发进入了新的阶段。基于弱小的文心大模型及其Function Calling(函数调用)性能,它为LLM利用开发提供了一个全新的视角。这一框架不仅解决了LLM利用开发中面临的外围挑战,而且通过文心大模型4.0展现了其卓越性能。ERNIE SDK针对几个关键问题提供了无效的解决方案: 1.Token输出数量限度: 传统的大模型剖析总结大型文档时会受限于token输出数量的限度,ERNIE SDK提供了本地知识库检索的形式,使得解决大型文档问答工作更加不便。 2.业务API工具的交融: ERNIE SDK使集成现有业务API工具成为可能,拓宽了LLM利用的功能性和适应性。 3.数据源连贯: ERNIE SDK可能通过定制工具查问如SQL数据库,连贯多种数据源,为大模型提供更多的信息。其作为一个高效的开发框架,大幅晋升了开发者的工作效率。依靠飞桨星河社区的丰盛预制组件,开发者能够间接利用现有资源,或者依据特定业务需要进行定制,为LLM利用的整个开发生命周期提供全面反对。 基于ERNIE SDK的Agent架构剖析 Agent在一些简单的场景下,咱们须要依据用户输出灵便调用LLM及一系列所需工具,Agent为这样应用程序的实现提供了可能性。ERNIE SDK提供基于文心大模型的Function Calling能力驱动的Agent开发,开发者能够间接应用预置Agent,通过Chat Model、Tool和Memory进行实例化,也能够通过继承erniebot_agent.agents.Agent基类定制本人的Agent。 Chat Model(Agent的大脑)ERNIE SDK中的Chat Model模块是进行思考决策的外围调度器,也就是百度研发的常识加强大语言模型:文心大模型。 Message(Agent输入输出信息封装)开发者通过封装后的Message与Chat Model进行交互,可能让大语言模型了解输出的信息起源。 此模块使得用户输出与文心大模型的音讯回馈更加标准,以便在后续的Memory模块中进行存储。 Memory(Agent的记忆)大语言模型自身是没有记忆的,所以构建大模型利用很重要的一点就是给予Agent记忆性能。ERNIE SDK提供疾速的记忆性能,可能将多轮对话当中的信息存入到一个List当中,而后传输到Chat Model的上下文窗口当中。不过,这种记忆模式也受限于文心大模型的输出Token。同时,ERNIE SDK也容许开发者构建更简单的记忆模块,可参考的解决办法有: Vector store-backed memory;每一轮对话的Message将会在embedding解决后存储至向量数据库当中,在后续的对话环境,依据用户输出的自然语言输出,进行语义向量近似检索找出最合乎输出语义的记忆片段。这样的形式可能实现长期记忆,不再受限于文心大模型的上下文窗口限度。Conversation summary memory;这种解决办法是在每轮对话后将对话信息调用Chat Model进行一次总结,并存储总结后的简短内容,从而加重存储内容的压力。LangChain/LlamaIndex;实现自定义记忆模块ERNIE SDK容许开发者自在集成LlamaIndex等框架,能够实现更简单的记忆模块,利用LlamaIndex优良的文档检索能力,可能做到更长期的记忆。Tools(Agent的工具)让Agent自主组合并应用简单的内部工具来解决更简单的问题,是将来AI利用大规模遍及的要害;ERNIE SDK容许开发者应用飞桨星河社区已上线的30余个工具,疾速构建简单利用,也可能依据本人的业务需要定制本地工具。 Retrieval(Agent的知识库)尽管通用大模型在训练过程中排汇了宽泛的常识,但它们对特定畛域或用户专有的业务知识理解无限。应用特定畛域数据对大模型进行微调的老本过高,因而引入RAG(Retrieval Augmented Generation)技术,这一技术的外围是能迅速将内部知识库整合到大模型中,从而深刻了解特定畛域的专业知识。Retrieval模块的要害性能包含: 数据源加载,笼罩多种数据类型: 结构化数据,如SQL和Excel 非结构化数据,如PDF和PPT文档 半结构化数据,如Notion文档 数据的分块转化。数据的向量化embedding解决。将解决后的数据存储到向量数据库中。通过近似向量检索,疾速定位相干信息。ERNIE SDK的Retrieval模块不仅反对百度的文心百中搜寻,还与LangChain和LlamaIndex的Retrieval组件兼容,大幅晋升了数据处理的效率和准确性。基于ERNIE SDK的Agent疾速开发体验当初,让咱们一起疾速理解如何开发一个Agent——文稿审核助手。这个Agent的次要性能是帮忙咱们审核各大平台上公布的文稿是否符合规范。 第一步,登录飞桨星河社区,并创立一个新的集体我的项目。应用社区提供的收费算力配置就足够了。 第二步,登录飞桨星河社区后,点击自己的头像,在控制台中获取本人的拜访令牌,飞桨为每个新注册的用户提供100万额度的收费Token。 为了平安治理您的敏感令牌信息,咱们倡议应用Dotenv。先装置Dotenv,随后将您的令牌保留在一个新建的.env文件中。留神,此文件默认在文件目录下是不可见的,若需查看,须要更改设置。 示例.env文件内容: 第三步,验证您的拜访令牌是否能够失常应用: 如果一切正常,它会打印出您的拜访令牌。新建一个文本文件文稿.txt,其中需蕴含本人要进行合规审核的文本内容。 ...

February 22, 2024 · 1 min · jiezi

关于人工智能:实时互动数字人源码到底是什么

实时数字人是什么?实时数字人集AI大脑、数字人、定制化声音于一身,以智能硬件载体出现,发明具备真人般交互能力的虚构数字人。取得个性化和多元化的人机交互体验。数字人能够依据来宾的需要提供相干信息、解答问题、提供产品介绍等服务。这种定制解决方案不仅提供了高质量的虚构互动体验,还能为场合提供更加个性化和多元化的人机交互场景。 市面上的实时互动数字人大部分都是开账号,限度应用时长,而实时数字人源码,反对无限量开明商家账号,无限量开明OEM代理商,无限量克隆数字人、克隆声音。 五端合一交互式数字人集AI大脑、数字人、定制化声音于一身,以智能硬件载体出现,发明具备真人般交互能力的虚构数字人。青否实时互动数字人(:zhibo175)客户端、商家端、代理端、治理端、克隆端五端合一。反对无限量开明商家账号,无限量开明OEM代理商,无限量克隆数字人、克隆声音。 一.互动式数字人源码的性能(:zhibo175): 1.数字人克隆 拍摄真人出镜,正视镜头谈话的5-8分钟绿幕视频,即可复刻出口型、动作、情态等1:1的数字人形象,行业高精度中文唇形驱动技术,性能劣势与性价比处于全国领先水平。2.声音克隆:反对中文和多种外语声音克隆,零碎能够输入最多140种语言,服务寰球用户,可抉择301种音色,还能够克隆进去你的专属音色,满足不同类型的定制需要,您还能够上传录音进行输入。 3.实时互动数字人源码接入“讯飞星火认知大模型”,领有跨畛域的常识和语言理解能力,还能够上传企业专属的知识库,继续从海量文本数据和大规模语法常识中学习进化,实现基于知识库问答、多轮对话能力。 “数字人”和“AI大脑”构建好后,通过多种技术手段,让数字人了解用户说的话,并把大脑内容传输进来。4.音频采集 自研回声打消、声源定位,波束成形、去混响噪声克制等外围算法用于远场语音交互场景。 5.显示终端 汇合常识、看、听、说等多模态人机交互数字人,展示在大屏、挪动设施、台式机或平板电脑等多个终端上,实现不同场景的真人模仿对话。 二.实时互动数字人源码的利用: 1.线下人工智能交互终端虚构数字人通过在可挪动的显示终端安装,让数字人在其中1:1比例身形出现,与用户进行沟通应答,通过智能语意了解零碎,疾速高效答复用户问题。2.网点柜台:营业厅网点、居民区、办公写字楼等泛滥公共场所,企业业务的征询办理。 3.展厅/网点导览:展厅/网点迎宾、操作疏导等场景,文旅场景下的向导、讲解员。 4.近程客服:可辨认不同类型用户的查问,为用户提供针对性的、有限靠近真人服务的解答与业务征询。 5.营销助手:作为客服经理或前台接待,可做产品介绍、常识推广、游戏互动等。 青否实时互动数字人源码性能更新较为欠缺,不论不是生成速度还是生成成果,唇形驱动,都做到了市场最好,青否数字人是您理智的抉择,给青否数字人一份信赖还您一份非常惊喜!

February 22, 2024 · 1 min · jiezi

关于人工智能:大数据计算技术秘史上篇

在之前的文章《2024 年,一个大数据从业者决定……》《存储技术背地的那些事儿》中,咱们粗略地回顾了大数据畛域的存储技术。在解决了「数据怎么存」之后,下一步就是解决「数据怎么用」的问题。 其实在大数据技术衰亡之前,对于用户来讲并没有存储和计算的辨别,都是用一套数据库或数据仓库的产品来解决问题。而在数据量爆炸性增长后,状况就变得不一样了。单机零碎无奈存储如此之多的数据,先是过渡到了分库分表这类伪分布式技术,又到了 Hadoop 时代基于分布式文件系统的计划,起初又到了数据库基于一致性协定的分布式架构,最终演进为当初的存算拆散的架构。 最近十几年,Data Infra 畛域的计算技术以及相干公司层出不穷,最终要解决的基本问题其实只有一个:如何让用户在既灵便又高效,架构既简略又兼具高扩展性,接口既兼容老用户习惯、又能满足新用户场景的前提下应用海量数据。 解读一下,需要如下: 数据量大、数据品种多、数据逻辑简单 反对 SQL 接口,让习惯了 SQL 接口的 BI 老用户们实现无缝迁徙,同时要想方法反对 AI 场景的接口——Python 交互式查问提早要低,能反对简单的数据荡涤工作,数据接入要实时 架构尽量简略,不要有太多的运维老本,同时还能反对纵向、横向的程度扩大,有足够的弹性 据太可研究所(techinstitute)所知,目前市面上没有哪款产品能同时满足以上所有要求,如果有,那肯定是骗人的。所以在计算畛域诞生了泛滥计算引擎、数据库、计算平台、流解决、ETL 等产品,甚至还有一个品类专门做数据集成,把数据在各个产品之间来回同步,对外再提供对立的接口。 不过,如果在计算畛域只能选一个产品作为代表,那毫无疑问肯定是 Spark。从 09 年诞生起到当初,Spark 曾经公布至 3.5.0 版本,社区仍旧有很强的生命力,能够说穿梭了一个技术迭代周期。它背地的商业公司 Databricks 曾经融到了 I 轮,估值 430 亿,咱们无妨沿着 Spark 的倒退历史梳理一下计算引擎技术的改革。 Vol.1大数据计算的场景次要分两类,一是离线数据处理,二是交互式数据查问。离线数据处理的的特点产生的数据量大、工作工夫长(工作时长在分钟级甚至是小时级),次要对应数据荡涤工作;交互式查问的特点是工作工夫短、并发大、输入后果小,次要对应 BI 剖析场景。 工夫拨回 2010 年之前,彼时 Spark 还没开源,过后计算引擎简直只有 Hadoop 配套的 MapReduce 能够用,早年间手写 MapReduce 工作是一件门槛很高的事件。MapReduce 提供的接口非常简单,只有 mapper、reducer、partitioner、combiner 等寥寥几个,工作之间传输数据只有序列化存到 hdfs 这一条路,而真实世界的工作不可能只有 Word Count 这种 demo。所以要写好 MapReduce 必定要深刻了解其中的原理,要解决数据歪斜、简单的参数配置、工作编排、两头后果落盘等。当初 MapReduce 曾经属于半入土的技术了,但它还为业界留下了大量的徒子徒孙,例如各个云厂商的 EMR 产品,就是一种传承。 Spark 开源之后为业界带来了新的计划,RDD 的形象能够让用户像失常编写代码一样写分布式工作,还反对 Python、Java、Scala 三种接口,大大降低了用户编写工作的门槛。总结下来,Spark 能短时间内取得用户的青眼有以下几点: ...

February 21, 2024 · 2 min · jiezi

关于人工智能:听说最近国内有个搜索引擎很火今天我就以程序员视角带大家来体验一下

大家好,欢送来到前端研习圈。 最近在 第二曲线的社群 中看到有群友举荐一个叫 秘塔AI搜寻 的搜索引擎,据说特地好用,我就带着好奇去用了下,界面长这样 所以这期分享的就是这个工具的应用体验,具体好不好我不说,看完大家本人判断。 接下来我就以程序员的视角带着大家一起来沉迷式体验一下这个号称 没有广告,中转后果 的搜索引擎 特点看主页的外围局部,从界面上来说和支流的搜索引擎相似,都是以简洁为主 可选的搜寻粒度在搜寻栏的下方咱们留神到有 简洁,深刻,钻研 三种搜寻粒度可供选择,默认是深刻。这一点个人感觉还挺有意思的,给了不同指标的用户抉择获取信息密度的形式 咱们先尝试一下简洁模式,搜寻 前端须要学习哪些技术。能够看到答复的确很简短,内容呢就不评估了 上面咱们持续用深刻模式搜雷同的问题。这种模式下后果就更全面,并且会分条列项进行简短的论述,内容方面呢还是比拟主观,答复的也都是一个前端工程师的确须要理解和学习的技能,但人工智能和机器学习这个点没太对味儿,但整体上还是比拟算不错的一份答复了,对于专业人士来说可能还是存在瑕疵,但对外行单纯做个理解是齐全够用了 因为钻研 模式的答复篇幅过大,这里就不展现了,大家有趣味能够本人去试用一下 略微概括一下就是每种模式都有适宜的 问题,场景,以及人群,能够按需应用是我感觉比拟灵便的一点 简洁适宜十分精准,且答案往往也很不须要过多文字论述的问题深刻适宜日常理解一些不懂的概念,搜寻一些行业计划或者征询钻研则更实用于一些攻略类的问题,或者论文观点,须要大篇幅去论述的话题等等纲要在下面的答复中大家应该也留神到了,答复旁边还有一个纲要,这个纲要是基于问题生成的。比方咱们刚刚的问题是 前端须要学哪些技术,从我的视角看,这个纲要的内容还是十分精准了,对于老手小白来说齐全能够作为学习纲要,并且其中每一条还反对点击进行二次搜寻 起源聚合答复的下方也还展现了通过问题检索到的技术文章,都是一些比拟支流的平台上的文章,至多从品质上来说不会太差 这个性能是我觉得很有用的一个点,以前在百度上搜寻一个主题的文章,几乎堪比大浪淘沙,要么就只能在 掘金,知乎,思否 这些平台内去搜,而这个搜索引擎间接把合乎主题的文章聚合进去了,能进步不少检索效率。 和其余搜索引擎比照百度同样的问题,在百度中的搜寻后果三条有两条是广告,在这外面要找到答案,要付出的工夫老本就很高了 googlegoogle的后果就好很多,根本都是能够一看的文章,但国内用户用不了是一个人造的缺点 论断总体上来说呢,这个搜索引擎的答复局部我感觉不是最吸引人的,因为目前基于AI的答复都差距不大。 纲要 和 起源 反而是我认为真正能帮忙咱们晋升效率的性能,能基于问题疾速检索出精准垂直的后果才是咱们所心愿的 同时呢我也有一个领会,AI 工具正在扭转咱们的学习形式,工作流程等等, 正当利用 AI 能够在短期内实现咱们以前可能须要很久能力实现的指标,或者AI在这方面可能治好各位的迁延症 因而心愿大家也都口头起来,将AI融入到本人的学习和工作中 关注公众号,发文第一工夫接管推送哦~

February 21, 2024 · 1 min · jiezi

关于人工智能:Sora横空出世AI将如何撬动未来

近日,OpenAI 公布首个视频生成“Sora”模型,该模型通过接管文字指令,即可生成60秒的短视频。 而在2022年末,同样是OpenAI公布的AI语言模型ChatGPT,简化了文本撰写、创意构思以及代码校验等工作。用户仅需输出一个指令,ChatGPT便能生成图片、文字或代码等多种形式的内容。 这一系列的停顿不仅仅是技术上的冲破,它们预示着一场全面的AI反动的到来,影响范畴远超从前。AI技术的利用曾经拓展到聊天机器人、绘图、音乐创作、代码生成、视频生成等畛域,每一次迭代和降级都引起了寰球的关注和热议。 在编程畛域,AI的崛起,如ChatGPT和Github Copilot,正在扭转开发者获取信息和编写代码的形式。在Andrej Karpathy的博客《Software 2.0》中,他探讨了人工智能如何扭转软件开发形式:“Software 2.0代表着咱们能够用大量的数据和算力来解决以前须要大量人力和老本来解决的简单问题。” AI 编码助手则是上述的具体实现。 材料图片起源:Github 考察数据显示,AI编码工具不仅进步了整体生产力,还带来了技能晋升的机会。75%的开发者示意在应用GitHub Copilot时感到更加空虚,在具体的生产数据方面,Copilot可能实现高达46%的代码,帮忙开发人员将编程速度进步了 55%。大模型给已有的开发工作“降本增效”将来的编码工作流程将出现全新的风貌:AI 编码工具将能够大量生成短期的软件和测试解决方案,不再谋求长期的可反复利用性,因为生产过程的高效自动化,将来的推理老本、推理提早性都将大幅升高。另一方面,工程倒退好坏并非在实践上有挑战,而是在工程实际中的继续优化和迭代,这次要体现在将来代码大模型将被提炼成中小型模型,从而实现在边缘设施运行的可能性。 在代码训练推理畛域,实际上并不需要前后的历史常识和高低须要索引人文典故,能够预感的未来大模型会逐步蒸馏成一个中小型模型,可能是70个亿的参数、10个亿参数或者100亿参数,这种规模就曾经十分有成果了。绝对较小的模型让在边缘设施、个人电脑上的大模型运行成为可能。此外,硬件架构的降级让生产级硬件可能运行更大规模的模型,目前弱小的Mac Pro等曾经能够承载数百亿参数的模型。随着这种参数量化的倒退,更多模型将能在边缘设施上运行,这是性能上的提高,并不波及实践上的难点。这种倒退在将来几年内将变得更加广泛。 同时随着生成式 AI 的倒退,编程语言之间的差别变得不再那么显著。随之带来的是编程语言的学习门槛升高。目前学习一门新的编程语言,其中一个关键点在于把握其生态系统,包含语法和库的应用。举个例子,辨别成熟的 Java 工程师和业余的 Java 工程师的次要因素之一是对各种库的相熟水平和应用直觉。 将来,生成式AI的存在可能极大地简化这一过程。例如,当须要进行 JSON 解析时,生成式 AI 能够主动举荐适合的库。这就像有一个助手在一旁,不仅帮忙抉择适合的工具,还能够解释不相熟的代码片段。因而,学习新语言将变得更加直观和简略。 这种变动预示着将来编程的重点可能会从对工具的关注转移到提供端到端体验上,开发者能够更加专一于创意和解决方案的实现,而不是编码的具体细节。 面向未来:MoonBit——为AI原生利用打造的编程语言正是在这样的背景下,MoonBit应运而生。MoonBit在2022年10月推出,此时恰逢ChatGPT刚刚问世。MoonBit平台的呈现不仅仅作为一种编程语言,更是提供一个残缺的开发工具链,包含IDE、编译器、构建零碎、包管理器等。咱们处在一个非凡的地位,有机会去从新构想整个编程语言工具链该如何与AI更好地合作,开启了编程与AI联合的新篇章。 在一直的摸索中,咱们的致力失去了学术界的认可。最近,MoonBit团队的钻研论文「MoonBit: Explore the Design of an AI-Friendly Programming Language」曾经荣幸地被LLM4Code 2024接管! 同时,咱们在ai.moonbitlang.com上设计了一个简略的MoonBit AI demo,十分欢送你来尝试!咱们也十分期待你的反馈,能够随时通过咱们的论坛/微信小助手/用户群等渠道进行反馈。 让咱们看看上面的视频,更具体地理解应用MoonBit AI进行端到端开发的体验是什么样子: https://www.bilibili.com/video/BV1SK4y1i7Wy/?aid=881782146&ci... 从下面的视频能够看到,不同于ChatGPT,MoonBit AI能够实现从需要设定到代码实现,再到运行调试的无缝连接,确保编程过程更加晦涩高效。用户能够实时批改MoonBit AI生成的代码,取得即时反馈。同时,MoonBit AI器重用户体验,为大家提供一个更加便捷易用的用户界面。无论你是编程老手还是资深的开发者,都能轻松上手。 在文章接下来的局部,咱们次要将探讨两个次要方面: MoonBit如何设计成一种杰出的、对AI敌对的编程语言是什么驱动了MoonBit AIMoonBit:平坦化设计,适配Transformer架构MoonBit作为AI时代的开发平台,设计强调清晰和简略,特别强调在顶层(toplevel)和部分(local)定义之间的清晰辨别。MoonBit还采纳了结构化接口实现(structural interface implementation),在这种形式中,一个类型通过实现其办法来实现一个接口,因而打消了额定嵌套代码块的必要性。 现有的大模型根本都基于自回归的 Transformer 架构。这意味着随着上下文窗口增长,生成单个 token 的复杂度呈 n² 回升。也就是说,大模型的推理会越来越慢。一个没有嵌套的编程语言有着较好的可读性,同时也可能在各个层级(RAG,decoder correction,backtrack)做到 KV 缓存敌对,实现更高的推理速度。 ...

February 21, 2024 · 1 min · jiezi

关于人工智能:马斯克称首位受试者可凭思维操控鼠标字节低调推出视频模型丨-RTE-开发者日报-Vol148

开发者敌人们大家好: 这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。咱们的社区编辑团队会整顿分享 RTE (Real Time Engagement) 畛域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有思考的 文章 」、「有看点的 会议 」,但内容仅代表编辑的个人观点,欢送大家留言、跟帖、探讨。 本期编辑:@CY 01 有话题的新闻1、马斯克示意第一位 Neuralink 患者能够通过思维管制电脑鼠标 2 月 20 日音讯,伊隆·马斯克在社交媒体平台 X 上的 Spaces 流动中走漏,脑机接口公司 Neuralink 的首位人类受试者「仿佛已齐全痊愈,并能仅凭思维在电脑屏幕上挪动鼠标」。 Neuralink 是这位亿万富翁的初创公司,该公司示意已开发出一种大脑植入物,旨在帮忙人类利用神经信号来管制内部技术。该公司的指标是复原视力、静止性能和语言等丢失的能力。 据一篇博客文章称,Neuralink 在 5 月份取得美国食品和药物管理局批准发展这项钻研后,于秋季开始招募患者进行首次人体临床试验。此次人体临床试验标记着 Neuralink 在商业化路线上迈出了一步。医疗器械公司必须通过多轮密集的数据安全收集和测试,能力取得 FDA 的最终批准。(@CNBC) 2、字节跳动低调推出视频模型 Boximator,尚无奈作为欠缺产品落地 2 月 20 日音讯,在 OpenAI 公布 Sora 之前,字节跳动低调推出了一款视频模型产品 Boximator。Boximator 能够通过文本管制生成视频中人物或物体的动作。 对此,字节跳动相干人士回应称,Boximator 是视频生成畛域管制对象静止的技术办法钻研我的项目,目前还无奈作为欠缺的产品落地,间隔国外当先的视频生成模型在画面质量、保真率、视频时长等方面还有很大差距。 字节跳动从去年开始布局 AI,并于去年 11 月成立专一于 AI 翻新业务的新部门 Flow。一位靠近字节跳动的知情人士对界面新闻示意,去年一年,字节跳动创始人张一鸣的全副工夫都花在 AI 上了,从其精力调配上也能够看到字节跳动对 AI 业务的器重水平。(@界面新闻) ...

February 21, 2024 · 2 min · jiezi

关于人工智能:揭秘-LLMs-时代向量数据库的-3-大实用场景

过来一年,ChatGPT 和其余大语言模型(LLMs)的爆火也带动了向量数据库的倒退。 许多用户在搭建检索加强生成(RAG)零碎过程中抉择了应用向量数据库 Zilliz Cloud ,但 Zilliz Cloud 的性能不止于此,它在搜寻和检索系统中的利用也非常宽泛。这也反映出了 Zilliz Cloud 产品的设计初衷——帮忙计算机真正了解人类数据,包含文本、图像、银行交易用户行为等。 近期,Zilliz Cloud 公布了新版本,并上线了 Range Search、多租户和 RBAC 等新个性。同时,Zilliz Cloud 搜寻和索引性能也晋升了 10 倍,取得了许多用户的踊跃反馈。本文将通过 3 个实在的用户案例,展现 Zilliz Cloud 的新个性是如何为其赋能的。 01.智能问答机器人对于智能问答机器人而言,一个重要组成部分就是记忆——特指传入 LLM 中的上下文文本片段。通过记忆,问答机器人就能够获取历史信息。然而 LLM 的上下文窗口有着严格限度: 1)长度限度 2)上下文过长将明显降低文本生成速度 3)大多数长上下文 LLM 只偏向于“记住”上下文窗口开始和完结的信息 向量数据库可能很好地解决上述问题。以客服机器人为例,机器人会收到许多不同的信息,蕴含原始知识库、用户的所有提醒、用户上传的图像、音频片段、回复内容等,这些都存储在 Zilliz Cloud 中以便进行疾速检索。每当用户输出音讯时,都会优先检索来自知识库和之前对话的所有相干内容。这样一来,零碎的读写负载会减轻,每秒须要存储大量音讯数据。此外,提供给客服机器人的的数据实质上是多模态的,因而,仅有文本搜寻是远远不够的。 Zilliz Cloud 的分布式数据库架构可能很好地解决上述问题:减少查问节点数量以进步读取吞吐量,减少数据节点数量以进步写入吞吐量。此外,新公布的 Cardinal 搜索引擎中进行了多方面的性能优化,蕴含 Zilliz 自研的向量索引、机器代码级别的计算优化,以及优化缓存感知算法等。 总而言之,在问答机器人的用例中,用 Zilliz Cloud 后能够实现与其余向量数据库雷同的搜寻和索引吞吐量,但价格却不到其余解决方案的三分之一。因而,在思考老本但同时保障性能的用例中,Zilliz Cloud 相对是一个不错的抉择。 02.商品举荐举荐零碎(https://zilliz.com.cn/use-cases/recommender-system)会依据消费者之前的观看或浏览历史推送各种内容,例如产品、新闻、用户内容等,向量数据库非常适合用来搭建这类利用。开发者能够将内容转化为向量并将数据存储在 Zilliz Cloud,随后通过调用collection.search便可轻松进行向量相似性搜寻获取相干内容,实现举荐。 搜寻速度和相关性是所有 B2C 产品的基石。在电商畛域,产品举荐后果对整体用户体验尤为要害,很大水平上能够决定收益。Zilliz 在理论利用中发现,有用户的诉求就是通过借助 AI 的力量晋升产品举荐零碎性能。这些用户和用例对延时和吞吐量有着极高要求——向量数据库须要在 10 毫秒内实现查问。此外,举荐零碎还需对搜寻后果进行过滤(例如,依据服装的特定尺寸或特定鞋码筛选搜寻后果)。从实质上来说,商品数据是简单的多模态数据,蕴含了产品名称、产品描述、产品图片等数据。 Cardinal 可能满足用户对性能的要求,再配合动静 Schema 性能和反对 JSON 的个性加持,Zilliz Cloud 便成为此类用户的不二之选。有了 Zilliz Cloud,用户便可能依据每个产品类别的特定特色,定制本人的数据模型,从而确保无效存储和查问每个商品向量数据多样且简单的元数据。 ...

February 21, 2024 · 1 min · jiezi

关于人工智能:深度学习在时间序列预测的总结和未来方向分析

2023年是大语言模型和稳固扩散的一年,工夫序列畛域尽管没有那么大的成就,然而却有迟缓而稳固的停顿。Neurips、ICML和AAAI等会议都有transformer 构造(BasisFormer、Crossformer、Inverted transformer和Patch transformer)的改良,还呈现了将数值工夫序列数据与文本和图像合成的新体系结构(CrossVIVIT), 也呈现了间接利用于工夫序列的可能性的LLM,以及新模式的工夫序列正则化/规范化技术(san)。 咱们这篇文章就来总结下2023年深度学习在工夫序列预测中的倒退和2024年将来方向剖析 Neurips 2023在往年的NIPs上,有一些对于transformer 、归一化、平稳性和多模态学习的乏味的新论文。然而在工夫序列畛域没有任何重大突破,只有一些理论的,渐进的性能改良和乏味的概念证实。 1、Adaptive Normalization for Non-stationary Time Series 论文介绍了一种“模型不可知的归一化框架”来简化非安稳工夫序列数据的预测。作者让SAN分两步操作:训练一个统计预测模型(通常是ARIMA),而后训练理论的深度工夫序列根底模型(应用统计模型对TS数据进行切片、归一化和反归一化)。统计模型对输出工夫序列进行切片,以便学习更强壮的工夫序列示意并去除非安稳属性。作者指出:“通过对切片级个性进行建模,SAN可能打消部分区域的非平稳性。”SAN还显式地预测指标窗口的统计信息(标准差/平均值)。这使得它在解决非安稳数据时,与一般模型相比,可能更好地适应随工夫的变动。 采纳transformer 模型作为根本预测模型,对典型的工夫序列预测基准(如电力、替换、交通等)进行指标验证。作者发现SAN在这些基准数据集上继续进步了根本模型的性能(只管他们没有测试Inverted Transformer,因为这篇论文是在Inverted Transformer之前公布的)。 因为该模型联合了一个统计模型(通常是ARIMA)和一个一般的transformer ,我认为调优和调试(特地是在新的数据集上)可能会很辣手和麻烦。因为简直所有的工夫序列模型都将序列输出长度作为超参数。另外就是“切片”的切片与一般的序列窗口有何不同?作者还是没有说分明。总的来说,我认为这依然是一个相当弱小的奉献,因为它的试验后果和即插即用属性。 2、BasisFormer BasisFormer应用可学习和可解释的“basis”来改良个别的transformer 体系结构。这里的“basis”指的是创立一个相似于NBeats的神经“basis”(例如,为基于多项式的函数学习趋势、季节性等的系数)。该模型分为三个局部:根底模块、系数模块和预测模块。基模块试图以自监督的形式确定一组实用于历史和将来工夫序列数据的数据根底趋势。basis模块通过比照学习和一个名为InfoNCE loss的特定损失函数(该函数试图学习将来和过来工夫序列之间的分割)。coef模型试图“模仿工夫序列和一组根底趋势之间的相似性”。对于coef模型,作者应用了一个穿插注意力模块,该模块将basis和工夫序列作为输出。而后将输入输出到蕴含多个MLP的预测模块中。 作者在典型的工夫序列预测数据集(ETH1, ETH, weather, exchange)上评估他们的论文。发现BasisFormer比其余模型(Fedformer、Informer等)的性能进步了11-15%。BasisFormer还没有被拿来和Inverted Transformer比拟,因为它还没有公布。仿佛Inverted Transformer和可能的Crossformer 可能会略优于BasisFormer。 还记的去年咱们看到了“Are Transformers Effective for Time Series Forecasting?”这篇论文批评了许多Transformers 模型,并展现了一个简略的模型“D-Linear”如何超过它们。在2023年从BasisFromer开始,曾经开始迟缓的解决这些问题,并超过下面提到的基准模型。 这篇论文模型的技术是牢靠的,但这篇论文长处难了解。因为作者介绍了学习“basis”的概念,但并没有真正解释这种办法的新颖性以及它与其余模型的不同之处。 3、Improving day-ahead Solar Irradiance Time Series Forecasting by Leveraging Spatio-Temporal Context 论文提出了一种基于混合(视觉和工夫序列)深度学习的架构,用于预测第二天的太阳能产量。太阳能的生产常常受到云层笼罩的影响,这在卫星图像数据中能够看到,但在数值数据中没有很好地体现进去。除了模型自身外,论文的另外奉献是钻研人员构建并开源的多模态卫星图像数据集。作者形容了一个多级Transformers 架构,同时关注数值工夫序列和图像数据。工夫序列数据通过工夫Transformers 图像通过视觉Transformers 。而后,穿插注意力模块将前两个模块的图像数据综合起来。最初数据进入一个输入预测的最终时态Transformers 。 作者在论文中提到的另一个有用的想法被称为ROPE或旋转地位编码。这将在编码/地位嵌入中创立坐标对。这是用来形容从云层到太阳能站的间隔。 作者对他们的新数据集进行评估和基准测试,比拟了Informer、Reformer、Crossformer和其余深度工夫序列模型的性能。作者还在整合图像数据方面辨别了艰难和容易的工作,他们的办法优于其余模型。 这篇论文提供了一个乏味的框架,ROPE的概念也很乏味,对于任何应用坐标模式的天文数据的人都有潜在的帮忙。数据集自身对于多模态预测的继续工作十分有用,这是一项十分无益的奉献。 4、Large Language Models Are Zero-Shot Time Series Forecasters ...

February 21, 2024 · 1 min · jiezi

关于人工智能:协和眼科牵头-5-家眼科中心同发力用-AI-助力-13-种眼底疾病检测

眼睛方寸之间,疾病千差万别。去年底,由爱康团体与鹰瞳 Airdoc 联结公布的《四百万体检人群衰弱蓝皮书》显示,近年来眼底异样的总检出率连年回升,已从 2019-2020 年的 76.1%,回升至 2022-2023 年的 78.7%。眼底疾病的发病率继续攀升,已成为世界范畴内最常见的不可逆致盲因素。 因为眼科疾病的诊断高度依赖于图像识别,眼科业余非常适合深度学习等技术的利用。为了进一步开掘深度学习在眼底疾病诊断中的潜在价值,由北京协和医院眼科主任陈有信牵头、全国 5 家眼科核心(北京协和医院眼科、四川大学华西医院、河北医科大学第二医院、天津医科大学眼科医院、温州医科大学从属眼视光医院)与北京致远慧图科技有限公司、中国人民大学信息学院李锡荣传授单干,通过开发深度学习零碎 (DLS, deep learning system),助力高级眼科医生的诊断一致性进步了约 12%,为 13 种次要眼底疾病的自动检测提供了一种新的办法。 钻研亮点:本钻研通过前瞻性临床试验,旨在评估 DLS 在帮助高级眼科医生检测 13 种次要眼底疾病方面的诊断性能采纳 DLS 后,高级眼科医师的诊断一致性进步了约 12%DLS 应该可能检测到至多一种现有疾病,这与定义新指标的初衷统一 论文地址:https://doi.org/10.1038/s41746-023-00991-9关注公众号,后盾回复「DLS」获取残缺 PDF DLS:关上眼底疾病诊断新思路数据集:搜罗眼底图像,确保后果精确相比此前钻研,本钻研收集了更多的黑白眼底摄影数据,将数据总量扩充到 81,395 张图像(训练集 77,181 张、 验证集 1,087 张,测试集 3,127 张)。 模型形成:两大钻研模型,协同构建流程DLS 由图像品质评估模型 (quality assessment model) 和诊断模型 (diagnostic model) 两局部组成,工作流程如下图所示: DLS的工作流程 图像品质评估模型是建设在 ResNet-34 CNN 之上的回归模型,通过输出单幅眼底图像,从图像品质评估模型动手,判断图像品质是否适宜诊断。如果适宜,诊断模型将生成诊断倡议;反之,零碎会收回警报,提醒图像品质不适宜诊断,但零碎无奈提供诊断倡议。 眼底疾病诊断模型是基于此前工作的扩大,以 CNN 模型 seResNext50 为次要构造。全连贯层设计有两个分支,用于确定是否存在疾病,以及存在哪些特定疾病。为了更好地稳固预测后果,该钻研训练了 3 个具备前期交融的并行 seResNext50 模型。 钻研设计:五大医院联动,多因素确保后果牢靠本钻研在北京协和医院、四川大学华西医院、河北医科大学第二医院、天津医科大学眼科医院、温州医科大学眼科医院 5 家三级医院发展。从 2020 年 8 月至 2021 年 1 月,共有 750 名参与者进行了前瞻性筛选,其中 748 人实现了所有手术。参与者均为年龄介于 18 至 75 岁的门诊病人,平均年龄为 51.7 岁,别离患有糖尿病 152 例 (20.3%)、高血压 216 例 (28.9%) 和高血脂 104 例 (13.9%)。其中,男性患者 324 例 (43.3%)。他们都曾到 5 家医院的任意一家承受眼底影像查看,均有残缺的医疗记录,并承受了全面的眼科查看。 ...

February 21, 2024 · 2 min · jiezi

关于人工智能:交互式数字人终端互动大屏支持多种场景交互

互动大屏(:zhibo175)自身具备令人瞩目的成果,再配置丰富多彩的多媒体,如引人注目的广告、特效或游戏等,可起到很好的引流作用。在空间宽阔且客流密集的场合,应用各种状态的大面积屏幕,为受众提供特地好的交互体验感;同时,还具备很好的商业价值。可依据客户需要定制开发各类性能模式,如结合体感设施的互动大屏、联合触控设施的互动大屏、联合图像捕获的互动大屏等。互动大屏宽泛实用于商场、展厅、临展流动和机场等诸多行业畛域。 一.青否数字人互动大屏的劣势: 数字人+AI大模型”:发明具备真人般交互能力的虚构数字人集AI大脑、数字人、定制化声音于一身,以智能硬件载体出现,为您发明震撼互动体验。 数字人+ChatGPT:实现智能对话机器人和高仿真数字人的联动利用,既能构建智能客服,进步客户服务效率,又能创立活泼真切的数字人形象,促成人机互动的愉悦体验,让智能技术真正赋能生产生存,发明更多的价值。 尖端唇形技术:行业高精度唇形驱动技术,人物仅需大量数据即可复刻出高、精、尖成果,性能劣势与性价比处于全国领先水平。 二.互动大屏(:zhibo175)核心技术: 1.形象克隆 拍摄真人出镜,正视镜头谈话的5-8分钟绿幕视频,即可复刻出口型、动作、情态等1:1的数字人形象,行业高精度中文唇形驱动技术,性能劣势与性价比处于全国领先水平。 2.“Al大脑”模型 接入“讯飞星火认知大模型”,领有跨畛域的常识和语言理解能力,还能够上传企业专属的知识库,继续从海量文本数据和大规模语法常识中学习进化,实现基于知识库问答、多轮对话能力。 “数字人”和“AI大脑”构建好后,通过多种技术手段,让数字人了解用户说的话,并把大脑内容传输进来。3.音频采集 自研回声打消、声源定位,波束成形、去混响噪声克制等外围算法用于远场语音交互场景。 4.显示终端 汇合常识、看、听、说等多模态人机交互数字人,展示在大屏、挪动设施、台式机或平板电脑等多个终端上,实现不同场景的真人模仿对话。 三.青否数字人互动大屏的线下利用: 1.银行网点-数字人员工 领有了这些能力降级后,通过小模型训练后,AI数字人可取得一个聪慧的“大脑”,能疾速实现简直与真人类似的交互体现成果,能够为用户提供更智能、更便捷的服务体验。在通过联合智能大屏,能够承当金融客户问题应答、业务操作指引等要害服务型的职能,以更多元、精准的身份、赋能金融机构解放人力、数智化降级。 2.展馆展厅-数字人迎宾 传统的展馆展厅通常采纳文字,图片和实物的形式进行展现,而数字人利用则为参观者出现了一个更加活泼平面的展示形式。以数字人+互动大屏进行常识解说,并通过AR/XR特效将历史文物从新出现,使得参观者沉迷式的感触历史文化的魅力。 3.景区、博物馆-数字人讲解员 AI胡子人不仅具备“人”的形象、性情和行为特色,还具备互动能力。可化身为景区向导,通过为游客提供景区路线布局、景点导览解说等沉迷式交互服务体验,大大降低人力物力老本。 4.政务大厅-实时交互数字人 在政务服务大厅数字人+互动大屏可提供智能推送服务入口,实现业务征询、资讯推送、服务疏导、事项办理等政务服务。将传统政务服务大厅模式,转变为“标准、高效、稳固”的智能服务,无效晋升政务服务的温度与科技体验感。 青否数字人形象能够定制,数字人能够成为可交互的虚构形象,以虚构主播、虚构客服、数字员工等身份,用在展馆、展厅、办公楼等场合,以AI数字人+大屏的形式为来宾提供迎宾、解说、征询、导购等服务。 AI数字人互动大屏有丰盛利用场景,致力于智能服务降级,青否科技将继续迭代优化AI数字人的交互能力,拓展多畛域场景利用,提供更多可能性和翻新空间,进一步推动“AI数字人互动线下智慧大屏”在不同行业的倒退。

February 21, 2024 · 1 min · jiezi

关于人工智能:数字人主播要抢真人饭碗

深夜两点,电商直播公司一个真人都没有,全是数字人在带货。这些数字人不须要睡觉,不须要吃饭,一部电脑,一点电费,就能间断直播带货24小时。” “不要工资,不要提成,也不要五险一金,这样的员工,哪个老板不想要啊?”数字人直播这个我的项目无需门店、人工、教训和技术,零根底小白也能轻松上手,年入百万不是梦。 与此同时,抖音、快手、小红书等平台也不断向用户推送数字人直播“致富经”,在ChatGPT、AI热潮的衬托下,带货主播仿佛是下一个要被AI干掉的职业。 数字人直播真的是稳赚不赔的生意吗?“凋敝”背地,谁赚到了钱? 代理数字人我的项目火爆是“韭菜”还是风口? “你只有每天开发一个商家,每个商家每天GMV200元,抽佣4.8%,一年可支出超百万!” “每开明一个商家应用数字人直播,处分200元;商家只有有成交,最多处分150元;胜利开明300个商家,技术服务费全额返还。”“目前这个市场刚刚衰亡,很多人还不晓得数字人,所以一些机构就开始大肆推广。如果不能用得上那不就是白白浪费经费,就很容易被认为割韭菜!百万“数字人”跑步入场数字人能抢走主播饭碗? 凌晨时分,在位于崂山区的裕龙大厦写字楼内,上百平米的公司里空无一人却“热闹非凡”:一排排电脑、手机排列其中,屏幕上,一个个虚构主播在直播叫卖,好像一场没有人类的AI狂欢……这家做常识付费直播的外乡公司,从上个月启动了“数字人大军”。从往年开始,一方面讲师流失率减少,另外一方面,直播卖课的成果在逐渐下滑,在接触了数字人直播之后,他决定试一试数字人直播“目前看起来是有点成果,但不是太显著,不过老本的确升高了。目前定制一个数字人主播,每月最低费用仅数百元,还能够自由选择形象,虚构主播上线后,不须要再给直播团队装备专人,主播、文案、经营都能通过数字人实现。 近年来,随着数字经济新业态的崛起,直播人才缺口始终在扩充。据艾媒征询数据显示,2021年,中国直播电商行业的总规模达到万亿元,仅在2021年至2022年间,中国虚构主播企业注册数就几近翻倍,由564家增至948家。 2030年中国数字虚拟人整体市场规模将超过2700亿元,倒退空间广大,预计往年中国将至多新增100万个数字人。 实际上,AI不仅将国内很多畛域搅得“翻天覆地”,跨境电商圈也被这股风搅动着,外国主播、模特、网红也开始被一个个虚拟人所代替。“用数字人跨境直播时,局部可实现真人同样直播时长80%的成交额,粗算下来,老本可缩小十几万元。 “没有互动,解决不了用户问题,话术死板,直播就没意义了,用户会散失,很难再回到直播间。青否数字人(:zhibo175)能够实现与公屏实时互动,数字人自带流量,实时公屏互动! 从平台角度,这些AI直播在某种程度上算是通过了包装的录播和无人直播,平台对于这类直播监管很严,存在被限流封禁的危险。其次,基于目前的技术水平,数字人还只是直播间的一个辅助工具,能够代替局部技术难度低、重复性高的工作。在交互能力上,AI数字人的互动很死板,短少人类的共情能力,无奈像李佳琦、董宇辉、罗永浩等大主播一样提供情绪价值。 数字人行业依然处于起步阶段,随着技术的更新、成熟,数字人或者能做到有限靠近真人。商家也能够采纳数字人主播和真人助播等模式,这种模式下,既加强了互动性,又有真人出镜,且助播老本远低于成熟的主播。

February 21, 2024 · 1 min · jiezi

关于人工智能:数字人直播带货的前景如何

数字人直播带货的前景看起来十分光明。 随着AI技术的提高,数字人直播带货曾经成为电商直播板块的一个重要组成部分,尤其是在无人直播方面。数字人虚构主播可能实现24小时不间断的信息播报,晋升品牌的曝光度,节俭人工成本和经营费用。此外,数字人直播带货在短视频制作方面也显示出其劣势,简化了制作流程,进步了视频制作效率,帮忙企业品牌账号维持高频次的更新频率,疾速抢占流量洼地。 数字人直播带货的遍及将为商业提供更好的用户体验、更高效的销售策略和更宽泛的影响力,推动商业显著转型和降级。它也为消费者带来了更好的购物体验,通过AI技术剖析用户的购物习惯和偏好,提供更加精准的举荐服务和产品筛选,缩小消费者购买决策和购买过程的工夫和精力老本。数字人直播带货还可能提供更加实在和直观的产品展现和应用成果展现,进步生产满意度和转化率。 在当今数字化时代,人工智能的倒退无疑给各行各业带来了微小的改革和时机。其中,AI数字人直播带货正逐步锋芒毕露,并在商业畛域中引起了宽泛的关注。这一趋势不仅为品牌和消费者之间建设了更严密的分割,也为企业提供了一种翻新的销售形式。 AI数字人直播带货(:zhibo175)的前景和将来在哪里呢? 首先,AI数字人直播带货将成为电子商务的新模式。传统的电子商务平台往往只能通过文字、图像和视频等无限的信息进行商品展现和销售,而AI数字人则具备更高级的沟通和互动能力。他们能够实时答复用户问题,提供个性化的购物倡议,并通过语音、表情等形式与消费者进行实在而活泼的互动。这种全新的购物体验将极大地加强消费者对产品的趣味和信赖,进而促成销售。其次,AI数字人直播带货无望重塑品牌形象和市场营销。通过数字人的形象和共性塑造,企业能够打造出独特且有吸引力的品牌形象,并与消费者建设更深层次的情感共鸣。数字人不仅可能传递商品的信息,还能通过本人的故事、趣味性和集体魅力吸引用户的关注和购买欲望。这种以人工智能为根底的直播带货形式将使市场营销更加个性化和精准,从而进步品牌认知度和忠诚度。 此外,AI数字人直播带货也将推动社交媒体和电子商务的交融倒退。随着社交媒体的风行和用户对个性化内容的需要减少,数字人直播带货在社交平台上的呈现将成为企业拓展市场的新机遇。数字人能够在社交媒体上与用户进行互动,分享商品应用心得,甚至通过社交网络进行推广。这种联合了社交媒体和电子商务的模式将进一步拉近品牌和消费者的间隔,进步用户参与度和购买转化率。 AI数字人直播带货在将来还面临一些挑战: 1.技术层面的挑战。只管现有的AI技术曾经可能实现高度真切的数字人形象和自然语言交互,但依然存在改良的空间。晋升数字人的表情、语音和动作的真实度,以及更好地了解用户需要和疾速精确地答复问题,都须要一直投入研发和翻新。 2.隐衷和平安问题。AI数字人直播带货过程中,用户的个人信息和行为数据可能被收集和剖析。因而,爱护用户隐衷和数据安全将成为一个重要的思考因素。企业须要建设严格的数据保护和隐衷政策,并采取相应的安全措施,确保用户数据不被滥用或泄露。 3.市场接受度也是一个关键因素。只管AI数字人直播带货在一些国家和畛域曾经开始风行,但在其余地区和行业可能仍须要工夫。消费者对于这种全新的购物形式可能存在疑虑和不信任感,须要通过更多胜利案例和踊跃宣传来建设市场认可度。 总的来说,AI数字人直播带货具备广大的前景和后劲,它将改变传统的电子商务模式,重塑品牌形象和市场营销,并推动社交媒体和电子商务的交融。然而,要实现这些指标,须要一直推动技术创新、爱护用户隐衷和数据安全,并进步市场接受度。随着工夫的推移,咱们能够期待AI数字人直播带货在商业畛域中施展更大的作用,并为消费者带来更好的购物体验。

February 21, 2024 · 1 min · jiezi

关于人工智能:使用--Optimum-Intel-在英特尔至强上加速-StarCoder-Q8Q4-及投机解码

引言近来,随着 BigCode 的 StarCoder 以及 Meta AI 的 Code Llama 等诸多先进模型的公布,代码生成模型变得煊赫一时。同时,业界也涌现出了大量的致力于优化大语言模型 (LLM) 的运行速度及易用性的工作。咱们很快乐可能分享咱们在英特尔至强 CPU 上优化 LLM 的最新后果,本文咱们次要关注 StarCoder 这一风行的代码生成 LLM。 StarCoder 模型是一个专为帮忙用户实现各种编码工作而设计的先进 LLM,其可用于代码补全、谬误修复、代码摘要,甚至依据自然语言生成代码片段等用处。 StarCoder 模型是 StarCoder 模型家族的一员,该系列还有 StarCoderBase。这些代码大模型 (代码 LLM) 应用 GitHub 上的许可代码作为训练数据,其中涵盖了 80 多种编程语言、Git 提交、GitHub 问题以及 Jupyter Notebook。本文,咱们将 8 比特、4 比特量化以及 辅助生成 联合起来,在英特尔第四代至强 CPU 上对 StarCoder-15B 模型实现了 7 倍以上的推理减速。 欢送到 Hugging Face Spaces 上尝试咱们的 演示利用,其运行在第四代英特尔至强可扩大处理器上。 第 1 步: 基线与评估办法首先,咱们在 PyTorch 和 Intel Extension for PyTorch (IPEX) 上运行 StarCoder (15B),并将其作为基线。 ...

February 20, 2024 · 3 min · jiezi

关于人工智能:人工智能在新能源电网运行中的垂直应用与解决方案

随着寰球采纳可再生能源的力度一直加大,可再生能源电力系统经营日趋简单。传统的数值计算方法难以适应电力系统经营中的不确定性和复杂性。这篇论文全面钻研了人工智能技术在可再生能源电力系统预测、调度、管制和电力市场中的利用前景以及对应的解决方案 文章地址: Nature Review Electrical Engineering 起源公众号:新能源电网与AIGC洞察 次要观点基于人工智能的办法能够帮忙克服可再生能源发电中的不确定性,稳固可再生能源电力系统的供电深度学习技术可能提供精确的可再生能源发电预测,均衡供求电力。-强化学习办法能够无效解决与优化可再生能源电力系统调度相干的计算复杂性,以确保老本最小化和满足运行束缚可再生能源电力系统比传统零碎更容易受到不稳固因素的影响,可能导致电压和频率稳定。基于人工智能的技术能够提供实时控制信号,促成发电与需要的均衡强化学习办法还能够用于剖析市场行为,并优化决策,反对将可再生能源无效整合到电力市场中将来基于人工智能的办法须要解决可再生能源供给实体数量减少、能源贮存零碎多样化和市场复杂性减少等挑战,这将进一步减少可再生能源电力系统的复杂性预测可再生能源发电受天气等不可控因素影响,难以精确预测。文章介绍了卷积神经网络、循环神经网络,以及其余基于Attention的深度学习办法,能够利用历史天气和发电量数据,精确预测风电和光伏发电量,帮忙均衡供需 调度调度是安顿发电机组和储能设施发电,最小老本满足负荷。深度学习办法能够间接映射不同输出失去调度后果,高效解决问题。强化学习办法还能够在不齐全信息下自适应解决调度问题 管制管制是稳固电网频率和电压。神经网络能够建设响应模型,深度强化学习能够间接从环境中学习控制策略。这些办法响应更快,可适应一直变动的电网经营条件 电力市场深度学习能够模仿不同经济主体的出价行为,剖析电网不确定性对市场的影响。深度强化学习能够同时解决多个主体的出价决策问题,实现市场运行的优化 总结总之,人工智能办法可能无效升高电力系统操作中的不确定性,实现可再生能源更好的电网集成。它们在预测、调度、管制和电力市场中的利用前景广大,将极大促成可再生能源的倒退 本文由mdnice多平台公布

February 20, 2024 · 1 min · jiezi

关于人工智能:我把ChatGPT部署到我的手机上

失常的大模型部署都是在服务器上的 然而最近我看到一个手机上能够运行的大模型 分享给大家 MiniCPMMiniCPM是基于 MLC-LLM 开发,将 MiniCPM 和 MiniCPM-V 在 Android 手机端上运行。 应用起来很简略,下载好安装包后 依照教程装置好 下载2个模型 一个是MiniCPM 一个是MiniCPM-v MiniCPM-v是能够解决图像的 下载好后,点击模型的进行对话即可 装置MiniCPM只占2GB空间 意味着你手机只有有2g以上空间即可装置 下载APK安装包容许相册、拍照权限:MiniCPM-V 模型解决多模态数据,须要相应权限来获取图片 下载模型:(1)点击下载按钮 (2) 期待进度条 (3) 开始对话 留神:以后两个模型不能同时下载,会造成闪退(软件上存在一些 bug,待修复) 和 MiniCPM 对话: (1) 期待模型初始化,直到 "Ready to chat" 弹出。 (2) 打字并点击发送交换和 MiniCPM-V 对话: (1) 期待模型初始化,直到 "Ready to chat" 弹出。 (2) 上传图像 (3) 期待 "process image done" 呈现 (4) 打字并点击发送交换 留神:图像处理须要破费一些工夫。 演示: 留神模型在部署到手机时应用了 4-bit 量化,可能会损失肯定的性能. 性能请参考 原版模型. ...

February 20, 2024 · 1 min · jiezi

关于人工智能:Sora文生视频模型深度剖析全网独家指南洞悉98关键信息纯干货

Sora文生视频模型深度分析:全网独家指南,洞悉98%要害信息,纯干货Sora是一个以视频生成为外围的多能力模型,具备以下能力: 文/图生成视频视频生成视频1分钟超长高质量视频生成视频裂变多视角生成准工业级数字孪生游戏/科幻片等特效,物理引擎能力1.Sora 与 Runway Gen2、Pika 等能力差异比照能力项OpenAl Sora其它模型视频时长60 秒最多十几秒视频长宽比1920x1080 与 1080x1920 之间任意尺寸固定尺寸, 如 16:9,9:16,1:1 等视频清晰度1080Pupscale 之后达到 4K文本生成视频反对反对图片生成视频反对反对视频生成视频反对反对多个视频链接反对不反对文本编辑视频反对反对扩大视频向前 / 向后扩大仅反对向后扩大视频连贯反对不反对真实世界模仿反对反对静止相机模仿强弱依赖关系进行建模强弱影响世界状态 (世界交互)强弱人工过程 (数字世界) 模仿反对不反对视频清晰度,OpenAI Sora 默认是 1080P,而且其它平台大多数默认的清晰度也都是 1080P 以下,只是在通过 upscale 等操作之后能够达到更清晰的程度。Sora 开箱即用生成60s 的时长视频,其中视频连贯、数字世界模仿、影响世界状态(世界交互)、静止相机模仿等都是此前视频平台或者工具中不具备的。OpenAI Sora 模型还能够间接生成图片,它是一个以视频生成为外围的多能力模型。2. Sora技术突破点sora 是一个以 latent、transformer、diffusion 为三个关键点的模型。 官网案例展现 提醒词:“两艘海盗船在一杯咖啡内航行时相互战斗的真切特写视频。” * 模拟器实例化了两种精美的 3D 资产:具备不同装璜的海盗船。 Sora 必须在其潜在空间中隐式地解决文本到 3D 的问题。 * 3D 对象在航行并避开彼此门路时始终保持动画成果。 * 咖啡的流体动力学,甚至是船舶四周造成的泡沫。流体模仿是计算机图形学的一个残缺子畛域,传统上须要非常复杂的算法和方程。 * 照片写实主义,简直就像光线追踪渲染一样。 * 模拟器思考到杯子与陆地相比尺寸较小,并利用移轴摄影来营造 “渺小” 的气氛。 * 场景的语义在事实世界中并不存在,但引擎依然实现了咱们冀望的正确物理规定。 * 提醒词:一位时尚的女人走在东京的街道上,街道上到处都是和煦的发光霓虹灯和动画城市标记。她身穿彩色皮夹克,红色长裙,彩色靴子,背着一个彩色钱包。她戴着墨镜,涂着红色口红。她自信而随便地走路。街道湿润而反光,营造出五光十色的灯光的镜面成果。许多行人到处走动 ![](https://ai-studio-static-online.cdn.bcebos.com/69a4c73eddde49bc92531e44fcd105984782250d70114528822260dad54b4b69) 视频链接:https://live.csdn.net/v/364231 * 自主创立多个视角的视频![](https://ai-studio-static-online.cdn.bcebos.com/3cae51343113404693e500f5eecfb8de6585f06469394fb594c0c5c7a2eb1e3d)>世界模型和物理引擎是虚拟现实(VR)和计算机图形学中的两个要害概念。世界模型是形容虚拟环境的框架,包含场景、对象、光照等元素,用于出现虚拟世界的外观和感觉。物理引擎则是用于模仿和计算物体之间的物理静止和互动,如重力、碰撞、摩擦等。简而言之,世界模型是虚拟环境的动态形容,而物理引擎则负责模仿虚拟环境中物体的动静行为。它们独特作用于虚拟现实技术中,为用户提供沉迷式的体验。>世界模型要求更高,这包含对简单场景和物理成果的解决能力、进步在新环境中的泛化能力、以及更好地利用先验常识进行实时推理、预测和决策等。尽管 Sora 曾经可能生成较为精确的视频内容,但当场景中波及到多个物体的交互或简单的物理静止时,Sora 可能会呈现失误或偏差。其次 Sora 目前次要依赖于大量的训练数据来学习视频的生成法则,但这种形式可能限度了其在新环境中的泛化能力和实时决策能力。这也是目前 Sora 并非一个世界模型的起因从 Sora 模型的技术报告中,咱们能够看到 Sora 模型的实现,是建设在 OpenAI 一系列松软的历史技术工作的积淀根底上的包含不限于视觉了解(Clip),Transformers 模型和大模型的涌现(ChatGPT),Video Caption(DALL·E 3) ...

February 20, 2024 · 2 min · jiezi

关于人工智能:TikTok-被正式诉讼马斯克称特斯拉一年前就能精确生成真实世界视频丨-RTE-开发者日报-Vol147

开发者敌人们大家好: 这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。咱们的社区编辑团队会整顿分享 RTE (Real Time Engagement) 畛域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有思考的 文章 」、「有看点的 会议 」,但内容仅代表编辑的个人观点,欢送大家留言、跟帖、探讨。 本期编辑:@CY 01有话题的新闻1、谷歌向开发者提供更多 Gemini 模型接口 谷歌正在扩充 Gemini 大语言模型的范畴,目前在其 Vertex AI 平台上向开发人员提供。Gemini 1.0 Pro 在公开预览一段时间后现已正式上市。与此同时,谷歌示意,Gemini 1.0 Ultra(当初“通过白名单”广泛可用,这与个别可用性的运作形式并不完全一致)。 谷歌日前还公布了 Gemini 1.5 Pro,这是其现有 Gemini Pro 型号的更新,该公司示意,其性能达到其以后旗舰型号 Gemini 1.0 Ultra 的程度。然而,兴许更重要的是这个模型能够解决一百万个令牌的上下文。这大概是 1 小时的视频、30,000 行代码和超过 700,000 个单词。该模型也应用了谷歌所形容的“新的专家混合办法”,目前处于私人预览阶段。(@TechCrunch) 2、Nginx 呈现动荡:外围开发者因平安一致出奔 Nginx 外围开发者马克西姆・杜宁因安全策略一致退出我的项目,并创立了 freenginx。杜宁认为 Nginx 已不再是一个纯正的自在开源我的项目,而是受到企业管制。Nginx 由伊戈尔・赛索耶夫开发,2004 年公布,2021 年已成为寰球最受欢迎的网页服务器。2019 年 Nginx 公司被 F5 收买,起初赛索耶夫来到了 F5 和 Nginx 我的项目。F5 的管理层对开源我的项目的运作形式不足了解,决定扭转 Nginx 的安全策略,导致杜宁抉择来到并启动新我的项目。(@CSDN) ...

February 20, 2024 · 2 min · jiezi

关于人工智能:云上业务一键性能调优应用程序性能诊断工具-Btune-上线

01终于等来了估算,这就把服务迁徙到最新的 CPU 平台下来,这样前端的共事立马就能感触咱们带来的速度晋升了。可是…… 这些性能指标怎么回事?不仅没有全面晋升,有些反而降落了。不应该这样啊,这可怎么办? 破费了几个月工夫终于搞定了业务模块的重构,立即部署降级让业务面目一新。可是……长尾提早竟然还减少了一倍,说好的业务成果晋升呢,到底是哪里出了问题? 下面的这些问题,对于开发运维工程师来说肯定不生疏,常常被这类出其不意的情况打个措手不及。然而,性能优化是一项高技术门槛的工作,这通常须要运维人员有丰盛的零碎常识和教训,对业务重复进行剖析、定位、测试、验证。遇到麻烦的 case,有时候可能须要破费数周工夫。如果团队中不足这类运维人员,那就只能盯着性能指标降落却没有无效的办法,最初影响了业务上线成果。 在将业务迁徙至不同计算平台,或者进行新业务上线的过程中,为了可能齐全施展计算平台的能力,及时找出性能瓶颈,对系统进行全面优化,百度智能云推出了「应用程序性能诊断工具 Btune」。 就像电脑管家能够疾速对 PC 进行性能优化,Btune 可能对云上业务进行一键性能调优,短时间内实现性能瓶颈的定位并提供优化倡议,使得高级运维人员能够胜任高技术门槛的性能调优工作。 源自百度智能云多年在各种服务器 CPU(Intel、AMD、ARM) 和多类业务(举荐、搜寻、广告、大数据、数据库、视频编解码等)上的性能调优教训,Btune 反对多维度利用性能剖析,能够主动生成优化倡议进步利用性能,并提供可视化剖析数据展现。 02Btune 内置了百度自研的瓶颈分析树模块,通过自顶向下的形式,从 CPU、内存、磁盘、网络、并发等 5 个维度对业务利用进行性能分析和瓶颈定位,并从利用、runtime、零碎、硬件等多个档次对每个瓶颈给出可操作的优化倡议。 借助 Btune 的业余能力,用户不仅能晓得性能问题的根因,还能取得问题优化的办法。只需在 Btune 的前端界面进行一键操作,几分钟后就能够失去一份残缺的性能瓶颈和优化倡议报告。 在 Btune 提供的性能瓶颈和优化倡议报告中蕴含两局部:剖析摘要和剖析详情。其中,「剖析摘要」清晰地展现了业务性能瓶颈点和相应的优化倡议,能够满足绝大部分的场景的需要。「剖析详情」提供了更具体的性能剖析数据,从系统配置、零碎性能、过程线程模型、函数指令热点等多个维度出现负载的资源散布、耗时散布、线程关系等运行个性,满足用户更细粒度性能优化。 03接下来,咱们通过一个测试用例介绍如何应用 「应用程序性能诊断工具 Btune」。(此测试用例仅用于展现 Btune 基本功能和应用办法,理论生产环境业务负载比较复杂,但 Btune 应用办法和剖析原理雷同。) 在这个例子中,首先咱们编写一个测试程序作为剖析对象。在这个程序中次要是调用 glibc 库的 memset 和 memcpy 函数对内存进行操作。而后通过 numactl 命令模拟程序跨 NUMA 拜访内存的状况。咱们通过 Btune 对这个程序进行剖析给出性能瓶颈和优化倡议。在 Btune 输入的报告中,给出了两类倡议: 在计算方面,给出了内存操作热点函数和对应的热点库降级倡议。在内存方面,给出了跨 NUMA 访存优化倡议。最初咱们依据 Btune 给出的倡议对程序进行优化,能够看到优化后程序性能进步了 36.8%,优化效果显著。 测试程序代码如下,程序会有限循环执行简略的内存拷贝操作,可通过编译命令:gcc -o test test.c 和启动命令:nohup numactl -N 0 -m 1 ./test & 来运行此程序。 ...

February 20, 2024 · 2 min · jiezi

关于人工智能:Sora-VS-Gen2-普通人选哪个

Sore是啥?Sora是一个由OpenAI开发的AI模型,能依据文字描述来制作视频。这个模型是基于OpenAI之前的一个我的项目,DALL-E,这是一个能够把文字转换成图片的技术。 Gen2是啥?Gen2和Sore相似,也是文本生成视频AI工具,不过Gen2是由Runway开发的 Sora VS Gen2我之前也用过Gen2,然而生成的视频并不是很好 前几天Sora进去了 上面给大家比照下,两者生成的视频的成果 Prompt1一部以新年庆贺的视频 很显著Sore会更实在一些 Prompt2一个24岁男子眨眼的极其特写镜头,站在马拉喀什,在魔幻时刻,用70毫米胶片拍摄,有景深,娇艳的色调,有电影感的感觉 其实我比拟喜爱gen2生成的图片,然而比拟死板,没有Sore生成的那种灵动感 Prompt3两艘海盗船强烈战斗的写实远景视频 Prompt4一个卡通袋鼠在迪斯科舞池舞动 咳咳,这个差距挺大的 Prompt5摄像机围绕一大堆不同电视机的反射,显示不同的节目,包含1950年代的科幻电影,恐怖电影,新闻,动态画面,以及1970年代的情景喜剧等等,场景设在纽约的大型博物馆画廊内 gen2生成的电视片画面,根本没有动 而Sore的成果要好很多 Prompt6一个时尚的女人走在东京街上,外面充斥了和煦的霓虹灯和动画的城市标牌。她衣着彩色皮夹克,一件长长的红色连衣裙和彩色靴子,并带有彩色钱包。她戴太阳镜和红色唇膏 Prompt7一个精美渲染的海底世界,包含丰富多彩的鱼类和海洋生物的珊瑚礁 显著看到Sore生成的更实在一些 gen2生成的视频,更偏差于动画 论断从下面几个例子来看 Sore几乎就是降维打击啊! gen2和Sore比照 差距还是很显著的 有条件的,能够间接体验一下Sore! 注:例子没视频,能够在公众号查看 https://mp.weixin.qq.com/s/kw9-a-lb7Ybx8r1H8rYYYQ 本文由mdnice多平台公布

February 20, 2024 · 1 min · jiezi

关于人工智能:数字人直播软件到底需要多少钱

虚拟人数字人直播软件是一种新兴的直播技术,它可能将真人与虚构形象相结合,打造出更为真切的直播场景。随着5G 网络的遍及,虚拟人数字人直播软件逐步走进了人们的视线,那么它们的价格又是多少呢? 首先,数字人直播软件的价格取决于其性能需要和技术水平。目前市面上有多种虚拟人数字人直播软件,包含且不限于数字人直播平台、数字人主播平台、数字人互动直播平台等。这些软件的价格从几千元到几万元不等,具体取决于用户的需要和技术水平。 其次,虚拟人数字人直播软件的价格也与品牌无关。目前市面上有多个虚拟人数字人直播软件品牌,其中一些品牌的价格较高,而另一些品牌的价格则较低。一般来说,品牌越出名,价格越高,因为它们通常领有更好的技术和更欠缺的售后服务。 最初,虚拟人数字人直播软件的价格也会受到地区因素的影响。因为不同地区的消费水平不同,因而虚拟人数字人直播软件的价格也会有所不同。总的来说,虚拟人数字人直播软件的价格是比拟高的,须要用户依据本人的需要和技术水平抉择适合的软件,虚拟人数字人直播软件的功能强大,能够实现真人与虚构形象的联合,打造出更为真切的直播场景,同时也可能进步用户的直播体验。如果您须要应用虚拟人数字人直播软件,建议您先理解其性能和技术特点,以便依据本人的需要抉择适合的软件。 青否数字人源码就很合乎您的需要: 数字人源码(:zhibo175)包含四个端: (1) 商家端:即商家治理后盾,反对口播视频批量制作,文本驱动,语音驱动,反对chagpt,140种语言,301种音色,7x24直播带货,直播间装修,反对多平台直播,真人接管实时互动,关键词互动,气氛疏导等性能。 (2)代理端:即代理商治理后盾。代理商OEM:名称、logo、联系电话、客服等反对自定义。 代理商开明商家账户:开明商家账户,并主动扣除预存金额代理oem,代理商开明商家账号。 (3)治理端:即超级管理员后盾,反对无限量给商家开明子账户,设置周卡/月卡/年卡,以及生成数字人视频时长,比方可生成200分钟视频。反对无限量开明OEM代理商账户,设置代理商名称、logo、联系方式、预存金额,拿货折扣等。 (4) 克隆端:反对无限量克隆数字人+无限量克隆声音。克隆进去的数字人主播妆容、神气、动作与真人主播100%类似,完满还原真人主播的微表情,肉眼真假难分。保障了IP的唯一性和稳定性,无限量给企业定制专属的数字人。 二、数字人源码独立部署的劣势: (1)无限量克隆数字人:目前市面上的零碎克隆一个数字人个别须要几千上万元,而独立部署,一次购买,一生应用,能够收费有限克降数字人。 (2)无限量视频制作时长:目前市面上的零碎每月都有视频合成时长限度,大部分只能合成30分钟到60分钟,超时都须要再领取高额的费用,而咱们的零碎领有免费视频制作时长。 (3)无限量开明商家账号:目前市面上的零碎都是采取账号按月(年)付费的销售模式,每开明一个账号都要按期付费,而咱们的零碎能够收费无限量开明商家账号。 (4) 自主定制品牌名称:目前市面上的零碎更么不反对自定义品牌名称,要么须要领取几十万的oem费用能力定制,而咱们的零碎能够自主定义品牌名称。 五、服务 1.用户培训:部署AI数字人SaaS零碎后,须要对用户进行培训和用户的使用手册,以确保他们可能正确应用零碎的性能和个性。培训的老本包含培训资料的制作、培训师的费用等。 2.技术支持:独立部署AI数字人SaaS零碎后,建设的服务群一对一提供专属技术支持,解决用户在应用过程中遇到的问题,购买一年内提供收费更新降级。 独立部署AI数字人SaaS零碎源码须要思考多个方面的老本,开发成本很高,所以市面上数字人源码的定价是不低的,在抉择的时候肯定要满足本人的需要。

February 20, 2024 · 1 min · jiezi

关于人工智能:人工智能与测试开发新时代的黄金组合

在当今疾速倒退的科技领域,人工智能和测试开发成为了一对不可分割的黄金组合。人工智能技术的迅猛发展为测试开发带来了前所未有的时机和挑战。本文将探讨人工智能与测试开发的交融,以及它们在软件开发生命周期中的重要作用。 首先,人工智能为测试开发带来了更高效和精确的测试方法。传统的测试开发通常依赖于手动编写测试用例和执行测试的形式,这种办法耗时且容易出错。而人工智能技术能够通过机器学习和自动化算法,自动化生成测试用例、执行测试和分析测试后果。这种自动化测试的办法大大提高了测试效率和准确性,缩小了人为谬误的可能性。 其次,人工智能在测试开发中的利用也晋升了软件品质和可靠性。通过人工智能技术,能够对大规模的测试数据进行剖析和开掘,发现暗藏的缺点和问题。例如,利用机器学习算法能够对历史的软件缺陷数据进行剖析,预测潜在的缺点和破绽,从而提前采取相应的措施。此外,人工智能还能够通过自动化的形式进行继续集成和继续交付,确保软件在一直迭代中的稳定性和可靠性。 最初,人工智能技术的倒退也为测试开发带来了新的挑战和需要。随着人工智能技术的广泛应用,软件系统变得越来越简单和智能化,对测试开发的要求也越来越高。测试开发人员须要一直学习和把握新的人工智能技术,如自然语言解决、计算机视觉和深度学习等,以应答新的测试需要和挑战。同时,测试开发人员还须要关注人工智能零碎的可解释性和公平性等伦理问题,确保人工智能零碎的测试后果是牢靠和可信的。 综上所述,人工智能与测试开发的联合是以后软件开发畛域的一个重要趋势。人工智能为测试开发带来了更高效、精确和牢靠的测试方法,同时也提出了新的挑战和需要。在将来的倒退中,人工智能和测试开发将持续密切合作,独特推动软件开发的提高和翻新。 获取更多软件测试技术材料/面试题解析,请点击!

February 20, 2024 · 1 min · jiezi

关于人工智能:手语播报数字人让无声世界感受体育魅力

北京播送电视台《北京您早》节目在播出北京冬奥新闻时,屏幕左下角多了一个纯熟使用手语播报的“虚拟人”,这是北京市科委为让听障群体更好地感触冬奥盛况而立项施行的“冬奥手语播报数字人零碎”。2月5日起,北京播送电视台《北京您早》节目播出时屏幕左下方多了一位纯熟使用手语进行播报的“虚拟人”,这是为听障群体更好地收看冬奥资讯专门研发的冬奥手语播报数字人。 该零碎可提供全流程智能化的手语生成服务,依据语音主动以手语播报冬奥会相干信息,使听障群体也能享受北京冬奥的赛事盛况‘,在“冬奥手语播报数字人”零碎的展厅中看到,大屏幕上,追随主持人的语音播报,“数字人”可能纯熟流畅地使用手语将冬奥赛事进行同步播报。 “冬奥手语播报数字人”零碎的研发离不开超大规模人工智能预训练模型的反对。青否数字人能够有限克隆数字人形象,数字人驱动成果更佳!听障群体播报的“冬奥手语播报数字人”,其可依据语音主动以手语播报冬奥会相干信息,使听障群体更好地享受北京冬奥的赛事盛况。“手语播报数字人”的利用场景宽泛,一方面能够为新闻媒体提供全流程智能化的数字人手语生成服务,不便听障人士疾速理解新闻简讯;另一方面可将声音播送内容转化为手语,为听障人士播报冬奥会赛事状况、赛场问题,便于获取即时信息。 业内人士指出,手语播报数字人的推广可减速国家通用手语推广落地,为残疾人平等参加社会生存发明无障碍环境,“更重要的是,它体现了北京这座‘双奥之城’对残障群体的尊重”。 也能够诞生手语数字人老师,可能进行收费录制课程进行学习授予,可能给予听障人士根本的交换能力! 数字人的诞生可能服务于听障人士这一群体可能利用于服务业,可能使听障人士可能了解数字人的解答,可能更好的去服务这一类人群,青否数字人(:zhibo175)也将极力开发性能,更好的服务于公众!

February 20, 2024 · 1 min · jiezi

关于人工智能:AI虚拟数字人直播软件带来无限商机

随着人工智能技术的倒退,曾经成为了互联网直播行业的新宠。这种基于AI技术的虚构主播形象,不仅能够让直播更加活泼、形象化,而且还具备宽泛的商业价值。 青否数字人(:zhibo175)提供有限克隆数字人,克隆数字人多形象,也可指定任意真人形象定制,为直播行业提供翻新解决方案,解决商家老本、工夫等难题。数字人对于商家来说: 首先,AI虚构数字人能够实现24小时不间断直播,无需人力照料,极大地升高了直播经营老本。 其次,数字人的形象、性情和口头表白能够依据用户的爱好和需要进行调整,让直播更具个性化和专业化。 此外,数字人还能够依据特定场景主动抉择适宜的服装和化妆,进一步晋升了直播的视觉体验。 最初,数字人还能够通过数据分析,深刻理解观众的趣味和偏好,进步直播的精准度和参与度。 从目前最直观的市场观测来看,数字人次要被利用在了以下几个场景: 1.短视频批量制作:基于数字人、以及文案脚本,可能疾速的、批量化的进行视频创作,长处是没有工夫空间的限度,也没有真人进行视频录制的各种突发状况以及状态不稳固等状况,毛病就是通过一个数字人制作进去的短视频,难免会存在形体动作、表情等各个方面高度雷同的状况,不过这个对内容自身的输入没有太大的影响。这个目前大量的利用在自媒体、常识博主、企业营销短视频制作等场景 2.数字人直播:企业数字人满足24小时不间断直播,数字人SaaS零碎直播做到实时回复直播间的弹幕内容,可能与顾客产生实时互动,提供个性化服务,目前数字人直播咱们看到更多的利用在电商带货场景,可能为商家继续的减少曝光,做到真正的降本增效3.数字人能够作为品牌形象代言人,打造品牌的数字人IP具备长期稳固的商业价值;数字人还能够在游戏、娱乐、教育等畛域进行利用,为这些行业带来更好的用户体验和商业价值。 总之,AI虚构数字人作为一种新兴的直播模式,不仅能够升高经营老本、进步直播的个性化和专业化,还具备宽泛的商业价值。将来,数字人将成为各个行业的重要组成部分,为人们的生存带来更多便当和惊喜。

February 20, 2024 · 1 min · jiezi

关于人工智能:云原生明星企业-Weaveworks-倒闭Sealos-瑟瑟发抖

同为云原生畛域的创业者,我是否曾经躲在角落里瑟瑟发抖?Mesos(Mesosphere/D2IQ) 前不久刚倒下,这又来了一个,我对失败的案例尤为关怀,为了不吃一堑;长一智,通过认真钻研和认真思考,来谈谈我的想法。 Weaveworks 历程2014年:成立初期,Weaveworks 实现了来自 Seedcamp 和 Y Combinator 的种子轮融资,取得了数百万美元的投资。 2015年:Weaveworks 实现了 A 轮融资,由 Accel Partners 领投,融资金额为 1500 万美元。 2016年:Weaveworks 实现了 B 轮融资,由 GV (Google Ventures) 领投,融资金额为 1500 万美元。 2017年:Weaveworks 实现了 C 轮融资,由 AWS (亚马逊网络服务) 领投,融资金额为 2500 万美元。 2019年:Weaveworks 实现了 D 轮融资,由 Sonae IM 领投,融资金额为 2500 万美元。 (以上信息来自 ChatGPT,可能不精确,然而应该大差不差) 公司的开源产品 Flux 是一个 CI/CD 平台,推崇 GitOps。 整个融资节奏不错,融了这么多钱,而且公司年营收也曾超过千万美金。 老本不可控大部分公司都死于现金流断裂,这是最重要的外因,Weaveworks 堆了 200 人,以 20w 美金每人每年计算,就须要烧掉 4000 万美元,这样的确融资的钱就不够烧多久了。(还是中国的人力老本好,国内出海的公司这块具备天生劣势。) Weaveworks 外围支出起源还是服务大 B,这块有个特点,就是简直很难绕开定制化,重售前/售后,销售老本极高。所以并不是假如把人员裁减到肯定数量就能继续倒退的,这种形式服务大 B 数量多了天然人员数量就下来了,把人缩小,营收也就上来了,二者不可兼得,怎么样都不可继续。 ...

February 20, 2024 · 1 min · jiezi

关于人工智能:关于GpuMall智算云平台的使用说明计费篇

1. 充值 以后GpuMall反对在线充值或者对公汇款。 抉择在线充值时,填写或抉择要充值的金额,举荐充值300元,可间接成为会员享受95折优惠。 点击下一步 ,下方体验入口 https://gpumall.com/login?type=register&source=sifou 编辑  手机扫码实现领取。 若抉择对公汇款,则须要依照汇款信息汇款后,点击【上传凭证】按钮填写对应的信息上传凭证,待审核核实通过后即可到账。  编辑   编辑   编辑 实例计费实例计费:GpuMall平台的实例有三种付费模式,按量计费、包天包周包月和竞价模式,以下是三种模式的区别: 编辑 按量计费 按量计费,即按实例的理论使用量进行免费。此模式不须要提前领取费用,但须要保障余额大于实例一个小时的应用费用(若有正在运行的按量付费实例,则计算余额时会扣除运行中实例的费用)。敞开实例时按秒为单位结算费用从余额中扣除。关机后GPU不会预留。包天/包周/包月 包天/包周/包月是GpuMall云服务器实例的一种预付费模式,须要提前一次性领取所选时间段内的费用。这种付费模式实用于业务稳固的长期需要,价格相较于按量计费模式更低廉。到期揭示:服务到期前7(对应包天/周/月),零碎会给您发送行将到期揭示告诉。 到期后处理:立即敞开实例,开释GPU资源。在此模式下,您也能够抉择主动续费,则实例不会主动敞开。 预付费工夫换算: 包天=24h;包周=7x24h;包月=30x24h 变更计费模式:依照按量付费结算以后应用工夫的费用,扣除后退还预付费残余的局部。留神,有时候变更计费模式没有原模式划算。 竞价模式 也是按实例的理论使用量进行免费,与规范按量付费不同的是,此模式可应用比失常市场价更低的价格开启实例,但请留神,在实例资源缓和时,有实例被敞开的危险,请务必保障工作不会为此收到损失。每个用户可开启的实例数量有限度:  编辑 存储计费存储价格  编辑 3.1 实例存储计费 GpuMall会对实例存储进行免费,单位为元/小时.GB。如果实例是按量计费,实例存储每小时结算一次,无论实例是否开机,均会计费,如不再须要应用,可间接开释实例 。 竞价实例的免费规范与按量计费雷同。 如果实例是包天包周包月,那么存储会计算在总费用中,租用时一次性付清。实例关机后,存储将持续收取费用(按小时计费),如不再须要应用,可间接开释实例 。 留神,因为关机后存储费用仍在收取,请及时关机开释不再须要的实例。 实例存储依照所选配额免费。 3.2 网盘存储计费 GpuMall会对网盘存储进行免费,单位为元/小时.GB,每小时从账户中扣除。网盘存储依照所应用容量免费。 3.3 镜像存储免费 镜像备份后会占据存储容量,镜像存储也会依照元/小时.GB的单位进行免费,每小时从账户中扣除。镜像存储依照所应用容量免费。 镜像体验:https://gpumall.com/login?type=register&source=sifou 提现阐明GpuMall账户中的余额反对提现,需一次性提现全副账户余额,提取后账户下的余额以及代金券等数据全副清空,且无奈复原。留神,可提现金额不等于以后账户的显示余额。 可提现金额 = 总充值金额 - 总应用金额(含代金券),若计算结果是负值的,那么您可提现金额即是 0。 曾经申请开具过发票局部的费用目前不反对退还。 点击【费用核心】页面的提现按钮,  编辑 点击【申请提现】按钮,申请提现  编辑 退款申请提交后,下个月10日对立审核。如审核通过,款项预计将于7个工作日内原路退回至您的账户。受银行网关影响会有差别,具体到账工夫以银行的理论到账工夫为准。 欠费阐明请注意账户余额,在余额有余时,咱们会进行告诉,若余额不足以领取实例及存储费用,会敞开实例;若账户欠费,咱们将保留您的数据7天,7天后将会删除数据。请及时充值偿付欠款,免得影响您的失常应用。

February 19, 2024 · 1 min · jiezi

关于人工智能:专题2030年中国汽车行业趋势展望报告PDF合集分享附原数据表

原文链接:https://tecdat.cn/?p=35173原文出处:拓端数据部落公众号汽车行业正站在倒退的要害节点。面对多样的生产群体、翻新的商业模式以及颠覆性技术对产业链、价值链和生态圈的粗浅改革,行业在谋求极致用户体验的同时,还面临着微小的老本优化压力。这些因素将独特塑造中国汽车行业将来的走向。 瞻望2030年,传统车企与新权势都将遭逢前所未有的挑战,其中一些将抓住机遇崛起,而另一些则可能因不适应改革而退出舞台。届时,行业格局将由3至5家规模化、实力雄厚的龙头车企主导,同时辅以专一于特定细分市场和用户的中小型车企。浏览原文,获取专题报告合集全文,解锁文末299份汽车相干行业钻研报告。 以韩国某品牌为例,该品牌继续推动韩系车的全球化扩张,并预计在将来7年内,印度、美国和巴西将成为其新的销量增长点。受限于外乡市场规模,韩系品牌始终将全球化作为外围策略。将来,该品牌将依靠过往教训,进一步优化海内市场抉择、产品本土化、经营本土化和供应链治理,以晋升其在海内市场的销量份额。 随着新兴价值池的一直扩张,价值幅员正在经验重构。翻新先锋预计将占据近八成的市场份额,引领这一改革。将来数年,随着新能源车的遍及、智能驾驶和智能座舱技术的降级、金融服务需要的增长以及跨界竞争者的退出,汽车行业的价值幅员将面临重构。普华永道思略特预测,新兴价值池将迅速扩张,其中80%的增量价值将由翻新车企把握,而传统车企仅能占据20%的份额。 新四化(电动化、智能化、网联化、共享化)将推动金融服务、车载软件服务、补能服务、出行服务以及电池循环利用等新兴价值池实现快速增长,并在车企策略中占据越来越重要的位置。相比之下,尽管汽车生产、销售、零部件和售后等传统价值池仍具肯定规模,但从增长后劲和盈利能力来看,新兴价值池展现出更广大的开发前景。 随着新权势和跨界竞争者的一直涌入,新兴价值池在迅速扩张的同时也将面临强烈的竞争。预计劣势新生态竞争者将占据八成的新兴价值池份额,并无望孕育出数家万亿规模的车企或车企联合体。 因而,传统车企须要紧跟价值池发展趋势,评估本身在新价值池中的竞争力,并放慢翻新步调。通过将外围竞争力转向新价值池畛域,传统车企无望在新一轮竞争中取得更高的市场份额。 本专题内的参考报告(PDF)目录中国汽车工程学会:2023节能与新能源汽车技术路线图年度评估报告 报告2024-02-19ICCT:2024赋能汽车电动化转型-中国专用充电基础设施建设现状探索... 报告2024-02-19国内清洁交通委员会:2024赋能汽车电动化转型-中国专用充电基础设施建... 报告2024-02-05罗兰贝格:2024年新能源汽车与动力电池产业瞻望报告 报告2024-02-04CAICV:智能网联汽车近程降级(OTA)倒退现状及倡议 报告2024-02-04汽车之家研究院:乘用车市场2023年总结及2024年趋势报告 报告2024-02-03CAICV:2024汽车玻璃集成UWB数字钥匙倒退钻研白皮书 报告2024-02-03木卫四科技:2023智能汽车网络安全威逼报告 报告2024-02-02电动汽车用户联盟:2023吉利河汉L7用户满意度报告 报告2024-02-02泰达:2023领导力效益指数报告-汽车制作和服务 报告2024-02-01罗兰贝格:2024汽车行业数字化转型白皮书 报告2024-01-26小红书:小红书2023年12月汽车行业月报 报告2024-01-24中国信通院:汽车数据倒退钻研报告(2023) 报告2024-01-23汽车之家:2023中国纯电新能源汽车秋季报告-主销车型电池体现篇 报告2024-01-23罗兰贝格:2023年寰球汽车零部件供应商钻研报告-窘境求变破局谋远 报告2024-01-22中国汽车工业协会:2023年汽车工业产销状况 报告2024-01-18头豹:2023年汽车充电桩行业概览-汽车充电需要提速-低压快充桩布局加... 报告2024-01-17福特Ford&青年报:2023高校汽车人才蓝皮书 报告2024-01-12汽车之家&省广团体:2024新能源汽车行业营销流量增长指南 报告2024-01-11电动汽车用户联盟:宋PLUS_DM-i冠军版用户满意度报告 报告2024-01-11中国联通研究院:2024汽车制作行业洞察钻研报告 报告2024-01-10君迪&同济大学:2023年度中国汽车智能座舱榜样钻研白皮书 报告2024-01-10美云智数:2023汽车行业剖析蓝皮书-用户洞察篇 报告2024-01-04佩信团体:2023中国汽车行业CXO特刊-迈向2025汽车行业的减速赛 报告2024-01-01亿欧智库:2023中国智能电动汽车产业倒退洞察钻研报告 报告2023-12-31艾瑞征询:2023年汽车行业网络营销监测报告 报告2023-12-29小红书:小红书2023年11月汽车行业月报 报告2023-12-27微梦传媒:2023汽车行业营销洞察报告 报告2023-12-24百分点:2023新能源汽车消费者情绪洞察报告 报告2023-12-24金杜:冲破与瞻望-我国智能汽车倒退迈入新阶段 报告2023-12-18中国汽车工业协会:2023中国汽车工业软件倒退建设白皮书V1.0 报告2023-12-17汽车之家研究院:2023用户购车旅程及体验洞察报告 报告2023-12-17乘联会:对于我国汽车后市场倒退现状及其推动高质量倒退的相干政策剖析 报告2023-12-17乘联会:2023年10月中国进口汽车市场月报 报告2023-12-17中国汽车工程学会:2024年度中国汽车十大技术趋势报告 报告2023-12-12电动汽车用户联盟:2023小鹏G6用户满意度报告 报告2023-12-12易车研究院:2023自驾游正全面重塑中国支流车市-汽车自驾游洞察报告 ... 报告2023-12-10亿欧智库:2023中国智能电动汽车品牌竞争格局钻研报告 报告2023-12-10虎啸:2023虎啸年度洞察报告-汽车行业 报告2023-12-10汽车之家研究院:2023中国汽车潮流察看报告-价值重塑 报告2023-12-07艾普思征询:2023年第三季度中国汽车行业投诉洞察报告 报告2023-12-07绿色联盟:2023共建“一带一路”国家汽车产业绿色倒退现状钻研 报告2023-12-06京东&中国汽车工业协会:2023汽车行业供应链全链数智化白皮书 报告2023-12-06源达信息:智能驾驶专题研究系列一-华为与长安汽车单干发力智驾-行业无望... 报告2023-12-05VMware&英特尔:2023新能源汽车智能制作联结白皮书 报告2023-12-03凯捷&亚马逊云科技:2023汽车可继续倒退白皮书 报告2023-11-27汽车之家研究院:2023年三季度中国汽车保值率排行榜报告 报告2023-11-26和君征询:武汉汽车产业降级白皮书2023 报告2023-11-26汽车之家研究院:2023年新能源二手车供需及残值洞察报告 报告2023-11-25达信&美世&奥纬征询:2023中国汽车行业出海白皮书 报告2023-11-25毕博&妙盈科技&极星汽车:2023中欧贸易次要行业ESG倒退洞察白皮书 报告2023-11-23汽车之家:中国纯电新能源汽车-2023年冬季报告主销车型电池体现篇 报告2023-11-22车联网联盟(CCC):CCC数字钥匙-进入汽车的将来白皮书 报告2023-11-22Inficon:电动交通-电动汽车和燃料电池汽车透露检测 报告2023-11-21电通:2023汽车营销之变局与破局报告-竟化论 报告2023-11-17中国汽车工业协会:车载智能计算根底平台参考架构2.0白皮书 报告2023-11-14中智征询:中国汽车行业察看:2023年第四季度瞻望与热点调研报 报告2023-11-14嘶吼:2023先稽我智 安能动之:汽车智能网联平安调研报告 报告2023-11-12汽车之家研究院&新榜研究院:2023汽车厂商新媒体营销趋势洞察报告 报告2023-11-12GLG格理:2023新能源汽车产业链白皮书:洞察将来趋势 报告2023-11-06中国信通院:2023中德车联网(智能网联汽车)C-V2X与智慧物流交融... 报告2023-11-01上海交通大学:2023智能网联汽车行业钻研白皮书 报告2023-11-01汽车之家研究院:中国纯电新能源汽车季度报告(汽车行驶及充电行为篇)-夏... 报告2023-10-29国金证券:汽车及汽车零部件行业钻研-智能汽车行业终端深度系列(一)-华... 报告2023-10-29太平洋:汽车细分市场专题研究(一)-硬派越野-小众市场开启新能源征程 报告2023-10-27思爱普(SAP):汽车企业面临的服务时机 报告2023-10-27乘联会:对于我国汽车产品燃料消耗量限值规范及促成汽车产品节能减排的相干... 报告2023-10-26头豹:2023年中国汽车线缆行业概览-汽车电动化智能化趋势赋能线缆赛道 报告2023-10-25电动汽车用户联盟:特斯拉ModelY满意度调研 报告2023-10-25头豹:中国汽车连接器行业市场规模测算逻辑模型 报告2023-10-24乘联会:2023年9月份上海汽车市场上牌状况 报告2023-10-24波士顿征询:新能源汽车竞争进入下半场车企如何实际“用户企业” 报告2023-10-22AUTOSEMO:2023中国汽车根底软件倒退白皮书4.0 报告2023-10-22工信部:国家车联网产业规范体系建设指南(智能网联汽车)(2023版) 报告2023-10-21乘联会:对于2023年上半年促成新能源汽车产业高质量倒退的相干政策综合... 报告2023-10-21中国汽车工业协会:2022年汽车工业经济运行报告 报告2023-10-20亿欧智库:2023中国智能电动汽车车载软件市场剖析报告 报告2023-10-19汽车之家研究院:2023年新能源汽车生产洞察 报告2023-10-19IBM:智能网联汽车:在迅猛的数据洪流中抢占先机 报告2023-10-19电动汽车用户联盟:现实L7用户满意度报告 报告2023-10-17中央财经大学:2023国内汽车行业ESG钻研报告 报告2023-10-16电动汽车用户联盟:腾势D9用户满意度报告 报告2023-10-15电动汽车用户联盟:极氪001用户满意度报告 报告2023-10-14IBM:智能网联汽车-在迅猛的数据洪流中抢占先机 报告2023-10-12中国汽车工业协会:中国汽车根底软件倒退白皮书4.0 报告2023-10-08普华永道:2023年上半年中国汽车行业并购流动回顾及趋势瞻望报告 报告2023-10-08中国汽车工业协会:中国汽车根底软件倒退白皮书4.0 报告2023-10-07普华永道:2023年上半年中国汽车行业并购流动回顾及趋势瞻望报告 报告2023-10-07陈明:5G驱动汽车制作麻利智能-国家智能制作专家委员会 报告2023-10-06雷洪钧:燃料电池汽车原理、技术及配套设施 报告2023-10-06德勤&亚马逊云科技:2023汽车网络安全经营核心(VSOC)白皮书 报告2023-10-06中国汽车工程学会:2023基于C-V2X的智能化网联化交融倒退路线图(... 报告2023-10-03亿欧智库:2023中国智能电动汽车超级快充补能体系钻研 报告2023-09-30世界天然基金会:2023中国新能源汽车全生命周期减碳门路与案例钻研报告 报告2023-09-26FESCO:2022-2023新能源汽车行业趋势察看报告 报告2023-09-25云略:2023年H1汽车社媒营销趋势报告 报告2023-09-23汽车之家:2023中国纯电新能源汽车主销车型电池体现报告 报告2023-09-22头豹:2023年中国线管制动行业概览-线控化需要下-智能汽车的平安保障... 报告2023-09-21汽车之家研究院:2023年年度中国汽车保值排行榜报告 报告2023-09-19易车研究院:2023用车里程洞察报告:哪些汽车品牌被用户应用更多? 报告2023-09-18极光&月狐数据:2023年汽车行业数字营销生态协同洞察报告 报告2023-09-18高工智能汽车:车载毫米波雷达行业倒退蓝皮书(2021-2025) 报告2023-09-18毕马威:毕马威中国第六届当先汽车科技50 报告2023-09-15仲量联行:2023中国新能源汽车供应链前瞻报告:解构新时代整零关系 报告2023-09-13中国汽车工程学会:中国智能汽车产业倒退与瞻望 报告2023-09-13路特斯科技&普华永道:2023智能网联汽车数据安全合规白皮书 报告2023-09-11艾普思征询:2023上半年中国汽车投诉洞察报告 报告2023-09-11汽车之家:2023中国纯电新能源汽车秋季报告-汽车行驶及充电行为篇 报告2023-09-10普华永道:2023汽车数字化转型下的数据经营白皮书 报告2023-09-09艾瑞征询:2023年汽车服务平台钻研报告 报告2023-09-09申橙征询:2023汽车工业数字化与XR技术白皮书 报告2023-09-03融文:2023气候变化对细分行业的影响及对策系列报告3:汽车行业低碳转... 报告2023-09-01薪智:2023年汽车行业薪酬报告 报告2023-09-01罗兰贝格:硅步千里致胜卓越-2023新能源汽车批发体验洞察报告 报告2023-08-30飞驰云联:2023汽车制造业文件外发数据防透露白皮书 报告2023-08-30自然资源爱护协会:电动汽车充电基础设施建设与经营的优化解决方案:以上海... 报告2023-08-29头豹:2023年中国汽车经销商行业短报告-技术驱动新批发改革-传统经销... 报告2023-08-29极光:2023汽车增换购人群洞察报告 报告2023-08-27乘联会:对于2023年上半年促成新能源汽车产业高质量倒退的相干政策综合... 报告2023-08-26工业和信息化部 :国家车联网产业规范体系建设指南(智能网联汽车)(20... 报告2023-08-25磁力引擎&极光:2023快手汽车行业报告 报告2023-08-24蔡司&NE时代:2023新能源汽车电池质量保证白皮书 报告2023-08-21思略特:2023年第二季度电动汽车销售回顾报告 报告2023-08-21薪智:2023新能源汽车行业人才趋势洞察 报告2023-08-19IBM&e-works:2023汽车行业数字化转型报告 报告2023-08-19头豹:2023年中国新能源汽车产业系列钻研报告-汽车一体化压铸(上)-... 报告2023-08-18中国人才研究会汽车人才业余委员会:2023年中国智能网联汽车软件研发人... 报告2023-08-16智慧车联产业生态联盟:2023年手机-汽车互联性能体验测评报告 报告2023-08-16中国人才研究会汽车人才业余委员会:2022年汽车行业薪酬对标报告 报告2023-08-15中国人才研究会汽车人才业余委员会:碳中和背景下氢能及燃料电池人才钻研报... 报告2023-08-14中国汽车工业协会:2022年汽车工业经济运行报告 报告2023-08-11普华永道:2023年寰球工业制作、工程、商业服务与汽车行业并购趋势:中... 报告2023-08-11罗兰贝格:汽车行业线下触点治理白皮书 报告2023-08-09360智慧商业:2023年新能源汽车行业洞察报告 报告2023-08-08汽车之家研究院:2023年Q2保值率报告 报告2023-08-07美云智数:2023年上半年汽车行业剖析蓝皮书(简版) 报告2023-08-07全国工商联:2022汽车经销商对生产厂家满意度调研暨汽车经销商生存情况... 报告2023-08-06薪智:2023新能源汽车行业薪酬报告 报告2023-08-05中国人才研究会汽车人才业余委员会:新生态背景下汽车企业技能人才岗位和能... 报告2023-08-04斑马技术:2023年汽车生态系统愿景钻研报告 报告2023-08-04中国汽车动力电池产业翻新联盟:2023-2025年动力电池产业高质量发... 报告2023-08-03罗兰贝格:第13期汽车行业颠覆性数据探测 报告2023-08-03中国联通:2023年5G+汽车智造技术白皮书 报告2023-07-31思略特:2023汽车行业营销数字化行业察看报告 报告2023-07-31汽车之家研究院:2023年新能源车主充电体验洞察报告 报告2023-07-31罗兰贝格:2023汽车行业线下触点治理白皮书 报告2023-07-31中汽核心:2023中国智能网联汽车技术规程C-ICAP专项测评钻研报告 报告2023-07-27CAICV:智能网联汽车电子电气架构产业技术路线图 报告2023-07-25普华永道:2023年数字化汽车报告 报告2023-07-24精真估:2023年上半年中国汽车保值率报告:一面狂热 一面冷峻 报告2023-07-24罗兰贝格:2023汽车行业颠覆性数据探测-“按需性能专题研究”报告 报告2023-07-23CADCC:2022中国汽车经销商满意度调研暨生存情况调研报告 报告2023-07-22焉知:智能电动汽车科技月刊(2023年6月刊) 报告2023-07-20罗兰贝格:2023寰球汽车供应链外围企业竞争力白皮书 报告2023-07-20凯度:从制作到发明中国汽车品牌的寰球之道 报告2023-07-20德勤&小红书:拥抱变局直面用户-2023汽车行业营销新增量摸索 报告2023-07-10汽车之家:2023汽车定制改装行业倒退白皮书 报告2023-07-09马士基:强势赋能新能源汽车电池供应链 报告2023-07-04汽车之家:汽车品牌影响力钻研(2022版) 报告2023-07-03德勤:到2035年的汽车挪动的将来-挪动服务提供商在将来的价值链中可能... 报告2023-06-29守业邦:2023年汽车智能座舱行业钻研报告 报告2023-06-28易观剖析:2023中国汽车生产新趋势洞察 报告2023-06-27艾瑞征询:2023年中国汽车出海钻研报告 报告2023-06-27中国汽车流通协会:对于进一步激励和促成汽车生产的相干政策剖析及倡议 报告2023-06-26求信征询:2023年1-5月 汽车市场剖析报告 报告2023-06-26电动汽车用户联盟:2023特斯拉Model Y用户满意度调研报告 报告2023-06-25沙利文:2022年中国汽车云市场追踪报告 报告2023-06-21微播易:2023新能源汽车品牌营销玩法与策略解法 报告2023-06-18汽车之家研究院:2023年第一季度中国汽车保值率排行榜报告 报告2023-06-16毕马威:中国新能源汽车筑梦欧洲 报告2023-06-13许战海征询:2023中国汽车行业新能源转型策略白皮书 报告2023-06-11腾讯广告:2023汽车经销商视频号经营手册 报告2023-06-09智次方:2023年中国智能网联汽车产业洞察暨生态图谱报告 报告2023-06-08巨量引擎:2023汽车行业一站式经营白皮书 报告2023-06-02绿色战争:时机与改革:次要汽车制造商在中国的乘用车产能布局与市场需求匹... 报告2023-05-30世研指数:2022汽车品牌影响力指数报告 报告2023-05-28盖世汽车研究院:2022中国主动驾驶初创企业投融资系列报告-ADAS供... 报告2023-05-28艾普思:2023智能汽车市场及品牌倒退洞察报告 报告2023-05-26NADA:2022年度美国汽车行业受权经销商报告 报告2023-05-25工业和信息化部配备工业倒退核心:2023乘用车企业均匀燃料消耗量与新能... 报告2023-05-23中国信通院:2023智能网联汽车应用服务市场钻研报告 报告2023-05-21汽车之家:2023智能汽车发展趋势洞察报告 报告2023-05-21乘联会:2023年汽车终端市场剖析及瞻望报告 报告2023-05-19DDI:制作行业人才倒退成功实践手册-汽车 报告2023-05-15小红书:小红书汽车行业618种草指南 报告2023-05-14罗兰贝格:中国汽车行业企业组织变革转型之路(2023) 报告2023-05-13IEA:2023年寰球电动汽车瞻望 报告2023-05-11Dealroom:2023年英国电动汽车电池技术报告 报告2023-05-11Brand Finance:2023年汽车品牌价值排行榜 报告2023-05-11赛瑞钻研:2022年寰球新能源汽车发展趋势报告 报告2023-05-10中国信通院:智能网联汽车应用服务市场钻研报告 报告2023-05-07云捷亮数:风波车2023-新能源汽车及用户调研剖析报告 报告2023-05-07普华永道:2022年中国汽车行业并购流动回顾及将来瞻望:稳中有进复苏加... 报告2023-05-07埃森哲:软件定义汽车驶入疾速道(2023) 报告2023-05-05嘉实:2023多电动汽车制作可继续供应链趋势报告 报告2023-05-03广汽资本:变革时代:新能源汽车行业趋势及投资洞察蓝皮书 报告2023-04-28思略特:2023年数字化汽车报告 报告2023-04-26汽车之家研究院:中国新能源汽车平安倒退报告 报告2023-04-24中国软件评测核心:智能网联汽车平安浸透白皮书3.0 报告2023-04-23中汽核心:中国区域汽车产业钻研情报-汽车行业洞察2023 报告2023-04-22中国电子信息产业倒退研究院:智能网联汽车平安浸透白皮书3.0 报告2023-04-22新生代市场监测机构:新新权势退场-零跑汽车的用户与企业察看 报告2023-04-22脉脉:2023新能源汽车中高端人才趋势洞察报告 报告2023-04-22哔哩哔哩&克劳锐:2023年Z世代新能源汽车趣味洞察报告 报告2023-04-21头豹:2023年中国汽车数字化转型生产制作行业词条报告 报告2023-04-19盖世汽车研究院:2023上海国内车展展前报告 报告2023-04-19猎聘:汽车产业紧缺人才趋势察看2023 报告2023-04-18罗兰贝格:智能汽车软件白皮书-单车价值翻倍,软件集成服务或成支流 报告2023-04-17智慧芽:新能源汽车行业续航能力技术剖析报告 报告2023-04-16巨量算数:2023中国新能源汽车趋势洞察报告 报告2023-04-16LABS3.io:Web3元宇宙汽车行业利用数据报告 报告2023-04-13罗兰贝格:中国汽车品牌白皮书-制胜行业“下半场”:汽车品牌减速转型重构 报告2023-04-09车质网:2022汽车消费者权利爱护年度报告 报告2023-04-08巨量引擎:抖音汽车终端一站式经营指南 报告2023-04-03奥纬征询:奢华汽车驶入智能减速道-寰球奢华与超奢华汽车市场前景瞻望20... 报告2023-04-02赛博汽车:2023年3月智能汽车月报 报告2023-04-01艾瑞征询:中国汽车行业数字化转型解决方案白皮书 报告2023-03-31汽车之家研究院:2022四季度中国汽车保值率排行榜 报告2023-03-30艾瑞征询:2023年中国汽车行业数字化转型解决方案白皮书 报告2023-03-30汽车之家研究院:2022年度中国新能源汽车运行与电池体现洞察 报告2023-03-28罗兰贝格:智能汽车软件白皮书 报告2023-03-28新生代市场监测机构:柳暗花明又一村?-小鹏汽车倒退浅谈 报告2023-03-26翎仕优:中国新能源汽车行业之传感器剖析 报告2023-03-24月狐数据:2022年汽车资讯行业洞察报告 报告2023-03-19汽车之家研究院:2022乘用车市场十大趋势 报告2023-03-18头豹:汽车仿真技术 报告2023-03-17资本实验室:2022寰球新能源汽车产业全景察看 报告2023-03-16易车研究院:老用户保卫战迎来最初大决战-汽车行业品牌忠诚度洞察报告(2... 报告2023-03-16头豹:汽车变速箱 报告2023-03-16月狐数据:汽车资讯平台转型降级(2023) 报告2023-03-14火石发明:2022年度中国新能源汽车产业倒退洞察报告 报告2023-03-14智慧芽:新能源汽车行业续航能力技术剖析报告 报告2023-03-13新生代市场监测机构:中国汽车市场新变局-由比亚迪到长城的启发 报告2023-03-13威尔森:2023年1月份新能源汽车行业月报 报告2023-03-13新生代市场监测机构:“车界海底捞模式”到底能走多远?-蔚来汽车倒退漫谈 报告2023-03-12BCG:汽车工业芯片瞻望 报告2023-03-09精真估:2023年2月中国汽车保值率报告 报告2023-03-08波士顿征询:汽车工业芯片瞻望 报告2023-03-08人物博库:2022年新能源汽车行业人群洞察报告 报告2023-03-07凯捷:汽车行业的可继续倒退-从指标到口头(2023) 报告2023-03-07易车研究院:2023吉利汽车市场竞争力剖析报告 报告2023-03-06亚马逊云科技:智行千里-汽车行业全面拥抱AI智能时代 报告2023-03-06ACEA:REACH汽车工业指南 报告2023-03-06数据安全推动打算:智能网联汽车数据分类分级实际指南(2022年) 报告2023-03-05德勤:构建载重汽车行业供应商生态系统(2023) 报告2023-03-05新榜:2022微信视频号汽车内容生态报告 报告2023-03-04德勤:2023年寰球汽车消费者考察--中国篇 报告2023-03-04唐硕:2022新能源汽车服务-要害体验MOT报告 报告2023-03-03小红书:“小红书汽车行业月报2023年1月 报告2023-03-01德勤:2023年寰球汽车行业消费者考察-要害发现,寰球焦点国家(中英版... 报告2023-03-01神策数据:2022汽车行业数字化经营白皮书 报告2023-02-27木卫四:智能网联汽车平安经营核心最佳实际(性能篇)(2023) 报告2023-02-27星车场:2022汽车经销商私域经营白皮书 报告2023-02-23高工智能汽车:高阶智能驾驶行业倒退蓝皮书(2021-2025) 报告2023-02-21普华永道:2022年寰球并购行业趋势回顾及2023年瞻望-工业制作、工... 报告2023-02-19埃森哲:重塑汽车体验 报告2023-02-19汽车之家研究院&盟宠星球:2023年养宠人群生产与汽车偏好洞察 报告2023-02-19GSI增长策略研究院:中国汽车市场新变局-由比亚迪到长城的启发 报告2023-02-19汽车之家研究院&罗兰贝格:汽车人群洞察与购车决策白皮书 报告2023-02-17智联招聘:中国新能源汽车人才供需白皮书(2022年) 报告2023-02-13罗克韦尔:自动化新能源汽车及动力电池行业白皮书 报告2023-02-13克劳锐:2022年度汽车品牌声量盘点报告 报告2023-02-13中国汽车工业协会:电动汽车平安指南(2022版) 报告2023-02-12罗兰贝格:2022年寰球汽车零部件供应商钻研 报告2023-02-11罗兰贝格:2022年寰球汽车供应商钻研 报告2023-02-08亿欧智库:比亚迪新能源汽车策略布局钻研报告 报告2023-02-07头豹:2022年中国功率半导体(IGBT)行业钻研-新能源汽车+充电桩... 报告2023-02-07中汽核心:中国汽车产业2022年总结与2023年瞻望 报告2023-02-05猎聘:2022汽车行业人才数据报告 报告2023-02-05德勤:2025年汽车供应商瞻望 报告2023-02-04中国汽研:2023年国内汽车产业环境扫描 报告2023-02-03亿欧智库:2022-2023中国智能电动汽车外围零部件需要与供应钻研 报告2023-02-01头豹:2022年中国专精特新系列钻研报告-汽车行业-解读汽车行业“小巨... 报告2023-02-01Vehicle:CES2023解读报告汽车与科技行业察看报告 报告2023-02-01精真估:2022年度中国汽车品牌保值率报告 报告2023-01-31速途车酷研究院:2023中国新能源汽车出海趋势剖析报告 报告2023-01-30赛迪:中国新能源汽车产业发展趋势研判 报告2023-01-29中国汽车工程学会:2023年中国汽车技术趋势报告 报告2023-01-28汽车之家研究院:2022年乘用车市场总结及2023年趋势报告 报告2023-01-27易观剖析:2022年中国汽车智能网联云服务剖析 报告2023-01-25亿欧智库:2022中国智能电动汽车产业倒退蓝皮书 报告2023-01-25麦肯锡:麦肯锡中国汽车行业CEO特刊-驶向2030-汽车行业竞速赛 报告2023-01-25麦肯锡:2023麦肯锡汽车消费者洞察:大鹏一日同风起,扶摇直上九万里 报告2023-01-25哔哩哔哩:驶入年轻人的车世界-2023年B站汽车行业营销通案 报告2023-01-25罗兰贝格:2022年中国汽车金融报告 报告2023-01-16中国汽车工业协会:2022年汽车工业产销状况 报告2023-01-15毕马威:汽车营销与研发数字化交换 报告2023-01-14亿欧智库:比亚迪新能源汽车策略布局钻研报告 报告2023-01-13汽车之家:智能软件服务-汽车行业新盈利点摸索 报告2023-01-13绿色战争:2022中国次要汽车集团低碳化转型体现 报告2023-01-13头豹:2022年中国汽车畛域非金属增材制作行业概览-增材制作与汽车的碰... 报告2023-01-12汽车之家&21世纪经济报道:2022中国城市新能源汽车倒退指数 报告2023-01-12麦肯锡:2023麦肯锡中国汽车行业CEO特刊 报告2023-01-09中汽核心:新能源汽车动力电池技术将来瞻望 报告2023-01-08拉勾招聘:2022年智能汽车行业数字化人才白皮书 报告2023-01-08中国人才研究会汽车人才业余委员会:智能网联汽车大学生人才现状钻研 报告2023-01-07易观剖析:2022年双碳背景下汽车行业倒退洞察 报告2023-01-03月狐数据:2022年汽车行业数字化营销趋势洞察报告 报告2023-01-01易观剖析:2022年第三季度汽车品牌智能网联竞争力指数(ICVCI)分... 报告2023-01-01

February 19, 2024 · 2 min · jiezi

关于人工智能:Zilliz-Cloud-再发新版本性能提升超-10-倍AI-应用开发流程再简化

Zilliz Cloud 再发新版本! 本次新版本的次要内容包含:大幅晋升的向量搜寻性能(性能晋升 10 倍以上)、企业级数据安全和无缝数据集成。新版本公布后,用户无需自定义代码,便可疾速顺畅地实现非结构化数据处理和索引。此外,Zilliz Cloud 将无效帮忙用户节省成本,简化领取和洽购流程。 以下为本次公布的新个性一览: Cardinal 搜索引擎正式上线了与 Milvus 2.3 雷同的性能基于角色的访问控制和权限治理(RBAC)Databricks Connector反对 Google Cloud Marketplace 订阅其余数据安全方面更新 01. Cardinal 搜索引擎:搜寻速度晋升 10 倍,数据容量晋升 50%Cardinal 是用古代 C++ 语言和实用的近似最近邻搜寻(ANNS)算法构建的多线程、高效率向量搜索引擎。它同时可能解决暴搜申请和 ANNS 索引批改申请;解决各种数据格式,包含 FP32、FP16 和 BF16。Cardinal 搜索引擎强调速度和效率,可能在无限的资源内解决更多用户申请。 在推动 Cardinal 引擎翻新的过程中,咱们始终保持推动异构计算的准则。团队对算法进行调优,采纳了针对计算密集型操作优化的 low-level 内核,并确保反对多种硬件,包含 x86 和 ARM。Cardinal 利用 x86 的 AVX-512 扩大和 ARM 的 NEON 及 SVE 指令集等尖端技术,提供针对高效计算优化的代码。这些改良保障了 Cardinal 可能时刻全力运行,是行业内最快的向量搜索引擎。 有了 Cardinal 搜索引擎的加持,Zilliz Cloud 实现了 10 倍性能晋升(与开源 Milvus 相比),可能实现超快的查问速度外加高召回率。无论是解决大型数据集还是对疾速响应有高要求,Cardinal 都能为此保驾护航,晋升用户体验,晋升 AI 利用的竞争力。 “Zilliz Cloud 的性能给咱们留下了粗浅的印象,它在数据负载大的状况下尤为杰出!”Picdmo 的 CEO 兼创始人Alex Alexander 称誉道,“采纳 Cardinal 搜索引擎后,Zilliz Cloud 性能比上一个版本晋升了 2 倍,搜寻查问的速度和效率更惊人!此外,Zilliz Cloud 还提供加强数据安全保障。得益于 Zilliz Cloud,咱们搭建的以图搜图利用性能变得更弱小了。” ...

February 19, 2024 · 2 min · jiezi

关于人工智能:星纪魅族宣布-All-in-AI欧盟将首次对苹果处以罚款丨-RTE-开发者日报-Vol146

开发者敌人们大家好: 这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。咱们的社区编辑团队会整顿分享 RTE (Real Time Engagement) 畛域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有思考的 文章 」、「有看点的 会议 」,但内容仅代表编辑的个人观点,欢送大家留言、跟帖、探讨。 本期编辑:@CY,@Cynthia 01 有话题的新闻1、魅族发表将进行传统「智能手机」新我的项目,向 AI 畛域转型 北京工夫 2 月 18 日,魅族发表 All in AI,将进行传统「智能手机」新我的项目,全力投入「明日设施」AI For New Generations。 魅族示意,以后,随着寰球手机市场换机周期缩短、生产翻新空间无限、行业恶性竞争加剧,手机行业正面临着前所未有的挑战。同时,手机产品单纯依赖硬件降级和参数竞争,已无奈满足宽广消费者多样化、全面化的应用需要和应用体验,行业亟需寻找新的可继续倒退方向。 魅族称,通过两年的团队磨合、资源配置、产品布局以及相干技术的充沛预研,魅族目前已具备向 AI 畛域全面转型的能力。作为一家全面倒退的科技生态公司,魅族领有欠缺的研发和供应链等硬件团队,同时还领有体系化开发、设计、交互的软件团队,这将为魅族 All in AI 提供松软的技术支持和服务保障。 对此,前魅族高管、怒喵科技创始人李楠评估称感到快慰。他示意:「必须换赛道。年前做了很多的工作,很快慰魅族的信心是动摇的。不换赛道没有前途,那些做着手机扯 AI 的品牌,才显著是噱头。魅族手机,到了应该终结的时候了。就是缺一个比拟隆重的句号。另外,之前说的 Open All Hardware For AlI LLM 也有眉目了,能够期待一下。」(@IT 之家) 2、寰球用户付费最多的 APP:抖音在制裁下位居第一 2 月 18 日音讯,据媒体报道,数据考察公司 data.ai 对寰球和各国用户付费额最高的 APP 进行了排名,抖音国际版(TikTok)在以美国为核心的制裁下仍位居寰球第一。该公司统计了谷歌利用商店“Google Play”和苹果利用商店“App Store”的 APP 内付费金额进行估算,在中国仅统计了 App Store 的金额,并最终得出排名。 ...

February 19, 2024 · 2 min · jiezi

关于人工智能:探索AI视频生成新纪元文生视频Sora-VS-RunwayMLPika及StableVideo谁将引领未来

摸索AI视频生成新纪元:文生视频Sora VS RunwayML、Pika及StableVideo——谁将引领将来 因为在AI生成视频的时长上胜利冲破到一分钟,再加上演示视频的高度真切和高质量,Sora立即引起了轰动。在Sora横空出世之前,Runway始终被视为AI生成视频的默认抉择,尤其是自去年11月推出第二代模型以来,Runway还被称为“AI视频界的MidJourney”。第二代模型Gen-2不仅解决了第一代AI生成视频中每帧之间连贯性过低的问题,在从图像生成视频的过程中也能给出很好的后果。 Sora最震撼的技术冲破之一在于其输入的视频时长。Runway可能生成4秒长的视频,用户能够将其最多缩短至16秒,是AI生成视频在2023年所能达到的最长时长纪录。Stable Video也提供4秒的视频,Pika则提供3秒的视频。在这一方面,Sora以1分钟的时长向竞争对手们提出了挑战。实质上,Sora和Pika、Runway采纳了类似的底层模型,即Diffusion扩散模型。不同之处在于,Sora把其中的实现逻辑进行了变动,将U-Net架构替换成了Transformer架构。 1.文生视频成果展现比照:1.1 sora之前模型成果 StableVideo成果展现 能够看到成果个别能比拟显著看出差异 1.2 支流视频生成模型比照[Sora VS RunwayML、Pika] 让机器生成视频,难点在于“真切”。比方一个人在同一个视频里的长焦和短焦镜头里外观不会变动;随着镜头转动,站在山崖上的小狗应该跟山崖保持一致的挪动;咬一口面包,面包就会少一块并呈现牙印……这些逻辑对人来说仿佛不言而喻,但AI模型很难领悟到前一帧和后一帧画面之间的各种逻辑和关联。 首先要强调下生成式AI模型跟传统信息检索的区别。传统检索是按图索骥,从数据库固定地位调取信息,准确度高,但不具备触类旁通的能力。而生成式AI模型不会去记住数据自身,而是从大量数据中去学习和把握生成语言、图像或视频的某种办法,产生难以解释的“涌现”能力。 图源:https://twitter.com/samsheffer/status/1758205467682357732_ 当然,随着 Sora 退出这场视频生成畛域的和平,受到冲击最大的是同类竞品模型,比方 Runway、Pika、SDV、谷歌和 Meta。看到 Sora 的生成成果之后,很多人认为,Sora 对这些「前辈」来了一波降维打击。事实真的如此吗?有推特博主曾经做了比照。 这位博主给 Sora、Pika、Runway、Stable Video 四个模型输出了雷同的 prompt: 漂亮、白雪皑皑的东京熙熙攘攘,镜头穿过熙熙攘攘的城市街道,追随几个人享受漂亮的雪天,在左近的摊位购物,壮丽的樱花花瓣随着雪花随风飘扬。能够看到,相比于其余三个视频生成模型,Sora 在生成时长、连贯性等方面都有显著的劣势。 图源:https://twitter.com/gabor/status/1758282791547232482_ 这样的比照还有很多,比方输出雷同的 prompt「一窝金毛幼犬在雪地里游玩,它们的头从雪中探出来,被雪笼罩。」 图源:https://twitter.com/DailyUpdatesNet/status/1758646902751670355_ 再比方输出雷同的 prompt「几只微小的毛茸茸的猛犸象踏着白雪皑皑的草地走来,长长的毛毛在风中微微飘动,远处笼罩着积雪的树木和宏伟的雪山,午后的阳光、缕缕云彩和远处高高的太阳营造出和煦的光辉,低相机视线令人惊叹地捕捉到了大型毛茸茸的哺乳动物与漂亮的摄影,景深。」 尽管 Runway 和 Pika 体现都不错,但 Sora 的生成品质具备压倒性的劣势。 图源:https://twitter.com/keitowebai/status/1758384152670577136_ 还有人比照了 Pika 1.0(去年四月)与 Sora,感叹不到 1 年的工夫,AI 生成视频曾经产生了天翻地覆的变动。 原视频:https://twitter.com/QuintinAu/status/1758536835595124910_ 与此同时,更多创作者也晒出了他们应用 Sora 生成的视频,进一步验证了 Sora 的超强视频生成能力。 比方输出 prompt「一座微小的大教堂里全是猫。放眼望去,到处都是猫。一个男人走进大教堂,向坐在王座上的巨型猫王鞠躬。」 ...

February 19, 2024 · 2 min · jiezi

关于人工智能:AI数字人直播强势出圈24小时无限畅播

数字人直播零碎是基于目前的人工智能技术依据真人形象克隆数字人,各大平台进行直播,目前曾经深刻到很多大品牌的短视频直播应用领域,随同Chatgpt等一系列人工智能技术驱动自然语言解决工具的开发与广泛应用,搭载这一技术的数字人也备受市场青眼。相较于新兴数字人直播,传统直播带货的弊病逐步凸显 利用数字人开启新媒体营销模式的最大劣势就是降本增效,这也是所有企业一直追寻的底层逻辑,如果能够利用最新的技术岂但减低老本投入还能失去更加久远的营销成果,是每个商家所心愿的。 数字人24小时直播的劣势(:zhibo175): 一、不受时空限度,一台电脑就能够做到有限直播 相较于很多顶级大品牌的直播带货在场地、技术、设施上动辄几万甚至几千万的高投入,再加上带货主播的人工成本也可能呈现不现实的带货数据销售业绩;更有一些出名的传媒公司以签约模式造就主播最终合同期满各奔前程而带来的IP资源的散失,甚至对簿公堂,AI数字人在技术上就帮企业防止了上述情况的产生。没有工夫、地点、设施的客观条件制约,不限行业都可应用,只有一台电脑就能够轻松搞定,这对于大多数中小企业来说是一个十分敌对且实惠的新媒体营销形式,在投资老本上的节俭甚至能够用来倒退其余方面的整合推广,保障了营销市场覆盖率的最大化。 二、形象多元化,打造企业专属IP助力品牌久远倒退 短视频是全民打造IP时代,头部网红之所以有更大的名人效应,在很大水平上取决于他们的IP设定,但随同着带货主播市场的一直饱和,往往只有借助头部主播的名人效应才有可能更好的达到营销目标,但同时也随同着老本的一直激增,为了保障产品的流量与曝光度这样的收入也将是长久的。而对于很多小企业来说这样的直播带货甚至是美食探店就变得不切实际了,因而很多中小企业纷纷抉择利用数字人技术打造属于本人品牌的IP形象,基于目前数字人技术的极速更迭,数字人形象也能够依据用户的需要自行创作,甚至能够做到真人一比一复刻,在人工智能技术的加持下将来将会有更多的企业制作出更加深入人心的数字人形象,为品牌的长久倒退注入新的生机和商业价值。 三、搭载工人智能技术,具备更高效的实时互动性,带动用户参与感 通过AI人工智能技术的不断更新欠缺,数字人能够利用语音辨认、自然语言解决技术实现与受众的晦涩互动与沟通,在直播中也能够很好的达到智能回复,反馈受众需要,带动受众的参与度、体验感。并且随着技术创新倒退,数字人甚至能够做到智能AI剪辑、公布等,数字人直播将会在将来的新媒体营销中为受众带来更多惊喜。 四、为企业真正的做到降本增效 节约设施老本:品牌除了雇佣真人主播的老本较高,直播器材设施投入少则也须要一笔将近4-5万元投入的费用。而数字人虚构主播无须要付出设施搭建老本、操作老本,除开一台电脑和一个经营人员外无需其余投入。 长效晋升曝光:真人主播一天超负荷工作,最多也只能维持10小时,超过12小时,膂力和精力都已透支,真人直播无奈提供全天候陪伴。AI数字人虚构主播能够随时上线,进行不间断的信息播报,继续晋升品牌的曝光度,轻松获取各个时间段零散的天然流量。 数字人直播作为当前的电商趋势,24小时不间断直播,不受限制真正的为商家做到降本增效,所以当初入局还不晚哦!

February 19, 2024 · 1 min · jiezi

关于人工智能:数智乡村数字人源码助力乡村振兴

“数智农村”是“数字农村”的降级版本。“数字农村”强调数字技术在农村振兴过程中的利用,“数智农村”则指综合利用人工智能、大数据、区块链、云计算、物联网等数智技术,建设以农村数智操作系统为代表的农村新型基础设施,推动农村产业数智化、农村治理现代化、农村生存智慧化,放慢农业农村现代化。什么是AIGC数字人直播(:zhibo175)?现在,“数字人”商业化利用驶入快车道,数字人短视频直播的呈现、走向成熟的标记之一。时下寰球正掀起一股AI浪潮,进而引发了一场全新技术反动。短视频以其流传便携性、功能性和交互性等多重劣势,迅速成为古代社会情感表白和信息流传的次要媒介。特地是随着挪动互联网的遍及和碎片化信息流传需要的激增,各行各业的内容创作者纷纷涌入视频内容的创作畛域。在这个充斥有限可能性的视频创作畛域,AIGC数字人技术的呈现更是为视频创作、营销和互动带来了前所未有的创意和时机。实景主动播零碎是循环播放提前录制好的语音内容播放,并且实景直播展现,不须要真人出镜,只须要一部手机就能操作,经营成本低。而AIGC数字人直播是一种基于人工智能技术的直播形式,通过应用数字人主播代替传统的真人主播来进行直播的模式。这些数字人主播是由先进的人工智能技术和虚构形象技术所打造而成,具备高度真切的形象、声音和动作体现。两种直播形式的次要区别在于:(1)技术手段不同,无人直播次要依附自动化设施和技术实现,而AIGC数字人直播次要依附人工智能技术实现。(2)互动性不同,无人直播是提前录制好主播要讲的业余话术,对着实在场景进行直播,因为无人直播没有实在人物的互动,互动性较低。而AIGC数字人直播能够通过关键字设置、即时输出内容向观众介绍产品特点、解答疑难,甚至进行实时互动:实时驱动或真人接管;(3)直播体验不同,无人直播通过实在的场景和画面给观众出现实在的感觉和沉迷式体验;而AIGC数字人直播则通过虚构人物的形象和智能互动,提供更加个性化和虚拟化的直播体验。AIGC数字人的智能交互性能使其可能实时与观众进行语音和文字交换,观众能够与数字人进行互动,参加各类流动。观众能够与数字人进行互动,参加各类流动,加强了用户粘性,为商业模式注入新的生机。“真人+AIGC数字人”直播带货曾经成为电子商务的新模式、新范式。虚构主播经济的倒退也为用户发明了更多的参加和互动机会。通过参加虚构主播的直播流动,观众能够取得丰盛的处分和福利,加强了用户参加的积极性。同时,AIGC数字人还能够依据用户的趣味和爱好进行个性化举荐,为用户提供更加个性化和感兴趣的内容,减少了用户的观看时长和粘性。数字技术的利用正在逐步扭转农业生产的传统模式,推动农业向数字化、智能化方向倒退。作为一种新型的流传和营销转化形式,AIGC数字人直播在农村振兴中具备宽泛的利用前景和后劲。通过AIGC数字人直播,能够促成农业产业降级、农村文化传承和治理现代化等方面的过程,推动农村振兴策略的施行和倒退。农业农村农民问题是关系国计民生的根本性问题,电商作为新兴业态,既能够采购农副产品、帮忙大众脱贫致富,又能够推动农村振兴,是大有可为的。以中央外乡县域(乡镇)产能为底层依靠,数字科技技术为辅助,造成“产业+科技+人才”电商直播“新农人”“真人+AIGC数字人”融媒直播和短视频矩阵体系,联合中央打造本身独属的“产业倒退典型带头人IP”,让外乡人代表外乡,并打造造成具备区(县)域特色“文化+产品+游览”的数字人直播电商矩阵和短视频内容阵地,推动一二三(农文旅)产业和数实交融倒退,丰盛农村经济业态,拓展农民增收空间,讲好他乡故事,推介美景好物。数字技术的利用,对于晋升农产品知名度、优化农产品品牌形象至关重要。以后,科技助农曾经成为农村振兴重要倒退方向,相干畛域企业通过一直对“老本、效率、体验”的打磨,升高技术应用门槛,让AIGC成为了数智农村的“新农具”。激活内力,用好外力,产融内循环,经济外循环,品牌走进来,资源引进来,“科技+产业+人才”短视频+电商直播“新农人”兴乡助农共富!

February 19, 2024 · 1 min · jiezi

关于人工智能:AI数字人直播系统的作用及如何搭建

你是否常常看到那些可能晦涩自信地在直播间展现本人的主播们?你是否刷短视频的时候也看到过摆着几十台手机,许多主播在惟妙惟肖的直播解说,而直播间却空无一人?不必诧异,这就是最新的,AI数字人直播悄悄登上往年最大的风口我的项目,劣势也是一览无遗,所以更多的企业都会抉择本人独立部署数字人源码 AI数字人直播零碎(:zhibo175)是一款基于最先进的人工智能技术开发的全新产品。它可能模仿实在主播超真切表情,AI数字人直播零碎能够为你带来真切的表情动作,好像能感触到主播身边的每一个轻微变动。无论是欢快的笑容、复原的深思还是热烈的解说,AI数字人主播将以实在的表情展示给观众,让你彷佛置身其中!领有创意百变的形象,AI数字人直播零碎源码提供有限克隆数字人,克隆多形象的数字人,从可恶的动漫角色到知性的专业人士,你能够依据不同主题和场景自由选择。 设想一下,你能够在直播中化身为任何你想成为的人物,展示真我,开释共性! 还领有独具魅力的声音,AI数字人直播零碎能够输入最多140种语言,服务寰球用户,可抉择301种音色,还能够克隆进去你的专属音色,满足不同类型的主播需要。无论是声音的音量、音调还是语速,都能够依据场景和须要作出个性化调整。这样,你的直播声音将更加丰满、有爆发力,满足观众对于声音的不同需要! 另外AI数字人直播是还能够关注弹幕动静,能够保障实时回复观众音讯有两种形式:真人接管和实时驱动,让观众齐全体验是真人直播的感觉。无论是想分享美妆心得、还是美食讲解,亦或是直播带货,这个零碎都可能为你打造出完满的数字形象!而这个零碎的胜利运行的要害就是数字人SaaS直播零碎源码。 一套源码造就一个行业,在部署本人的数字人直播零碎源码时,首先就要找业余的公司搭建,业余的人干业余的事,青否数字人都是业余的运作团队,业余的话术培训,弱小的核心技术,能够更快的帮忙企业轻松打造品牌形象,关上直播市场。数字人直播属于当下最炽热的直播形式,许多企业都在尝试该办法,省去了人工成本的同时还能够关上市场,做AI直播的领头羊。 有些有想法想要代理数字人品牌的创业者,这边小编倡议还是不要有这样的念头,毕竟做代理的费用很高,十万到几十万不等,而且还是用他人的品牌,无奈让本人在市场上站稳脚跟。倒不如部署一套本人的直播零碎源码,间接买断,还能够有限生成AI数字人,有限直播时长,本人做本人的品牌,到时不必还能够卖出,这比代理来的性价比不是高得多吗?如何搭建:数字人直播带货软件如何搭建? 须要筹备的工作: 1、电脑设备(仅需电脑即可) 2、下载好各个平台的直播软件;如淘宝直播、抖音直播伴侣、OBS推流等 3、AI数字人直播带货软件系统 最初,装置好各个平台软件当前关上“AI数字人主播软件系统”设置视频调整分辨率,一次性录入产品信息、图片、短视频素材、产品介绍话术、常见问题,开播就行。 在直播行业疯狂内卷的同时,的这匹黑马杀出了一条路,不过这个办法的可行性还是须要本人去尝试,毕竟AI数字人守业的蓬勃期每个人都想成为第一个吃蛋糕的人。

February 19, 2024 · 1 min · jiezi

关于人工智能:离谱用ChatGPT进行审稿

离谱!用ChatGPT进行审稿!关注微信公众号: DeepGoAI 在这个信息爆炸的时代,AI曾经跑到了学术会议的后盾,偷偷摸摸地开始“帮忙”审稿了! 最近,一位传授的LinkedIn动静堪称是火了一把,他的论文被一个学术会议回绝了,而起因居然是……审稿人仿佛交给了ChatGPT全权处理!是的,那位审稿人可能在享受咖啡时,让AI来实现了“沉重”的工作。后果,这篇评论简直和ChatGPT的作文格调截然不同,连个标点符号的地位都没改! 这种“复制粘贴”的审稿形式,让人不禁想问:咱们的AI小助手是不是太无能了点?或者说,咱们是不是该给它们放个假,让它们也学会什么是“人类的触感”?看来,在咱们观赏机器学习带来的便当的同时,兴许还得给它开个“道德与责任”的辅修课。毕竟,学术审稿这么庄重的事件,怎能让机器一言堂呢? 下次当你的论文被某个神秘的AI审稿人“青眼”时,别忘了,这可能只是一场由数字形成的梦幻泡影。唤醒审稿人类吧,让真正的思考回到学术的殿堂! 以下是内容原文: 这里大抵是说这位老师从一个学术会议收到的论文评审意见,评审后果是“强烈回绝”。这位传授认为这很蹩脚,但有时会产生(也比拟常见,狗头)。特地值得注意的是,这位传授99.9%确定这次评审齐全是由ChatGPT实现的。因为在收到拒稿意见时,这位传授将整篇论文文本复制粘贴到ChatGPT中,并申请对论文进行一段摘要,失去的摘要与评审意见中的“论文奉献”局部简直统一,只是在某些中央更换了一些单词。还有一些意见就是很含糊的润色语法之类的(然而这位传授是北美native speaker...)。 这段评审意见过于含糊且很可能由语言模型生成。他曾经分割了会议组织者(明确示意组织者并无责任)并期待回复。这位传授揭示,这种状况正在学术界产生,很可能很快也会产生在你身上,倡议大家保持警惕。 吐槽链接在此:https://www.linkedin.com/posts/david-churchill-41171730_chatg... 关注微信公众号: DeepGoAI

February 18, 2024 · 1 min · jiezi

关于人工智能:2411-相机内参标定

相机内参标定更多内容,请关注:github:https://github.com/gotonote/Autopilot-Notes.git 相机内参标定次要是为了获取相机自身的性质参数,包含相机的焦距,光心以及畸变参数等。 内参的物理意义与相机模型强相干,罕用的相机成像模型为小孔模型,等效焦距与光心用数学可示意为一个矩阵 $$ \left[\begin{matrix}f_x & 0 & c_x \\0 & f_y & c_y \\0 & 0 & 1 \\\end{matrix}\right]$$ 其中 $f_x$、 $f_y$ 是等效焦距, ${c_x}$、 ${c_y}$ 是光心。 畸变的产生,是因为相机自身不能准确地依照现实的成像模型进行透视投影,即物点在理论的相机成像立体上生成的像与现实成像之间存在肯定偏差,这个偏差就是相机畸变造成的。以常见的小孔成像模型为例,畸变误差次要是径向畸变误差(k1、k2、k3)和切向畸变误差(p1、p2)。 目前业界罕用的相机标定办法是张正友办法, 通过多种位姿摆放的标定板,提取棋盘格角点,计算出相机的内参。 本文由mdnice多平台公布

February 18, 2024 · 1 min · jiezi

关于人工智能:OpenAI-Sora怎么启用详细教程与使用指南OpenAI-Sora怎么启用

OpenAI Sora的启用办法:具体教程与使用指南OpenAI Sora是一种新的AI大模型,能够依据简略的文本提醒生成真切和富裕想象力的60秒视频。用户能够通过以下步骤启用OpenAI Sora: 最新消息:本文是构想的形式,但 Sora 目前还未正式对外上线。后续预计先在 ChatGPT Plus 会员笼罩。 登录OpenAI账户并找到Sora的应用界面。在指定区域输入您的文本形容,能够是一个故事概述、场景形容或是具体的动作指令。点击生成按钮,OpenAI Sora会依据输出的文本提醒生成60秒的视频。OpenAI Sora具备以下特点: 三维空间的连贯性:OpenAI Sora能够生成具备连贯性的场景和静止的镜头,使视频更加实在和晦涩。模仿数字世界的能力:OpenAI Sora能够模仿简单的场景和角色表情,为视频削减更多细节和想象力。精密简单的场景和角色表情:OpenAI Sora能够生成细节丰盛、简单多样的场景和角色表情,使视频更加活泼。OpenAI Sora实用于以下利用场景: 视频制作:OpenAI Sora将颠覆视频制作,实现实在和连贯的时序一致性,扭转整个视频产业。发明内容:OpenAI Sora能够用于发明各种丰盛多样的内容,如广告、动画片等。OpenAI Sora的技术背地: 训练思路:OpenAI Sora通过训练模型实现对文本输出的了解和视频生成能力。技术个性:OpenAI Sora具备模仿数字世界的能力和长期的一致性,在生成视频时表现出色。OpenAI Sora怎么启用的常见问答Q&A问题1:OpenAI Sora 是什么?答案: OpenAI Sora 是一个由OpenAI开发的文字转视频模型。它应用先进的人工智能技术,依据输出的文字描述生成真切的视频场景。用户只需提供简略的文本提醒,Sora 就能输入高质量、富裕想象力的60秒视频。它可能模仿三维空间、角色表情和简单的镜头静止,为用户带来全新的视觉体验。 问题2:OpenAI Sora 能够用来做什么?答案: OpenAI Sora 的应用领域十分宽泛。以下是一些应用示例: 影视制作:Sora 能够大大提高视频制作的效率,节约人力和工夫老本。制片人只需提供文字描述,就可能生成精美的60秒视频,省去了繁琐的拍摄和后期制作过程。广告营销:广告商能够应用 Sora 疾速生成多样化的广告视频,吸引消费者的注意力,晋升品牌形象,促成销售。教育培训:老师能够利用 Sora 制作生动有趣的教学视频,进步学生的学习趣味和参与度。虚拟现实:将 Sora 与虚拟现实技术联合,能够打造更加实在、沉迷式的虚拟世界。问题3:OpenAI Sora 与视频制作有什么关系?答案: OpenAI Sora 在视频制作畛域起到了革命性的作用。传统的视频制作过程须要大量的工夫和人力资源,包含拍摄、剪辑、特效等环节。而应用 Sora,制片人只需提供简短的文字描述,就可能生成精美的60秒视频。这大大缩短了制作周期,升高了制作老本,进步了制作效率。Sora 能够帮忙视频制作人员疾速实现他们的创意,将更多的精力投入到创作和策动上。 如果你想体验 ChatGPT 服务,能够查看这篇文章:ChatGPT4.0降级教程</p></section> 本文由mdnice多平台公布

February 18, 2024 · 1 min · jiezi

关于人工智能:自然语言生成任务中的5种采样方法介绍和Pytorch代码实现

在自然语言生成工作(NLG)中,采样办法是指从生成模型中获取文本输入的一种技术。本文将介绍罕用的5中办法并用Pytorch进行实现。 1、Greedy DecodingGreedy Decoding在每个工夫步抉择以后条件概率最高的词语作为输入,直到生成完结。在贪心解码中,生成模型依据输出序列,一一工夫步地预测输入序列中的每个词语。在每个工夫步,模型依据以后的暗藏状态和已生成的局部序列计算每个词语的条件概率分布,模型抉择具备最高条件概率的词语作为以后工夫步的输入。这个词语成为下一个工夫步的输出,生成过程继续直到满足某种终止条件,比方生成了指定长度的序列或者生成了非凡的完结标记。 这种办法简略高效,每个工夫步只需计算以后条件概率最高的词语,因而计算速度较快。然而因为每个工夫步只思考以后条件概率最高的词语,贪心解码可能会陷入部分最优解,而无奈取得全局最优解。这可能导致生成的文本不足多样性或不精确。 只管贪心解码存在一些局限性,但它依然是许多序列生成工作中罕用的一种办法,特地是在对速度要求较高或者工作较为简单的状况下。 defgreedy_decoding(input_ids, max_tokens=300): withtorch.inference_mode(): for_inrange(max_tokens): outputs=model(input_ids) next_token_logits=outputs.logits[:, -1, :] next_token=torch.argmax(next_token_logits, dim=-1) ifnext_token==tokenizer.eos_token_id: break input_ids=torch.cat([input_ids, rearrange(next_token, 'c -> 1 c')], dim=-1) generated_text=tokenizer.decode(input_ids[0]) returngenerated_text 2、Beam Search束搜寻(Beam Search)是贪心解码的一种扩大,通过在每个工夫步保留多个候选序列来克服贪心解码的部分最优问题。 在每个工夫步保留概率最高的前几个候选词语,而后在下一个工夫步基于这些候选词语持续扩大,直到生成完结。束搜寻通过思考多个候选词语门路,能够在肯定水平上减少生成文本的多样性。 在束搜寻中,模型在每个工夫步会生成多个候选序列,而不是仅抉择一个最优序列。模型会依据以后已生成的局部序列和暗藏状态,预测下一个工夫步可能的词语,并计算每个词语的条件概率分布。 上图的每一步中,只保留两条最可能的门路(依据beam =2),而所有其余都被抛弃。此过程将持续进行,直到满足进行条件,该进行条件能够是生成序列完结令牌或达到最大序列长度的模型。最终输入将是最初一组门路中具备最高总体概率的序列。 fromeinopsimportrearrange importtorch.nn.functionalasF defbeam_search(input_ids, max_tokens=100, beam_size=2): beam_scores=torch.zeros(beam_size).to(device) beam_sequences=input_ids.clone() active_beams=torch.ones(beam_size, dtype=torch.bool) forstepinrange(max_tokens): outputs=model(beam_sequences) logits=outputs.logits[:, -1, :] probs=F.softmax(logits, dim=-1) top_scores, top_indices=torch.topk(probs.flatten(), k=beam_size, sorted=False) beam_indices=top_indices//probs.shape[-1] token_indices=top_indices%probs.shape[-1] beam_sequences=torch.cat([ beam_sequences[beam_indices], token_indices.unsqueeze(-1) ], dim=-1) beam_scores=top_scores active_beams=~(token_indices==tokenizer.eos_token_id) ifnotactive_beams.any(): print("no active beams") break best_beam=beam_scores.argmax() best_sequence=beam_sequences[best_beam] generated_text=tokenizer.decode(best_sequence) returngenerated_text3、Temperature Sampling温度参数采样(Temperature Sampling)罕用于基于概率的生成模型,如语言模型。它通过引入一个称为“温度”(Temperature)的参数来调整模型输入的概率分布,从而管制生成文本的多样性。 ...

February 18, 2024 · 1 min · jiezi

关于人工智能:省时省心一键注册官方GPT账号教程畅享ChatGPT的便捷对话体验

0. 目录1. ChatGPT介绍2. 如何一键注册ChatGPT账号 2.1 开明wildcard虚构信用卡:2.2 应用Wildcard一键注册服务3. 结语随着AI的倒退,ChatGPT也越来越弱小了。它能够帮你做你能想到的简直任何事件,妥妥的生产力工具。 然而,对于许多国内的用户来说,并不能间接应用ChatGPT,不过没关系,明天我就来教大家如何一键注册ChatGPT账号。 1. ChatGPT介绍ChatGPT是一种人工智能语言模型,全称是Chat Generative Pre-trained Transformer。 它的原理就是通过一个巨巨巨巨微小的文本库(通常是间接从互联网上抓来的),让模型通过上千亿个参数重复屡次浏览这些文本。 正所谓读书百遍、其义自见,读了这么多材料后,ChatGPT天然就有了和真人一样的语言能力。 2. 如何一键注册ChatGPT账号步骤概述: 2.1 开明wildcard虚构信用卡:开明一张wildcard虚构信用卡,利用wildcard的一键注册服务,注册chatgpt3.5的账号 开明步骤如下(看着挺多,其实进入网站跟着流程走进行了): 首先点击链接进入 WildCard 一分钟开卡,轻松订阅海内软件服务进入网站首页之后,点击立刻体验而后点击“立刻开卡”而后输出你的手机号码接管验证码(应用邀请码TOGPT4能够在开卡时优惠2美元)而后填写你的个人信息点击下一步,进行支付宝扫码认证(不须要人脸或身份证)支付宝认证完之后,抉择卡片开明的时长(依据集体须要抉择,集体举荐两年的,比拟划算)。领取之后须要几分钟的工夫期待开明胜利。开明胜利之后就能够应用虚构信用卡来订阅服务了,间接在订阅的中央,把上面卡片的信息复制粘贴进去就行了。 2.2 应用Wildcard一键注册服务首先进入wildcard官网,而后点击“我的服务”,能够看到有一个“一键注册OpenAI账户”,而后点击“一键注册” 这个一键注册服务是免费的,大略一美元也就是7人民币每次。付款时,能够通过余额购买或者线上购买。余额购买就是用你的虚构信用卡购买,线上购买就是间接用支付宝进行扫码领取。这两种形式都是能够的,依据集体须要抉择。 购买完之后,会给你提供一个账号和明码,而后你就能够登录并畅快的应用ChatGPT啦~~~ 3. 结语总的讲来,这个一键注册服务用起来还是很不便的。 对于那些怕麻烦、不想本人入手的用户来讲,几分钟的工夫就能搞定,而且价格也不贵,才七块钱,能够说是很不便实惠的。 本文由mdnice多平台公布

February 18, 2024 · 1 min · jiezi

关于人工智能:2024如何订阅Netflix奈飞Netflix奈飞购买教程

【2024】如何订阅Netflix奈飞?Netflix奈飞购买教程Netflix奈飞作为寰球当先的在线流媒体平台之一,领有丰盛的影视资源和独家内容,成为了人们追剧的热门抉择。本文将为您介绍如何订阅Netflix奈飞,并提供具体的购买教程,帮忙您疾速入门。 步骤 1:拜访Netflix奈飞官网首先,关上您的浏览器,并在地址栏中输出Netflix奈飞的官网网址:www.netflix.com。点击“Enter”键后,您将进入Netflix奈飞的官方网站。 步骤 2:创立Netflix奈飞账户在Netflix奈飞的官方网站上,您将看到一个“退出收费试用”的按钮。点击它,您将被疏导至新用户注册页面。 在注册页面上,您须要提供您的电子邮件地址和设置一个明码来创立Netflix奈飞账户。确保您提供的电子邮件地址是无效的,并记住您设置的明码,以便日后登录应用。 步骤 3:抉择订阅打算在胜利创立Netflix奈飞账户后,您将被要求抉择订阅打算。Netflix奈飞提供了不同的订阅选项,包含根底套餐、规范套餐和高级套餐,每个套餐的价格和性能也有所不同。 您能够依据本人的需要和估算抉择适宜您的订阅打算。点击抉择后,您将进入下一步。 步骤 4:抉择付款形式在这一步中,您须要抉择您的付款形式。Netflix奈飞承受多种付款形式,包含信用卡、借记卡、PayPal等。依据您的爱好和方便性进行抉择,并提供相干的付款信息。 请确保您提供的付款信息准确无误,以确保顺利完成订阅流程。 步骤 5:提交付款并实现订阅在抉择了付款形式并提供了相干信息后,您须要点击“提交”或相似的按钮,以实现付款并正式订阅Netflix奈飞。 一旦您实现了付款和订阅过程,您将取得Netflix奈飞的残缺拜访权限,能够开始畅享丰盛的影视资源和独家内容了。 小贴士在订阅Netflix奈飞前,建议您先理解相干的订阅打算和定价信息,以便抉择适宜本人的套餐。如果您心愿在订阅期间享受收费试用,请确保在试用期完结前勾销订阅,以防止被收取费用。如果您有任何与账户、付款或订阅相干的问题,能够在Netflix奈飞的官方网站上寻找帮忙核心或分割客服获取反对和解答。心愿通过这份简略的购买教程,您可能轻松订阅Netflix奈飞,并在其中找到您青睐的影视作品,享受高质量的观影体验! 开明虚构卡首先进入官方网站 WildCard 一分钟开卡,轻松订阅海内软件服务 进入网站首页之后,点击立刻体验,而后点击“立刻开卡” 而后输出你的手机号码接管验证码(应用邀请码TOGPT4能够在开卡时优惠2美元) 而后填写你的个人信息,点击下一步,进行支付宝扫码认证(不须要人脸或身份证) 在支付宝扫码验证之后,抉择开明的时长(依据集体状况抉择,我举荐两年的,性价比更高)。 领取之后须要几分钟的工夫期待开明胜利。而后把上面卡片的信息复制粘贴进去就行了。 本文由mdnice多平台公布

February 17, 2024 · 1 min · jiezi

关于人工智能:OnlyFans创作者与粉丝的独特连接开启全新互动时代

OnlyFans:开启创作者与粉丝交换的新时代OnlyFans是一个在线平台,为创作者提供了一个创收和与粉丝互动的机会。它的独特之处在于,用户能够通过订阅创作者的内容,取得独家、个性化的体验。本文将介绍OnlyFans的特点、劣势和对创作者以及粉丝的影响。 1. OnlyFans的特点OnlyFans的最大特点就是其订阅模式。创作者能够设置订阅费用,并提供独家内容给订阅者。这些内容能够包含照片、视频、文章等各种模式的创作。同时,OnlyFans也反对创作者通过免费私信、提供自定义服务等形式取得更多的支出。 2. OnlyFans对创作者的影响对于创作者来说,OnlyFans提供了一个全新的创收渠道。与其余平台相比,OnlyFans的订阅模式使得创作者能够更好地掌控本人的创作和支出。他们能够依据本人的专长和趣味,创立出更加个性化和专业化的内容,吸引订阅者的关注。 同时,OnlyFans还为创作者提供了更多的自由度。他们能够决定本人的创作方向,不受传统媒体和平台的限度。这使得OnlyFans成为了一个创作者自在表白和展现个人风格的平台。 3. OnlyFans对粉丝的影响对于粉丝来说,订阅OnlyFans能够取得更加独特和个性化的内容体验。他们能够更加深刻地理解本人喜爱的创作者,和他们建设更加严密的连贯。通过OnlyFans,粉丝能够与创作者进行互动,提供反馈和倡议,成为创作过程的一部分。 此外,订阅OnlyFans也是一种对创作者的反对和认可。粉丝能够通过领取订阅费用,间接反对他们喜爱的创作者,使他们可能持续进行创作并提供更多优质内容。 4. OnlyFans的挑战然而,OnlyFans也面临一些挑战和争议。因为平台的开放性,有些创作者可能会公布过于露骨或令人不适的内容,引发社会舆论争议。同时,OnlyFans也须要更加严格的内容审核和用户治理,以放弃平台的良好形象和用户体验。 总结OnlyFans作为一个提供个性化订阅服务的平台,为创作者和粉丝之间搭建了一个互动和创收的桥梁。它的呈现使得创作者能够更加自在地表白本人,粉丝也能够取得更加独特的内容体验。然而,平台也须要面对一些挑战,以保持良好的形象和用户体验。OnlyFans的呈现,标记着创作者与粉丝互动的新时代的到来。让咱们刮目相待,期待它的进一步倒退和翻新。 如果你想体验 OnlyFans,能够查看这篇文章:轻松退出OnlyFans世界:一站式订阅与领取指南!把握应用虚构卡的订阅技巧</p></section> 本文由mdnice多平台公布

February 17, 2024 · 1 min · jiezi

关于人工智能:机器学习中的10种非线性降维技术对比总结

降维意味着咱们在不失落太多信息的状况下缩小数据集中的特色数量,降维算法属于无监督学习的领域,用未标记的数据训练算法。 只管降维办法品种繁多,但它们都能够归为两大类:线性和非线性。 线性办法将数据从高维空间线性投影到低维空间(因而称为线性投影)。例子包含PCA和LDA。 非线性办法提供了一种执行非线性降维(NLDR)的办法。咱们常常应用NLDR来发现原始数据的非线性构造。当原始数据不可线性拆散时,NLDR很有用。在某些状况下,非线性降维也被称为流形学习。 本文整顿了10个罕用的非线性降维技术,能够帮忙你在日常工作中进行抉择 1、核PCA你们可能相熟失常的PCA,这是一种线性降维技术。核PCA能够看作是正态主成分剖析的非线性版本。 惯例主成分剖析和核主成分剖析都能够进行降维。然而核PCA能很好地解决线性不可分割的数据。因而,核PCA算法的主要用途是使线性不可分的数据线性可分,同时升高数据的维数! 咱们先创立一个十分经典的数据: import matplotlib.pyplot as plt plt.figure(figsize=[7, 5]) from sklearn.datasets import make_moons X, y = make_moons(n_samples=100, noise=None, random_state=0) plt.scatter(X[:, 0], X[:, 1], c=y, s=50, cmap='plasma') plt.title('Linearly inseparable data') 这两种色彩代表线性上不可分割的两类。咱们不可能在这里画一条直线把这两类离开。 咱们先应用惯例PCA。 import numpy as np from sklearn.decomposition import PCA pca = PCA(n_components=1) X_pca = pca.fit_transform(X) plt.figure(figsize=[7, 5]) plt.scatter(X_pca[:, 0], np.zeros((100,1)), c=y, s=50, cmap='plasma') plt.title('First component after linear PCA') plt.xlabel('PC1') 能够看到,这两个类依然是线性不可分割的,当初咱们试试核PCA。 import numpy as np from sklearn.decomposition import KernelPCA kpca = KernelPCA(n_components=1, kernel='rbf', gamma=15) X_kpca = kpca.fit_transform(X) plt.figure(figsize=[7, 5]) plt.scatter(X_kpca[:, 0], np.zeros((100,1)), c=y, s=50, cmap='plasma') plt.axvline(x=0.0, linestyle='dashed', color='black', linewidth=1.2) plt.title('First component after kernel PCA') plt.xlabel('PC1') ...

February 16, 2024 · 2 min · jiezi

关于人工智能:OpenAl发布首个视频生成模型网友整个行业RIP

OpenAl公布首个视频生成模型,网友:整个行业RIPOpenAl最近公布了一款令人瞩目的视频生成模型,引起了宽泛的关注和探讨。这个模型的公布被认为是对整个行业的一次触动,一些网友甚至示意这是整个行业的末日。在本文中,咱们将对这一事件进行深入分析,并探讨其对行业的潜在影响。 模型简介OpenAl公布的视频生成模型是一项革命性的技术创新。基于最新的深度学习算法,该模型可能以惊人的创造力和逼真度生成高质量视频内容。无论是动画、影片还是游戏场景,这个模型都能通过先进的图像处理和语义了解算法,主动生成准确粗疏的场景、角色和动作,为用户带来身临其境的视觉体验。 社交媒体上的反应这一音讯在社交媒体上引起了轩然大波。网友们纷纷发表评论,表白了对这个模型的震惊和赞叹之情。有人称其为“技术反动”,认为它将彻底改变视频制作和游戏行业的格局。然而,也有一些网友对其表白了担心,放心这个模型的公布将导致整个行业的覆灭。 行业的改革与挑战OpenAl公布的视频生成模型无疑给行业带来了微小的改革。传统的视频制作过程须要大量的工夫、人力和资源,而这个模型的呈现将大大简化流程,提高效率。这意味着传统制作公司可能面临着微小的竞争压力。另一方面,小型的独立制作团队和创作者将受害于这个模型的低成本和高质量输入,有更大的机会展示本人的创意。 然而,这个模型的公布也带来了一些挑战。首先,只管在生成视频方面获得了微小的提高,但模型依然存在肯定的限度。在某些简单场景和特殊效果方面,传统的制作方法可能依然更具劣势。其次,主动生成的视频内容是否满足用户的需要和审美规范依然是一个问题。最终,这个模型的遍及和利用还须要行业和相干方面的认可和单干。 将来瞻望只管OpenAl公布的视频生成模型引发了人们对整个行业的担心和期待,但咱们不能漠视这个技术创新所带来的潜在时机。通过联合人工智能和创意产业,咱们将迎来一个全新的视频制作时代。这个模型的呈现将推动行业的倒退和提高,为创作者和观众带来更多翻新、精彩的作品。 尽管模型的公布引起了网友们的极大关注,但咱们不应过于乐观地预言整个行业的末日。相同,咱们应该看到这个模型所带来的改革和时机,并踊跃应答和适应行业的倒退。只有通过一直学习和翻新,咱们能力在这个充斥挑战和时机的时代中放弃竞争力。 通过虚构卡 WildCard 的形式来降级 GPT 4.0 最快了,大略2分钟就能够降级实现, 而且降级 GPT 4.0 价格也不贵,虚构卡一年10美元,GPT4 每个月也才 20美元。如果你感觉 GPT 4.0 对你可能有帮忙,那就赶快来降级吧! GPT-4.0 降级教程 本文由mdnice多平台公布

February 16, 2024 · 1 min · jiezi

关于人工智能:231-V2X

V2X更多内容,请关注:github:https://github.com/gotonote/Autopilot-Notes.git 一、简介V2X(Vehicle-to-Everything),是车和外界进行通信互联的技术。V2X是车联网的重要组成部分,次要目标是为了保障路线平安、进步交通效率和节俭汽车能源。美国国家公路交通平安管理局(NHTSA)预计,如果施行V2V零碎,至多能够缩小13%的交通事故,从而每年缩小43.9万次车祸。 二、分类(一)V2X按技术分为基于局域网的技术(DSRC)、基于蜂窝网的技术(C-V2X)两类1.基于局域网的技术(DSRC) 2012年,IEEE首先通过了基于局域网的V2X技术规范,它反对车和车以及车和基础设施之间的间接通信,这项技术称为专用短距离通信(DSRC)。DSRC应用802.11p提供的根底无线电通信。 2.基于蜂窝网的技术(C-V2X) 2016年,3GPP公布了基于LTE的V2X规范。它也称为C-V2X技术用以区别基于局域网的V2X技术。在间接通信的根底上,C-V2X还反对通过蜂窝网络(V2N)进行广域通信。 尽快存在一些争议,然而在2017-2018年由5G汽车协会(5GAA)进行的一些钻研和分析表明基于蜂窝的C-V2X技术在性能、通信标准和可靠性等多个方面均优于DSRC。 (二)V2X按利用场景路线平安、交通管理两类V2X能够无效防止交通事故,这类事变往往是刹车不及时,或者没有足够的视线范畴导致的。V2X可能在凑近车辆之前提供预警,在一些十字路口没有视线范畴的时候,可能提醒乘客有车辆汇入。V2X可用于交通管理,监控以后的交通状况,动静的管制交通,缩小交通拥堵。三、瞻望V2X不仅仅证实可能缩小交通事故,还能改善现有的交通状况,最初V2X还可能解决目前无人驾驶面临的一些难题。 红绿灯和交通标志辨认始终是无人驾驶中很重要的一个问题。在一些城市主干道路口,交通标志十分密集,逻辑也十分复杂,以目前的人工智能程度还不足以了解剖析交通标志的逻辑。同时目前都是采纳摄像头做红绿灯辨认,而摄像头在光照变动和夜晚的时候,辨认成果会大打折扣,但采纳V2X技术能够轻松的解决上述问题。 除此之外,视线范畴始终是主动驾驶放弃平安的重要指标。独自依附无人驾驶车本身的传感器来获取远处的视线有着诸多限度,而依靠V2X技术,可能让无人驾驶车看的更远,还可能获取十字路口等一些传感器视线看不到的中央。 最初,无人车往往无奈无效预测紧急刹车的汽车和忽然从路边呈现的行人。而配备有V2X设施的汽车在做出紧急刹车时,可能立即告诉后车加速,防止追尾。同时无人车可能及时发现佩戴有V2X电子设备的行人,而不须要进行大量的感知运算。 能够预感将来V2X对主动驾驶会是一个十分好的补充。 本文由mdnice多平台公布

February 16, 2024 · 1 min · jiezi

关于人工智能:LagLlama第一个时间序列预测的开源基础模型介绍和性能测试

<article class=“article fmt article-content”><p>2023年10月,咱们发表了一篇对于TimeGPT的文章,TimeGPT是工夫序列预测的第一个根底模型之一,具备零样本推理、异样检测和共形预测能力。</p><p>尽管TimeGPT是一个专有模型,只能通过API拜访。然而它还是引发了对工夫序列根底模型的更多钻研。到了2024年2月,曾经有了一个用于工夫序列预测的开源根底模型:laglllama。</p><p></p><p>在原论文《Lag-Llama: Towards Foundation Models for Probabilistic Time Series Forecasting》中,模型作为单变量概率预测的通用根底模型提出。它是由来自不同机构的大型团队开发的,这些机构包含Morgan Stanley, ServiceNow, Université de Montréal, Mila-Quebec, 和McGill University.</p><p>在本文中,咱们将探讨Lag-Llama的架构、性能以及训练形式。还会将lagllama利用于一个预测我的项目中,并将其与其余深度学习办法Temporal Fusion Transformer (TFT) 和DeepAR进行性能比拟。</p><h2>Lag-Llama</h2><p>lagllama是为单变量概率预测而构建的。它应用不依赖于频率的通用办法来标记工夫序列数据。这样模型能够很好地推广到不可见的频率。</p><p>它利用Transformer体系结构和散布头来解析输出令牌,并将它们映射到具备置信区间的将来预测。</p><p><strong>1、具备滞后特色的标记</strong></p><p>laglllama的标记策略是应用一组指定的滞后来结构序列的滞后特色。</p><p>它将从这个列表中为给定的数据集抉择所有适合的频率:</p><p>季度、月、周、天、小时、秒</p><p>也就是说,如果以每日频率提供数据集,lag - llama将尝试应用每日滞后(t-1),每周滞后(t-7),每月滞后(t-30)等构建特色。</p><p>策略如下图所示。</p><p></p><p>从上图中,咱们还能够看到模型构建了其余动态协变量,例如秒/分、小时/天等等,直到季度/年。尽管这能够很好地推广到所有类型的工夫序列,但它有一个致命的毛病:因为固定的滞后指数列表,输出令牌可能会变得十分大。</p><p>例如,查看每小时数据的每月频率须要730个工夫步。这意味着除了所有动态协变量之外,输出令牌的长度至多为730。</p><p><strong>2、Lag-Llama架构</strong></p><p>Lag-Llama是一个基于transformer的纯解码器模型,其灵感来自大型语言模型LLaMA的体系结构。</p><p></p><p>从图中能够看到输出标记是滞后工夫步长和动态协变量的拼接。输出序列通过线性投影层将特色映射到解码器外部注意力模块的暗藏维度。另外就是在最初的输入,序列被发送到一个散布头负责输入一个概率分布。</p><p>在推理过程中,输出序列生成下一个工夫点的散布。而后通过自回归,模型一一生成残余的预测序列,直到达到设置的长度。</p><p>生成预测的自回归过程无效地容许模型为其预测生成不确定性区间。然而这里的问题就是如果序列很长,自回归的形式会将谬误扩充。</p><p><strong>3、Lag-Llama散布头</strong></p><p>Lag-Llama的散布头负责输入概率分布。这样模型就可能生成预测区间。</p><p>在模型的迭代中,最初一层应用Student ’s t散布来结构不确定性区间。从实践上讲不同的散布头能够组合在一起,然而论文并没有做这样的试验,可能是想在当前在做吧。</p><p><strong>4、Lag-Llama的训练</strong></p><p>作为一个根底模型,Lag-Llama显然是在大量的工夫序列数据语料库上训练的,因而该模型能够很好地泛化未见过的工夫序列并进行零样本预测。</p><p>论文中说:Lag-Llama在来自不同畛域的27个工夫序列数据集上进行了训练,如能源、交通、经济等。</p><p>数据蕴含7965个单变量工夫序列,总计约3.52亿个令牌。</p><p>所有数据集都是开源的,包含ethth, Exchange和Weather等。</p><h2>Lag-Llama测试</h2><p>因为代码曾经开源,所以咱们能够间接测试,咱们首先应用Lag-Llama的零样本预测能力,并将其性能与特定数据模型(如TFT和DeepAR)进行比拟。</p><p>Lag-Llama的实现是建设在GluonTS之上的,所以咱们还须要装置这个库。试验应用了澳大利亚电力需要数据集,该数据集蕴含五个单变量工夫序列,以半小时的频率跟踪能源需求。</p><p>这里有个阐明:Lag-Llama目前的实现是初期阶段。并且存还在踊跃开发中,前面可能还会有很大的调整,因为目前还没退出微调的性能。</p><p>1、环境设置</p><pre><code> !git clone https://github.com/time-series-foundation-models/lag-llama/ cd lag-llama pip install -r requirements.txt –quiet</code></pre><p>而后须要咱们从HuggingFace下载模型的权重。</p><pre><code> !huggingface-cli download time-series-foundation-models/Lag-Llama lag-llama.ckpt –local-dir /content/lag-llama</code></pre><p>2、加载数据集</p><pre><code> import pandas as pd import matplotlib.pyplot as plt import matplotlib.dates as mdates import torch from itertools import islice from gluonts.evaluation import make_evaluation_predictions, Evaluator from gluonts.dataset.repository.datasets import get_dataset from lag_llama.gluon.estimator import LagLlamaEstimator</code></pre><p>能够间接从GluonTS加载数据集。</p><pre><code> dataset = get_dataset(“australian_electricity_demand”) backtest_dataset = dataset.test prediction_length = dataset.metadata.prediction_length context_length = 3 * prediction_length</code></pre><p>3、应用Lag-Llama预测</p><p>简略地初始化模型并应用LagLlamaEstimator对象。</p><pre><code> ckpt = torch.load(“lag-llama.ckpt”, map_location=torch.device(‘cuda:0’)) estimator_args = ckpt[“hyper_parameters”][“model_kwargs”] estimator = LagLlamaEstimator( ckpt_path=“lag-llama.ckpt”, prediction_length=prediction_length, context_length=context_length, input_size=estimator_args[“input_size”], n_layer=estimator_args[“n_layer”], n_embd_per_head=estimator_args[“n_embd_per_head”], n_head=estimator_args[“n_head”], scaling=estimator_args[“scaling”], time_feat=estimator_args[“time_feat”]) lightning_module = estimator.create_lightning_module() transformation = estimator.create_transformation() predictor = estimator.create_predictor(transformation, lightning_module)</code></pre><p>应用make_evaluation_predictions函数生成零样本的预测。</p><pre><code> forecast_it, ts_it = make_evaluation_predictions( dataset=backtest_dataset, predictor=predictor)</code></pre><p>这个函数返回生成器。咱们须要把它们转换成列表。</p><pre><code> forecasts = list(forecast_it) tss = list(ts_it)</code></pre><p>4、评估</p><p>GluonTS能够应用Evaluator对象不便地计算不同的性能指标。</p><pre><code> evaluator = Evaluator() agg_metrics, ts_metrics = evaluator(iter(tss), iter(forecasts))</code></pre><p>RMSE为481.57。</p><p>咱们还能够随便地将预测可视化。</p><pre><code> plt.figure(figsize=(20, 15)) date_formater = mdates.DateFormatter(’%b, %d’) plt.rcParams.update({‘font.size’: 15}) for idx, (forecast, ts) in islice(enumerate(zip(forecasts, tss)), 4): ax = plt.subplot(2, 2, idx+1) plt.plot(ts[-4 * dataset.metadata.prediction_length:].to_timestamp(), label=“target”) forecast.plot( color=‘g’) plt.xticks(rotation=60) ax.xaxis.set_major_formatter(date_formater) ax.set_title(forecast.item_id) plt.gcf().tight_layout() plt.legend() plt.show()</code></pre><p></p><p>上图能够看到模型对数据做出了正当的预测,只管它在第四个序列(图的右下角)上的确存在问题。</p><p>另外因为 Lag-Llama实现了概率预测,能够失去预测的不确定性区间。</p><p>5、与TFT和DeepAR相比</p><p>咱们在数据集上训练TFT和DeepAR模型,看看它们是否能体现得更好。</p><p>为了节省时间,咱们将训练设置为5个epoch。</p><pre><code> from gluonts.torch import TemporalFusionTransformerEstimator, DeepAREstimator tft_estimator = TemporalFusionTransformerEstimator( prediction_length=prediction_length, context_length=context_length, freq=“30min”, trainer_kwargs={“max_epochs”: 5}) deepar_estimator = DeepAREstimator( prediction_length=prediction_length, context_length=context_length, freq=“30min”, trainer_kwargs={“max_epochs”: 5})</code></pre><p>训练过程。</p><pre><code> tft_predictor = tft_estimator.train(dataset.train) deepar_predictor = deepar_estimator.train(dataset.train)</code></pre><p>训练实现后,生成预测并计算RMSE。</p><pre><code> tft_forecast_it, tft_ts_it = make_evaluation_predictions( dataset=backtest_dataset, predictor=tft_predictor) deepar_forecast_it, deepar_ts_it = make_evaluation_predictions( dataset=backtest_dataset, predictor=deepar_predictor) tft_forecasts = list(tft_forecast_it) tft_tss = list(tft_ts_it) deepar_forecasts = list(deepar_forecast_it) deepar_tss = list(deepar_ts_it) # Get evaluation metrics tft_agg_metrics, tft_ts_metrics = evaluator(iter(tft_tss), iter(tft_forecasts)) deepar_agg_metrics, deepar_ts_metrics = evaluator(iter(deepar_tss), iter(deepar_forecasts))</code></pre><p>下表突出显示了性能最好的模型。</p><p></p><p>能够看到TFT是目前体现最好的模型,DeepAR的体现也优于laglama。</p><p>尽管laglllama的体现仿佛不尽如人意,但该模型没有通过微调,而且零样本测自身就比拟艰难。</p><p>乏味的是,只训练了5个epoch这两个模型都获得了比Lag-Llama更好的后果。尽管样本预测能够节省时间,但训练五个epoch在工夫和计算能力方面的要求应该不是很刻薄。所以目前可能零样本学习方面还须要很大的晋升。</p><h2>总结</h2><p>在尝试了TimeGPT和Lag-Llama之后,Lag-Llama算是构建开源预测模型的第一步,但与TimeGPT相比,它在性能方面存在有余。</p><p>TimeGPT能够解决多变量工夫序列、不规则工夫戳,并实现共形预测,与应用laglama等固定散布相比,这是一种更持重的量化不确定性的形式。</p><p>laglllama是一个开源的根底模型,只用于单变量概率预测,并且我感觉它训练的数据有点少了。我置信在不久的未来会看到更多的开源预测模型呈现。他们的体现可能会失去改善,这代表了该畛域的一个重大转变。</p><p>最初论文地址:</p><p>Lag-Llama: Towards Foundation Models for Probabilistic Time Series Forecasting by K. Rasul, A. Ashok, A. Williams, H. Ghonia, R. Bhagwatkar, A. Khorasani, M. Bayazi, G. Adamopoulos, R. Riachi, N. Hassen, M. Bilos, S. Garg, A. Schneider, N. Chapados, A. Drouin, V. Zantedeschi, Y. Nevmyvaka, I. Rish</p><p>https://avoid.overfit.cn/post/8a9120d3cf074c1ba0de0a7a247993c9</p><p>作者:Marco Peixeiro</p></article> ...

February 15, 2024 · 2 min · jiezi

关于人工智能:GPT-Action-诗词大百科

嘿,大家好呀,我是景淮,一个加拿大的程序员,沉迷 AI 不能自拔中。 明天的灵感来源于跟我家大敌人一起背古诗词,她是真的自从高中毕业真的曾经很多年没有背新诗的经验了,一听都背过,一背全忘了~(不晓得是不是很多敌人都是这样的哈哈哈哈) 因为带两个小外甥的缘故,还是有陪着他们一起读新诗的时候~所以我还记得一些,当然一些文言文就不太记得了,比方什么唧唧复唧唧,木兰当户织,咳咳跑题了~ 直到现在都记得,我说“莫愁前路无知己”,她说“西出阳关无故人”,而后我????她说没错啊,多顺啊。行...没问题,你说没问题那就没问题~ 而后俩人就说要是有这样的软件,她就一天背一首!间接满足她!主打的就是钟爱! 同样的这篇的内容我也会做成相似于词典的模式,这样能够更不便大家应用查问,防止下面的场景~ 这个是中文学习篇的第 2 篇 内容可能有点长,如果大家想间接应用,能够间接跳转到 GPTs 应用局部哦~本文会依据以下内容程序进行: API 测试剖析词典设计提醒词编写测试GPTs 应用链接总结一、API 测试剖析对于诗词这部分内容呢,其实 GPT 是有知识库的,然而它匹配的很差,经常出现幻觉,为了准确性和保险起见,最初决定还是应用 Action 来实现。 找了挺多 API 的但根本都不在保护了或者不太好用,比拟好的就是这款 今日诗词https://www.jinrishici.com/ 他这种模式属于那种能够输出些内容,情绪来匹配相干的语句。但咱不适宜,咱须要的是一整首诗的,必须宠~ 所以我找到了三份 Json 格局的文件,一个是存储了 10000 首残缺诗词,一个是 10000 句诗词,最初一个是 4000+ 作者的材料。 有了这三个文件,我一想,咦我还是个程序员,那就手搓 API 吧,但又想偷个懒,就把内容上传到了 AirCode 上,而后写了一段代码,实现了根本的调用。 一)Json 中的参数1、古诗词调用后的参数如下 { "id":{"$oid":"5b9a0136367d5c96f4cd2952"}, "title":"将进酒", "dynasty":"唐代", "writer":"李白", "type":["乐府","唐诗三百首","咏物","抒情","哲理","宴饮"]", "content":"君不见,黄河之水天上来,奔流到海不复回。\n君不见,高堂明镜悲白发,朝如青丝暮成雪...", "remark":"将进酒:属乐府旧题。将(qiāng):请。\n君不见:乐府中罕用的一种夸语...", "translation":"你难道看不见那黄河之水从天上奔流而来,波澜翻滚直奔东海,从不再往回流...", "shangxi":"这首诗十分形象的体现了李白俯首听命的性情:一方面对本人充斥自信,孤高自负;一方面在政治前途呈现挫折后...", "audioUrl":"https://guwen-1252396323.cos.ap-chengdu.myqcloud.com/guwen/20180913141830595.mp3" }顺次对应为 id: 古文的 id title:古文题目 dynasty:古文所属朝代 writer:古文的作者 type:古文所属的类型 content:古文原文 remark:古文正文 translation:古文翻译 shangxi:古文的赏析 audioUrl:原文朗读音频链接其实每首新诗的返回内容还是挺全面的,甚至包含原文朗读音频的链接 ...

February 14, 2024 · 4 min · jiezi

关于人工智能:使用MICE进行缺失值的填充处理

在咱们进行机器学习时,解决缺失数据是十分重要的,因为缺失数据可能会导致剖析后果不精确,重大时甚至可能产生偏差。解决缺失数据是保障数据分析准确性和可靠性的重要步骤,有助于确保剖析后果的可信度和可解释性。 在本文中,咱们讲重点介绍MICE。 MICE(Multiple Imputation by Chained Equations)是一种罕用的填充缺失数据的技术。它通过将待填充的数据集中的每个缺失值视为一个待预计的参数,而后应用其余察看到的变量进行预测。对于每个缺失值,通过从生成的多个填充数据集中随机抉择一个值来进行填充。通常会反复这个过程屡次以减少填充的稳定性。 首先咱们先介绍一些罕用的缺失数据处理技术: 删除解决数据是艰难的,所以将缺失的数据删除是最简略的办法。 对于小数据集 如果某列缺失值< 3%,则能够将缺失的样本删除,如果某列缺失值>40%,则能够将该列间接删除。 而对于缺失值在>3%和<40%的数据,则须要进行填充解决。 对于大数据集: 缺失值< 10%能够应用填充技术 缺失值> 10%则须要测试相关性并决定该特色是否值得用于建模后逐行删除缺失记录 删除是解决缺失数据的次要办法,然而这种办法有很大的弊病,会导致信息失落。 填充填充是一种简略且可能是最不便的办法。咱们能够应用Scikit-learn库中的SimpleImputer进行简略的填充。 from sklearn.impute import SimpleImputerSimpleImputer有“strategy”参数,它能够让咱们抉择填充的策略 比方特色是数值能够应用均值或中位数作为策略来估算值,特色是分类的能够应用众数作为策略来估算值 K-最近邻插值算法KNN算法是一种监督技术,它简略地找到“特定数据记录中最近的k个数数据点”,并对原始列中最近的k个数数据点的值取简略的平均值,并将输入作为填充值调配给缺失的记录。 咱们能够依据现有数据的特点抉择不同的间隔度量——“欧几里得间隔”、“曼哈顿间隔”、“闵可夫斯基间隔”等。对于数值特色,KNN插值对相邻值进行加权均匀。对于分类特色,KNN取最近邻值的众数。 这里的“K”是一个超参数。 MICEMultiple Imputation by Chained Equations的根本假如是 “数据是随机失落的,通过查看其余数据样本/记录,能够对数据的实在价值做出有依据的猜想。” 看到他的英文咱们就晓得,他又2个次要的工作步骤: 多重插补(Multiple Imputation):MICE通过屡次生成填充数据集来解决缺失数据。在每次迭代中,它将缺失值填充为预计的值,而后将残缺的数据集用于下一次迭代,从而产生多个填充的数据集。链式方程(Chained Equations):MICE应用链式方程的办法进行填充。它将待填充的缺失值视为须要预计的参数,而后应用其余已知的变量作为预测变量,通过建设一系列的预测方程来进行填充。每个变量的填充都依赖于其余变量的估计值,造成一个链式的填充过程。步骤: 初始化:首先,确定要应用的填充办法和参数,并对数据集进行初始化。循环迭代:接下来,进行屡次迭代。在每次迭代中,对每个缺失值进行填充,应用其余已知的变量来预测缺失值。生成多个填充数据集:每次迭代生成一个填充的数据集,直到达到设定的迭代次数或者满足收敛条件。合并后果:最初,将生成的多个填充数据集进行合并,通常采纳简略的办法(如取均值)来汇总后果,失去一个最终的填充数据集。长处: 思考了变量之间的相关性,可能更精确地预计缺失值。生成了多个填充数据集,可能反映不确定性。可能灵便地解决不同类型的变量和不同散布的数据。注意事项: 对于不适用于预测的变量,须要进行预处理或者应用专门的办法进行填充。须要依据理论状况抉择适合的迭代次数和收敛条件,以确保填充后果的稳定性和准确性。填充后的数据集可能会影响后续剖析的后果,因而须要进行适当的验证和比拟。上面咱们来应用 fancyimpute库来进行代码显示。 fancyimpute提供了多种高级的缺失数据填充技术,包含矩阵合成、K-最近邻、插值和矩阵实现等。它的设计指标是提供一种不便、灵便且高效的形式来解决缺失数据,以便于后续的数据分析和建模。 import pandas as pd from sklearn.model_selection import train_test_split from fancyimpute import IterativeImputer .#In these steps we undertake data exploration and pre-processing .#I intend to skip till the completion of train-test split of data . . . xtrain, xtest, ytrain, ytest = train_test_split(x, y, test_size=0.25, random_state=101) # Initialize MICE imputer imputer = IterativeImputer() # Fit and transform MICE imputer on training data xtrain_imputed = imputer.fit_transform(xtrain) # Transform test data using the trained MICE imputer xtest_imputed = imputer.transform(xtest)这里须要留神的是,咱们须要在训练集上进行拟合,而后在测试集上进行转换,这样能够保障不会有数据泄露的问题。 ...

February 14, 2024 · 1 min · jiezi

关于人工智能:22-计算单元

<article class=“article fmt article-content”><h2>计算单元</h2><p>更多内容,请关注:<br/>github:https://github.com/gotonote/Autopilot-Notes.git</p><p>如果说传感器是无人驾驶车的眼睛,那么计算单元则是无人驾驶车的大脑,传感器采集到的数据通过计算单元的运算,最初能力转化为管制信号,管制汽车的行驶。因而一个性能强劲的大脑显得尤为要害。</p><h3>一、简介</h3><p>无人驾驶车运行过程中须要解决各种不同类型的工作,所以目前大部分的无人驾驶计算平台都采纳了异构平台的设计。无人驾驶车在CPU上运行操作系统和解决通用计算工作,在GPU上运行深度模型感知工作。</p><p>无人驾驶操作系统运行在CPU上,实现系统调度、过程治理、网络通信等基本功能。还有一部分通用工作也跑在CPU上,例如定位的NDT算法、卡尔曼滤波和管制相干的算法等。无人驾驶的环境感知算法运行在GPU上,目前支流的深度学习框架都反对通过GPU来减速运算,特地是一些图像算法。GPU的性能和无人驾驶车感知周围环境的能力非亲非故,目前也有采纳专门用于深度学习的芯片来解决此类工作,例如google的TPU等。</p><h3>二、参考指标</h3><h4>(一)性能</h4><p>性能包含4个方面:CPU、GPU、内存和总线。</p><p><strong>1. CPU</strong></p><p>CPU次要运行主动驾驶操作系统和进行通用计算,目前支流的通用CPU是Intel公司X86架构和ARM公司的ARM架构。Intel公司的志强系列处理器曾经广泛应用于数据中心服务器和工控机上,ARM公司则是设计芯片而后把计划卖给各家公司让他们本人生产。目前各大公司公布的无人驾驶计算平台大部分都采纳了ARM架构的处理器,次要起因是在汽车行业,芯片须要满足车规要求,而ARM处理器更不便集成。能够预感将来公布的无人驾驶计算平台会大量采纳ARM架构的处理器做通用计算。</p><p><strong>2. GPU</strong></p><p>目前支流的深度学习框架都是通过GPU进行训练和计算,因而无人驾驶计算平台大部分都采纳GPU来进行深度学习计算。也有专门针对深度学习计算的芯片如TPU等,但目前这类芯片利用的生态和成熟度还不是很高。此外还有计算平台通过FPGA来做深度学习减速,老本会比GPU高。将来在无人驾驶大规模商业之后可能会呈现专门针对深度学习计算的芯片。</p><p><strong>3. 内存</strong></p><p>内存包含CPU内存和显存,内存容量太小和刷新频率太低都会影响到零碎性能。同时该当尽量避免内存条的设计,采纳贴片内存,避免内存触动生效。</p><p><strong>4. 总线</strong></p><p>无人驾驶车的传感器和GPU等硬件设施都须要总线和计算平台相连接,总线带宽是零碎性能的保障。同时计算平台的CPU须要采纳冗余设计,2颗CPU之间通过总线连贯,保障一颗CPU生效后,另一颗也可能持续工作。</p><h4>(二) 功耗</h4><p>个别零碎的性能越强,则功耗越大。这时候须要思考以下2个方面:电源和散热。</p><p><strong>1. 电源</strong></p><p>计算平台采纳的是车载电源,思考到人的平安,车载电源的电压限度在36v以下。个别车载电源可能提供的功率不超过1KW,也就是说在不进行任何革新的状况下,计算平台的功率限度在1KW以下。如果须要减少功率,要么采纳多个电源,要么增大电源的电流。而1KW的电源电流约为42A,功率如果要增大到2KW,那么电流要增大到84A,咱们晓得电流越大,零碎的发热会越大,所以也不是能够有限减少电源功率。</p><p><strong>2. 散热</strong></p><p>在功率十分大的时候,计算平台甚至须要水冷散热,采纳风扇散热在汽车密闭的后备箱中没有排风口,无奈无效的把热量排放进来。水冷散热的成果好,而且不须要排风口的设计,在功耗比拟大的时候采纳水冷散热是很好的抉择。</p><h4>(三)存储</h4><p>无人驾驶车须要存储高精度地图、日志、传感器数据等多种数据。这些信息的数据量很大,特地是传感器数据,在录制数据的时候,为了让数据可能及时保留,个别会抉择固态硬盘。固态硬盘的写入速度快,并且绝对机械硬盘也不容易生效,因而无人驾驶中都倡议采纳固态硬盘。</p><h4>(四) 接口</h4><p>计算平台除了须要留神性能、功耗和存储,还须要留神各种总线接口是否齐备。目前传感器的接口丰盛多样,摄像头采纳的是USB接口,激光雷达采纳的是以太网,毫米波雷达采纳的是CAN总线,同时还须要预留足够的接口给其它外设,例如GPU、FPGA加速卡、V2X设施等。计算平台只有具备丰盛的接口类型能力满足无人驾驶的要求。</p><h3>三、计算平台</h3><p>目前无人驾驶计算平台有3种抉择。</p><h4>(一)工控机</h4><p></p><p>工控机采纳CPU和GPU的组合,十分通用,同时又可能满足顽劣坏境的要求。但工控机的性能不太强劲,接口也不太丰盛,适宜初期的无人驾驶验证。</p><h4>(二)芯片厂家计算平台</h4><p></p><p>此类平台都是采纳开发板设计,不太适宜间接利用在无人驾驶中,益处是厂家提供了SDK,能够做到开箱即用。比方英伟达的DRIVE、德州仪器基于DSP的TDA2X Soc、恩智浦的BlueBox。</p><h4>(三)车企自研计算平台</h4><p></p><p>特斯拉的FSD就是自研的计算平台,集成度十分高,采纳冗余设计,集成有专门的平安模块,性能和接口也可能满足特定场景的要求。自研芯片的解决方案非常适合无人驾驶,然而研发老本太高。</p><h3>四、边缘计算</h3><p>边缘计算是无人驾驶将来的发展趋势之一,传感器中会逐渐集成交融和滤波算法,而不须要把所有的计算全都放在计算平台中实现。典型的利用场景是为了解决摄像头拍摄的大量图像,能够先用FPGA解决,而后输入解决好的后果给计算平台应用,这样不仅能够加重零碎带宽压力,同时还能够放慢图片处理速度。</p><p>本文由mdnice多平台公布</p></article>

February 13, 2024 · 1 min · jiezi

关于人工智能:使用PyOD进行异常值检测

<article class=“article fmt article-content”><p>异样值检测各个领域的要害工作之一。PyOD是Python Outlier Detection的缩写,能够简化多变量数据集中辨认异样值的过程。在本文中,咱们将介绍PyOD包,并通过理论给出具体的代码示例</p><p></p><h2>PyOD简介</h2><p>PyOD为异样值检测提供了宽泛的算法汇合,实用于有监督和无监督的场景。无论解决的是带标签的数据还是未带标签的数据,PyOD都提供了一系列技术来满足特定需要。PyOD的突出个性之一是其用户敌对的API,使老手和有教训的从业者都能够轻松的拜访它。</p><h2>示例1:kNN</h2><p>咱们从一个简略的例子开始,利用k近邻(kNN)算法进行离群值检测。</p><p>首先从PyOD导入必要的模块</p><pre><code> from pyod.models.knn import KNN from pyod.utils.data import generate_data from pyod.utils.data import evaluate_print</code></pre><p>咱们生成具备预约义离群率的合成数据来模仿异样值。</p><pre><code> contamination = 0.1 # percentage of outliers n_train = 200 # number of training points n_test = 100 # number of testing points X_train, X_test, y_train, y_test = generate_data( n_train=n_train, n_test=n_test, contamination=contamination)</code></pre><p>初始化kNN检测器,将其与训练数据拟合,并取得离群值预测。</p><pre><code> clf_name = ‘KNN’ clf = KNN() clf.fit(X_train)</code></pre><p>应用ROC和Precision @ Rank n指标评估训练模型在训练和测试数据集上的性能。</p><pre><code> print("\nOn Training Data:") evaluate_print(clf_name, y_train, clf.decision_scores_) print("\nOn Test Data:") evaluate_print(clf_name, y_test, clf.decision_function(X_test))</code></pre><p>最初能够应用内置的可视化性能可视化离群检测后果。</p><pre><code> from pyod.utils.data import visualize visualize(clf_name, X_train, y_train, X_test, y_test, clf.labels_, clf.predict(X_test), show_figure=True, save_figure=False)</code></pre><p></p><p>这是一个简略的用法示例</p><h2>示例2 模型集成</h2><p>异样值检测有时会受到模型不稳定性的影响,特地是在无监督的状况下。所以PyOD提供了模型组合技术来进步鲁棒性。</p><pre><code> import numpy as np from sklearn.model_selection import train_test_split from scipy.io import loadmat from pyod.models.knn import KNN from pyod.models.combination import aom, moa, average, maximization, median from pyod.utils.utility import standardizer from pyod.utils.data import generate_data from pyod.utils.data import evaluate_print X, y = generate_data(train_only=True) # load data X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.4) # standardizing data for processing X_train_norm, X_test_norm = standardizer(X_train, X_test) n_clf = 20 # number of base detectors # Initialize 20 base detectors for combination k_list = [10, 20, 30, 40, 50, 60, 70, 80, 90, 100, 110, 120, 130, 140, 150, 160, 170, 180, 190, 200] train_scores = np.zeros([X_train.shape[0], n_clf]) test_scores = np.zeros([X_test.shape[0], n_clf]) print(‘Combining {n_clf} kNN detectors’.format(n_clf=n_clf)) for i in range(n_clf): k = k_list[i] clf = KNN(n_neighbors=k, method=‘largest’) clf.fit(X_train_norm) train_scores[:, i] = clf.decision_scores_ test_scores[:, i] = clf.decision_function(X_test_norm) # Decision scores have to be normalized before combination train_scores_norm, test_scores_norm = standardizer(train_scores, test_scores) # Combination by average y_by_average = average(test_scores_norm) evaluate_print(‘Combination by Average’, y_test, y_by_average) # Combination by max y_by_maximization = maximization(test_scores_norm) evaluate_print(‘Combination by Maximization’, y_test, y_by_maximization) # Combination by median y_by_median = median(test_scores_norm) evaluate_print(‘Combination by Median’, y_test, y_by_median) # Combination by aom y_by_aom = aom(test_scores_norm, n_buckets=5) evaluate_print(‘Combination by AOM’, y_test, y_by_aom) # Combination by moa y_by_moa = moa(test_scores_norm, n_buckets=5) evaluate_print(‘Combination by MOA’, y_test, y_by_moa)</code></pre><p>如果下面代码提醒谬误,须要装置combo包</p><pre><code> pip install combo</code></pre><h2>总结</h2><p>能够看到,PyOD进行离群值检测是十分不便的,从根本的kNN离群值检测到模型组合,PyOD都提供了一个全面的整合,这使得咱们能够轻松高效地解决异样值检测工作。</p><p>最初pyod的文档和官网<br/>https://avoid.overfit.cn/post/9df020be7be84d759aeef2dfa8e4d8cd</p></article> ...

February 12, 2024 · 2 min · jiezi

关于人工智能:216-IMU惯性传感器

<article class=“article fmt article-content”><h2>IMU惯性传感器</h2><p>更多内容,请关注:<br/>github:https://github.com/gotonote/Autopilot-Notes.git</p><p></p><h3>一、原理</h3><p>惯性测量单元IMU(Inertial Measurement Unit)。是一种用来测量物体三轴姿势角(或角速率)以及加速度的安装。个别IMU包含三轴陀螺仪及三轴加速度计,某些9轴IMU还包含三轴磁力计。</p><p>其中加速度计检测物体在载体坐标零碎独立三轴的加速度信号,而陀螺仪检测载体绝对于导航坐标系的角速度信号,测量物体在三维空间中的角速度和加速度,并以此解算出物体的姿势。IMU在导航中的外围价值无可替代,为了进步其可靠性,还能够为每个单轴装备更多品种的传感器。为保障测量准确性,个别IMU要装置在被测物体的重心上。</p><p>在主动驾驶应用中,GPS失去的经纬度信息作为输出信号传入IMU,IMU再通过串口线与控制器相连接,以此获取更高频率的定位后果。<br/></p><h3>二、个性</h3><p>IMU应用的场景很多。手机、智能手表、VR等一般的生产级电子产品,其所应用到的IMU个别精度较低且价格便宜;主动驾驶所应用到的IMU,价格从几百块到几万块不等,取决于主动驾驶汽车对定位精度的要求;像导弹、航空畛域应用的IMU,通常精度要求更高,宇航级的IMU能够达到极高精度的推算,误差甚至能够小于一米。依据不同的应用场景,对IMU的精度有不同的要求。精度高,也意味着老本高。</p><p>IMU的精度、价格和应用场景,如下图3所示。<br/></p><h3>三、GPS + IMU 交融</h3><p>除了精度和老本的个性外,IMU还有两个非常要害的个性。其一是更新频率高,工作频率能够达到100Hz以上; 其二是短时间内的推算精度高,不会有太大的误差。</p><p>GPS的定位频率只有10Hz,而IMU的两个个性刚好能够补救GPS的劣势,和GPS组成定位的黄金搭档。</p><p>两个传感器独特工作时,能够给出频率100Hz的定位输入。下图是两传感器数据交融的原理图。<br/></p><p>运行在控制器上的软件对信息的解决流程在工夫维度上相似下图。在0~100ms的周期中,应用IMU进行9次地位的预计,待新的GPS定位数据进来时,则进行修改,以此实现高频率的定位后果输入。<br/></p><p>就这样,GPS与IMU便相辅相成地实现了无人车的稳固定位。</p><p>本文由mdnice多平台公布</p></article>

February 11, 2024 · 1 min · jiezi

关于人工智能:215-GPS定位导航

<article class=“article fmt article-content”><h2>GPS定位导航</h2><p>更多内容,请关注:<br/>github:https://github.com/gotonote/Autopilot-Notes.git</p><p></p><p>GPS是Global Positioning System(全球定位系统)的简称,个别指美国GPS零碎。国内上投入运行且具备寰球定位能力的零碎还有俄罗斯的格罗纳斯(GLONASS)和中国的北斗卫星导航定位系统,正在建设中的有欧盟伽利略(GALILEO)定位系统,这些全球卫星定位系统在零碎组成和定位原理方面基本一致,能够统称为卫星导航系统(Global Navigation Satellite System,GNSS)。</p><p>GPS导航系统具备全天候服务能力,不受天气影响,寰球笼罩,定位速度快,精度高,利用宽泛,已造成了宏大的空间导航定位产业链。</p><h3>一、倒退历史</h3><p>20世纪60年代末,美国开始着手研制卫星导航系统,次要目标是为陆海空三大畛域提供实时、全天候和全球性的导航服务,美国海军提出了Timation打算。该打算采纳12-18颗卫星组成寰球定位网,通过20余年的钻研试验,到1994年,建成了寰球覆盖率高达98%的24颗GPS卫星定位网络,这就是导航卫星授时与测距全球定位系统(Navigation Satellite Timing and Ranging Global Position System, NAVSTART GPS),简称全球定位系统(GPS)。</p><p>该工程是阿波罗登月工程和航天飞机打算之后的第三大空间打算,从最后的军事目标,到古代人类生存的方方面面,人类都已离不开基于GPS零碎的定位与导航服务。俄罗斯、欧盟、中国、日本及印度也先后着手建设了自主的寰球或区域型卫星导航系统。</p><h3>二、定位原理与零碎形成</h3><p></p><h4>(一)定位原理</h4><p>如上图2,从三个已知点对同一指标进行察看并测量间隔,别离以已知点为圆心,以所测间隔为半径做三个圆,可得三个圆在立体上的惟一交点,这种定位办法称为三角测量法。GPS就是在已知卫星某一时刻的地位和速度的根底上,以卫星为空间基准点,通过接管设施,测定所测点至卫星的间隔来确定所测点某一时刻的空间地位的定位技术。</p><h4>(二)零碎形成</h4><p>以GPS零碎为例,一个典型的卫星定位系统分为空间局部、高空监控局部、用户承受局部。</p><p><strong>1.空间局部</strong></p><p>由24颗GPS工作卫星组成,其中3颗为备用卫星,散布在6个倾角为55°,约为20200公里高的轨道上绕地球运行,每颗卫星都会发射用于导航定位的信号。这种布局的目标是保障在寰球任何地点、任何时刻至多能够观测到4颗卫星。</p><p><strong>2.高空监控局部</strong></p><p>分为主控站、监控站和注入站,次要性能是计算卫星星历和卫星钟的改过参数,监控卫星状态,进行卫星调度与参数注入工作等。</p><p><strong>3.用户承受局部</strong></p><p>指所有具备GPS信号接管能力的终端机,能够根据所观测信号计算失去本人某时刻所处的空间三维地位,且毋庸通过授意也毋庸就承受GPS信号付费。</p><h4>(三) 定位精度以及频率</h4><p><strong>1. 卫星导航系统的定位精度次要由两方面因素决定:</strong></p><p><em>(1)地位精度衰减因子(PDOP)</em></p><p>次要取决于星座的笼罩个性,一般来说,用户可观测到的卫星数越多,与用户的几何构型越好,PDOP值就更优。目前,世界四大全球卫星导航系统,PDOP寰球均值个别为2左右。</p><p><em>(2)用户等效测距误差(UERE)</em></p><p>该误差是由空间段卫星轨道钟差、传输环境段的电离层和对流层误差、用户段接收机噪声和多径误差等三局部误差项独特组成。目前,四大零碎UERE个别为2.0米(95%)左右,PDOP与UERE两者的乘积即为零碎定位精度。</p><p><strong>2.实时动静载波相位差分技术。 <em>RTK</em>(Real - time kinematic,实时动静)</strong><br/></p><p>如上图3,在高空上建基站(Base Station),基站能够失去准确地位信息(经纬度),并且具备接管卫星信号的性能。当基站的GPS接收机与车载GPS接收机相距较近时(<30km),能够认为两者的GPS信号通过的是同一片大气区域,即两者的信号误差基本一致。依据基站的准确地位和信号流传的工夫,反推此时天气起因导致的信号流传误差,之后利用该误差修改车载的GPS信号,即可升高云层、天气等对信号传输的影响。应用差分GPS技术,能够使无人车的定位精度从10米级别晋升至米级。</p><p><strong>3. 遮挡、反射等问题仍然难以解决</strong><br/></p><p><em>(1)信号失落</em></p><p>GPS接收机在高楼四周,很容易失去某一方向、所有的卫星信号,仅依附另外三面的卫星信号求得的定位后果,在精度上很难满足无人驾驶的需要。</p><p><em>(2)多路径问题</em></p><p>在高楼四周也可能导致本来收不到的卫星信号,通过大楼楼体的镜面反射被接管到,这种信号被称为多路径信号(Multi-Path Signal)。从图中能够看出,依据多路径信号计算失去的间隔会显著大于理论间隔。而无人车是很难判断,以后接管到的信号是单门路还是多路径的。</p><p><strong>4. GPS定位频率不高</strong></p><p>GPS定位的频率只有10Hz,以速度为72km/h(20m/s)为例,GPS定位的周期为100ms,则一个周期后,汽车绝对于前一次定位的后果挪动了20m/s * 0.1s = 2m,即两次的定位后果相距2米。为了解决GPS频率太低所带来的问题,工程师引入了其余传感器信号(IMU、激光、视觉)用以进步无人车的定位频率。</p><h3>三、利用</h3><p>全球定位系统因为其使用方便,定位效率高,利用宽泛,从性能类别角度来看,导航利用的典型利用如,军事、物流、交通、户外探险;测量定位的典型利用如,基础设施建设、防灾减灾、地球科学研究;授时服务的典型利用如,为电信基站、电视发射站、工业设施等提供准确同步时钟源等。</p><p>全球定位系统体现了近十年跨畛域关键技术的发展趋势,已成为当代重大跨畛域技术倒退的基本要素。作为一个具备老本效益和寰球可用的地位和工夫信息源,全球定位系统对于技术和利用多元化的疾速倒退起了很大作用,这反过来又产生了大量的利用实例,值得关注的跨畛域技术包含物联网、大数据、挪动医疗、加强事实、智慧城市、多式联运物流。</p><p>本文由mdnice多平台公布</p></article>

February 11, 2024 · 1 min · jiezi

关于人工智能:214-超声波雷达

<article class=“article fmt article-content”><h2>超声波雷达</h2><p>更多内容,请关注:<br/>github:https://github.com/gotonote/Autopilot-Notes.git</p><p></p><p>超声波雷达,是一种利用超声波测算间隔的雷达传感器安装。在车载传感器中,超声波雷达是目前最常见的种类之一,短距离测量中,超声波测距传感器具备十分大的劣势,多用在倒车雷达上。在倒车入库,缓缓移动车子的过程中,在驾驶室内能听到“滴滴滴”的声音,这些声音就是依据超声波雷达的检测间隔给司机的反馈信息。</p><h3>一、原理</h3><p>超声波雷达的工作原理是通过超声波发射装置向外收回超声波,到通过接收器接管到发送过去超声波时的时间差来测算间隔。罕用探头的工作频率有 40kHz, 48kHz和58kHz三种。一般来说,频率越高,灵敏度越高,但程度与垂直方向的探测角度就越小,故个别采纳40kHz的探头。超声波雷达防水、防尘,即便有大量的泥沙遮挡也不影响。探测范畴在0.1-3米之间,而且精度较高,因而非常适合利用于泊车。</p><h3>二、分类</h3><p></p><p>常见的超声波雷达有两种。第一种是装置在汽车前后保险杠上的,也就是用于测量汽车前后障碍物的倒车雷达,这种雷达业内称为UPA;第二种是装置在汽车侧面的,用于测量侧方障碍物间隔的超声波雷达,业内称为APA。</p><h4>(一)UPA超声波雷达</h4><p></p><p>UPA超声波雷达的探测间隔个别在15250cm之间,次要用于测量汽车前后方的障碍物。</p><h4>(二)APA超声波雷达</h4><p></p><p>APA超声波雷达的探测间隔个别在30500cm之间。APA的探测范畴更远,因而相比于UPA老本更高,功率也更大。APA的探测间隔劣势让它不仅可能检测左右侧的障碍物,而且还能依据超声波雷达返回的数据判断停车库位是否存在。</p><h3>三、 参数指标</h3><h4>(一)间隔精度:</h4><p>用于形容雷达对单个指标间隔参数估计的准确度,它是由回波信号的信噪比 SNR 决定的。FMCW 雷达的无效噪声带宽与其调频工夫成反比,调频工夫越长,无效噪声带宽越低,分辨率越高。</p><h4>(二)最大探测间隔:</h4><p>可能探测到障碍物的最大绝对间隔,个别为250m。最大可测速度与相邻 chirp 信号之间的空间距离成反比。</p><h4>(三)间隔分辨率:</h4><p>即多个指标被雷达辨别进去的最小间隔,次要由信号的带宽决定的,chirp 信号带宽的减少,间隔分辨率随之进步。</p><h4>(四)最大探测速度:</h4><p>可能探测到障碍物的最大相对速度,个别为 240km/h。</p><h4>(五)速度分辨率:</h4><p>速度分辨率随着帧持续时间的减少而进步。</p><h4>(六)探测视角:</h4><p>可能探测到的视线范畴,程度范畴个别为±60°,垂直视角个别为±15°。</p><h4>(七)角精度:</h4><p>用于形容雷达对单个指标方位角预计的准确度。</p><h4>(八)最大探测指标数:</h4><p>最大可能探测的指标数量,个别为 24-32 个。</p><h4>(九)角分辨率:</h4><p>取决于雷达的工作波长和天线口径尺寸和 TX/RX 天线的数量。</p><h3>四、利用</h3><h4>(一)主动泊车辅助零碎</h4><p></p><p>为了更好地达成辅助停车的性能,局部车型的主动泊车辅助零碎甚至蕴含了8个PDC雷达(用于探测四周障碍物)和4个PLA雷达(用于测量停车位的长度)。这些超声波雷达零碎能够实时监测车辆与障碍物之间的间隔,并把信息反馈给车辆,以帮忙车辆及时调整车身姿势和速度,顺利完成主动泊车。</p><h4>(二)主动紧急制动零碎</h4><p></p><p>装备了主动紧急制动零碎的车辆,会周期性地获取车辆以后的行驶速度,并依据以后速度、零碎中预设的速度阈值以及超声波雷达的信息反馈,来判断车辆与障碍物之间的间隔。一旦发现车辆间隔后方行人或障碍物间隔较近的时候,零碎会被动揭示驾驶者,如果驾驶者还会做出反馈,零碎则会被动启动制动零碎,确保安全间隔。</p><h4>(三)后方防碰撞预警系统</h4><p></p><p>后方防碰撞预警系统的工作原理与主动紧急制动性能比拟类似,通常会采纳超声波雷达来实现车距的实时监测和辨认,通过一直获取指标障碍物的间隔信息,进行剖析解决,传输给执行机构。一旦发现存在潜在碰撞危险,便会对驾驶者进行正告,但须要留神的是,预警系统自身不会采取任何制动措施去防止碰撞或管制车辆。</p><h4>(四)变道辅助零碎</h4><p></p><p>变道辅助零碎能够依附安排在车身两侧的超声波雷达组件,探测障碍物或是静止车辆,再联合驾驶者的变道动作,来判断是否存在碰撞危险;再联合车辆自身的辅助驾驶性能,来实现车辆的变动操作。</p><h4>(五)全速自适应续航零碎</h4><p></p><p>全速自适应续航零碎个别集成了车辆摄像头、超声波雷达零碎,通过ACC管制单元与ABS零碎、发动机控制系统协调动作,适当减速或制动,使得车辆与后方车辆始终保持平安间隔。</p><p>本文由mdnice多平台公布</p></article>

February 11, 2024 · 1 min · jiezi

关于人工智能:今天的重磅炸弹ChatGPT可以浏览互联网了

就在刚刚!ChatGPT再迎重大降级! | 明天的重磅炸弹!ChatGPT能够浏览互联网了!OpenAI 今日在其 X 账号发表,ChatGPT 当初能够浏览互联网了,由微软必应提供反对,并提供间接起源链接,ChatGPT 不再局限于 2021 年 9 月之前的数据了。 OpenAI 官网示意,ChatGPT 浏览最新互联网信息,对于须要最新信息的工作特地有用,例如帮忙用户进行技术钻研、尝试购买商品或抉择假期打算。 从今日起,Plus 和 Enterprise 订阅用户能够应用这一性能,OpenAI 承诺很快就会扩大到所有用户。要启用该性能,须要在 GPT-4 下的选择器中抉择“Browse with Bing”。(OpenAI官网)

September 28, 2023 · 1 min · jiezi

关于人工智能:分分钟搞定来源list添加到目标list据说只要5的人知道

当你须要在不扭转原始列表的状况下将一个列表的元素增加到另一个列表中时,你能够应用Java函数中的起源list增加到指标list。这在多种状况下都可能会被应用到,例如:数据合并:当你须要将两个或多个列表中的数据合并成一个列表时,能够应用起源list增加到指标list的办法。数据筛选:当你须要依据某些条件从一个列表中筛选出符合条件的元素,并将它们增加到另一个列表中时,能够应用起源list增加到指标list的办法。数据迁徙:当你须要将一个列表中的数据迁徙到另一个列表中时,能够应用起源list增加到指标list的办法。数据备份:当你须要备份一个列表中的数据,并将它们增加到一个新的列表中时,能够应用起源list增加到指标list的办法。总之,在须要在一个列表中增加另一个列表的元素,同时放弃原始列表不变的状况下,你能够应用起源list增加到指标list的办法。上面是FuncGPT(慧函数)对起源list增加到指标list的生成示例: package com.feisuanyz.function;import com.feisuanyz.flow.core.cmpt.annotation.function.MethodDesc;import com.feisuanyz.flow.core.cmpt.annotation.function.ParamDesc;import java.util.List;public class ListUtils { @MethodDesc(desc = "将源列表中的元素增加到指标列表中",params = {@ParamDesc(name = "sourceList", desc = "源列表"),@ParamDesc(name = "targetList", desc = "指标列表"),@ParamDesc(name = "<T>", desc = "列表中元素的类型"),})public static <T> void addToList(List<T> sourceList, List<T> targetList) { if (sourceList == null || targetList == null) { // 查看入参是否为null throw new IllegalArgumentException("Source list and target list cannot be null"); // 抛出异样,入参不能为空 } targetList.addAll(sourceList); // 将源列表中的元素增加到指标列表中 }}那么针对以上这段代码,看看文心一言给的评估是什么?这段代码是一个Java工具类,其性能是将一个列表(sourceList)中的元素增加到另一个列表(targetList)中。以下是我对这段代码的评估: 1.应用了泛型(generic):public static <T> void addToList(List<T> sourceList, List<T> targetList),这使得这个函数能够解决任何类型的列表,而不仅仅是特定类型的列表。进步了代码的复用性。2.参数查看:在函数开始处,代码查看了输出的两个列表是否为null,如果任一列表为null,则抛出一个IllegalArgumentException。这能够防止在运行时呈现NullPointerException。3.应用了注解(annotation):代码中的@MethodDesc和@ParamDesc注解提供了对函数的详细描述,这对于了解函数的用处和参数的作用很有帮忙,特地是对那些浏览你代码的人。4.简洁明了:函数的性能十分明确,就是将源列表的元素增加到指标列表。代码简洁明了,易于了解。5.函数是动态的:这意味着你不须要创立这个类的实例就能够应用这个函数,使得应用更为不便。总的来说,这是一个编写得十分好的函数,它明确、简洁、平安(有参数查看)并且易于应用(动态函数)。据悉,FuncGPT(慧函数)反对所有类型函数创立。通过自然语言形容Java函数需要,实时生成高质量、高可读性的Java函数代码。生成代码可间接复制到IDEA,或一键导入Java全自动开发工具函数库。FuncGPT(慧函数)五大能力:1.自然语言:通过自然语言即可生成函数,升高软件开发门槛。2.秒级函数开发:全自动秒级开发函数,秒级实现,效率千倍晋升。3.一站式函数开发利用:函数生成即可间接利用,效率、平安有保障。4.品质牢靠:生成的函数代码合乎业界标准、具备良好的可读性,合乎最优解。5.灵便生成:能够依据开发人员的具体需要生成并反对调整和批改。目前曾经能够收费应用: https://c.suo.nz/a7EeC ...

September 28, 2023 · 1 min · jiezi

关于人工智能:AIGC只要10秒AI生成IP海报解放双手-京东云技术团队

看完这篇文章,你将学会以下无价之宝的内容1、云端部署(配置不行的小伙伴看)+ 云端模型搁置地位 2、本地部署(配置达标的小伙伴看) 3、使用SD训练IP的流程和技巧(LoRA篇) 4、使用SD稳固生成高质量IP海报 家喻户晓,各大厂目前都在AIGC的畛域摸索实际,也有十分多的内部设计师制作了大量的AIGC相干授课,很多同学因为不分明具体能失去什么价值或者播种而进行了脚步。明天我来为大家分享一下通过理论摸索且落地的Stable diffusion的IP海报生成流程,内容很干请上车坐稳 先来看一下达达骑士IP的成果:· 浅看一下IP海报生成过程 · V1模型生成 · V2模型生成 •V3模型生成 1、云端部署应该有很多小伙伴苦于没有一个趁手的电脑配置,以及繁琐的本地配置,最终卡在了配置这个环节,明天我将带大家实现SD的云端部署,看完你就能完满的关上SD了 1、关上云端地址:https://www.autodl.com/home 1、注册登陆后,点击算力市场 2、抉择按量计费、内蒙A区(注:不要选北京区可能须要SHH企业关上的问题) 3、点击社区镜像 4、输出搜寻关键词vel,找到并抉择最新stable-diffusion镜像 5、点击立刻创立 6、命名本人的服务器,期待创立实现和开机 7、点击JupyterLab,进入MainUI.ipynb 8、左侧目录下,关上MainUI.ipynb,点击第一行代码区域,而后点击上方的“运行”三角,显示“挪动实现”后刷新页面 9、将右上角python 3,改为xl_env 10、点击第二行代码区域,而后点击上方的“运行”三角,期待功能模块呈现 11、抉择“启动WebUi”,而后勾选前4个罕用性能,点击运行WebUi,期待代码运行 12、当看到蓝色的URL时,则示意运行胜利了,而后返回AutoDL下本人的服务器 13、点击“自定义服务”,祝贺你胜利进入云端SD了 2、云端根底模型的搁置地位1、大模型搁置地位:dutodl-tmp——stable-diffusion-webui——models——Stable-diffusion 2、lora搁置地位:dutodl-tmp——stable-diffusion-webui——models——Lora 3、VAE搁置地位:dutodl-tmp——stable-diffusion-webui——models——VAE 4、ControlNet模型搁置地位:dutodl-tmp——stable-diffusion-webui——extensions——sd-webui-controlnet——models 5、起手式地位:dutodl-tmp——stable-diffusion-webui 2、本地部署秋葉Stable diffusion一键包 百度链接https://pan.baidu.com/s/1A4xSvlLHUJ8uplOc7WjZqg;提取码:sejt 夸克链接:https://pan.quark.cn/s/1dd4f17b3504;提取码:yBRx 3、使用SD训练IP的流程和技巧(LoRA篇)先来介绍一下什么是LoRA大家刚接触stable diffusion时,会听到很多专业术语,其中LoRA模型必然是会被提及到的,那么什么是LoRA模型?它有什么作用呢? LoRA模型全称是:Low-Rank Adaptation of Large Language Models,能够了解为Stable-Diffusion中的一个插件,仅须要大量的数据就能够进行训练的一种模型。在生成图片时,LoRA模型会与大模型联合应用,从而实现对输入图片后果的调整。 举个例子:大模型好比没有润饰过的人物、物品、场景、等;LoRA模型好比是扭转人物、物品、场景等内容的形色质构的因素,但依然在大模型的底子下。当然LoRA模型不仅仅限度于人物,场景、动漫、格调。 1、训练环境的搭建· 本地:可下载秋葉SD trainer训练器一键包 · 云端:AutoDL云端配置,社区镜像中找到Train进行部署 2、训练集解决(图片解决+打标+训练参数)· 图片解决· 首先咱们须要筹备训练的IP(也能够是:物品、场景、格调等),训练图的尺寸须要对立,且以64的倍数设置:罕用分辨率为512*512、512*768、768*1152。因为如果尺寸不对立或不是64的倍数,AI在训练过程会对你的图片进行裁切,导致你想要的画面细节被裁减 ...

September 28, 2023 · 1 min · jiezi

关于人工智能:使用高斯混合模型拆分多模态分布

本文介绍如何应用高斯混合模型将一维多模态散布拆分为多个散布。 高斯混合模型(Gaussian Mixture Models,简称GMM)是一种在统计和机器学习畛域中罕用的概率模型,用于对简单数据分布进行建模和剖析。GMM 是一种生成模型,它假如观测数据是由多个高斯分布组合而成的,每个高斯分布称为一个重量,这些重量通过权重来管制其在数据中的奉献。 生成具备多模态散布的数据当一个数据集显示出多个不同的峰值或模态时,通常会呈现显示出多个不同的峰值或模态,每个模态代表散布中一个突出的数据点簇或集中。这些模式能够看作是数据值更可能呈现的高密度区域。 咱们将应用numpy生成的一维数组。 import numpy as np dist_1 = np.random.normal(10, 3, 1000) dist_2 = np.random.normal(30, 5, 4000) dist_3 = np.random.normal(45, 6, 500) multimodal_dist = np.concatenate((dist_1, dist_2, dist_3), axis=0)让咱们把一维的数据分布形象化。 import matplotlib.pyplot as plt import seaborn as sns sns.set_style('whitegrid') plt.hist(multimodal_dist, bins=50, alpha=0.5) plt.show() 应用高斯混合模型拆分多模态散布上面咱们将通过应用高斯混合模型计算每个散布的均值和标准差,将多模态散布拆散回三个原始散布。高斯混合模型是一种可用于数据聚类的概率无监督模型。它应用冀望最大化算法预计密度区域。 from sklearn.mixture import GaussianMixture gmm = GaussianMixture(n_components=3) gmm.fit(multimodal_dist.reshape(-1, 1)) means = gmm.means_ # Conver covariance into Standard Deviation standard_deviations = gmm.covariances_**0.5 # Useful when plotting the distributions later weights = gmm.weights_ print(f"Means: {means}, Standard Deviations: {standard_deviations}") #Means: [29.4, 10.0, 38.9], Standard Deviations: [4.6, 3.1, 7.9]咱们曾经失去了均值和标准差,能够对原始散布进行建模。能够看到尽管平均值和标准差可能不完全正确,但它们提供了一个靠近的预计。 ...

September 28, 2023 · 1 min · jiezi

关于人工智能:使用-Sealos-构建低成本高效能的私有云

这个时候议论公有云仿佛有点反直觉?大部分人认知不是上云是大趋势嘛?我也比拟认可上云,不过公有云也是云,明天给大家带来一个新的抉择 —— 用云,只需一个 Sealos 就够了。 看看咱们怎么做到更低的老本,更高的稳定性和性能的。 PS:咱们从不脱离场景谈劣势,不同场景选不同的云必定是硬道理。️ 为什么要建设公有云? ❶ 数据安全:如金融畛域,或企业不想将外围数据交给私有云厂商;❷ 老本效益:在某些场景下,公有云的老本更低;❸ 性能优化:通过特定计划,在公有云环境中取得更好的性能。 原文链接:https://forum.laf.run/d/1038 公有云建设之痛构建公有云的残缺步骤如下: 以上每一步都是步步惊心,波及到多方面的问题和挑战,包含: 须要大量专家和开发者,招到不适合的人会付出很大的代价。产品设计抄来抄去,十个有九个会去抄 AWS。艰难的技术选型,虚拟机?容器?计算?存储?网络?每个细节的点都波及到技术选型和组合。建设周期长,架构设计,开发实现,性能/性能/稳定性测试等。稳定性难以收敛,要么性能问题,要么天天救火。最终做进去了企业外部不敢用,不好推广,这一步往往是最难的。所以任何企业要是没点教训,想一步把事件做对,是十分十分艰难的。 切实不行去洽购一套吧。 最初发现洽购也是问题: 不晓得选哪家,大厂贵,小厂不敢用。交付重且周期长,长期保护对接也各种不不便,响应也是问题。 私有云与公有云老本比照因为以上种种问题,导致了公有云的老本很高很高: 单纯看算力老本的话,比方私有云的 100 核 CPU 要比你买 100 核 CPU 的硬件贵十分多(通常 10 倍以上,我司有两个集群等同算力价格差了 20 倍,私有云还是贵) 然而算上软件老本,会发现公有云可能会更贵,不仅贵,还有可能做不好。 回头看看 Linux你会发现企业应用 Linux 这种单机操作系统的老本并不高,因为: 谁都会装;谁都会用;运行稳固;简直不必投入太高老本;根本不须要定制化开发;外围起因 :Linux 写的好还视金钱如粪土。❌ 再看个失败的例子 Openstack大量的老本能力把这玩意儿真正落地。 专业人士三天都不肯定能装起来;想要运行稳固没个 15集体以上的团队别想;得改一堆代码能力用;把性能飙起来更是难;不能怪 Openstack ,曾经很优良了,只是这事的确太简单。 云就不能像 Linux 一样么?为什么云不能像 Linux 一样简略和高效呢?有了 Kubernetes 这个优良的“云内核”,就能够实现通用的云操作系统: 基于云内核的云操作系统发行版能够让企业用云开箱即用;公有云的软件老本能够被降的非常低;最终企业购买硬件再装上云操作系统能够失去一个既便宜又好用的云,是一种新的可选计划。所以,基于云操作系统的云的老本模型最终会变成这个样子: 基于云操作系统的公有云落地流程最终能够缩短到两步:装置和推广,其实装置可忽略不计。 ️ 应用 Sealos 构建通用的云操作系统那么具体如何构建一个通用的云操作系统呢? Linux 内核和 Red Hat 之间的关系就很像 Kubernetes 和“云操作系统”之间的关系。 咱们把 Kubernetes 看成云操作系统的内核,基于这个云内核做一个能够运行在多台服务器上的云操作系统发行版,零碎之上“所有皆利用”。 ...

September 27, 2023 · 1 min · jiezi

关于人工智能:全民创作的神器AI-如何简化复杂的视频创作流程

视频是当今最风行和最吸引人的内容模式之一。然而制作高质量的视频可能既耗时又具备挑战性,尤其是对于那些不善于视频编辑的人来说。 这个时候 AI 视频工具就派上用场。 AI 视频工具能够用人工智能来主动执行视频编辑中波及的许多工作,例如转录、翻译和视频成果。 最新的 AI 视频工具之一就是将 AI 助手与 AI 视频编辑器相结合的。用户通过这种类型的工具只须要几个简略的命令就能够制作高质量的视频。 AI 视频工具的工作原理:首先,用户通知 AI 助手想在视频中制作什么。这能够是任何货色,从简略的讲解视频到更简单的蒙太奇。而后,AI 助手应用此信息生成视频脚本。该脚本包含会在视频中朗诵的文本和显示的视觉效果。而后,用户能够查看脚本并进行批改。用户还能够在脚本中增加个人风格,例如本人的画外音或图像。如果用户对脚本感到称心,AI 视频编辑器就会生成视频。AI 视频编辑器会应用多种技术来制作视频,例如:● 从素材库中抉择并编辑视频剪辑。● 向视频增加文本、图像和音乐。● 利用视频成果和过渡。最初,用户能够查看视频并进行批改。如果用户对视频称心,就能够将其导出并和其他人共享。AI 视频工具的许多劣势:易于应用: 这些工具更易于应用,即便对于那些没有视频编辑教训的人也是如此。用户只须要通知 AI 助手他们想在视频中制作什么,AI 助手将负责其余的工作。疾速: 这些工具比传统的视频编辑软件快得多,因为它们能够主动执行视频编辑中波及的许多工作。这意味着用户能够用更少的工夫制作更高质量的视频。视觉吸引力: 与传统的视频编辑软件相比,这些工具能够制作更简单、更具视觉吸引力的视频。这是因为 AI 视频编辑器能够拜访传统视频编辑软件用户无奈应用的素材和库视频成果库。AI 视频工具的潜在用例:为企业和初创公司制作讲解视频:这些工具可用于制作高质量的讲解视频,帮忙企业和初创公司向潜在客户推广其产品和服务。为社交媒体制作营销视频:这些工具可用于制作乏味的且具备视觉吸引力的营销视频,可用于在社交媒体平台上推广企业和品牌。为学生和老师制作教育视频:这些工具可用于制作教育视频,帮忙学生学习新概念,帮忙老师进步课程吸引力。为非凡场合制作集体视频:这些工具可用于为非凡场合(如生日、周年纪念日和婚礼)制作个性化视频。视频制作的将来尽管 AI 视频工具仍处于晚期开发阶段,然而它们有可能彻底改变视频的制作形式。 这些工具让任何人都能够制作高质量的视频,无论他们有没有技术和教训。 这意味着企业、集体和组织将可能制作更多视频来推广他们的产品和服务、教育他们的观众并讲述他们的故事。 视频AI工具的将来倒退是良好的,置信这些工具有可能让每个人都更容易上手和负责视频制作。 非常感谢大家的浏览,小Mo在这里祝你在末来的 Python 学习职业生涯中一切顺利! 后续小Mo会不定期更新书籍、视频等学习资源,以上这些书籍材料也可通过关注微信公众号收费获取哦! 欢送关注咱们的微信公众号:MomodelAl 同时,欢送应用「Mo A编程」微信小程序 以及登录官网,理解更多信息:Mo 人工智能教育实训平台 Mo,发现意外,发明可能 注:局部资源来源于互联网,若有侵权,请间接分割作者删除。

September 27, 2023 · 1 min · jiezi

关于人工智能:Hugging-News-0925-一览近期的新功能发布

每一周,咱们的共事都会向社区的成员们公布一些对于 Hugging Face 相干的更新,包含咱们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,咱们将其称之为「Hugging News」。本期 Hugging News 有哪些乏味的音讯,快来看看吧! 近期更新huggingface_hub v0.17 现已公布 InferenceClient 现已全面反对各种推理工作,包含对象检测、文本分类、令牌分类等。此外,该版本还提供了两个新的辅助函数:list_deployed_models 和 get_model_status,用于获取 Inference API 服务上已部署模型的信息。 cli 性能也失去了显著的晋升。用户当初能够应用 huggingface-cli download 和 huggingface-cli upload 命令不便地下载和上传文件。与 git 相比,这一新个性尽管性能较少,但在解决大型仓库时更为灵便。 Space API 也新增了几项性能,包含为 Space 申请长久存储、设置形容等。 查看详情或分享本资讯:huggingface_hub v0.17 现已公布。 Space 利用构建工夫晋升 4 倍 咱们已通过缓存复原实现了高达 4 倍的构建速度晋升,例如 6GB 的 Docker 缓存从先前的约 70 秒升高到 17 秒,目前仍有 3 倍的速度晋升空间,咱们会进一步优化。 transformers v4.33 现已公布 退出了 Falcon、Code Llama、ViTDet、DINO v2、VITS 等新模型的反对,有一个破坏性变更须要大家留神:所有与非 Hugging Face 生态系统相干的实用工具文件,现已挪动至 integrations/ 文件夹,代码上须要做这样的改变: 最新的 v4.33.2 版本修复了一些 bug,晋升了性能。 ...

September 27, 2023 · 1 min · jiezi

关于人工智能:微软考虑引入小型核反应堆诺基亚推出网络即代码平台丨RTE开发者日报-Vol58

开发者敌人们大家好: 这里是「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。咱们的社区编辑团队会整顿分享 RTE (Real Time Engagement) 畛域内「有话题的新闻」、「有态度的观点」、「有意思的数据」、「有思考的文章」、「有看点的会议」,但内容仅代表编辑的个人观点,欢送大家留言、跟帖、探讨。 本期编辑:@Asui,@CY,@墨镜 01 有话题的新闻1、6G 无望在 2030 年实现商用9 月 26 日,在由中关村泛联挪动通信技术创新利用研究院主办的 6G 协同翻新研讨会上,专家普遍认为,6G 无望在 2030 年实现商用,以后 6G 钻研进入标准化新阶段,将来 3-5 年是 6G 钻研的要害窗口期。为此,运营商、通讯设备商等放慢 6G 标准化技术布局,立足利用场景发展产业化摸索。 2、哈佛钻研发现 GPT-4 可将一些企业员工的业绩晋升 40%近日,哈佛大学领导的一项钻研发现,应用生成式人工智能 GPT-4 的波士顿征询团体的数百名参谋在实现工作的频率、速度和品质方面体现更杰出,相较于不应用 AI 的同行,他们的绩效进步了 40%。该钻研还发现 AI 在技能方面具备均衡效应。(@IT之家) 3、诺基亚推出“网络即代码”平台9 月 25 日音讯,据 The Verge 报道,寰球最大的商业图库 Getty Images 将与英伟达单干推出生成式 AI 工具 Generative AI by Getty Images。 诺基亚发表,推出“网络即代码”(Network as Code)平台,减速网络可编程性和货币化。此外,诺基亚和 DISH Wireless 已批准签订体谅备忘录,利用诺基亚的“网络即代码”平台和 DISH 云原生 5G 网络单干发展生态系统我的项目。(@界面新闻) ...

September 27, 2023 · 1 min · jiezi

关于人工智能:手把手教你用-Milvus-和-Towhee-搭建一个-AI-聊天机器人

作为向量数据库的佼佼者,Milvus 实用于各种须要借助高效和可扩大向量搜寻性能的 AI 利用。 举个例子,如果想要搭建一个负责聊天机器人数据管理流程,Milvus 必然是首选向量数据库。那么如何让这个利用程序开发变得易于治理及更好了解,那就须要借助 Towhee(https://towhee.io/)了。Towhee 是一个新兴的机器学习(ML)框架,能够简化了实现和编排简单 ML 模型的过程。 接下来我将介绍如何通过 Python 应用 Milvus + Towhee 搭建一个根底的 AI 聊天机器人。本文会重点解说如何解决、剖析非结构化数据及存储和查问向量数据。 01.设置环境首先,创立一个 Python 虚拟环境来运行聊天机器人。 以下是 Linux shell session(会话)。借助 Shell session 创立并激活环境,将 pip 降级到最新版本。 [egoebelbecker@ares milvus_chatbot]$ python -m venv ./chatbot_venv[egoebelbecker@ares milvus_chatbot]$ source chatbot_venv/bin/activate(chatbot_venv) [egoebelbecker@ares milvus_chatbot]$ pip install --upgrade pipRequirement already satisfied: pip in ./chatbot_venv/lib64/python3.11/site-packages (22.2.2)Collecting pip Using cached pip-23.1.2-py3-none-any.whl (2.1 MB)Installing collected packages: pip Attempting uninstall: pip Found existing installation: pip 22.2.2 Uninstalling pip-22.2.2: Successfully uninstalled pip-22.2.2Successfully installed pip-23.1.2接下来,装置运行代码所需的软件包:Pandas、Jupyter、Langchain、Towhee、Unstructured、Milvus、PymMilvus、sentence_transformers 和 Gradio。 ...

September 27, 2023 · 8 min · jiezi

关于人工智能:使用Triton部署chatglm26b模型-京东云技术团队

一、技术介绍NVIDIA Triton Inference Server是一个针对CPU和GPU进行优化的云端和推理的解决方案。 反对的模型类型包含TensorRT、TensorFlow、PyTorch(meta-llama/Llama-2-7b)、Python(chatglm)、ONNX Runtime和OpenVino。 NVIDIA Triton Server是一个高性能的推断服务器,具备以下特点: 1. 高性能:Triton Server为应用GPU进行推断的工作负载提供了高性能和低提早。它可能在高吞吐量和低提早的状况下同时服务多个模型。 2. 内存治理:大模型通常须要大量的显存来进行推断。Triton Server具备灵便的内存管理机制,能够无效地治理和调配显存,确保大模型的推断能够高效地进行。 3. 可扩展性:Triton Server通过并行处理和异步推断反对高度并发的推断申请。它能够依据负载的须要主动扩大和膨胀。 4. 多模型反对:Triton Server可能同时部署和治理多个模型。这容许您共享服务器资源并以统一的形式部署和治理不同的模型。 5. 灵活性:Triton Server反对多种模型格局和推断框架,包含TensorFlow、PyTorch、ONNX等。您能够应用您喜爱的模型和工具进行模型开发和训练,并将其轻松部署到Triton Server上。 6. 高级个性:Triton Server提供了许多高级个性,例如模型版本治理、申请并发管制、动静批处理大小优化、申请工夫跟踪等。这些个性加强了模型的部署和治理能力。 二、实际Serve a Model in 3 (N) Easy Steps 官网文档 https://github.com/triton-inference-server/server Serve a Model in n Easy Steps Step 1: 拉取triton-server代码git clone -b r23.08 https://github.com/triton-inference-server/server.git # Step 2: 应用tritonserver:22.12-py3镜像构建triton-server容器docker run --gpus all --shm-size=1g --ulimit memlock=-1 -p 8000:8000 -p 8001:8001 -p 8002:8002 --ulimit stack=67108864 -ti nvcr.io/nvidia/tritonserver:22.12-py3 ...

September 27, 2023 · 4 min · jiezi

关于人工智能:9月人工智能论文和项目推荐

因为LLM的火爆,所以最近的论文都是和LLM相干的 论文1、LongLoRA https://arxiv.org/abs/2309.12307 LoRA是人工智能中无效扩大预训练语言模型(llm)上下文大小的一种办法。LongLoRA通过在训练期间利用稠密的部分注意力和在推理期间利用密集的全局注意力,容许进行经济无效的微调并放弃性能。LongLoRA在各种工作上展现了令人印象粗浅的后果,并在llm中反对多达10万个令牌的上下文扩大。 2、Chain-of-Verification https://arxiv.org/abs/2309.11495 Chain-of-Verification缩小了大型语言模型中的幻觉。CoVe能够无效地缩小基于语言模型的零碎中的幻觉。通过生成、验证和传递响应的零碎过程,CoVe曾经证实了它在各种工作(包含问答和文本生成)中缩小幻觉。 3、Fast Feedforward Networks https://arxiv.org/abs/2308.14711 疾速前馈网络(FFF)是一种以较小的神经网络作为叶子的二叉树构造,与mix -of- experts网络相比,它的性能要快得多。只管还有一些问题,比方树过深而导致的碎片化,然而FFF网络在须要疾速推理和小细节编码的场景中具备很大的前景。 4、Contrastive Decoding https://arxiv.org/abs/2309.09117 比照解码进步了大型语言模型的推理能力。LLM中的比照解码是一种弱小的推理方法。它超过了贪心解码和核采样,在HellaSwag和GSM8K等基准测试中表现出色。 5、PDFTriage https://arxiv.org/abs/2309.08872 钻研人员开发了PDFTriage,这是一种进步基于语言模型的结构化文档(如pdf)问答零碎性能的解决方案。通过合并文档构造和内容,PDFTriage在答复各种类别的简单问题方面优于现有模型。 6、CulturaX https://arxiv.org/abs/2309.09400 CulturaX是一个精心策划的用于167种语言的大型语言模型的多语言数据集,蕴含6T标记,专为167种语言的语言模型而设计。数据集通过彻底的清理阶段,以确保人工智能语言模型的高质量训练数据。 7、An Empirical Study of Scaling Instruct-Tuned Large Multimodal Models https://arxiv.org/abs/2309.09958 钻研人员发现,在训练过程中进步图像分辨率和混合多模态语言数据能够进步LLaVA和MiniGPT-4等多模态模型的性能。此外调整视觉指令能够进一步提高这些模型的语言能力。 8、EvoPrompt https://arxiv.org/abs/2309.08532 EvoPrompt是一个应用进化算法的新框架,它优化了GPT-3.5和Alpaca等语言模型的提醒生成。它超过了人类设计的提醒和以后的办法,证实了它在语言工作中的有效性。 9、Scaling Laws for Sparsely-Connected Foundation Models. https://arxiv.org/abs/2309.08520 钻研人员发现了一个独特的标度定律,它显示了根底模型中权重稠密度、非零参数和训练数据量之间的关系。性能的最佳稠密级别随着数据的减少而减少。 值得关注的我的项目1、vllm https://github.com/vllm-project/vllm vLLM是一个为llm提供了卓越的速度和改良效率的开源引擎,它与hug Face无缝集成,反对高吞吐量服务与先进的算法。vLLM在吞吐量方面优于hug Face transformer和Text Generation Inference。 2、指标检测排行榜 https://huggingface.co/blog/object-detection-leaderboard huggingface又公布了指标检测排行榜,目前以基于DETA和DETR架构的模型得分最高 3、DALL·e3 https://openai.com/dall-e-3 OpenAI正在推出DALL·E 3 4、adobe的Firefly要免费了 https://techcrunch.com/2023/09/13/adobes-firefly-generative-a... Adobe明天发表,测试版公布的176天后,Firefly当初能够在其Creative Cloud, Adobe Express和Adobe Experience Cloud中应用。 还会将Firefly作为一款独立的web应用程序推出,而后就是免费: ...

September 27, 2023 · 1 min · jiezi

关于人工智能:大模型时代探人工智能发展的新动向

导语 | 今年以来大模型的热度居高不下,人工智能成为国内外各大厂商争相布局的新赛道。那么近期 AI 畛域有哪些值得关注的新趋势,它又将为软件开发带来哪些影响呢?明天,咱们特邀了微智云科技 CEO、腾讯云 TVP 张虎老师,他将为咱们带来业内独有的察看与思考。作者简介 张虎,微智云 CEO、腾讯云 TVP,有十几年的软件研发教训,目前致力于物联网零碎计划和人工智能畛域。曾任职于华为、Oracle,相熟通信、虚拟化、云服务等畛域的产品,Oracle VM 开创团队成员。2010 年,作为 CTO,创建国内最早的手机 App 推送服务,极光推送,主导产品定义、开发和宣传。 咱们正处于一场人工智能的倒退浪潮之中,它将为科技行业带来有限的变革可能,并在一直影响着泛滥技术畛域,近期以来,向量数据库、AI助力软件研发效力晋升等畛域备受关注。 一、向量数据库:大模型的技术底座家喻户晓,随着人工智能的热度攀升,各种大模型竞相涌现,为科技行业带来了很多新的变动。以后人工智能在解决图片、文本、声音等数据时都是先把数据转化为向量,而后再进行输入。而向量数据库,人造地适宜存储这些向量数据。 基于向量数据库,咱们能够把相似 ChatGPT 这种问答模型的提醒语和答复,存储在向量数据库中,而后当用户输出问题的时候,间接在向量数据库中进行搜寻,找到最类似的问题,再返回对应的答案,这样能够大大提高问答模型的效率。 此外,咱们也能够针对一个特定畛域,用向量数据库建设一个常识图谱,而后在用户输出问题后,能够先在常识图谱中找到最类似的问题,再把问题发给大模型,收到答复后用向量数据库中的答案进行比对,找到最类似的答案,而后再返回给用户。 值得一提的是,基于向量数据库,咱们还能够进行数据检索,无效开掘数据的价值。向量数据库具备高效的查问和相似性搜寻能力,这使得大模型能够疾速地从数据库中检索相干的常识和信息。腾讯在近期对外公布了向量数据库(Tencent Cloud VectorDB),据统计显示,将腾讯云向量数据库用于大模型预训练数据的分类、去重和荡涤相比传统形式能够实现 10 倍效率的晋升,如果将向量数据库作为内部知识库用于模型推理,则能够将老本升高 2-4 个数量级。 二、人工智能为软件开发提效随同人工智能在软件研发过程中的利用,它将无效晋升研发人员的工作效率。例如,在过来典型的开发过程中,咱们须要钻研各种相干的文档,比方编程语言的文档、平台框架的文档、第三方库的文档等等。而当初,咱们能够间接在人工智能编程助手的帮忙下,间接输出所需发问的问题,利用人工智能编程助手即可疾速查阅相干的文档,而后把文档中的内容,间接复制到代码中,并且能够依据上下文主动调整代码。 在过来,咱们碰到问题时,往往须要破费大量的工夫用搜索引擎来查找答案,而当初,咱们能够间接输出问题,智能助手即可联合上下文间接给出答案。毋庸置疑,这也能大幅提高工作效率。 此外,有些编程语言的语法自身比较复杂,比方 C++、Rust。但现在在 AI 智能助手的帮忙下,能够疾速帮忙咱们发现语法错误,乃至间接修复语法错误。随着技术的倒退,未来甚至能够针对特定的我的项目,有针对性地训练 AI 助手,帮忙咱们开发新个性时,精准地给出提醒,大大提高效率。 除了软件开发的过程,人工智能对软件的状态也将会产生很大的影响。例如 ERP 企业管理软件,强依赖于企业对本人业务流程的定义,往往这些业务流程还都很简单,且变动频繁,须要咱们重复沟通需要,批改零碎,造成开发效率低而老本昂扬的问题。在这种状况下,如果可能依靠人工智能,咱们便能大幅晋升开发效率。另外,在 ERP 零碎的应用过程中,也能够依靠人工智能的能力,提供更好的用户体验。 以后,人工智能曾经对科技行业产生了重要的影响。在将来,人工智能也将进一步拓展其应用领域,成为咱们的得力助手,以解决各种简单问题。人工智能将实现更加智能化、高效化的倒退,而咱们须要一直地更新咱们的常识,跟上技术倒退的步调。

September 26, 2023 · 1 min · jiezi

关于人工智能:大模型时代如何找准AI发展新方向TVP读书会与你共探

引言 随着 ChatGPT 掀起人工智能的倒退狂潮,大模型时代悄悄降临。大模型的呈现让人们看到了人工智能在某些方面简直靠近人类智能的“威力”,也由此使人们产生了对于 AGI 的期盼与隐忧。其中,对于大模型是否是人工智能倒退的拐点、科技从业者又该如何把握这一新时机等话题备受关注。 大模型时代下,科技从业者和公众的生存和工作形式会产生怎么的变动?咱们要如何利用大模型打造本人的“第二大脑”?大模型将会对自然语言解决、计算机视觉等畛域带来哪些冲击?以及面对时机与挑战并存的新时代,咱们又该如何找准方向发力? 9 月 26 日(周二)早晨 19:30 ,腾讯云 TVP 联结人民邮电出版社异步社区举办新一期 TVP 读书分享会,将邀请多位 AI 畛域大咖,带你开展一场前沿 AI 学习之旅! 读书分享会TVP 读书分享会,是为 TVP 打造的专属好书分享会,心愿能为大家提供一个分享书籍、交换感悟的平台,使每一位参与者都能在这里取得独特的感触,品尝浏览的乐趣。 「大模型时代,《人工智能:古代办法》给将来的启发」 TVP 读书分享会将在 9 月 26 日(周二)早晨 19:30 举办,特邀 AI 畛域多位大咖以书会友,解读 AI 热点话题,共话人工智能的将来发展趋势。 本次读书分享会将采纳线上直播举办,「扫描下方海报二维码」或点击「腾讯云 TVP」视频号卡片即可预约直播,在参会过程中,还有《人工智能:古代办法(第4版)》书籍、腾讯定制噗噗盲盒、腾讯定制公仔、星星海积木等超多精美福袋礼品放送哦,快快报名加入吧~ 《人工智能:古代办法》《人工智能:古代办法》一书自 1995 年第 1 版问世至今,已有 28 年,目前更新到第 4 版。这本书不仅是经典的人工智能导论教材,被寰球 130 多个国家或地区的 1500 多所院校用于教学,还被泛滥人工智能行业的从业者誉为人工智能畛域的“大百科全书”,是从业者的权威参考书。每当技术有新进展,作者都会对这本书订正,这本书最新的第 4 版简直涵盖了人工智能从业者须要理解的人工智能畛域的所有根本内容,反映了人工智能畛域的最新进展。 结语TVP 自成立之初,便致力于搭建连贯技术专家与宽广开发者的桥梁,心愿可能“用科技影响世界”,让技术普惠大家,践行科技向善的初心与本心。TVP 心愿通过读书分享会的模式,携手顶级大咖,漫游浩瀚书海,一起感触浏览乐趣,品尝雅致人生。

September 26, 2023 · 1 min · jiezi

关于人工智能:大咖共探AGI时代机遇腾讯云助力大模型规模化应用提速

引言2023 年,科技圈的“顶流”莫过于大模型。自 ChatGPT 的问世拉开大模型与生成式 AI 产业的倒退尾声后,国内大模型疾速跟进,已实现从技术到产品、再到商业的阶段逾越,并深刻垂直行业畛域。 新技术的暴发,催生新的利用场景与产品模式,撬动影响全行业的智能化改革。滚滚趋势下,作为从业者、创业者,将面对怎么的时机和挑战,又该如何破局迎来 AGI 新时代? 近日,「大模型时代的时机与挑战」腾讯云 TVP AI 创变研讨会在上海腾云大厦举办,特邀 AI 畛域顶级大咖,围绕大模型热点话题进行深度分享与研究,独特摸索大模型时代的将来风向。 大模型——技术、价值、生态 IDEA 研究院认知计算与自然语言钻研核心讲席科学家、腾讯云 TVP 张家兴老师,带来《大模型——技术、价值、生态》主题分享。 谈及 GPT 大模型诞生的历程,张家兴老师从十余年在深度学习畛域的资深钻研教训登程,用模型构造、训练技术、算力+零碎和数据四条主线来论述整个技术倒退的背地趋势,并重点分享了几个要害节点: 模型构造翻新:深度学习的衰亡推动了模型构造的翻新,其中 Transformer 构造起到了关键作用。它冲破了模型 1 亿参数的瓶颈,对立了各种注意力机制的尝试办法,也解决了工作设计的难题;训练技术冲破:标志性事件是 2018 年 BERT 模型,张家兴老师认为模型构造是物理根底,而训练技术使得人工智能具备特定能力;算力与数据的提高:底层的芯片不断进步,性能晋升了 100 倍以上。 张家兴老师指出,任何一次大的技术范式的变动,都是一次类型的隐没,或者都是一种走向对立的过程,大模型就是这样的一种新的技术范式变动。在 ChatGPT 呈现后,模型构造走向对立,之后就会疾速“一致”,整个技术畛域从新分工,促使新的生产链的造成,这种变动标记着大模型将成为一个新的产业。 在整个技术的范式变动过程中,张家兴老师所率领团队研发的模型方向也在变动,从一开始的封神榜,到现在构建姜子牙系列专家大模型。张家兴老师剖析到,构建一个全能力的大模型存在肯定挑战,不同能力之间可能存在抵触和不兼容性,因而将各个能力拆分成独立的模型,以便可能专一于每个能力的倒退。通过定制针对性的训练策略,从而达到每个能力的最佳体现。 张家兴老师认为,在“百模大战”的竞争格局中,训练技术的探索性极为重要。他强调,训练技术自身即是一个摸索的过程。在训练过程中摸索好的生成形式,并在人类反馈学习中疏导模型的倒退。 在大模型利用产品方面。张家兴老师提出从专家模型到客户端进行层层封装的思路: 第一层封装是一体化封装:包含代码模型及微调、利用和高效推理工具等,并设置好各种应用场景。 第二层封装是模型和算力整合封装,张家兴老师在这一方面正在和腾讯云开展单干,踊跃推动将模型和算力联合在一个大模型产品中提供给客户,做到“开箱即用”。 AGI时代的技术创新范式与思考 Boolan 首席技术专家、寰球机器学习技术大会主席、腾讯云 TVP 李建忠老师,带来了题为《AGI 时代的技术创新范式与思考》的主题演讲。 李建忠老师首先从产业的角度对技术的倒退进行了工夫线的梳理,他认为连贯和计算都经验了从 1.0 到 2.0 的革命性变动。1840-1940 年的这 100 年间是连贯的 1.0 时代,电报之后电话、播送、电视相继诞生,是最早的连贯技术。1946 年第一代计算机呈现,而后大型机、小型机、微型机、PC 呈现,这是计算的 1.0 时代。之后随着 1995 年互联网呈现后,Web2.0、挪动互联网、云服务问世,这是连贯 2.0 时代,相比上一代,连贯从单向走向双向。再到 2017 年 Transformer 构造的呈现, GPT 的迭代是计算 2.0 时代,这个时代还将持续,李建忠老师认为依照过往技术倒退的曲线,这个工夫会继续到 2035 年左右。 ...

September 26, 2023 · 2 min · jiezi

关于人工智能:合合信息上海大学华南理工大学发布业内首个古彝文编码大字典-为古文字打造身份证

“乌蒙山连着山外山,月光洒向了响水滩。”近期在各大短视频平台爆火的《奢香夫人》你听过吗?奢香夫人是一位彝族“巾帼英雄”,这首同名歌曲早在2009年便已公布,现在忽然“翻红”,不仅体现了公众对于少数民族文化低落的趣味,也见证着优良的传统文化不息的生命力。  文字是文化的重要载体,古彝文承载了深远的彝族历史外延,蕴含着丰盛的文化信息。近期,合合信息联结上海大学、华南理工大学公布业内首个古彝文根底编码数据库,该我的项目由合合信息与上海大学社会学院、华南理工大学文档图像剖析辨认与了解实验室独特推动,针对现有的《东北彝志》、云贵一带字符,以智能图像处理、智能文字辨认等AI技术发展对立编码,古彝文在数字社会中从此有了“身份证号码”。 校企合力,把七万多个字符“稀释”成精简的字典 以往,古文字次要通过人工辨认、校对和进行文献编撰,工作量繁多且效率低下。近年来,人工智能,特地是深度学习技术的倒退,为古文字辨认提供了高效的工具,极大地提高了现代文献和文字数字化过程的速度和效率,本次古彝文根底编码数据库的公布,将成为古文字数字化的重要成绩之一。 繁多古彝文可表白多个释义(图源:《滇川黔桂彝文字集》 ) 以后,古彝文数字化方面的成绩绝对较少,其起因之一是古彝文字符集宏大,且不足成熟的手写样本库。据《滇川黔桂彝文字集》中所有字符的共计,古彝文和当初依然应用的各地的彝文,总数多达87046字,对如此宏大的字符集进行分类十分艰难。另一方面,在彝文的倒退过程中,因为种种因素,导致异体字、变体字特地丰盛,字符和释义“一对多、多对一”是常态。古彝文手写体的随意性、多样性等,都给古彝文的辨认带来了极大的挑战。 基于上述情况,合合信息与华南理工大学独特成立的文档图像剖析辨认与了解联结实验室,联结上海大学社会学院组建钻研团队,独特解决数据库建设中的学术性、技术性难点。 我的项目技术负责人、华南理工大学电子与信息学院传授金连文示意,原生态彝文此前没有被系统性地进行数字化编码,古彝文没有公开数据集,标注艰难,所以从最后语料的收集开始,就须要做大量的前置工作。再者,古彝文异体字繁多,每个字的异体写法少则两三种,多则几十种,且字体间格调差别大。因而,建设一个专门的数据库,通过根底编号将不同款式演绎,能力“破解”古彝文“一对多”的关系,解决文字查问问题。 古彝文典籍编码、辨认过程(图源:东北彝志) 在对7万6千字符的样本进行训练后,团队胜利建设了蕴含上千个古彝文根底编码的数据库。通过API数据接口等模式,该数据库无望帮忙高校钻研人员、文化工作者、趣味爱好者等人群疾速找到古彝文在字典中的读音、汉语释义、用法,如同“大字典”个别,帮忙人们升高古彝文书籍、文献浏览的门槛。 “古彝文数据库的公布并非一个最终的钻研后果,而是一项十分重要的基础性工作。”古彝文数字化我的项目发起人、上海大学人类学民俗学研究所讲师邵文苑示意,根底编码的公布,意味着这些文字在数字社会里从此领有了“身份证号码”,可能被更多地展示在网络空间上,被更宽泛的人群看见、意识、钻研。 AI帮人类升高古彝文浏览难度 构建古彝文“大字典”须要解决的首要问题并非文字辨认,而是低质量的图片材料解决。传统的古彝文大多被记录在岩书、布书、竹简等,在湿润的自然环境下难以残缺保留,往往会变得模糊不清或残缺不全。在材料文档数字化的过程中,采纳科技伎俩优化图像品质问题是要害的一环。 在古彝文语料收集过程中,钻研团队选取的古籍图片采集工具是合合信息旗下的智能扫描“扫描全能王”。该产品的“智能高清滤镜”性能基于AI技术及智能扫描引擎,可自动检测图像中存在的问题,并智能断定图像的优化形式,一键解决含糊、暗影、手指、屏幕纹等烦扰因素,加重后续图片解决工作,缩短内容辨认、编码的操作周期。 扫描全能王“智能高清滤镜”古籍扫描成果(图源:东北彝志) 2022年5月,中共中央办公厅、国务院办公厅印发了《对于推动施行国家文化数字化策略的意见》,文件指出,到2035年,建成全面共享、重点集成的国家文化大数据体系。文化数据因素和人工智能技术的交融,将推动文化数字化策略的无效施行和文化产业的高质量倒退,是优良传统文化传承翻新的无效门路。 合合信息在智能文字辨认畛域已有十七年深耕教训。此前,在AI辨认甲骨文、西周钟鼎文(金文)畛域,公司已进行了当先的摸索和钻研,为古彝文辨认积攒了教训,奠定了良好的技术根底,相干我的项目曾取得央视、新华社、《人民日报》等多家支流媒体的关注。 扫描全能王小程序上线H5,面向全社会进行古彝文典籍公益性征集及文化海报传递 增强文化遗产的爱护、传承与正当利用任重道远,须要全社会共同行动。为动员更多的社会力量参加到古彝文辨认和爱护,扫描全能王已同步启动公益性流动,上线古彝文典籍上传入口,面向全社会征集古籍材料。钻研团队在接管古籍后会将其转交给对应专家、部门进行钻研,助力中华文化珍宝传承。 近年来,国家正一直推动文化数字化策略。2022年,国务院办公厅印发《对于推动施行国家文化数字化策略的意见》,提出了“中华文化全景出现,中华文化数字化成绩全民共享”的指标,体现了传统文化“数字化”的重要性。AI技术与古彝文的“牵手”,将助力民族文化在深入群众的过程中与新事物交融,为文化传承提供翻新的源泉。网友自发“创作”的古彝文对联

September 26, 2023 · 1 min · jiezi

关于人工智能:中国首个接入大模型的Linux操作系统ChatGPT支持图片和语音输入抖音上线方言自动翻译功能丨RTE开发者日报Vol57

开发者敌人们大家好: 这里是「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。咱们的社区编辑团队会整顿分享 RTE (Real Time Engagement) 畛域内「有话题的新闻」、「有态度的观点」、「有意思的数据」、「有思考的文章」、「有看点的会议」,但内容仅代表编辑的个人观点,欢送大家留言、跟帖、探讨。 本期编辑:@Asui,@CY,@墨镜 01 有话题的新闻1、ChatGPT 更新:反对图片和语音输入OpenAI 更新 ChatGPT,新增语音和图像输出性能,将于将来两周外向订阅用户推出。ChatGPT Plus 用户将率先体验到这些新性能。语音输入性能更加天然和便捷,答案品质更高。图像输出性能相似于 Google Lens,能够拍摄并上传照片,辨认用户想要询问的内容,并进行多轮对话。但新性能也存在危险,OpenAI 示意会严格限度其应用范畴,以确保安全性和合理性。 2、抖音上线方言主动翻译性能9 月 25 日音讯,近期抖音正式上线中央方言主动翻译性能。创作者能够应用该性能,「一键」将粤语、闽语、吴语、东北官话、中原官话等方言视频转化出普通话字幕。 据理解,来自火山引擎的技术团队采纳了自研的自监督预训练模型和多语言翻译模型,实现了极少量标注数据条件下辨认方言的能力,且训练效率晋升一倍,无效无效晋升了多语言翻译的性能,同时大幅升高了模型训练的资源耗费。「基于日常服务抖音团体业务的技术积攒,抖音方言字幕可实现超低延时和高准确率」,其团队负责人示意。(@新浪科技) 3、寰球最大商业图库 Getty Images 将推出图片生成工具,容许用户利用受权图片进行训练9 月 25 日音讯,据 The Verge 报道,寰球最大的商业图库 Getty Images 将与英伟达单干推出生成式 AI 工具 Generative AI by Getty Images。 据介绍,这款工具容许用户在 Getty Images 宏大的图库中进行训练,也意味着任何应用这种工具、商业公布该工具创作图片的人都会受到法律爱护。Getty Images 应用了英伟达生成式 AI 模型库 Picasso 上提供的模型「Edify」来开发这款工具。Getty Images 曾在去年 9 月发表禁止上传和销售应用 DALL-E、Midjourney 和 Stable Diffusion 等 AI 艺术工具生成的插图。 定价方面,Getty Images 示意该工具将与标准版的 Getty Images 订阅进行离开定价。用户对其生成的图像享有永久性、全球化和无限度的权力,不过 Getty 会给生成的图片打上水印,以强调这是一张由 AI 生成的图片。(@IT之家) ...

September 26, 2023 · 1 min · jiezi

关于人工智能:集成众多大模型的开源-AI-聊天绘图软件-AIdea-最新版本-105-发布啦

IOS 版本复原上架啦,看这里 喜大普奔,开源 AI 聊天、绘图软件 AIdea 终于在 Apple Store 复原上架了。大概在 4 周前,我公布了 花了小半年开发了一个 AI 套壳 APP,然而大势已过,间接开源了 这篇文章,将开发了近半年的 APP 齐全开源了,感激大家的反对,在不到一个月的工夫内,Github 上曾经取得了 4.9K 个 Star 。 AIdea 是一款集成了支流大语言模型以及绘图模型的 APP , 采纳 Flutter + Golang 开发,代码齐全开源,反对以下性能: OpenAI 的 GPT-3.5 ,GPT-4 大语言模型Anthropic 的 Claude instant ,Claude 2.0 大语言模型国产模型:通义千问,文心一言,讯飞星火,商汤日日新,腾讯混元大语言模型开源大模型:Llama2 ,ChatGLM2 ,AquilaChat 7B ,Bloomz 7B 等,后续还将凋谢更多文生图、图生图、超分辨率、黑白图片上色等性能,集成 Stable Diffusion 模型,反对 SDXL 1.0明天最新版本的 1.0.5 公布啦,大家快来体验体验! Github 地址: 客户端( Flutter ): https://github.com/mylxsw/aidea服务端( Golang ): https://github.com/mylxsw/aidea-server本次更新内容如下 反对 Anthropic Claude 系列模型反对腾讯混元大模型反对邮箱账号注册、登录一些 Bugfix截止至目前,AIdea 曾经反对以下聊天大模型 ...

September 26, 2023 · 1 min · jiezi

关于人工智能:融云观察全球-GenAI-TOP50-应用的6-大启示

ChatGPT 公布至今曾经过来 9 个月了,而它拿下“最快达成 1 亿月活用户”这一战绩,也曾经是 7 个月前的事件了。能够说,它实实在在地引领了生成式人工智能的新纪元。关注【融云寰球互联网通信云】理解更多 然而,在大热门 ChatGPT 之外,用户是怎么与 GenAI 产品交互的?哪些类别仍由巨头把手,又有哪些机会属于新公司?下一个“大赢家”将花落于谁? 带着这些问题,咱们查看了 SimilarWeb 的流量数据(截至 2023 年 6 月),以月访问量为标尺选出了排名 TOP50 的 GenAI 产品,并剖析了这些产品的增长过程和流量起源。 GenAI 产品 TOP50,图源:a16z 留神:此列表基于截至 2023 年 6 月的 SimilarWeb 寰球桌面和挪动网络访问量数据生成。此列表不包含仅有挪动端利用的公司,也不包含 Discord 服务器中的相干应用数据。相比于挪动端流量,这份名单上的 GenAI 产品更多依赖 Web 端流量评比而出。这是因为,目前大多数 GenAI 产品都是网站优先的(对于这一点,下文将有更多论述)。 当然,名单中同时领有挪动端利用的公司,咱们通过 Sensor Tower 流量数据(截至 2023 年 6 月)来确定他们的最终排名。这个排名旨在帮忙大家辨认和了解趋势,而非一份所有消费者 AI 平台的详尽排名。 以下是咱们取得的 6 大启发。 01 少数当先产品基于 GenAI 从 0 开始构建就像 ChatGPT 一样,名单上的大多数产品一年前还都不存在——80% 的网站都是新的。这表明,尽管许多传统公司正在用 AI 改良他们的产品,但少数最具吸引力的消费者体验是相对陈腐的。 TOP50 公司中,只有 5 家是现有大型科技公司的产品或收买对象:Bard(谷歌)、Poe(Quora)、QuillBot(Course Hero)、Pixlr(123RF)和 Clipchamp(微软)。 ...

September 26, 2023 · 2 min · jiezi

关于人工智能:飞桨黑客马拉松第五期即刻开启报名

新赛制,新玩法,飞桨黑客马拉松第五期全新挑战,重磅回归!开源奉献集体挑战赛、大模型利用与创意赛、飞桨护航打算集训营三大赛道,邀你挑战!多难度梯度开源工作、大模型利用创意挑战、导师1V1领导开发实际,硬核较量剑拔弩张,这场Hacker盛宴,即刻退出吧! 在往期黑客松中,咱们见证了泛滥优良开发者的成长与变质。第五期黑客松,有更多元的参加形式、更丰富的流动处分、更精彩的赛程安顿,不论是再次相遇的老朋友,还是气味相投的新敌人,咱们期待有创意、有激情、有实力的开发者继续退出,欢送你的到来! 流动介绍2023PaddlePaddle Hackathon飞桨黑客马拉松第五期正式上线,本次流动是面向寰球开发者的深度学习畛域编程流动,激励开发者理解与参加飞桨深度学习开源我的项目与文心大模型开发实际。 本次飞桨黑客马拉松由深度学习技术及利用国家工程钻研核心主办,飞桨承办,英特尔作为顶级资助方,OpenVINO™、海光、Arm、高通、Zilliz、凋谢麒麟社区等独特出品,以线上认领工作的模式进行。 你能够集体或组队报名并认领相应工作,依据工作要求实现相应开发,参加我的项目共建。本次共有三大赛道:开源奉献集体挑战赛、大模型利用与创意赛、飞桨护航打算集训营,任你抉择。 对深度学习及大模型感兴趣的你,快来加入流动吧!更有机会取得现金处分以及来自百度和开源社区技术大咖们的领导与教训分享,更多处分等你来拿。 赛道简介1、开源奉献集体挑战赛奉献工作详见issue:https://github.com/PaddlePaddle/Paddle/issues/57262 赛道介绍:以开源奉献为外围,基于GitHub的飞桨及生态搭档开源我的项目代码奉献。开源我的项目包含:飞桨外围框架、飞桨科学计算、飞桨CV套件、飞桨大模型套件、推理部署套件、生态搭档我的项目等。开发者应用GitHub ID报名,独立实现具备明确验收指标的奉献工作,取得对应的工作处分。奖金2000-6000元。本期实现的框架开发工作可能进入飞桨框架 v2.6 发版流程,贡献者成绩被整体飞桨框架用户共享。 工作示例: 2、大模型利用与创意赛奉献工作详见issue:https://github.com/PaddlePaddle/Paddle/issues/57585 基于飞桨AI Studio星河社区的大模型创意与产业利用我的项目开发挑战赛,激励开发者施展想象力和翻新精力,策动基于文心大模型的创意计划与翻新利用,开发者独立或组队在飞桨AI Studio星河社区内提交大模型利用创意我的项目,最终联合利用人气和专家评审,综合进行奖项评比。 工作示例: 3、飞桨护航打算训练营奉献工作详见issue:https://github.com/PaddlePaddle/Paddle/issues/57264 飞桨外围开源我的项目开发实际营,开发者提交简历&通过面试后,以近程的形式深度参加飞桨重要开源我的项目开发实际,成绩以PR(Pull Requests)的模式奉献到指定代码仓库,实训期3个月(每周开发工夫至多25h),奖金6000-10000元。 工作示例: 你能够取得:1、丰富处分:50W现金奖池,权威证书认证,校招绿色通道2、技术支持:丰盛GPU算力资源,硬核技术与开源教训分享3、成长对话:资深研发导师1V1辅导,开源社区KOL深度交换 无论你是资深的开发者,还是老成持重的新秀,只有是对开发抱有浓厚兴趣的爱好者,违心展现你的技术,咱们都欢送你的退出!

September 26, 2023 · 1 min · jiezi

关于人工智能:TTC-获新一轮数千万人民币融资由创新工场领投

翻新工场领投,TTC获数千万人民币融资近日,北京才多对信息技术有限公司(True Talents For China,以下简称“TTC”)发表实现数千万元人民币Pre-A轮融资,本轮融资领投方为翻新工场。此次融资资金次要用于数智化产品研发、自营业务团队扩张、海内布局等。 此轮融资间隔源码资本的上轮投资仅仅半年工夫,为什么TTC这么快就取得了第二轮融资呢?TTC联结创始人&首席数智官宁辽原示意,大模型和GenAI为代表的AI 2.0技术冲破,极大地减速了TTC在数智化建设的过程和节奏,TTC技术团队与深耕行业十余年的资深猎头团队深刻到业务场景中,围绕客户的需要,在岗位洞察、人选画像、简历筛选、向量化人才库建设等方面摸索和开展人工智能技术的提效和赋能工具搭建,获得了初步的功效。这次和翻新工场一拍即合,在融资过程中就为翻新工场诸多被投企业招聘了不少优质的人才,也期待融资后独特对“AI+人才产业”进行深刻摸索和开发,为中国科创客户提供更优质的服务。同时,期待更多AI和软件技术人才退出TTC,一起将最前沿的技术落地到理论产业场景中。 TTC 创始人&首席执行官肖玛峰示意,TTC的长期愿景是成为一家AI原生的国际性人力资源公司,咱们将致力于改变传统人力资源服务行业落后的场面,通过技术创新、服务翻新、模式翻新等形式,打造有规模,有效率,有品质的新平台。本轮融资后,TTC将持续以技术赋能人力资源尤其是招聘服务的细分赛道,摸索出翻新高效的新模式。TTC将来也会进一步与翻新工场以及其被投企业发展全方位、多畛域的策略合作,围绕AI 2.0时代的国家和企业的策略布局与人才需求,提供更高效、精准的人力资源解决方案,助推高科技企业倒退。 翻新工场前沿科技基金总经理任博冰示意,翻新工场始终致力于投资和孵化顶尖的AI守业企业,在新的AI浪潮下,更加关注AI+的产业机会。人力资源行业市场空间微小,招聘行业比拟传统,目前只有BOSS直聘一家近百亿美金市值的公司,在新一代AI技术的驱动下,将有更大的想象力和市场空间,也是AI+翻新守业的绝佳机会。通过与TTC外围团队的深度交换,咱们发现TTC是一家既有远大幻想,又有前沿认知和创新能力的公司,而且在市场极其挑战的环境下,仍然可能实现营收和利润的双高速增长。平凡的公司往往诞生于危机之时,TTC成长于冬天,期待可能长成参天大树。 左起:TTC联结创始人&CDO宁辽原、翻新工场前沿基金总经理任博冰、TTC创始人&CEO肖玛峰、源码资本合伙人常凯斯

September 26, 2023 · 1 min · jiezi

关于人工智能:EfficientFormer高效低延迟的Vision-Transformers

咱们都晓得Transformers绝对于CNN的架构效率并不高,这导致在一些边缘设施进行推理时提早会很高,所以这次介绍的论文EfficientFormer号称在准确率不升高的同时能够达到MobileNet的推理速度。 Transformers是否在取得高性能的同时,跑得和MobileNet一样快?为了答复这个问题,作者首先回顾了基于vit的模型中应用的网络架构和运算,并阐明了一些低效的设计。而后引入一个维度统一的纯Transformer(没有MobileNet块)作为设计范例。最初以提早为指标进行优化设计,取得一系列称为EfficientFormer的最终模型。最初还设计了EfficientFormerV2。 提早剖析 作者在论文中发现: 1、内核大、步幅大的补丁嵌入是挪动设施上的速度瓶颈。 2、统一的特色维度对于令牌混合器的抉择很重要。MHSA不肯定是速度瓶颈。 3、convn - bn比LN (GN)-Linear更有利于提早,对于提早的升高,精度的小损失是能够承受的。 4、非线性的提早取决于硬件和编译器。 EfficientFormer整体架构 该网络由补丁嵌入(PatchEmbed)和元Transformer块堆栈组成,示意为MB: X0为批大小为B,空间大小为[H, W]的输出图像,Y为冀望输入,m为块总数(深度)。MB由未指定的令牌混合器(TokenMixer)组成,后跟一个MLP块: Xi|i>0是第i MB的两头特色。阶段Stage(或S)被定义为几个MetaBlocks的堆栈。该网络包含4个阶段。在每个阶段中,都有一个嵌入操作来投影嵌入维数和下采样令牌长度,示意为嵌入,如上图所示。 也就是说effentformer是一个齐全基于transformer的模型,没有集成MobileNet构造。 Dimension-Consistent设计 网络从四维划分开始,前期进行三维划分。首先,输出图像由stem层进行解决,这是两个3 × 3,步幅为2的卷积作为patch嵌入: 其中Cj是第j级的通道号(宽度)。而后网络从MB4D开始,应用简略的Pool mixer提取低级特色: 式中,ConvB,G示意是否有BN和GeLU追随卷积。在解决完所有MB4D块后,执行一次重塑以转换特色大小并进入3D分区。MB3D应用传统的ViT: 式中,LinearG示意线性后接GeLU, MHSA为: 其中,Q, K, V别离示意查问,键和值,b是参数化的作为地位编码的注意力偏差。 在定义了总体体系结构之后,下一步作者就开始搜寻高效的体系结构。 以提早为指标架构优化定义了一个搜寻高效模型的超级网络MetaPath (MP),它是一些可能块的汇合: 其中I示意单位门路。 在网络的S1和S2中,每个区块能够抉择MB4D或I,在S3和S4中,每个区块能够抉择MB3D、MB4D或I。 在最初两个阶段只启用MB3D的起因有2个:1、因为MHSA的计算绝对于令牌长度呈二次增长,因而在晚期阶段将其集成将大大增加计算成本。2、网络的晚期阶段捕捉低级特色,而前期阶段学习长期依赖关系。 搜寻空间包含Cj(每个Stage的宽度),Nj(每个Stage的块数,即深度)和最初N个利用MB3D的块。 搜索算法应用Gumbel Softmax采样对超级网络进行训练,以取得每个MP内块的重要性得分: 其中评估MP中每个块的重要性,因为它示意抉择一个块的概率。 ~ U(0,1)保障摸索。对于S1和S2, n∈{4D, I},对于S3和S4, n∈{4D, 3D, I}。 最初通过收集不同宽度的MB4D和MB3D的设施上提早(16的倍数),构建一个提早查找表。 也就是说EfficientFormer的架构不是通过人工设计的,而是通过NAS(Neural Architecture Search)搜寻进去的。作者通过查找表计算每个动作产生的提早,并评估每个动作的准确率降落。依据每提早精度降落(-%/ms)抉择动作。这个过程迭代地执行,直到达到目标提早。(细节见论文附录) 后果展现 ImageNet上与宽泛应用的基于cnn的模型相比,EfficientFormer在准确率和提早之间实现了更好的衡量。 传统的vit在提早方面依然体现不佳。EfficientFormer-L3的top-1准确率比PoolFormer-S36高1%,在Nvidia A100 GPU上快3倍,在iPhone NPU上快2.2倍,在iPhone CPU上快6.8倍。 EfficientFormer-L1的Top1精度比MobileViT-XS高4.4%,并且在不同的硬件和编译器上运行得更快。 ...

September 26, 2023 · 1 min · jiezi

关于人工智能:炼丹侠YOLOV5配置训练实战

一、NVIDIA驱动装置与更新首先查看电脑的显卡版本,步骤为:此电脑右击–>治理–>设施管理器–>显示适配器。就能够看到电脑显卡的版本了。如图,能够看到我的是一块NVIDIA GeForce 1660Ti显卡。有显卡驱动的,能够间接在桌面右键,找到英伟达驱动控制面板关上就好了。装置(更新)好了显卡驱动当前。咱们按下win+R组合键,关上cmd命令窗口。输出如下的命令。nvidia-smi失去如下图的信息图二、Pytorch环境装置按下开始键(win键),关上anaconda的终端。创立虚拟环境conda create -n 环境名字(英文) python=x.x(python版本),如下,我就是创立了一个名字叫pytorch,python是3.8版本的环境。conda create -n pytorch python=3.8在base环境中执行如上的命令,就会创立一个新的虚拟环境,这个虚拟环境会装置一些根底的包,如下图所示。询问是否装置的时候,输出y。就能够创立环境了。当装置好了当前,执行conda env list这个命令,就能够看到比一开始多了一个pytorch这个环境。当初咱们能够在这个环境外面装置深度学习框架和一些Python包了。 Conda env list执行如下命令,激活这个环境。conda activate 虚拟环境名称conda activate pytorch装置pytorch-gup版的环境,因为pytorch的官网在国外,下载相干的环境包是比较慢的,所以咱们给环境换源。在pytorch环境下执行如下的命名给环境换清华源。而后关上pytorch的官网,因为结尾咱们通过驱动检测到我的显卡为 NVIDIA GeForce 1660Ti,最高反对cuda11.6版本,所以咱们抉择cuda11.7版本的cuda,而后将上面红色框框中的内容复制下来,肯定不要把前面的-c pytorch -c conda-forge也复制下来,因为这样运行就是还是在国外源下载,这样就会很慢。将复制的内容粘贴到pytorch环境下的终端,运行就能够了三、验证CUDA和cudnn版本在代码中增加 print(torch.cuda.is_available)查看以后pytorch的gpu是否正确配置,若后果为True则代表配置胜利四、VOC标签格局转yolo格局并划分训练集和测试集咱们常常从网上获取一些指标检测的数据集资源标签的格局都是VOC(xml格局)的,而yolov5训练所须要的文件格式是yolo(txt格局)的,这里就须要对xml格局的标签文件转换为txt文件。同时训练本人的yolov5检测模型的时候,数据集须要划分为训练集和验证集。这里提供了一份代码将xml格局的标注文件转换为txt格局的标注文件,并按比例划分为训练集和验证集。先上代码再解说代码的注意事项。 import xml.etree.ElementTree as ETimport pickleimport osfrom os import listdir, getcwdfrom os.path import joinimport randomfrom shutil import copyfile classes = ["hat", "person"]#classes=["ball"] TRAIN_RATIO = 80 def clear_hidden_files(path): dir_list = os.listdir(path) for i in dir_list: abspath = os.path.join(os.path.abspath(path), i) if os.path.isfile(abspath): if i.startswith("._"): os.remove(abspath) else: clear_hidden_files(abspath) def convert(size, box): dw = 1./size[0] dh = 1./size[1] x = (box[0] + box[1])/2.0 y = (box[2] + box[3])/2.0 w = box[1] - box[0] h = box[3] - box[2] x = x*dw w = w*dw y = y*dh h = h*dh return (x,y,w,h) def convert_annotation(image_id): in_file = open('VOCdevkit/VOC2007/Annotations/%s.xml' %image_id) out_file = open('VOCdevkit/VOC2007/YOLOLabels/%s.txt' %image_id, 'w') tree=ET.parse(in_file) root = tree.getroot() size = root.find('size') w = int(size.find('width').text) h = int(size.find('height').text) for obj in root.iter('object'): difficult = obj.find('difficult').text cls = obj.find('name').text if cls not in classes or int(difficult) == 1: continue cls_id = classes.index(cls) xmlbox = obj.find('bndbox') b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text)) bb = convert((w,h), b) out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n') in_file.close() out_file.close()wd = os.getcwd()wd = os.getcwd()data_base_dir = os.path.join(wd, "VOCdevkit/")if not os.path.isdir(data_base_dir): os.mkdir(data_base_dir)work_sapce_dir = os.path.join(data_base_dir, "VOC2007/")if not os.path.isdir(work_sapce_dir): os.mkdir(work_sapce_dir)annotation_dir = os.path.join(work_sapce_dir, "Annotations/")if not os.path.isdir(annotation_dir): os.mkdir(annotation_dir)clear_hidden_files(annotation_dir)image_dir = os.path.join(work_sapce_dir, "JPEGImages/")if not os.path.isdir(image_dir): os.mkdir(image_dir)clear_hidden_files(image_dir)yolo_labels_dir = os.path.join(work_sapce_dir, "YOLOLabels/")if not os.path.isdir(yolo_labels_dir): os.mkdir(yolo_labels_dir)clear_hidden_files(yolo_labels_dir)yolov5_images_dir = os.path.join(data_base_dir, "images/")if not os.path.isdir(yolov5_images_dir): os.mkdir(yolov5_images_dir)clear_hidden_files(yolov5_images_dir)yolov5_labels_dir = os.path.join(data_base_dir, "labels/")if not os.path.isdir(yolov5_labels_dir): os.mkdir(yolov5_labels_dir)clear_hidden_files(yolov5_labels_dir)yolov5_images_train_dir = os.path.join(yolov5_images_dir, "train/")if not os.path.isdir(yolov5_images_train_dir): os.mkdir(yolov5_images_train_dir)clear_hidden_files(yolov5_images_train_dir)yolov5_images_test_dir = os.path.join(yolov5_images_dir, "val/")if not os.path.isdir(yolov5_images_test_dir): os.mkdir(yolov5_images_test_dir)clear_hidden_files(yolov5_images_test_dir)yolov5_labels_train_dir = os.path.join(yolov5_labels_dir, "train/")if not os.path.isdir(yolov5_labels_train_dir): os.mkdir(yolov5_labels_train_dir)clear_hidden_files(yolov5_labels_train_dir)yolov5_labels_test_dir = os.path.join(yolov5_labels_dir, "val/")if not os.path.isdir(yolov5_labels_test_dir): os.mkdir(yolov5_labels_test_dir)clear_hidden_files(yolov5_labels_test_dir) train_file = open(os.path.join(wd, "yolov5_train.txt"), 'w')test_file = open(os.path.join(wd, "yolov5_val.txt"), 'w')train_file.close()test_file.close()train_file = open(os.path.join(wd, "yolov5_train.txt"), 'a')test_file = open(os.path.join(wd, "yolov5_val.txt"), 'a')list_imgs = os.listdir(image_dir) # list image filesprob = random.randint(1, 100)print("Probability: %d" % prob)for i in range(0,len(list_imgs)): path = os.path.join(image_dir,list_imgs[i]) if os.path.isfile(path): image_path = image_dir + list_imgs[i] voc_path = list_imgs[i] (nameWithoutExtention, extention) = os.path.splitext(os.path.basename(image_path)) (voc_nameWithoutExtention, voc_extention) = os.path.splitext(os.path.basename(voc_path)) annotation_name = nameWithoutExtention + '.xml' annotation_path = os.path.join(annotation_dir, annotation_name) label_name = nameWithoutExtention + '.txt' label_path = os.path.join(yolo_labels_dir, label_name) prob = random.randint(1, 100) print("Probability: %d" % prob) if(prob < TRAIN_RATIO): # train dataset if os.path.exists(annotation_path): train_file.write(image_path + '\n') convert_annotation(nameWithoutExtention) # convert label copyfile(image_path, yolov5_images_train_dir + voc_path) copyfile(label_path, yolov5_labels_train_dir + label_name) else: # test dataset if os.path.exists(annotation_path): test_file.write(image_path + '\n') convert_annotation(nameWithoutExtention) # convert label copyfile(image_path, yolov5_images_test_dir + voc_path) copyfile(label_path, yolov5_labels_test_dir + label_name)train_file.close()test_file.close()首先数据集的格局构造必须严格依照如图的款式来,因为代码曾经将文件名写死了。其实这样也好,因为对立就会标准 。Annotations外面寄存着xml格局的标签文件,JPEGImages外面寄存着照片数据文件。特地要留神的是,classes外面必须正确填写xml外面曾经标注好的类,要不然生成的txt的文件是不对的。TRAIN_RATIO是训练集和验证集的比例,当等于80的时候,阐明划分80%给训练集,20%给验证集。将代码和数据在同一目录下运行,失去如下的后果在VOCdevkit目录下生成images和labels文件夹,文件夹下别离生成了train文件夹和val文件夹,外面别离保留着训练集的照片和txt格局的标签,还有验证集的照片和txt格局的标签。images文件夹和labels文件夹就是训练yolov5模型所需的训练集和验证集。在VOCdevkit/VOC2007目录下还生成了一个YOLOLabels文件夹,外面寄存着所有的txt格局的标签文件。至此,xml格局的标签文件转换为txt格局的标签文件并划分为训练集和测试集就讲完了。五、我的项目的克隆和必要的环境依赖YOLOv5的代码是开源的,因而咱们能够从github上克隆其源码。首先关上yolov5的github的官网(这个网站在国外关上是很慢的,而且是有的时候能失常关上,有的时候是进不去的,然而大家第一次打不开的话,肯定要多关上几次。)关上的官网界面如下,这个就是大神glenn-jocher开源的yolov5的我的项目。这个开源的我的项目通过大家的一直的欠缺和修复曾经到了第5个分支,因而咱们抉择第五个版本来试验,首先点击左上角的master这个图标来抉择我的项目的第5个分支,如下图所示,而后将版本抉择好当前,点击右上角的code那个按键,将代码下载下来。至此整个我的项目就曾经筹备好了。 ...

September 26, 2023 · 2 min · jiezi

关于人工智能:福利贴|这是一个程序员不看一定会后悔的问题

有这样一个神秘群体,他们常常因高薪被其余行业艳羡、领有超乎常人专一力与耐力、广泛青睐格子形态服饰、动辄被宽广网友拉进去玩梗、时不时以自讥笑对生存…… 没错!他们就是程!序!员! 作为在寰球四地联结办公、工程师数量占比超九成的科技公司,我司堪称【集各路之英雄(程序员),汇八方之俊杰(程序员)】。秉承着关爱程序员群体的初衷,在国庆中秋佳节降临之际,咱们想为宽广程序员敌人们送上一波福利。 那么,问题来了,怎么判断这些物品是不是刚需?当然是看这些物品是否会被放进包里且随身携带啦!为此,咱们以外部焦点小组访谈+滚雪球抽样的钻研办法,大胆开麦、小心求证,问出了那个仿佛无解的终极问题——除了吃饭的家伙——笔记本电脑,你的包里相对离不开的三件物品是什么? 以下是他们不怎么配合的答复: 一位不愿走漏姓氏的焦姓工程师 谢邀,不背包,只不过有时候口袋里会揣一瓶速效救心丸,实用于以下各种状况: 伯伯(baibai~)大姨倒地了我跟老板杠起来了发版前出 bug 了……好吧说正经的,我有个醒脑棒,偶然闻一下,神清气爽。 (冲你这份“爱心”,入选!) 誓死守护心灵的窗户- SF 必备物品:小黄鸭洗眼液、蒸汽眼罩、防蓝光眼镜 让人难以回绝的理由:最近沉迷于工作无法自拔,视力降落得厉害,代码都看得重影了~ (此处省略三个狗头) 最放心掉发的发量王者- MJ 必备物品:芝麻丸、按摩梳、小黄鸭 让人难以回绝的理由:头发以前一手握不过去,当初一手握都不够~ (收回来真的不会被打么……因为这位同学过于秀了,必须要把她晒进去,让大家无情地嫉妒她!) 游走在时尚潮流尖端的- Leo 必备物品:金丝眼镜、便携香水、口腔喷雾 (足够特地,一秒入选!不过,确定认真审题了嘛?) 让人难以回绝的理由:做 Zilliz 最时尚的程序员是我的信奉! 集美貌才华于一身的男子-XG 我的包里有三件实用物品,一件是电脑,一件是电脑,另一件还是电脑。 (此处致敬鲁迅学生) 另附赠生存语录——生存就是个背包,要尽可能减负,能力过得轻松。 斩获年会头等大奖囊获万元游览基金并 slay 全场的锦鲤马哥: 除了本儿,老夫没有必需品。下班?下班带手就行! (抽奖前记得膜拜一会) 好的,既然马哥把气氛衬托到这里了,那就必须给长期反对 Zilliz 的敌人送一波福利啦!鉴于我司外部的答案形形色色,咱们决定先送出一波实用类奖品。 请审题!!! 福利规定:Zilliz 微信公众号评论区写下【你包里最离不开的 3 件物品并给出一个程序员不会回绝的理由】,点赞前三的敌人将喜提 Zilliz 全新大礼包一份! 截止工夫:9 月 26 日中午 12 点 心动不如口头,带着 Zilliz 周边过节去吧! (Zilliz 周边大礼包 ) 如果在应用 Milvus 或 Zilliz 产品有任何问题,可增加小助手微信 “zilliz-tech” 退出交换群。欢送关注微信公众号“Zilliz”,理解最新资讯。本文由mdnice多平台公布

September 25, 2023 · 1 min · jiezi

关于人工智能:Generative-AI-新世界-扩散模型原理的代码实践之采样篇

在上一期的文章中,探讨了在 Amazon SageMaker Studio 上应用 QLoRA 等量化技术微调 Falcon 40B 大语言模型。而从本期开始,咱们将一起尝试在更深的常识维度,持续探索生成式 AI 这一炽热的新常识畛域。 亚马逊云科技开发者社区为开发者们提供寰球的开发技术资源。这里有技术文档、开发案例、技术专栏、培训视频、流动与比赛等。帮忙中国开发者对接世界最前沿技术,观点,和我的项目,并将中国优良开发者或技术举荐给寰球云社区。如果你还没有关注/珍藏,看到这里请肯定不要匆匆划过,点这里让它成为你的技术宝库!目前打算有三个大方向: 代码深度实际方向。例如用代码残缺诠释 Diffusion 模型的工作原理,或者 Transformer 的残缺架构等;模型部署和训练优化方向。例如尝试解读 LMI、DeepSpeed、Accelerate、FlashAttention 等不同模型优化方向的最新进展;模型量化实际方向。例如 GPTQ、bitsandbtyes 等前沿模型量化原理和实际等。在咱们之前曾经连载的十二期文章中,除了通过论文介绍生成式 AI 和大语言模型(LLMs)的次要原理之外,在代码实际环节次要还是局限于是引入预训练模型、在预训练模型根底上做微调、应用 API 等等。很多资深研究者通过多种渠道和咱们沟通,感觉还不过瘾,心愿内容能够更加深刻。 因而,本期做为代码深度实际方向的第一个系列:“扩散模型原理”代码实际系列,将尝试用代码残缺从底层开始洞悉扩散模型(Diffusion Models)的工作原理。而不再仅仅止步于引入预训练模型或应用 API 实现工作。 扩散模型系列内容概述基于扩散模型(Diffusion Models)的大模型,例如:Stable Diffusion、Midjourney、DALL-E 等可能仅通过提醒词(Prompt)就可能生成图像。咱们心愿通过编写这个“扩散模型原理”代码实际系列,应用代码来探索和诠释这些利用背地算法的原理。 这个由四篇文章组成的“扩散模型原理” 代码实际系列中,咱们将: 摸索基于扩散的生成人工智能的前沿世界,并从头开始创立本人的扩散模型深刻理解扩散过程和驱动扩散过程的模型,而不仅仅是事后构建的模型和 API通过进行采样、训练扩散模型、构建用于噪声预测的神经网络以及为个性化图像生成增加背景信息,取得实用的编码技能在整个系列的最初,咱们将有一个模型,能够作为咱们持续摸索利用扩散模型的终点我将会用四集的篇幅,逐行代码来构建扩散模型(Diffusion Model)。这四局部别离是: 噪声采样(Sampling)训练扩散模型(Training)增加上下文(Embedding & Adding Context)噪声疾速采样(Fast Sampling)这四局部的残缺代码可参考我的集体 GitHub ,网址如下: https://github.com/hanyun2019/difussion-model-code-implementation?trk=cndc-detail 本文是第一局部:噪声采样(Sampling)。 扩散模型的指标中国有句古语:起心动念。因而,既然咱们要开始从底层揭开扩散模型(Diffusion Model)的面纱,首先是否应该要想分明一个问题:应用扩散模型的指标是什么? 本章将探讨扩散模型的指标,以及如何利用各种游戏角色图像(例如:精灵图像)训练数据来加强模型的能力,而后让扩散模型本人去生成更多的游戏角色图像(例如:生成某种格调的精灵图像等)。 假如上面是你曾经有的精灵图像数据集(来自 ElvGames 的 FrootsnVeggies 和 kyrise 精灵图像集),你想要更多的在这些数据集中没有的大量精灵图像,你该如何实现这个当初看起来不可能实现的工作? 《FrootsnVeggies》《kyrise》Source: Sprites by ElvGames 面对这个看上去不可能实现的工作,扩散模型(Diffusion Model)就能帮上忙了。你有很多训练数据,比方你在这里看到的游戏中精灵角色的图像,这是你的训练数据集。而你想要更多训练数据集中没有的精灵图像。你能够应用神经网络,依照扩散模型过程为你生成更多这样的精灵。扩散模型可能生成这样的精灵图像。这就是咱们这个系列要探讨的乏味话题。 以这个精灵图像数据集为例,扩散模型可能学习到精灵角色的通用特色,例如某种精灵的身材轮廓、头发色彩甚至腰带配饰细节等。 神经网络学习生成精灵图像的概念是什么呢?它可能是一些粗劣的细节,比方精灵的头发色彩、腰带配饰等;也可能是一些大抵的轮廓,比方头部轮廓、身材轮廓、或者介于两者之间的其它轮廓等。而做到这一点的一种办法,即通过获取数据并可能专一更精密的细节或轮廓的办法,实际上是增加不同级别的噪声(noise)。因而,这只是在图像中增加噪声,它被称为 “噪声过程”(noising process)。 这个思路其实是受到了物理学的启发,场景很相似一滴墨水滴到一杯清水里的全过程。最后咱们确切地晓得墨水滴落在那里;然而随着工夫的推移,咱们会看到墨水扩散到清水中直到它齐全隐没(或者说齐全和清水融为一体)。 ...

September 25, 2023 · 6 min · jiezi

关于人工智能:体验亚马逊的-CodeWhisperer-感觉

CodeWhisperer 是亚马逊推出的辅助编程工具,在程序员写代码时,它能依据其内容生成多种代码倡议。 CodeWhisperer 目前已反对近10几种语言,我是用 java 语言,用的开发工具是 idea,说一下我用的状况。 亚马逊云科技开发者社区为开发者们提供寰球的开发技术资源。这里有技术文档、开发案例、技术专栏、培训视频、流动与比赛等。帮忙中国开发者对接世界最前沿技术,观点,和我的项目,并将中国优良开发者或技术举荐给寰球云社区。如果你还没有关注/珍藏,看到这里请肯定不要匆匆划过,点这里让它成为你的技术宝库!在 idea 中装置 CodeWhisperer,在 idea 的 settings 的插件中,搜寻 CodeWhisperer 待到下载实现后,点击利用 集体能够收费应用。 应用时,能够在右下角看到 CodeWhisperer 的图标,图标前的圈正在转,示意正在生成代码。 以下几点我感觉十分棒! 1、实时代码倡议,放慢编码速度 2、智能提醒补全 3、检测代码的安全漏洞 体验下来感觉工具上手太简略了,开发效率必定是进步了很多,如同写出的代码品质也高了,代码没有破绽了。 文章起源:文章起源:https://dev.amazoncloud.cn/column/article/64f886732a1d01763ea...

September 25, 2023 · 1 min · jiezi

关于人工智能:合合信息亮相海聚英才全球创新创业峰会政企研合力推动AI人才培养

近日,“聚上海,创将来”第三届“海聚英才”寰球翻新守业峰会在沪举办,“翻新之路:卓越工程师造就交换研讨会”(简称“研讨会”)是峰会重磅系列流动之一。研讨会由中共上海市委人才工作领导小组办公室等多部门领导,上海理工大学、上海长三角技术创新研究院承办,来自复旦大学、北京航空航天大学、上海理工大学、科大讯飞、联影医疗、合合信息等高校、企业的技术专家齐聚一堂,围绕卓越工程师造就开展探讨。 从世界工程教育第一大国到世界工程教育强国,高质量造就卓越工程师队伍是要害。本次研讨会聚焦卓越工程师造就,致力于为行业提供更丰盛的人才资源,调整人才供需构造,推动行业倒退。 现阶段,在工程人才培养方面,越来越多的高校在为学生提供更宽厚的学科根底的同时,也重视锤炼工程实际能力。复旦大学集成电路学院院长张卫认为,产教交融集成电路翻新人才培养模式,就是要打破常规造就模式,深入产教交融,应调动和施展企业参加人才培养的积极性,联合高校学科劣势发展联结造就;北京航空航天大学生物与医学工程学院院长樊瑜波示意,只有产教交融能力破解高端医疗配备及器械行业倒退的人才撑持问题。 作为人工智能企业代表,合合信息图像算法研发总监郭丰俊博士分享了他访谈的技术骨干、团队负责人、行业专家等不同身份的卓越工程师的成长教训,及他们所关注的自我素养晋升。 郭丰俊提到,对于专一于技术的成员来说,在成长为卓越工程师的过程中,须要磨炼出过硬的业余能力,全面了解我的项目背景及外围问题;重视我的项目全流程的细节与品质,还要具备与上下游共事做好接力的责任心;团队负责人则须要系统性提炼本人的“方法论”,养成一直精进的习惯。并分享了所访谈的几位卓越工程师们器重的也为共事称道的一些特点,如富裕激情,好学不倦,踊跃应变,整体思维等。 合合信息公司是一家人工智能及大数据科技企业,基于自主研发的智能文字辨认及商业大数据核心技术,通过名片全能王、扫描全能王等C端产品及B端技术服务,为超过200个国家和地区的上亿客户提供智能化的便当。郭丰俊示意,作为一家服务寰球的企业,公司更须要技术人员放眼世界,关上视线,理解不同国家和地区的业务需要、技术方向和文化,在拥抱变动的过程中获取疾速学习、排汇新常识的能力,在入手验证想法的过程中实现翻新理念的落地。 破解工程人才供需的结构性问题,须要政府、高校、企业等多方的共同努力。在专一业务的同时,合合信息对人才培养给予高度重视,企业内系统性构建了一系列外部培训和人才倒退打算,同时踊跃推动“学习型组织”建设,一直进步员工的业余素养和创新能力。除此之外,合合信息还与多所高校发展访学流动,与高校独特助力高层次青年人才培养。

September 25, 2023 · 1 min · jiezi

关于人工智能:GPT-被曝重大缺陷腾讯侦破国内首个-AI-游戏外挂特斯拉人形机器人再进化丨-RTE-开发者日报-Vol56

开发者敌人们大家好: 这里是「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。咱们的社区编辑团队会整顿分享 RTE (Real Time Engagement) 畛域内「有话题的新闻」、「有态度的观点」、「有意思的数据」、「有思考的文章」、「有看点的会议」,但内容仅代表编辑的个人观点,欢送大家留言、跟帖、探讨。 本期编辑:@Asui,@CY,@墨镜 01 有话题的新闻1、Meta Quest 3 头显高配版价格曝光,存储空间或达 512GB9 月 24 日音讯,近日一位名为 Luna 的 VR 爱好者在 X 上分享了一张图片,他们称这张图片是 GameStop 的一名员工发给他们的。 图片展现了一个促销卡片,显示 Quest 3 将于 10 月 10 日发货。图片还蕴含商店库存零碎的信息,展现了两个 SKU,一个定价为 500 美元,另一个定价为 650 美元。这个 10 月 10 日的发货日期之前也呈现在 8 月份被撤下的亚马逊加拿大的列表中。 Meta 公司在 6 月份发表 Quest 3 时,确认了根底版本将有 128GB 的存储空间,且定价为 500 美元。该公司还示意,将有一个更高存储容量的版本,但没有走漏将有多少存储空间,也没有走漏其价格。(@IT之家) 2、特斯拉人形机器人再进化:仅靠视觉就能将物体分类,还爱上了练瑜伽 特斯拉人形机器人 Optimus 近来有了新冲破,现已具备自主对物体进行分类的能力,技术亮点为神经网络端到端训练,实现视频输出、管制输入。Optimus 不仅具备自我校准手臂和腿部的能力,还能使用视觉和关节地位编码器精准定位肢体,实现物体色彩分类等简单工作。(@机器之心) 3、AI 算力 70 年增长 6.8 亿倍,3 个历史阶段见证 AI 技术指数级暴发AI 算力 70 多年倒退了 6.8 亿倍,将来 AI 各方面能力将全面超过人类,而真正令人期待的是,AI 行业才刚刚进入暴发前的萌芽期。AI 提高依赖计算能力、训练数据和算法。深度学习时代开始后,计算能力翻倍缩短至 6 个月,且 2015 年之后进入大规模 AI 模型时代,计算需要大增。(@新智元) ...

September 25, 2023 · 1 min · jiezi