8188www威尼斯
一边陪伴宝宝成长,一边成为流量网红,直播一场就能获利无数,坐在家里也能实现财富自由……在网上,各种新号陪跑、素人训练、IP孵化的收费培训推广满天飞,收费从两三万元到十几万元不等。去年11月,杨女士向《老叶较真》反映,她向一个名为“魔都妈妈黛西”的小红书账号运营人储女士付款29800元,购买培训课程,但效果不佳。双方约定退款24812元,却迟迟没有到账。去年11月2日8188www威尼斯,《老叶较真》发表报道《自媒体带货很热闹,多名学员交了近3万元学费却学了个寂寞》,后来杨女士将储女士告上法院。日前,法院判决储女士退还原告杨女士服务费24812元。
2022年10月初,杨女士为了提升自己“小红书”平台账号流量数据并实现变现创收的目的,向储女士购买“小红书”IP私教营服务并获赠小红书IP训练营课程。为此她向储女士支付29800元8188www威尼斯,其中该IP私教营服务时长一年,具体内容包括:1对1全年陪跑、账号策划全案定制、变现资源精准对接、全年无限次答疑指导、全年无限次直播连麦、赠送价值4988元的训练营课。
2023年10月8日,经杨女士与储女士的个人助理小梦微信沟通,储女士的个人助理声称公司同意向杨女士退还服务费24812元,并通过微信于同年10月9日向杨女士发送合同终止协议,该协议甲方为上海岱汐文化艺术传播有限公司(以下简称岱汐公司),系储女士100%持股的一人有限责任公司;乙方为杨女士。协议明确由岱汐公司向杨女士退款24812元。同年10月10日,杨女士将签字后的协议通过微信发送给被告储女士的个人助理小梦。
今年9月底,法院开庭审理此案。被告储女士辩称,她不是退款协议主体,不应按退款协议约定的金额向原告杨女士退款。而且,协议是由她的个人助理小梦发给杨女士的8188www威尼斯,小梦主要负责业务方面的对接,如训练营课程安排、常规文档提供及咨询解答等。小梦向原告杨女士发送的退款协议中,被告储女士并未作为协议一方主体,也没有在退款协议上签名盖章8188www威尼斯,所以该退款协议对被告储女士不成立。
储女士还辩称,小梦通过微信向原告发送word版退款协议时,告知原告需签字、填写收款银行卡信息及提供身份证正反面照片,上述事项完成后1小时内可安排退款,但原告签署了上述协议,却未提供身份证照片,并且附加了其他条件,即要求被告退款,向所有要求退款的学员道歉赔偿经济损失等不合理要求,小梦及被告储女士后续均未予回应。而且,上述退款协议有条款写明,该协议自双方盖章签字之日起生效。被告储女士并未签字,所以退款协议不生效。储女士个人助理虽系就退费事宜与原告协商,但并无签署协议的权限。
储女士还认为,双方未就服务事项订立书面合同,故应根据剩余服务时长或其他合理计算标准计算剩余应退款金额。储女士说,她在服务过程中,从未就账号作出的结果向原告杨女士作出虚假承诺,并且原告也已完全享受了约定的服务内容。而且,她已经为原告提供了近一年的服务,私教服务期限即将届满,退款金额应当根据剩余服务时长或其他合理计算标准计算,而非全额退款。
法院审理认为,原告杨女士向被告储女士购买私教课程,由被告储女士向原告杨女士提供有关服务,双方之间形成合法有效的服务合同关系。因课程服务问题,自2023年9月30日起,原告反复与被告储女士沟通协商退还已支付的课程费用。2023年10月8日,被告储女士的个人助理通过微信与原告沟通,作出了公司同意向原告退还服务费24812元的意思表示,并通过微信向原告发送合同终止协议,原告对此予以接受并签字确认。相关退款意思表示清晰明确,未违反法律规定,至此,双方的服务合同关系实际解除。因被告储女士为直接向原告提供服务的主体,且相应款项原告亦直接向被告储女士交付。
8188www威尼斯
11月13日,彩云科技在北京总部与媒体进行一场主题为“From Paper to App”的沟通会。会上,彩云科技CEO袁行远8188www威尼斯,就通用大模型未来进化之路,与人工智能的落地场景等热点话题进行了交流,并正式推出了首款基于DCFormer架构开发的通用大模型云锦天章,与此同时,彩云科技旗下AI RPG平台彩云小梦,也成为首款基于DCFormer架构开发的AI产品。
早在2017年,谷歌发布《Attention Is All You Need》论文,首次提出Transformer架构,掀开了人工智能自然语言处理(NLP)领域发展的全新篇章。Transformer架构作为神经网络学习中最重要的架构,成为后来席卷全球的一系列通用大模型如ChatGPT、Gemini的底层技术支撑。而提升Transformer的运行效率也成为人工智能领域的研究热点8188www威尼斯,2024年4月,谷歌最近一次更新了Transformer架构,提出了Mixture-of-Depths(MoD)方法8188www威尼斯,使得训练后采样过程中提速50%,成为Transformer架构提速升级的又一重要事件。
同样在今年,一家来自国内的人工智能企业彩云科技,在国际机器学习领域的顶级会议ICML(国际机器学习大会)上,发布全新大模型论文《Improving Transformers with Dynamically Composable Multi-Head Attention》。在该论文中,彩云科技团队首次发布DCFormer架构,并在基于DCFormer打造的模型DCPythia-6.9B上,实现了在预训练困惑度和下游任务评估上都优于开源Pythia-12B。这意味着,DCFormer模型在性能上,实现了对Transformer模型1.7-2倍的提升。
沟通会现场,袁行远首先向参会者展示了一个ChatGPT o1的问答:“假设ChatGPT4每天响应用户约2亿个请求,消耗超过50万千瓦时的电力。假设全球网络都使用ChatGPT作为访问入口,ChatGPT每天消耗多少电力?另外按照这个速度发展下去,到2050年全球人工智能的耗电量会达到目前地球发电能力的多少倍?”ChatGPT o1给出的答案是,“到2050年,全球人工智能的耗电量可能会达到目前地球发电能力的8倍”。
彩云科技团队构建DCFormer框架,提出可动态组合的多头注意力(DCMHA)8188www威尼斯,替换Transformer核心组件多头注意力模块(MHA),解除了MHA注意力头的查找选择回路和变换回路的固定绑定,让它们可以根据输入动态组合,从根本上提升了模型的表达能力,由此实现了对Transformer架构1.7—2倍的性能提升。
袁行远表示:我们的工作表明,Transformer架构距离“理想模型架构”还有很大的提升空间,除了堆算力堆数据的“大力出奇迹”路线,模型架构创新同样大有可为。往小了说,在大模型领域,利用效率更高的模型架构,小公司也可以在与世界顶级人工智能企业的对抗中取得优势。往大了说,模型效率的提升,可以有效地降低人工智能升级迭代的成本8188www威尼斯,加速AI时代的到来。
“世界最强的小说续写通用模型。”沟通会上,袁行远向大家展示了首个基于DCFormer架构的通用大模型云锦天章。“这个成语是比喻文章极为高雅、华美,和我们的大模型想要实现的效果有共通之处。”袁行远介绍,云锦天章可以实现在虚构世界观的基础上,赋予小说人物编程、数学等基础能力8188www威尼斯,可以高速针对大量文字进行扩写、缩写,针对文章风格进行大容量更换,同时兼具其他模型的问答、数学、编程等基础能力。
而在应用端,拥有四百万用户的彩云小梦,也迎来了基于全新DCFormer架构的V.3.5版本。与之前的版本相比,彩云小梦V3.5整体流畅性和连贯性提升了20%,支持前文长度由2000字提升至10000字,故事背景设定最长长度高达10000字。“这意味着,在故事创作或者与人工智能对话中,人工智能能够记住之前发生的事情,记住之前故事里发生的细节,人物记得自己明确的目标,并且会根据剧情及时进行反思修正。在做到自主创作的同时,发散性收敛,不会天马行空,人物性格前后一致,故事逻辑性更强。”
详情