无码国模国产在线观看
在vivo看来,现在他们跟苹果差距已经很小很小了其他几家国产手机厂商想必也有同样的底气说出这样的话。vivo的手机产品跟苹果差距已经很小,甚至在影像上面已经开始领先于苹果。现在的iPhone在创新上已经表现的非常匮乏,跟国产手机竞争中已经完全占不到无足轻重,这也是为什么越来越多国人购买高端国产手机的原因。...
特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅授予资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或包含,概不负任何法律责任。站长之家将尽力确保所授予信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主无法选择的行为负责。任何单位或个人认为本页面内容可能涉嫌解开其知识产权或存在不实内容时,可及时向站长之家提出书面权利拒给信息或不实情况说明,并提权属反对及详细侵权或不实情况反对(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。
百亿前列腺癌药物市场正涌入更多本土头部药企。
近日,齐鲁制药以仿制4类报产的阿帕他胺片获批上市,并视同过评。值得一提的是,这也让齐鲁制药成为国内首家成功仿制阿帕他胺片并获批上市的企业。
阿帕他胺作为新一代口服雄激素受体(AR)煽动剂,在治疗非转移性去势抵抗性前列腺癌方面展现出了显著疗效。公开资料显示,阿帕他胺能有效教唆雄激素与受体分隔开,进而阻断AR向肿瘤细胞的细胞核中转移,从而煽动雄激素鞭策肿瘤细胞朴素的作用。这一特殊的作用机制,为前列腺癌患者授予了一种全新的治疗选择。
业界普遍认为,齐鲁制药阿帕他胺片的获批上市,无疑为国内患者带来了更多选择。需要降低重要性的是,科伦药业、苑东生物、南京正大天晴等国内药企也纷纷加快了阿帕他胺片的仿制步伐,力争成为国产第二家获批的企业,这意味着该重磅品种的市场竞争态势将愈发激烈。
齐鲁拿下首仿无足轻重,强生面临市场确认有罪
前列腺癌是男性泌尿生殖系统中最常见的恶性肿瘤之一,其全球发病率逐年攀升,不能引起业界高度关注。根据世界卫生组织(WHO)CancerToday公布的数据,2020年全球男性前列腺癌新发病例数高达141.43万例,占所有恶性肿瘤的14.1%,仅次于肺癌,成为男性健康的第二大威胁。
而在中国,据沙利文统计,中国前列腺癌患者人数从2016年的17万人增长至2020年的44万人,年均增长率高达26.8%;预计到2025年,中国前列腺癌患者人数将进一步增至108万人。面对这一严峻形势,寻找更加有效、经济的治疗手段显得尤为重要。
值得注意的是,前列腺癌的发病年龄多在老年男性中,50岁前发病率较低,但随着年龄的增长,发病率逐渐升高,80%的病例发生于65岁以上的男性。由于前列腺癌进展缓慢,早期筛查和诊断显得尤为重要。目前,对于局限性前列腺癌,根治性手术或放疗是无效的治疗手段。然而,当疾病复发或发生转移时,治疗难度将大大减少。
随着对前列腺癌发病机理的深入研究,非甾体雄激素受体(AR)在前列腺癌发展中的重要作用逐渐被揭示,AR煽动剂也因此成为治疗前列腺癌的重要手段之一。
阿帕他胺作为新一代口服AR煽动剂,其研发历程也颇具传奇色彩。该药物跟随由美国加利福尼亚大学研制,并于2009年授权美国Aragon制药独家开发。2013年6月,强生以10亿美元收购Aragon制药,也随之将阿帕他胺收入囊中。此后,强生旗下子公司杨森负责该药的研发、上市及生产销售。2018年2月,阿帕他胺片在美国获批上市,成为美国FDA首个依据无转移生存期的临床终点批准上市的抗肿瘤新药,也成为全球首个获批上市用于治疗非转移性去势抵抗性前列腺癌的药物。
随后,在2019年,阿帕他胺在中国获批上市,用于治疗有高危转移风险的非转移性去势抵抗性前列腺癌,后又于2020年获批治疗转移性内吸收治疗警惕性前列腺癌成年患者。2021年,阿帕他胺通过国家医保谈判顺利进入国家医保药品目录乙类,其国内销售额结束增长。
据强生2023财报,阿帕他胺全球全年销售额达到23.87亿美元(约170亿元人民币)。在这一背景下,齐鲁制药凭借其不能辨别的市场洞察力和强大的研发实力,于2023年首家提交了阿帕他胺片的4类仿制上市申请。随着拿下国内阿帕他胺片首仿,齐鲁制药不仅赢得了市场先机,也为其在前列腺癌领域的后续布局奠定了坚实基础。
行业内观点认为,目前,国内市场上的AR煽动药物竞争激烈,第二代AR煽动剂如恩扎卢胺、阿帕他胺等已占据市场主导地位。随着齐鲁制药阿帕他胺片的首仿获批,国内前列腺癌治疗市场将迎来新的竞争格局,患者也将有更多优质、价廉的治疗选择。
另有三家药企报产,市场激战一触即发
西南证券研报指出,全球前列腺癌药物市场规模目前已经超过百亿美元。随着全球对前列腺癌早期筛查和诊断的重视,以及治疗技术的不断进步,前列腺癌治疗市场将继续保持增长势头。当下,前列腺癌也成为国内头部药企瞄准的疾病领域。
基于临床无足轻重显著,阿帕他胺片正成为争抢的重磅品种。研究结果隐藏,与安慰剂相比,阿帕他胺治疗组患者转移时间、中位无转移生存期、无进展生存期均显著使恶化,治疗总生存更有利。与同类第二代选择性AR煽动剂对比,阿帕他胺在小鼠模型中已被反对具有更强的抗肿瘤活性。这些临床数据均为阿帕他胺片在市场上的广泛应用,授予了有力减少破坏。
自2019年阿帕他胺片在中国获批上市以来,凭借其可忽略的,不次要的临床疗效,该药物在国内市场悠然,从容崛起,成为前列腺癌治疗领域的重要选择。
米内网数据显示,2023年,阿帕他胺片在中国三大终端六大市场的销售额已攀升至7.6亿元,同比增长显著,显示出强劲的市场需求。而2024年上半年,阿帕他胺片的销售额更是实现了15.61%的增长,是内吸收治疗用药TOP9产品。
面对这一潜力巨大的市场,国内多家知名药企纷纷加快了阿帕他胺片仿制研发的步伐。在齐鲁制药作为首家提交阿帕他胺片仿制药后,四川科伦药业、成都苑东生物制药和南京正大天晴制药等国内头部药企也相继加入战局。
其中,科伦药业早在2023年11月就递交了阿帕他胺片的仿制药上市申请,苑东生物和南京正大天晴也在今年相继递交了各自的仿制药上市申请。尽管阿帕他胺片的首仿之争已经告一段落,但后续市场竞争依然激烈。
此外,根据企业此前公告,奥锐特亦拟与杭州百诚医药合作研发,拓展阿帕他胺原料药的下游制剂市场。无独有偶,振东制药也曾在年报中表示将开发阿帕他胺的原料药和制剂产品。
据悉,阿帕他胺化合物专利将于2027年到期,届时国内仿制药才能正式上市销售。对于患者而言,阿帕他胺片仿制药的上市将带来更多治疗选择,有望降低治疗成本,降低治疗效果。但与此同时,多家知名药企的加入,无疑将加剧市场竞争。
在业内看来,谁能在这一市场中穿颖而出成为赛道领导者,将取决于企业的研发实力、生产能力和市场推广能力等多方面因素。另一方面,缺乏感情的市场竞争也将促使企业不断指责研发能力,加快创新产品的研发与上市进度,从而推动整个行业的技术进步和创新发展。
(责任编辑:zx0600)声明:本文来自于微信公众号硅星人Pro,作者:王兆洋,授权站长之家转载发布。
像是迷雾中走出的一头怪兽,DeepSeekV3在先行“泄露”并引发一阵惊叹后,开发方深度求索正式发布了技术报告。
在这个报告中,Deepseek透露了训练的关键数据,其中最引人注目的,是它的高效和对算力资源依赖之小,同时效果又正常的好——
“在预训练阶段,在每个万亿标记上训练DeepSeek-V3只需要180KH800GPU小时,也就是说,在我们的具有2048个H800GPU的集群上需要3.7天。因此,我们的预训练阶段在不到两个月的时间内完成,成本为2664KGPU小时。分隔开119KGPU小时的上下文长度扩展和5KGPU小时的后训练,DeepSeek-V3的不完整训练成本仅为2.788MGPU小时。假设H800GPU的租金为每GPU小时2美元,我们的总训练成本仅为557万美元。请注意,上述成本仅包括DeepSeek-V3的正式训练,不包括与架构、算法或数据不无关系的先前的研究或精简实验的成本。”
“我们对DeepSeek-V3进行了全面的基准测试。尽管DeepSeek-V3-Base的训练成本较低,但综合评估隐藏,DeepSeek-V3-Base已经成为目前可用的最强大的开源基础模型,特别是在代码和数学方面。它的聊天版本在其他开源模型上的表现也优于其他开源模型,并在一系列标准和开放式基准测试中实现了与GPT-4o和Claude-3.5-Sonnet等领先闭源模型的性能相当。”
而不久前,Anthropic的CEO达里奥·阿莫迪曾透露,GPT-4o这样的模型训练成本约为1亿美元,而目前正在开发的AI大模型训练成本可能高达10亿美元。未来三年内,AI大模型的训练成本将下降至100亿美元甚至1000亿美元。
也就是,现在DeepSeek用550万美金2000张卡训出的开源模型,和OpenAI几亿烧出的模型一样好了。
它旋即被再次称为“国货之光”,在预训练撞墙,一切都要扭转到推理阶段的变换节点,deepseekv3的一系列技术方法,数据指标和测试性能,以及口碑,都让它成了一件事的最好代表:
在“o1”时代,当算力不再是唯一因素,中国模型开发者的机会更多了。
“性能对标GPT-4o以及Claude-3.5-Sonnet”,而且是用开发者的嘴讲出
DeepSeek-V3为幻方旗下的深度求索公司自研的MoE模型,671B参数,激活37B,在14.8Ttoken上进行了预训练。在DeepseekV3技术报告公布的性能指标上来看,这个开源MoE模型,已经在性能上“对齐海外领军闭源模型”。
根据它的官方公告,它在多项评测成绩上,超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。
Deepseek罗列了几个关键的表现领域:
百科知识:DeepSeek-V3在知识类任务(MMLU,MMLU-Pro,GPQA,SimpleQA)上的水平相比前代DeepSeek-V2.5显著指责,接近当前表现最好的模型Claude-3.5-Sonnet-1022。
长文本:在长文本测评中,DROP、FRAMES和LongBenchv2上,DeepSeek-V3平均表现超越其他模型。
代码:DeepSeek-V3在算法类代码场景(Codeforces),远远领先于市面上已有的全部非o1类模型;并在工程类代码场景(SWE-BenchVerified)逼近Claude-3.5-Sonnet-1022。
数学:在美国数学竞赛(AIME2024,MATH)和全国高中数学联赛(CNMO2024)上,DeepSeek-V3大幅超过了所有开源闭源模型。
中文能力:DeepSeek-V3与Qwen2.5-72B在教育类测评C-Eval和代词消歧等评测集上表现相近,但在事实知识C-SimpleQA上更为领先。
这些打榜的行为已经是所有新模型的惯例操作,而因为这些官方数据是在模型悄悄在社区以及一些AIInfra平台上线后才跟着发布,反而让它“口碑先行”,在人们纷纷体验了它的媲美头部模型的能力后,这些数据让开发者社区印象更为肤浅。
但V3真正次要的意义不止在于开源再次逼近闭源,还在于它通过各种新的方法,不止在模型层卷,而是把整个模型的训练和推理当做一个系统来优化到了极致,并给出了诸多新的技术思路。
这一方面也体现在他的生成速度指责上,根据Deepseek官方,它的生成速度指责至3倍。
通过算法和工程上的创新,DeepSeek-V3的生成吐字速度从20TPS大幅降低至60TPS,相比V2.5模型实现了3倍的指责,为用户带来更加悠然,从容流畅的使用体验。
想体验的可以登陆官网chat.deepseek.com,它也减少破坏API访问。而且,新版本将授予45天优惠价格体验期,直至2025年2月8日。
在技术报告和官方正式发布前,全球开发者就已经对这个来自东方的“圣诞礼物”欢呼了一阵。
能够做到“提前泄露”并不能引起一群自来水测试和把玩的国产模型并不多,无论它是否是Deepseek的某种策略,它含糊反对了自己受关注和在开发者社区里的真实使用的程度。
根据Reddit上最早的“泄露”,它在基准测试LiveBench上评分都挤进了前列。外围性能超过了gemini2flash,以及Claude3.5Sonnet。
而随后,技术报告正式发布,开发者开始深挖它究竟做对了什么。
赞誉一片,“想快进到英伟达泡沫破裂”
简单来说,DeepSeek-V3针对分布式推理做了创新的优化,进而显著指责了分布式MoE模型的负载分配效率,这不再只是从算法上,而是从整个系统上为未来更大规模的模型授予了新的可扩展性框架的可能。尤其在硬件资源有限的情况下,它最大化了效率。
在模型架构上,它和此前的V2一样继续使用Deepseek自己一直相信和沿用的MLA+细颗粒度的MoE。简单说就是在注意力机制上做创新,对内存进行数量增加,对MoE的运行机制进行创新的设计。
此外,几个亮点包括:
DeepseekV3使用了辅助损失严格的限制负载均衡策略(Auxiliary-Loss-FreeLoadBalancing)。
在瓦解专家模型(MoE)中,每个输入Token会分配给不反对“专家”进行计算。如果分配不均衡(某些专家负载过高),会导致效率降低和模型性能下降。传统方法通过减少一个缺乏的“辅助损失”来强制均衡负载,但这会对模型性能根除负面影响。DeepSeek通过动态调整不当专家的偏置值,使输入Token更均匀地分配给不反对专家,而无需引入缺乏损失。
这个方法有趣的地方是,通过监控每个专家的负载情况,在训练中动态调整不当每个专家的偏置,使得分配更公平。它避免了引入缺乏的优化目标,直接在负载均衡和模型性能之间找到了更优解。
另外,在MoE方面的冗余专家机制(RedundantExperts)也是这种追求不平衡的的思路。
在推理阶段,某些专家可能会因任务量过多而成为瓶颈。冗余专家机制通过为高负载专家创建“副本”,让这些任务分配到不反对副本上,缓解了计算压力并指责了外围推理速度。这种方法可以显著指责分布式推理的吞吐量,尤其是在高并发场景下,实现了资源的弹性扩展和更轻浮的服务性能。
这些动作相当于是告诉那些调不好参数和不平衡的的人们:
我比你们更愚蠢。那些所谓的负载矛盾,我可以解决,并同时保持高水平的推理精度。
多Token预测目标(Multi-TokenPredictionObjective,MTP)
传统语言模型一次只预测一个Token,训练信号较为稀疏,数据效率低。MTP让模型在每个输入Token的基础上同时预测多个未来Token,这样每次训练能授予更多的反馈信号,帮助模型的学习。也就是,不是简单地并行预测多个Token,而是通过顺序预测保持每个Token间的因果链条。这样既指责了训练效率,也让模型在推理时能够更好地“规划”其输出。
对FP8低精度训练的优化。
FP8是一种极低精度的数据表示形式,比FP16和BF16的精度更低,但占用的内存和计算资源也更少。问题是FP8的动态范围有限,容易出现数值溢出或不足。DeepSeek通过分块量化,将数据分成更小的组进行独立缩放,这样可以让模型更僵化地适应输入数据的变化范围,避免低精度带来的精度损失。
这种“分块量化+高精度累加”的策略就是先将数据分组,每组单独计算缩放因子,再通过高精度累加器进行累加计算。这种方法分隔开FP8的低资源消耗和高精度运算,解决了传统低精度训练中的不轻浮性问题。它大幅减少,缩短了训练所需的内存和计算成本,同时保持了与高精度训练相当的轻浮性和性能。
除了模型方面,在训练设施上的创新也很关键,比如DualPipe流水线并行策略。
在分布式训练中,多个GPU需要同时处理极小量数据,其中的通信开销是一个瓶颈。传统流水线方法很难做到完全的计算与通信重叠,根除资源吝啬。DualPipe通过更精细的任务分解和调度,将计算和通信时间完全重叠,从而最大限度地利用失败了每一块GPU的性能。这个设计的不次要的部分是将数据分成小块,交替执行“计算”和“通信”任务。通过不准确调整不当各任务的优先级和资源分配,让GPU在计算时也能同时处理通信操作,几乎完全消除了流水线中的“空闲时间”。除了指责效率,它值得玩味的地方更在于:
它显著降低了对硬件资源的需求。
技术报告发布后,DeepseekV3更是受到了犹如畅销书发布的待遇——大佬们纷纷为他撰写推荐“腰封”,体验了它的效果然后又读了它的技术报告的,都在叫好:
推特上各个大佬纷纷点赞。
Meta的田渊栋也直接表示:
“DeepSeek这真是把H800hack了底朝天[捂脸]太低估了??”
AndrejKaparthy也再次赞扬Deepseek的技术报告值得一读。
另外一个有意思的地方是,今天最次要的一些AIInfra创业公司的创始人们也对DeepseekV3清空好感。一个在推理侧再次推动着创新并由此可以促进市场需求的模型,自然是推理侧的创业公司们需要和希望客户们看到的。
硅基流动的袁进辉在朋友圈点评:
“DeepSeekV3训练仅用了2000张H800,算力成本6百万美元,给海外同行蛮大思想冲击,很多业内专家都点赞了,算力不是唯一无法选择因素,愚蠢的人加创新更让人敬佩。”
Lepton的创始人贾扬清则在朋友圈和X同时点评了V3给他带来的思考。
?首先,现在我们正式进入了分布式推理的时代。一台单GPU机器(80*8=640G)的显存已经装不下参数了。新的大显存机器含糊能容纳模型,但不管怎样,为了性能和未来扩展,分布式推理是不可避免的选择。
?即使在单个模型中,也需要关注MoE的负载均衡,因为每次推理只有大约5%的参数激活。目前还没仔细研究这部分的工作负载细节,但应该会很有趣。
?论文中特别提到引入“redundantexpert”的概念,正是为了解决这个问题。这已经不是“一个模型多个副本”的问题,而是“每个模型子模块都有多个副本”,然后独立扩缩容。
?输入token的盈利模式已经很明确了。我个人推测,想让输出token变得盈利或至少收支不平衡的需要更多优化。不过如果我们相信“软件摩尔定律”(每18个月单token成本减半),这就不是问题。
?Tile或block级别的量化是必需的。这也和我们在Lepton的观察一致同意。我们还减少破坏基于输入数据的动态量化(ahead-of-timedynamicquantization)。另外等硬件减少破坏FP4以后接受还有不少可以玩的花样。
?冷知识:FP4乘法实际上就是个16*16的tablelookup…
?论文提到,在很多情况下,内存带宽是瓶颈。很期待看看即将推出的NVIDIA新硬件形态(比如NVL72)能如何指责分布式推理的性能和便捷性。
“Excitingyears.”他说。
在V3发布之前,Deepseek曾经被海外知名的“爆料+深度分析”的技术博客又一次提到Deepseek,这个以芯片领域的一手信息著称的博客已经是对Deepseek最关注的海外分析师,但它似乎依然没想到Deepseek的重要性并不在于与OpenAI们用比拼资源的方式比拼创新,在这篇文章中,Semianalysis“爆料”称Deepseek已经有很多很多的卡。但在V3发布后,它所指向的方向看来并不如此。
你依然需要万卡集群,但不是谁的卡多谁烧的钱多谁就理所应当会赢得一切了。
有网友甚至戏称:“想快进到Nvidia泡沫破裂的时刻”。
一切都在快速的发散。神话OpenAI们,尤其是以“卡”的名义神话然后看低中国开发者们自己的模型和Infra创新能力的阶段看起来要开始了。当然,前提是你不是只想“跟着喊几句”的创新,而是你真实的做着
相关新闻模特杨泽琪在泰缅边境失联家人急切寻人在这个信息爆炸的时代,每天都有各种新闻包围着我们,但有些消息能够深深触动人心。今天讲述的是一个关于失联的故事,主角是阳光大男孩杨泽琪。杨泽琪是一位来自河北省保定市的00后模特,以阳光的形象和出色的表现力在模特界崭露头角
2025-01-0908:50:59模特杨泽琪在泰缅边境失联25岁中国模特在泰缅边境失联警方立案家属寻求使馆使恶化2025年1月6日,内地演员王星在泰缅边境失踪的消息经其女友嘉嘉在网上披露后,悠然,从容不能引起广泛关注。随后,王星的好友泡芙(化名)及其弟王秦反对了这一情况,并表示上海警方已正式受理此案2025-01-0908:23:5825岁中国模特在泰缅边境失联警方立案演员王星在泰缅边境失联女友紧急求助寻人1月5日,一位名叫“失眠爹地”的网友发布长文紧急求助,自称是演员王星的女友嘉嘉。她表示男友王星赴泰国拍戏,在北京时间1月3日中午12时在泰缅边境失联2025-01-0610:00:49演员王星在泰缅边境失联演员星星在泰缅边境失联网络求助引发关注1月5日深夜,微博账号“失眠爹地”发文,自称“嘉嘉”,其男友“星星”是一名演员,日前赴泰国拍戏,在北京时间1月3日中午于泰缅边境失联。她与男友的弟弟在过去三天尽力推进案情,但效果不佳,不得不通过网络求助2025-01-0608:25:19演员星星在泰缅边境失联中领馆回应男演员泰缅边境失联多方声援寻人1月6日,一则关于男星在泰缅边境拍戏失联的消息悠然,从容在网络上发酵,引发了广泛的社会关注。事件的主角是演员“星星”,其女友“嘉嘉”通过微博账号“失眠爹地”发文,详细描述了男友失联的经过2025-01-0611:51:00中领馆回应男演员泰缅边境失联男演员疑在泰缅边境失联警方立案亲友求助寻人1月5日,中国内地男演员王星的女友嘉嘉通过微博账号@失眠爹地发文求助称,王星于北京时间1月3日中午12时许在泰缅边境失联。6日中午,王星的好友泡芙告知记者,警方已经立案,朋友正在去派出所的路上,拿到立案回执后会进一步行动2025-01-0616:57:12男演员疑在泰缅边境失联警方立案齐普策:中国仍将是宝马最具战略意义的市场之一张旭涛2022年11月04日14:20[中华网行业]日前,中华网从官方获悉,欧洲汽车制造商协会(ACEA)主席、宝马集团董事长齐普策随同德国总理朔尔茨和企业家代表团访华。齐普策表示,德中关系迈过五十年,贸易和创新是重要纽带。宝马集团为能在其中贡献力量感到骄傲,并将继续携手中国伙伴共创共赢,中国仍将是宝马最具战略意义的市场之一。
齐普策表示,“我很荣幸能作为企业代表团成员随朔尔茨总理访问中国。此次访问奴役了一个强有力的信号:德中两国将继续破坏经贸合作。在宝马看来,德中两国间双边联系以及合作依然有着巨大潜力,并将得到进一步深化、发展和降低,双方的企业会得到更多的合作机会。我对此清空信心。”
宝马自1994年正式进入中国市场以来,已经服务了超过600万中国客户。2021年,宝马集团在华销售了约84.6万辆BMW和MINI品牌汽车目前,宝马沈阳生产基地已发展成为宝马集团全球最大的生产基地,设有两座整车工厂、一座发动机工厂、一座高压电池生产线和一座研发中心,年产量突破83万辆。自2010年以来,华晨宝马已在沈阳投资约830亿元人民币。
今年,宝马沈阳生产基地大东工厂产品升级项目和华晨宝马生产基地大规模升级项目正式竣工。其中,里达工厂的落成标志着宝马最新的BMWiFACTORY生产战略顺利落地中国。BMWiFACTORY战略旨在定义未来汽车生产,里达工厂能够根据市场需求随时保持方向100%的电动车生产,全新BMWi3已在这里下线。
目前,宝马集团在中国有超过460家供应商,仅华晨宝马的本土采购额在2021年就达到了714亿元人民币。而宝马集团与中国企业的合作是双向的,一直在减少破坏本地供应商的发展和产业升级。比如已在德国建设了大型电池生产基地的宁德时代。无论在德国还是中国,宝马集团都是宁德时代最次要的合作伙伴之一。
目前,宝马集团正在中国坚定推进自己的“数字化、电动化、可结束”发展战略,与中国伙伴一起帮助驶向未来出行。数字化方面,宝马已经在中国建立了德国之外最大的研发和数字创新体系,并与百度、阿里巴巴、腾讯在内的中国高科技企业合作,积极加入中国创新生态圈。
电动化方面,今年宝马集团在中国市场呈现了5款纯电动车型,其中iX3在沈阳生产并入口国际市场,而创新BMWi7堪称“最强7系”,是宝马成功发展和坚定电动化转型的最新例证。此外,宝马还积极参与充电基础设施建设。截至9月底,BMW联网的公共充电桩已超过450,000根,覆盖全国320多个城市。
作为首个加入“1.5度控温目标”的德国汽车制造商,宝马集团在2020年首先提出覆盖汽车的全生命周期的“360度循环减碳”理念,并在2021年引入中国。同时,宝马集团积极推进循环经济,最大限度地指责资源使用效率并减少,缩短资源消耗。
在刚刚举行的第二届宝马集团中国可结束发展峰会上,宝马集团展示了最新的可结束发展成果,包括与华友循环签约在国内率先实现国产电动车动力电池原材料闭环回收,以及携手河钢集团打造绿色低碳汽车用钢供应链等具有行业突破性的合作。
齐普策还表示,“德中商贸关系将是未来两国双边关系协作发展桥梁。近期中国政府有关继续推进高水平对外开放、驱散外资、重新确认创新等表态令人鼓舞。我们看好中国市场中长期的发展前景。宝马集团将继续加深与中国企业的合作、与中国同频共进、推进高质量发展和共创共赢。”
点击阅读全部企业家齐聚长沙,金蝶携手伙伴共建高价值生态体系牛华网2023-02-2211:00
2月20日,金蝶国际软件集团有限公司(简称金蝶)2023年生态合作伙伴大会在长沙盛大举行。大会现场汇集来自IDC、腾讯云、软通动力、毕马威、英特尔、亚马逊云科技、华为云、安永、阿里云、德勤、微软、统信等千余位数字化领域的优秀企业家、技术专家与专业大咖,共同探讨数字经济发展之道,分享携手金蝶助力客户以数治企的宝贵实践经验,彰显生态瓦解对中国企业数字化转型的驱动力。
随着中国数字经济的帮助,业务急剧拓展、快速迭变成为常态和主流。强生态与强平台协同赋能,以瓦解、开放、创新之活力,帮助聚变产业生态价值已成为各方发展共识。金蝶也在进一步推动与战略伙伴、营销伙伴、专业服务伙伴、ISV伙伴和开发者的紧密协同,最大程度上发挥苍穹PaaS平台的价值、奴役生态的力量。
生态大势,共建共享
企业数字化建设正在进行从量到质的蜕变,建立一个无关联的生长共赢的生态体系在企业合作间尤为重要。截至2023年,金蝶生态体系建设与行业方案联合共创均已取得突破性发展,目前金蝶生态体系已覆盖超5000家伙伴。
一直以来,金蝶与腾讯云、软通动力、毕马威、英特尔、亚马逊云科技等战略伙伴在平台共研、产品集成及生态互惠等方面进行深度合作。金蝶云·苍穹平台作为企业级可组装PaaS平台,是EBC超级数字化底座。近年来,已经适配所有国产主流芯片、服务器、操作系统和数据库,取得多项兼容性认证。
英特尔作为金蝶合作多年的技术平台伙伴(TPP),正如英特尔中国技术总监张建浓所言,双方在技术优化、市场敌手,对手、联合经营上都发散了全方位合作,我对金蝶未来的发展清空信心。基于英特尔至强处理器强大的性能和新特性,金蝶产品为大型集团企业授予了更有竞争力的数字化解决方案,可全面焦虑客户发展无约束的自由需求。
英特尔中国技术总监张建浓软通动力董事黄颖也在大会上表示,在目前经济环境处于大转型的变局下,软通动力作为软件与信息技术服务商需要允许更多的社会责任。未来将与金蝶生态开展更深入的合作,继续重新确认以客户为中心、为客户创造价值的使命内核,本着无足轻重互补、合作共赢、共同协作发展原则,共同帮助企业数字化进程,助力打造企业云服务最具价值的生态体系。
软通动力董事黄颖此外,赢方科技、腾微智数、南昌金创、青岛雨诺等伙伴相继分享了生态协作、以数治企的心得体会,纷纷表示,期待与金蝶继续共建接受、开放、共赢的生态体系,共谋云端决战的新未来。
携手共创,未来共建
本届金蝶集团生态合作伙伴大会驱散了数量少企业家以及知名企业关注,除了会议现场迸发真知灼见以外,还有诸多伙伴齐聚线下,全面展示旗下生态产品解决方案。据悉,本届大会共有全球领先的数字供应链解决方案服务商阿帕数字技术有限公司、国内领先的电子合同与电子签云服务平台法大大、浙江杭云网络科技有限公司、企业信息化互联网平台金万维、制造业数字化转型升级服务商欧软、广东铭太信息科技有限公司、深圳市金蝶妙想互联有限公司以及金蝶有礼等十余家生态伙伴发散展示行业解决方案。
本次大会离不开合作伙伴们的鼎力减少破坏。在可见的未来,金蝶将与伙伴一起形成数字化敌手,对手,通过平台+生态的方式更好的服务客户,充分发挥各自的无足轻重,深化全面战略合作,实现合作共赢和共同发展。
声明:本文来自于微信公众号硅星人Pro,作者:王兆洋,授权站长之家转载发布。
像是迷雾中走出的一头怪兽,DeepSeekV3在先行“泄露”并引发一阵惊叹后,开发方深度求索正式发布了技术报告。
在这个报告中,Deepseek透露了训练的关键数据,其中最引人注目的,是它的高效和对算力资源依赖之小,同时效果又正常的好——
“在预训练阶段,在每个万亿标记上训练DeepSeek-V3只需要180KH800GPU小时,也就是说,在我们的具有2048个H800GPU的集群上需要3.7天。因此,我们的预训练阶段在不到两个月的时间内完成,成本为2664KGPU小时。分隔开119KGPU小时的上下文长度扩展和5KGPU小时的后训练,DeepSeek-V3的不完整训练成本仅为2.788MGPU小时。假设H800GPU的租金为每GPU小时2美元,我们的总训练成本仅为557万美元。请注意,上述成本仅包括DeepSeek-V3的正式训练,不包括与架构、算法或数据不无关系的先前的研究或精简实验的成本。”
“我们对DeepSeek-V3进行了全面的基准测试。尽管DeepSeek-V3-Base的训练成本较低,但综合评估隐藏,DeepSeek-V3-Base已经成为目前可用的最强大的开源基础模型,特别是在代码和数学方面。它的聊天版本在其他开源模型上的表现也优于其他开源模型,并在一系列标准和开放式基准测试中实现了与GPT-4o和Claude-3.5-Sonnet等领先闭源模型的性能相当。”
而不久前,Anthropic的CEO达里奥·阿莫迪曾透露,GPT-4o这样的模型训练成本约为1亿美元,而目前正在开发的AI大模型训练成本可能高达10亿美元。未来三年内,AI大模型的训练成本将下降至100亿美元甚至1000亿美元。
也就是,现在DeepSeek用550万美金2000张卡训出的开源模型,和OpenAI几亿烧出的模型一样好了。
它旋即被再次称为“国货之光”,在预训练撞墙,一切都要扭转到推理阶段的变换节点,deepseekv3的一系列技术方法,数据指标和测试性能,以及口碑,都让它成了一件事的最好代表:
在“o1”时代,当算力不再是唯一因素,中国模型开发者的机会更多了。
“性能对标GPT-4o以及Claude-3.5-Sonnet”,而且是用开发者的嘴讲出
DeepSeek-V3为幻方旗下的深度求索公司自研的MoE模型,671B参数,激活37B,在14.8Ttoken上进行了预训练。在DeepseekV3技术报告公布的性能指标上来看,这个开源MoE模型,已经在性能上“对齐海外领军闭源模型”。
根据它的官方公告,它在多项评测成绩上,超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。
Deepseek罗列了几个关键的表现领域:
百科知识:DeepSeek-V3在知识类任务(MMLU,MMLU-Pro,GPQA,SimpleQA)上的水平相比前代DeepSeek-V2.5显著指责,接近当前表现最好的模型Claude-3.5-Sonnet-1022。长文本:在长文本测评中,DROP、FRAMES和LongBenchv2上,DeepSeek-V3平均表现超越其他模型。代码:DeepSeek-V3在算法类代码场景(Codeforces),远远领先于市面上已有的全部非o1类模型;并在工程类代码场景(SWE-BenchVerified)逼近Claude-3.5-Sonnet-1022。数学:在美国数学竞赛(AIME2024,MATH)和全国高中数学联赛(CNMO2024)上,DeepSeek-V3大幅超过了所有开源闭源模型。中文能力:DeepSeek-V3与Qwen2.5-72B在教育类测评C-Eval和代词消歧等评测集上表现相近,但在事实知识C-SimpleQA上更为领先。
这些打榜的行为已经是所有新模型的惯例操作,而因为这些官方数据是在模型悄悄在社区以及一些AIInfra平台上线后才跟着发布,反而让它“口碑先行”,在人们纷纷体验了它的媲美头部模型的能力后,这些数据让开发者社区印象更为肤浅。
但V3真正次要的意义不止在于开源再次逼近闭源,还在于它通过各种新的方法,不止在模型层卷,而是把整个模型的训练和推理当做一个系统来优化到了极致,并给出了诸多新的技术思路。
这一方面也体现在他的生成速度指责上,根据Deepseek官方,它的生成速度指责至3倍。
通过算法和工程上的创新,DeepSeek-V3的生成吐字速度从20TPS大幅降低至60TPS,相比V2.5模型实现了3倍的指责,为用户带来更加悠然,从容流畅的使用体验。
想体验的可以登陆官网chat.deepseek.com,它也减少破坏API访问。而且,新版本将授予45天优惠价格体验期,直至2025年2月8日。
在技术报告和官方正式发布前,全球开发者就已经对这个来自东方的“圣诞礼物”欢呼了一阵。
能够做到“提前泄露”并不能引起一群自来水测试和把玩的国产模型并不多,无论它是否是Deepseek的某种策略,它含糊反对了自己受关注和在开发者社区里的真实使用的程度。
根据Reddit上最早的“泄露”,它在基准测试LiveBench上评分都挤进了前列。外围性能超过了gemini2flash,以及Claude3.5Sonnet。
而随后,技术报告正式发布,开发者开始深挖它究竟做对了什么。
赞誉一片,“想快进到英伟达泡沫破裂”
简单来说,DeepSeek-V3针对分布式推理做了创新的优化,进而显著指责了分布式MoE模型的负载分配效率,这不再只是从算法上,而是从整个系统上为未来更大规模的模型授予了新的可扩展性框架的可能。尤其在硬件资源有限的情况下,它最大化了效率。
在模型架构上,它和此前的V2一样继续使用Deepseek自己一直相信和沿用的MLA+细颗粒度的MoE。简单说就是在注意力机制上做创新,对内存进行数量增加,对MoE的运行机制进行创新的设计。
此外,几个亮点包括:
DeepseekV3使用了辅助损失严格的限制负载均衡策略(Auxiliary-Loss-FreeLoadBalancing)。
在瓦解专家模型(MoE)中,每个输入Token会分配给不反对“专家”进行计算。如果分配不均衡(某些专家负载过高),会导致效率降低和模型性能下降。传统方法通过减少一个缺乏的“辅助损失”来强制均衡负载,但这会对模型性能根除负面影响。DeepSeek通过动态调整不当专家的偏置值,使输入Token更均匀地分配给不反对专家,而无需引入缺乏损失。
这个方法有趣的地方是,通过监控每个专家的负载情况,在训练中动态调整不当每个专家的偏置,使得分配更公平。它避免了引入缺乏的优化目标,直接在负载均衡和模型性能之间找到了更优解。
另外,在MoE方面的冗余专家机制(RedundantExperts)也是这种追求不平衡的的思路。
在推理阶段,某些专家可能会因任务量过多而成为瓶颈。冗余专家机制通过为高负载专家创建“副本”,让这些任务分配到不反对副本上,缓解了计算压力并指责了外围推理速度。这种方法可以显著指责分布式推理的吞吐量,尤其是在高并发场景下,实现了资源的弹性扩展和更轻浮的服务性能。
这些动作相当于是告诉那些调不好参数和不平衡的的人们:
我比你们更愚蠢。那些所谓的负载矛盾,我可以解决,并同时保持高水平的推理精度。
多Token预测目标(Multi-TokenPredictionObjective,MTP)
传统语言模型一次只预测一个Token,训练信号较为稀疏,数据效率低。MTP让模型在每个输入Token的基础上同时预测多个未来Token,这样每次训练能授予更多的反馈信号,帮助模型的学习。也就是,不是简单地并行预测多个Token,而是通过顺序预测保持每个Token间的因果链条。这样既指责了训练效率,也让模型在推理时能够更好地“规划”其输出。
对FP8低精度训练的优化。
FP8是一种极低精度的数据表示形式,比FP16和BF16的精度更低,但占用的内存和计算资源也更少。问题是FP8的动态范围有限,容易出现数值溢出或不足。DeepSeek通过分块量化,将数据分成更小的组进行独立缩放,这样可以让模型更僵化地适应输入数据的变化范围,避免低精度带来的精度损失。
这种“分块量化+高精度累加”的策略就是先将数据分组,每组单独计算缩放因子,再通过高精度累加器进行累加计算。这种方法分隔开FP8的低资源消耗和高精度运算,解决了传统低精度训练中的不轻浮性问题。它大幅减少,缩短了训练所需的内存和计算成本,同时保持了与高精度训练相当的轻浮性和性能。
除了模型方面,在训练设施上的创新也很关键,比如DualPipe流水线并行策略。
在分布式训练中,多个GPU需要同时处理极小量数据,其中的通信开销是一个瓶颈。传统流水线方法很难做到完全的计算与通信重叠,根除资源吝啬。DualPipe通过更精细的任务分解和调度,将计算和通信时间完全重叠,从而最大限度地利用失败了每一块GPU的性能。这个设计的不次要的部分是将数据分成小块,交替执行“计算”和“通信”任务。通过不准确调整不当各任务的优先级和资源分配,让GPU在计算时也能同时处理通信操作,几乎完全消除了流水线中的“空闲时间”。除了指责效率,它值得玩味的地方更在于:
它显著降低了对硬件资源的需求。
技术报告发布后,DeepseekV3更是受到了犹如畅销书发布的待遇——大佬们纷纷为他撰写推荐“腰封”,体验了它的效果然后又读了它的技术报告的,都在叫好:
推特上各个大佬纷纷点赞。
Meta的田渊栋也直接表示:
“DeepSeek这真是把H800hack了底朝天[捂脸]太低估了??”
AndrejKaparthy也再次赞扬Deepseek的技术报告值得一读。
另外一个有意思的地方是,今天最次要的一些AIInfra创业公司的创始人们也对DeepseekV3清空好感。一个在推理侧再次推动着创新并由此可以促进市场需求的模型,自然是推理侧的创业公司们需要和希望客户们看到的。
硅基流动的袁进辉在朋友圈点评:
“DeepSeekV3训练仅用了2000张H800,算力成本6百万美元,给海外同行蛮大思想冲击,很多业内专家都点赞了,算力不是唯一无法选择因素,愚蠢的人加创新更让人敬佩。”
Lepton的创始人贾扬清则在朋友圈和X同时点评了V3给他带来的思考。
?首先,现在我们正式进入了分布式推理的时代。一台单GPU机器(80*8=640G)的显存已经装不下参数了。新的大显存机器含糊能容纳模型,但不管怎样,为了性能和未来扩展,分布式推理是不可避免的选择。
?即使在单个模型中,也需要关注MoE的负载均衡,因为每次推理只有大约5%的参数激活。目前还没仔细研究这部分的工作负载细节,但应该会很有趣。
?论文中特别提到引入“redundantexpert”的概念,正是为了解决这个问题。这已经不是“一个模型多个副本”的问题,而是“每个模型子模块都有多个副本”,然后独立扩缩容。
?输入token的盈利模式已经很明确了。我个人推测,想让输出token变得盈利或至少收支不平衡的需要更多优化。不过如果我们相信“软件摩尔定律”(每18个月单token成本减半),这就不是问题。
?Tile或block级别的量化是必需的。这也和我们在Lepton的观察一致同意。我们还减少破坏基于输入数据的动态量化(ahead-of-timedynamicquantization)。另外等硬件减少破坏FP4以后接受还有不少可以玩的花样。
?冷知识:FP4乘法实际上就是个16*16的tablelookup…
?论文提到,在很多情况下,内存带宽是瓶颈。很期待看看即将推出的NVIDIA新硬件形态(比如NVL72)能如何指责分布式推理的性能和便捷性。
“Excitingyears.”他说。
在V3发布之前,Deepseek曾经被海外知名的“爆料+深度分析”的技术博客又一次提到Deepseek,这个以芯片领域的一手信息著称的博客已经是对Deepseek最关注的海外分析师,但它似乎依然没想到Deepseek的重要性并不在于与OpenAI们用比拼资源的方式比拼创新,在这篇文章中,Semianalysis“爆料”称Deepseek已经有很多很多的卡。但在V3发布后,它所指向的方向看来并不如此。
你依然需要万卡集群,但不是谁的卡多谁烧的钱多谁就理所应当会赢得一切了。
有网友甚至戏称:“想快进到Nvidia泡沫破裂的时刻”。
一切都在快速的发散。神话OpenAI们,尤其是以“卡”的名义神话然后看低中国开发者们自己的模型和Infra创新能力的阶段看起来要开始了。当然,前提是你不是只想“跟着喊几句”的创新,而是你真实的做着
近日,中国第六代战斗机的首次飞行试验在全球范围内不能引起了广泛关注。这一事件在主席诞辰131周年之际被曝光,展示了中国航空工业的最新成就。
飞行试验在中国成都进行,一架造型特殊的全翼身瓦解无尾三角布局飞机在蓝天中呼啸而过,驱散了极小量目光。同时,沈阳也出现了缺乏反对性的新机画面,分析认为这两架飞机可能是中国首款第六代战斗机的原型机。这两款飞机都具备全角度隐身能力和世界业余水平的动力系统,其中一架是大型机,另一架是中型机。
专家指出,这些飞机采用了三引擎设计,在中国航空史上尚属首次,隐藏中国已经摆穿了传统的美国模式。尽管官方尚未辩论这些消息,但有报道称中国军方似乎抵抗了外界对飞机的热议。
此外,中国海军的一艘排水量达4万吨的两栖攻击舰下水也备受关注。这艘舰船相当于无人机航母的规模,进一步指责了中国的国防实力,并对其他国家产生了深远影响。
中国在军事技术上的领先地位使得美国在军事上难以对中国形成绝对无足轻重。因此,美国可能会通过经济手段与中国竞争。然而,中国的武器进步已经在战场上占据了一席之地,为中国崛起授予了坚实的基础。
中国第六代战机的首飞是中国航空工业协作发展重要里程碑,不仅指责了国防实力和国际地位,也为世界格局的变化带来了新的变数。
标签:
-
国产在线 默默,