华为发布强算力AI处理器升腾910,号称算力最强

2024-05-14 04:07

1. 华为发布强算力AI处理器升腾910,号称算力最强


华为发布强算力AI处理器升腾910,号称算力最强

2. 华为正式发布最强算力AI处理器升腾910,谷歌等“友商”会如何看待?

2019年8月23号下午,华为深圳总部,发布了胜利最强的a处理器升腾910,并且推出了全场景的AI计算框架。
华为公司的轮子董事长徐直军说,华为已完成全站全场景AI解决方案的构建,今后将推出更多的AI处理器,提供更充裕,更经济更适配的AI算力。



这是一个大招。因为将来的AI将成为一种通用目的的技术。而华为肯定是在做全面的基础布局。至少在中国的市场,华为的AI技术将得到全面的应用。那么在国际市场上更会有竞争力。
目前没有看到谷歌等一系列友商的反应。但我想他们的第一反应是震惊吧。因为华为的目标已经非常明显,在将来的人工智能行业,华为至少是在中国市场,将有着广泛的应用和技术提升。而这种提升无可辩驳的,会如同华为目前的影响力一样推广到世界。

只知道华为做大。但不知道华为做得如此之大,而且如此之先进。这种大手笔大战略。或者其他的友商公司也有。只是华为依托中国市场,将有着更快的提升力和竞争力。这一点是他们深深知道的。
在一夜之后又要被华为甩掉一条街。对于其他各国的计算机网络公司来讲,这真是泰山压顶,压力山大。难怪美国总统上蹿下跳,他真是怕什么来什么。美国的经济已呈现下行趋势,再加上他这一种无厘头的强悍,美国经济的锅虽然不该他背,但是在国内,他也怕是如坐针毡吧。

不过这倒给了他一个很好的借口。他一直大叫狼来了,狼来了。不过这两天我没有看到他的反应。估计最震惊的就该是他!

3. 华为正式发布最强算力AI芯片升腾910,这款处理器到底有多强?

升腾 910 采用了 7nm+ EUV 工艺,并用上了 Da Vinic 达芬奇架构。华为官方在发布时提到,升腾 910 的运算能力相当于 50 个当前最前的 CPU,它的训练速度也是比目前最强的 AI 芯片还要强 50%-100%。

根据华为官方公布的测试数据,升腾 910 已经达到了设计规格预期。升腾 910 的 FP16 算力达到 256 Tera-FLOPS,INT8 算力达到 512 Tera-OPS。重要的是,升腾 910 达到规格算力所需功耗仅 310W,明显低于设计规格的 350W。
升腾 910 总体技术表现超出预期,已经把升腾 910 用于实际 AI 训练任务。比如,在典型的 ResNet50 网络的训练中,升腾 910 与 MindSpore 配合,与现有主流训练单卡配合 TensorFlow 相比,显示出接近 2 倍的性能提升。

华为正式发布最强算力AI芯片升腾910,这款处理器到底有多强?

4. 华为升腾910是什么平台上用的芯片?

华为升腾910是骁龙810芯片,升腾910AI芯片属于Ascend-max系列。实际测试结果表明,在算力方面,升腾910完全达到了设计规格,即:半精度(FP16)算力达到256 Tera-FLOPS,整数精度(INT8)算力达到512 Tera-OPS;重要的是,达到规格算力所需功耗仅310W,明显低于设计规格的350W。
面向未来,针对不同的场景,包括边缘计算、自动驾驶车载计算、训练等场景,华为将持续投资,推出更多的AI处理器,面向全场景持续提供更充裕、更经济、更适配的AI算力。

华为提出,AI框架应该是开发态友好(例如显著减少训练时间和成本)和运行态高效(例如最少资源和最高能效比),更重要的是,要能适应每个场景包括端、边缘和云。
针对不同的运行环境,MindSpore框架架构上支持可大可小,适应全场景独立部署。MindSpore框架通过协同经过处理后的、不带有隐私信息的梯度、模型信息,而不是数据本身,以此实现在保证用户隐私数据保护的前提下跨场景协同。除了隐私保护,MindSpore还将模型保护Built-in到AI框架中,实现模型的安全可信。

5. 华为升腾910是什么平台上用的芯片?

华为升腾910是骁龙810芯片,升腾910AI芯片属于Ascend-max系列。实际测试结果表明,在算力方面,升腾910完全达到了设计规格,即:半精度(FP16)算力达到256 Tera-FLOPS,整数精度(INT8)算力达到512 Tera-OPS;重要的是,达到规格算力所需功耗仅310W,明显低于设计规格的350W。
面向未来,针对不同的场景,包括边缘计算、自动驾驶车载计算、训练等场景,华为将持续投资,推出更多的AI处理器,面向全场景持续提供更充裕、更经济、更适配的AI算力。

华为提出,AI框架应该是开发态友好(例如显著减少训练时间和成本)和运行态高效(例如最少资源和最高能效比),更重要的是,要能适应每个场景包括端、边缘和云。
针对不同的运行环境,MindSpore框架架构上支持可大可小,适应全场景独立部署。MindSpore框架通过协同经过处理后的、不带有隐私信息的梯度、模型信息,而不是数据本身,以此实现在保证用户隐私数据保护的前提下跨场景协同。除了隐私保护,MindSpore还将模型保护Built-in到AI框架中,实现模型的安全可信。

华为升腾910是什么平台上用的芯片?

最新文章
热门文章
推荐阅读