首页
论坛
博客
大讲堂
人才网
直播
资讯
技术文章
频道
登录
注册
新思科技推出AI增强型数字设计平台,将人工智能引入芯片设计实现
2018-06-19 16:46:54
未知
最新版本的PrimeTime采用
AI
增强型功耗收复功能,将上市时间加快5倍,并提供行业最佳的结果质量
重点:
新思科技将先进的机器学习技术融入其设计平台和革新性的Fusion Technology中,以应对前沿设计中的高度复杂性。
利用
AI
技术,PrimeTime以sign-off为导向的功耗收复功能收敛速度加快了5倍,体现出
AI
技术在设计实现方面的优势
新思科技正在与主要行业伙伴一起扩大对
AI
的投入。
全球第一大
芯片
自动化设计解决方案提供商及全球第一大
芯片
接口IP供应商、信息安全和软件质量的全球领导者新思科技(Synopsys, Inc.,纳斯达克股票市场代码: SNPS)近日宣布,其业界闻名的设计工具通过引入先进的
人工智能
(
AI
)技术得到增强,可以应对前沿设计中的高度复杂性问题。
AI
增强型工具提升了新思科技的设计平台,并可以与近期发布的Fusion Technology
™
进行无缝协作,从而显著加快上市时间(TTR),并设定了数字和定制设计的结果质量(QoR)的新标准。
新思科技的PrimeTime
®
签核工具在
芯片
设计领域表现出
AI
所带来的颠覆性能力,已证实可在处理基于前沿工艺技术的客户设计时,使功耗收复速度加快5倍。新思科技正在与主要行业伙伴密切合作,一起扩大对
AI
技术的投入。这将为新思科技的设计平台更广泛的智能化前景铺平道路,实现自动化功能在数量级上的进步,并提升设计团队提供高度差异化产品的能力。
瑞萨电子株式会社基础解决方案事业部共享研发2分部、数字设计技术部总监Hideyuki Okabe表示:“机器学习技术近年来发展非常迅速。作为新思科技工具的长期用户,我们对PrimeTime经过
AI
增强的sign-off导向功耗收复功能非常感兴趣。在我们
测试
一款大型SoC时,可以在现有的生产流程中观察到4倍以上的ECO加速,同时还实现了与之前相同的时序和功耗QoR。PrimeTime的新型机器学习技术,使我们可以在几个小时内完成之前需要数日的ECO运行,而且能够在不同模块、层次结构甚至设计风格之间重复利用学习结果。”
随着自动化交通和
人工智能
等驱动
半导体
市场发展的强大动力继续推动全球市场对更快更节能
芯片
的需求,设计侧创新已成为按计划实现所需功耗、性能和面积(PPA)目标的关键。受益于更广泛的
人工智能
技术革命的不断进步,
AI
增强型工具可以在客户环境中不断学习和自我改进,从而提供了与传统设计解决方案完全不同的自动化水平。
AI
增强型工具通过加速计算密集型分析,对结果进行预测,从而作出更好的决策,并利用过去的学习结果进行智能化的指导调试,从而提高设计人员的生产力。使用
AI
增强型工具,设计团队可以实现一键式自动化水平,从而腾出时间让设计者专注于具有特殊性和创新性的任务。
新思科技设计事业群总经理Sassine Ghazi表示:“机器学习已经成为解决高复杂度、高成本挑战的强大技术,能为我们的客户拓展创新的途径,并且具有颠覆性的潜力。通过与开发合作伙伴紧密合作,我们已经看到
AI
技术在许多领域取得令人瞩目的成果。因此,我们将以清晰的目标、全面的战略和关键的合作伙伴关系,扩大我们对
AI
设计解决方案的投入,为
芯片
设计带来前所未有的自动化水平,让设计团队能够取得更多成就。”
关键词:
EETOP 官方微信
创芯大讲堂 在线教育
创芯老字号 半导体快讯
相关文章
上一篇:
地平线基于AI芯片技术的产品矩阵全面亮
下一篇:
寒武纪宣布完成数亿美元的B轮融资:估
0
全部评论
最新资讯
英飞凌ModusToolbox™添加对苹果“查找”网
Microgate 的自适应光学技术在深空探索中
和宇树比谁更像人?波士顿动力人形机器人大
英特尔前CEO:黄仁勋的成功纯靠运气!
西门子计划全球裁员
软银65亿美元全现金收购美国芯片设计公司Am
普源精电RIGOL亮相MWC2025及Embedded World 2025
泰克助力MIPI总线技术的测试与多场景应用
PCIe 7.0规范 V0.9 发布!
外媒震惊:严重不利台积电!
最热资讯
英特尔AI Assistant Builder 让数月开发
末日警报?两种大模型实现自我克隆,AI红线
飞凌微推出AIoT应用系列高性能端侧视觉AI
约11万元/颗!英伟达降速版AI芯片价格曝光
李飞飞离职谷歌背后:AI科学还很稚嫩,作为
DeepSeek估值大幅飙涨,梁文峰身价或超过黄
无人驾驶现在到了什么级别了?
忆阻器,你了解吗?刷爆朋友圈的全球首颗清
国外AI专家深度剖析:盛赞DeepSeek R1里程
消息称字节跳动采购10万颗华为GPU!