用“SD卡”思路做可插拔的AI芯片模组,中科物栖推RISC-V芯片产品、Jeejio超微计算机
面向终端的AI芯片是近几年来AI领域的创投热点,诸如寒武纪、地平线、深鉴科技等均是这一赛道知名的公司。
我们近期接触的中科物栖(Jeejio.com)也在做AI芯片及相关产品的研发。与市面上的AI芯片公司不同,团队将重点放在了基于自研AI芯片和AIOT操作系统JeejioOS的可插拔的“超微AI计算机”,并基于此为客户提供相应的产品及解决方案。在7月18日下午,物栖团队首次对外展示了其超微计算机、RISC- V芯片产品。
根据官方提供的信息,中科物栖的两款AI芯片分别叫做JX1和JX2;其中,JX1采用55纳米制程,异构双核RISC- V处理器核心,并融合了可编程的AI专用加速器,可替代现有的ARM Cortex- M系列核心,适用于对计算能力有一定需求的实时嵌入式设备,例如工控、可穿戴、以及低成本智能家具设备,包括智能水表、智能手环、智能插座等,可应对低维传感器信号如声音、运动传感器、低分图像等,待机功耗不到1mW,纽扣电池可以支持一周待机;JX2是国内首个可运行Linux的异构三核RISC- V芯片,采用40纳米制程,主频可达1GHz,基本接近ARM Cortex-A7的水平,支持近30种主流AI算法模型,且支持1、4、8位低比特定点操作,可适用在物体分类、物体检测、语音识别、自然语言处理以及内容生成等多个关键人工智能任务。
市面上常见的AI芯片多是基于ARM架构,中科物栖的两款AI芯片均采用了RISC-V架构。中科物栖表示,RISC- V之所以被大家看好,是因为它具有许多适合IoT设备的优势,例如无需授权费,成本更低;架构设计符合当下的敏捷开发思想,可以快速针对物端碎片化和千差万别的市场需求对芯片架构和指令集进行定制扩展;另外在当前的国际关系背景下,芯片这些核心技术的自主可控也是RISC- V被重视的原因之一。
中科物栖告诉36氪,团队早在2014年就开始RISC-V相关研发,CEO张磊博士是国内第一个在RISC- V论坛上演讲的学者;首席科学家王元陶博士1999年师从RISC-V发起人、图灵奖获得者David Patterson;2015年王元陶与张磊博士组建了中科院计算所物端计算系统实验室,从事基于RISC- V的AIoT芯片研发;中科院计算所也是国内唯一RISC-V基金会的联合创始会员单位。
当前,AI芯片公司多是直接将AI芯片直接与算法绑定,应用于行业解决方案。中科物栖的思路并不相同。公司基于自研的AI芯片,进一步研发了Jeejio超微计算机。以前计算机很大,外设都是通过USB插到计算机里,物栖把计算机做到SD卡大小,可以把一台超微计算机插到外设里,让我们身边的万物都轻松实现智能。作为可插拔的 All-in-One 微型计算机,它在SD卡大小的面积上集成了JX系列芯片、DDR、Flash、WiFi/BLE。如同SD卡、TF卡、SIM卡,Jeejio超微计算机是标准的计算单元。对于下游客户来说,可满足多变的应用场景,降低产品创新门槛和成本,对于C端用户来说,未来则有可能像购买内存卡一样,购买AI存储和计算单元,进一步扩展购买所使用的智能设备的性能。
团队表示,为了降低成本,目前Jeejio超微计算机不追求使用最先进的工艺制程。如果映射到相同工艺,可以做到谷歌TPU Edge功耗的1/10,通用性接近英伟达GPU;具体来说,峰值功耗可以做到数十毫瓦 – 300毫瓦,且动态可调,低于英伟达(2 – 5瓦)和谷歌TPU(1 – 2瓦)。超微计算机的开发环境支持Linux和Arduino,即将支持安卓开发环境。
在中科物栖看来,AI应用开发方面是超微计算机的特色,可以一定程度上解决AI算法和AI应用开发难等问题;为此,物栖采用一站式AI工具链,针对不同人群给出“高-低”两条开发线路,其中,“高”是面向专业的AI算法开发人员,通过对其设计的算法进行自动约束以保证在芯片上高效运行,满足物端低延迟,低功耗需求;“低”主要是面向传统硬件开发人员,他们只需要输入几行简单代码调用API,就可以从物栖平台获得AI功能,例如语音识别,图像识别等。
当前,Jeejio超微计算机还是一个比较新的品类,仍需要对行业进行教育。因此,中科物栖也会自研一些产品作为展示案例,同时向客户提供相应的解决方案。目前团队正在与插座、毛绒玩具等领域的客户合作,同时也在探索教育领域的应用。
现阶段,中科物栖团队共有150人左右。公司成立一年时间完成连续两次融资,投资方包括赛富系基金、中科图灵、中科院创投、联想创投等。
作者暂无likerid, 赞赏暂由本网站代持,当作者有likerid后会全部转账给作者(我们会尽力而为)。Tips: Until now, everytime you want to store your article, we will help you store it in Filecoin network. In the future, you can store it in Filecoin network using your own filecoin.
Support author:
Author's Filecoin address:
Or you can use Likecoin to support author: