AI行业的迅速发展对于计算机硬件带来了许多挑战和机遇。AI算法的功耗大多消耗在矩阵乘加运算。传统CPU的架构注定无法满足AI算法的需求,所以AI芯片应运而生。模拟运算利用基本的欧姆定律,高效并高速地完成AI算法主要的矩阵乘法及加法,很有可能从根本上解决现有的问题(冯诺依曼瓶颈),大大提升AI芯片算力。现在市场上还几乎不存在存内运算的芯片,此芯片的优势是低功耗且高效率地完成AI应用所需要的计算。相比主流的架构优化来完成AI算法运算,本项目解决了数据传输瓶颈问题,大大减少功耗,同时也大大减少了数据转移时间,提升了处理速度。