第319章 神经网络(1 / 5)

投票推荐 加入书签 留言反馈

  就在林奇沉迷与迟疑于这位神孽以命运之力为他搭建的处理器的接口模块时,他却戛然发现脑海里同样在动工的芯片走向了新的篇章。
  迥异于他曾经构思的简单cpu芯片模型,也并非最近才转变思路的gpu芯片模型。
  而是一种更为极端的芯片模型。
  ai芯片。
  众所周知,芯片本身具有多种类型,以制程来分的话,微机与手机作为消费电子的关键,自然分配到的也是最好的消费级芯片,像每年各家手机厂商推出的最新款旗舰机,如果不搭配上最新的870880芯片,都绝对对不起这个称号。
  哪怕这里面有的芯片因为性能而发热严重甚至成本巨大,但最新最强这个名头,就是不能轻视之,不然消费者马上在这一年教做人。
  而这些芯片之外,剩下的还有不同种类的芯片,它们并不需要用到最为先进的5nm制程,它们甚至用单片机这些来控制即可,包括不限于arm,dsp这类,也就是总称的mcu芯片。
  它们的制程再高也就28nm级别,但却是一笔庞大无比的消耗,诸如汽车便是这类芯片的消耗大头,最简单两个车窗控制升降都需要,更别说自动辅助驾驶等复杂的功能模块。
  而ai芯片则是一种在异化之上,比gpu走得还要更加极端的芯片类型。
  如果是gpu比起cpu而言,是需求更加多的alu单元(算术逻辑单元)。
  那么ai芯片则是专门针对ai算法定制的专用芯片,所以执行ai算法时能耗更低,效率更高。
  林奇最初看着这位神孽以“创生圣言”激发他创造效率而萌生的“处理器”模块,很快就发现它与寻常芯片结构的不同之处。
  像是自动驾驶这个类目,寻常的cpu处理器计算,则因为运算并非强项所以速度无法满足需要,至于gpu芯片倒是满足,但是它的成本过高与功耗都动辄超过了消费者承受范围。
  这时候,专门定制用来贴切这些应用场景的ai芯片便应运而生,像是谷歌早期训练阿尔法狗还用的显卡芯片,后期便直接用自行研发的ai芯片来训练。
  林奇这时才懵懵懂懂的想起来。
  ai芯片之所以能够胜出,便在于ai算法涉及到的太多卷积、残差网络、全连接类型计算。
  而这些计算本质上便是加法和乘法。
  类似于林奇曾经接触到的那些法术模型的计算。
  要知道,一个成熟些的ai算法,执行一次它的话,动辄便等价于上万亿次加法乘法计算。
  而先进些的cpu处理器,算上多核一秒钟的计算次数也就几百亿次。
  来处理上万亿次便有着时间差距。
  可像是谷歌开发的tpu1,它一秒钟的计算次数,是接近100万亿次。
  一秒钟都把上万亿次计算的ai算法执行了上百次了。
  如果说gpu是专门从cpu中分离出去处理图像计算,那么ai芯片则是专门分离处理ai算法计算。
  这一切,都源自于深度学习对于神经网络算法的依赖!
  偏偏。
  此时的林奇看着这份硬是在自己脑海里建立起来的奇迹,已经坑不出半句话来。
  说多少,那都是多余。
  法术模型本身涉及的便是最基本的加法乘法运算。
  而林奇最初制定的方案,便是日后往人工智能转型,却没想到,居然还在这儿被硬生生地抬了一个台阶。 ↑返回顶部↑

章节目录