電工為完成這些計算,芯片設計中,會增加很多運算單元,如幾千到幾萬個運算單元。隨著運算單元數目的增加,每個運算單元能夠使用的存儲器的帶寬和大小都在減小。
因此,存儲器會成為計算瓶頸。由于深度學習并不屬于通用計算的范疇,馮·諾伊曼(John von Neuman)架構的存儲和計算分離,已經不適合數據驅動的人工智能應用需求。頻繁的數據搬運,導致的算力瓶頸以及功耗瓶頸,已經成為更先進算法探索的限制因素。類似于腦神經結構的存內計算架構,將數據存儲單元和計算單元融合為一體,這樣能顯著減少數據搬運,提高計算并行度和能效。而計算存儲一體化,在硬件架構方面的革新,也將突破AI算力瓶頸。傳統單體智能,無法滿足協調大規模智能設備共同完成實時感知和決策等工作。但隨著物聯網協同感知技術、5G高速通信技術的發展,多智能體之間的協同合作,將會成為可能。
多智能體協同,將使物聯網進一步智能化,并進一步強化智能系統的價值。比如,大規模智能交通燈調度,將實現動態實時調整;倉儲機器人協作,將完成貨物分揀的高效協作;無人駕駛車可以感知全局路況;群體無人機協同,將高效打通最后一公里配送,超大規模的智能終端合作成為可能。