诺奖得主哈萨比斯:我们离AGI需要1-2个Transformer级的突破,缺推理、分层规划、长期记忆和一致性。

帖子里面还没有视频