作者展现,对于懂推这种全新留意力机制(Sytem 2 Attention)概况你也需要呢。构入
大型语言模子(LLM)很强已经是手新一个不争的事实 ,但它们无意依然简略犯一些重大的留意力机理过错 ,展现出较弱的制更推理能耐 。
举个例子