icon

研究:长期依赖ChatGPT等大型语言模型或将损害认知能力

6 月 20 日,麻省理工学院、韦尔斯利学院和马萨诸塞艺术学院的研究团队最新发现,长期依赖ChatGPT等大型语言模型(LLM)可能损害认知能力。研究显示,使用AI写作的参与者大脑中Alpha波连接数量仅为独立思考者的一半(42比79),且83.3%无法准确引用自己的文章内容。研究者称这种现象为"认知负债"——短期内减轻思维负担但长期导致批判性思维和创造力下降。

雷電財經提醒:请广大读者理性看待区块链,切实提高风险意识,警惕各类虚拟代币发行与炒作,站内所有内容仅系市场信息或相关方观点,不构成任何形式投资建议。如发现站内内容含敏感信息,可通过 举报 联系我们 ,我们会及时处理。
10:00 , 2025-06-20

研究:长期依赖ChatGPT等大型语言模型或将损害认知能力