研究:长期依赖ChatGPT等大型语言模型或将损害认知能力
6 月 20 日,麻省理工学院、韦尔斯利学院和马萨诸塞艺术学院的研究团队最新发现,长期依赖ChatGPT等大型语言模型(LLM)可能损害认知能力。研究显示,使用AI写作的参与者大脑中Alpha波连接数量仅为独立思考者的一半(42比79),且83.3%无法准确引用自己的文章内容。研究者称这种现象为"认知负债"——短期内减轻思维负担但长期导致批判性思维和创造力下降。
本资讯链接: - 雷电财经
免责声明:本文为用户投稿,不代表雷电财经立场,且不构成投资建议,请谨慎对待。
版权声明:内容及插图归源作者所有。文章为源作者独立观点,不代表雷电财经立场。
温馨提示:如您对本文存在异议,或不巧侵犯了您的合法权益,请通过 [ 投稿须知 ] 联系我们删除!
版权声明:内容及插图归源作者所有。文章为源作者独立观点,不代表雷电财经立场。
温馨提示:如您对本文存在异议,或不巧侵犯了您的合法权益,请通过 [ 投稿须知 ] 联系我们删除!
下一篇:没有了