研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力
Jun 20, 2025 10:03:23
Share to

ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。
研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。
Latest News
Base blames faulty sequencer for 33-minute outage, fixes made
Cointelegraph
Aug 06, 2025 08:21:55
Bitcoin Holds Steady At $115,000, But Realized Price Data Warns Of Fragility
NewsBTC
Aug 06, 2025 08:00:54
SEC's guidance on liquid staking tokens a win for DeFi, institutions
Cointelegraph
Aug 06, 2025 07:21:29
SUI In A Sweet Spot: Structural Support And VWAP Align For Potential Breakout
NewsBTC
Aug 06, 2025 07:00:14
Bitcoin Whales Scoop Up 218K BTC in 18 Weeks — $124K Breakout Looms If $113K Holds
ZyCrypto
Aug 06, 2025 06:48:04