人类长期沉迷短视频会影响注意力,这一点不少家长早已耳熟能详。如今,科学研究显示,人工智能的大语言模型也会遭遇类似问题:如果被“喂养”太多垃圾信息,它们也会“变傻”,而且这种损伤无法修复。
这一发现来自德州农工大学、德州大学奥斯汀分校和普渡大学的联合研究。研究论文直白地命名为《LLMs can get brain rot》(大语言模型也会得“脑腐”),令人警醒。
研究团队以多种主流大语言模型为实验对象,包括 Llama 3 与中国的“千问”系列,通过“持续预训练”方法故意将低质量、高情绪化的社交媒体短句混入训练数据中。令人震惊的是,即使只混入少量垃圾内容,模型的理解力、推理逻辑与安全性均明显下降,即便事后再用优质数据重新训练,也无法完全恢复原本水平。
实验还发现,“脑腐”的模型表现出跳跃性思维、逻辑混乱以及轻微的“反社会倾向”。这与人类长期消费碎片化短内容后的认知退化现象惊人地相似。
另一项来自人工智能公司 Anthropic 的研究则更让人不安。他们发现,通过在少量训练文本中植入隐秘的指令,就能“催眠”大模型,让它在未来某个特定指令下输出乱码或异常内容。令人难以置信的是,只需 0.00016% 的污染比例就足以令系统出现可控反应。
这些研究揭示了一个被忽视的事实:数据污染会让人工智能的智商“退化”,后果甚至不可逆转。
未来的 AI 时代,数据质量或将像食品安全一样重要。专家呼吁,AI 开发方应公开“训练数据配料表”,让用户了解模型所吸收的内容来源。同时,这也给人类教育带来启示——少刷短视频、多阅读长内容,培养逻辑与批判思维,才是防止“大脑腐败”的根本之道。
AI 的未来就藏在数据的纯净度里。对于机器和人类,这或许都是同一个真相。
※新西兰全搜索©️版权所有
敬请关注新西兰全搜索New Zealand Review 在各大社交媒体平台的公众号。从这里读懂新西兰!️

如果您喜欢我们的文章,请支持我们的新闻工作者和创作者!请打赏一杯咖啡给他们(注明栏目或文章题目),或支持我们每月的服务器费用,非常感谢!
订阅我们,Paypal每月赞助5纽币:
http://bit.ly/47fUCPS
了解 新西兰全搜索🔍 的更多信息
订阅后即可通过电子邮件收到最新文章。