随着DeepSeek等大型语言模型(LLMs)的迅速发展,AI幻觉(Hallucination)现象已成为制约其可靠应用的关键挑战。AI幻觉指模型生成的看似合理但实际上不准确、不存在或与事实不符的内容。本研究基于清华大学新媒体研究中心与人工智能学院的联合研究项目,系统性地探讨了DeepSeek等大语言模型的幻觉现象,从认知科学和技术实现两个维度深入分析其成因、影响及应对策略,旨在为学术界和产业界提供有价值的参考。

声明:本站所有资源均来自互联网,资源失效请联系一起来网赚(YiQiLai.Org)客服。