最近,智能算法研究中心黄翰教授受邀作了多场关于AI大模型赋能的报告或培训,特别是在大学教育领域的应用。然而,他发现很多单位并没有部署类似DeepSeek这样的大模型,他们更多是想了解如何利用通用大模型来提升工作效率。因此,黄老师结合自己的研究和实践经验,分享了他的看法,希望能为各单位提供一些有价值的参考。接下来,就让我们一起看看黄教授怎么说吧:
1、通用大模型的局限性
首先,我必须泼一盆冷水:目前的通用大模型在实际工作中并没有带来显著的赋能效果。它们更多是提供了一种AI体验,比如通过智能问答获取知识,这些内容在以前往往需要通过大量阅读或深度检索和整理才能获取;又比如通过大模型实现作诗、写作、聊天等娱乐性功能。无论是AI体验还是娱乐功能,其实通用大模型并没有在工作中实现真正的赋能。
为什么通用大模型难以赋能工作?一方面,它的数据质量堪忧。通用大模型使用的数据大多是非标注数据,这些数据未经人工标记、分类或注释,其可靠性和可信度往往难以保证。另一方面,它的推理逻辑不稳定。通用大模型在推理时带有随机性,缺乏严格的业务逻辑。尽管它学习了大量数据中的逻辑,但这些逻辑更多是形式上的,而非深层次的语义或任务逻辑。因此,很多时候,它的结果要么是错的,要么逻辑上讲不通。更糟糕的是,大模型有时会编造不存在的事实。比如,我最近在查资料时发现,有些参考文献是大模型编造出来的,甚至包含论文题目、摘要、卷号、页码等信息。这些关键信息本应是客观的,但大模型却将其视为符号输出,随意编造。这不仅会误导研究方向,还可能引发信任危机。
基于以上局限性,通用大模型在较复杂工作场景或要求数据真实性的场景中很难实现实质性的工作赋能。有人可能会问:未来改进后是否能解决这个问题?答案是,虽然未来的技术进步可能会带来一些改善,但目前来看,问题的核心在于通用大模型学习的内容过于庞杂。我们可以这样理解:通用大模型所学习的数据就像大江大海,各种各样的信息汇聚在一起。在这种情况下,想要精准提取你需要的资源,或者找到适合生长的生态,几乎是不可能的。
2、从通用到垂直:大模型赋能的新方向
既然通用大模型在实际工作中存在诸多局限性,那我们该如何更好地利用大模型呢?从国家战略以及当前市场趋势来看,目前的方向是从通用大模型向垂直大模型过渡。
在通用和垂直大模型之间,我们还经历了行业大模型阶段。行业大模型在通用大模型的基础上加入行业数据和专家经验进行训练,更聚焦于某一领域。例如云南白药携手华为云共同打造了“雷公大模型”, 旨在构建普惠的中医药知识服务平台和专业的中药材产业服务平台。
垂直大模型则更进一步,通常使用任务相关数据进行预训练或微调,以提高在某一任务上的性能和效果。例如谷歌开发的医疗大语言模型MedPaLM,专为医学问答、疾病诊断和医学文献分析等任务设计,能够通过理解医学文本提供专业的建议和参考。
3、构建私域大模型:方法与实践
如果你有不便公开的数据,或者不愿意与外界共享,可以考虑构建私域大模型。那么,如何构建私域大模型呢?是否可以使用通用大模型的底座,结合自己的数据进行训练呢?比如,用DeepSeek满血版在本地进行训练?答案是不太可行。通用大模型的底座过于庞大,就像一个巨大的湖泊,你用自己的少量数据或者某些业务逻辑的资料去做训练或微调,就好比在湖里放茶叶,根本冲不出茶的味道。
要构建一个真正能赋能工作的私域大模型,首先应该找一个精简的底座,这个底座需具备基本的人机交互、推理逻辑和语义理解功能。然后,用你所在领域的知识库进行预训练,再依据业务逻辑进行微调。此外,甚至可以通过强化学习来巩固学习效果。只有这样构建出的私域大模型,才能真正赋能我们的工作。
4、总结
如果现在问我大模型赋能各行各业的问题,我首先会问你所讲的大模型是指什么?如果你指的是通用大模型,很遗憾,目前它还难以达到显著的赋能效果。但如果你有自己的垂直大模型或本地部署的大模型,我可以告诉你如何构建私域大模型。当然,你也可以选择有成功案例和丰富经验的团队来帮助你完成这一过程,从而避免在试错过程中产生不必要的损失。
在我看来,私域大模型将会成为垂直大模型元年中的一个重要“爆品”。希望以上分享能为大家带来更多启发和建议,感谢大家的关注!