在当今科技飞速发展的时代,人工智能(AI)正逐渐成为推动产业变革的重要力量。2024年政府工作报告中,频繁提及的“三次”人工智能举措,尤其是首次提出的“人工智能+”行动,昭示着这一领域的不断深化。其中,拓尔思数字经济研究院副院长文雅在最近的一次采访中,提出了一个颇具启发性的概念——大模型加小应用的结合,意在破解当前人工智能应用场景的困境。此观点不仅为行业内的发展指明了方向,也为政策制定者和开发者们提供了新的思路。
众所周知,近年来大模型的崛起如雨后春笋,各大科技公司都在加紧布局,争相开发拥有更高参数量的模型。这种趋势虽然推动了人工智能技术的快速进步,但也带来了高昂的算力成本和技术门槛。文雅指出,算力是大模型发展的关键资源,当前的竞争不仅仅是技术的比拼,更是对高性能计算资源的争夺。对此,很多地方政府和企业开始积极建设超算中心,期望通过整合算力资源,提升区域科技创新能力。
然而,尽管算力的提升和硬件的突破至关重要,但在多样化的应用场景中,大模型并非总是最佳选择。文雅特别强调,经过实践验证,针对特定的行业需求,精简的小模型往往能比通用的大模型表现得更为优越。例如,在金融和医疗保健等领域,针对具体场景优化的小模型能够更好地处理私域数据,提升用户体验,降低对算力的需求。这一发现为开发者们提供了一条可行之路,即在实际应用中灵活调整模型的规模和类型,而不是一味追求参数量的膨胀。
在大模型的应用场景中,数据的质量和处理方式同样是影响模型输出的关键因素。文雅提到,许多大模型在预训练阶段所依赖的数据,其本身可能包含了错误和过时的信息,这导致它们在生成内容时容易出现所谓的“幻觉现象”,即输出虚假、不一致甚至无意义的信息。对此,拓尔思采取了一系列措施,如构造高质量的微调数据、使用外挂知识库进行增强、以及在模型自我检查中设定保守的回答策略,以减少虚假内容生成的概率。通过这些努力,不仅能够改善模型的结果,也能增强用户对模型输出的信任。
随着“人工智能+”战略的深入,文雅提出了一个核心思路:将大模型能力与行业需求相结合,并非易事。即使从技术上可行,如何将大模型转化为实际的产品及服务,并实现盈利,始终是一个巨大的挑战。大模型在连接各类数据和知识的同时,需要与具体的业务场景密切结合,才能发挥出其最大的效果。因此,降本增效、业务创新、及体验增强是进一步推进大模型应用的三个重要价值。这一理念也促使了拓尔思在多个行业中取得显著进展,特别是在金融、媒体和政务等领域,成功实现了大模型与传统业务的融合,提升了用户的体验。
在未来的发展中,政策环境的改善将是激活数据要素市场潜力的重要保障。文雅提到,当前的《企业数据资源相关会计处理暂行规定》已于2024年生效,为数据资产化改革奠定了基础。随着政策的完善和法规的逐步建立,企业在数据资源管理和应用中的信心将显著提升,使得整个行业在数据驱动的转型中焕发新的活力。
总的看来,大模型与小应用的结合不仅为人工智能应用带来了新的解决方案,更为未来的技术创新和深化应用提供了重要的启示。在大模型日益泛滥的同时,如何理性选择和应用合适的技术,将是行业发展亟需思考的问题。随着政策和技术的不断演进,期待能够在数据和人工智能的结合中,创造出更多实际的商业价值与社会影响。