证券时报“中国智造面对面”采访团走进科大讯飞。图为公司展厅。
科大讯飞AI+教育行业产品
证券时报常务副总编辑周一(左)与科大讯飞人工智能工程学院院长潘清华(右)交谈。
证券时报记者叶
过去一年多来,以ChatGPT为代表的生成式人工智能(人工智能)技术sturm und drang受到各路科技巨头的争抢,试图在技术演进和应用中抢占更多话语权,“百模大战”已经打响。本期《面对面中国》走进科大讯飞。本周一,《证券时报》常务副总编辑与科大讯飞人工智能工程学院院长潘清华进行了对话,解读了生成式人工智能技术的发展现状和面临的挑战,并展望了大型模型的大规模应用前景。
深耕人工智能赛道20余年的科大讯飞,积极拥抱“智能涌现”的大模型时代,依托业内顶尖的R&D团队,以原始技术创新和既定体系,通过与华为等合作伙伴强强联合,在自主可控的技术基础上,打造科大星火认知大模型。“星星之火,可以燎原”。经过数次迭代升级,科大讯飞星火模式已在教育、医疗、工业、金融、汽车、法律、科研等应用场景快速开花,正在以更好的姿态赋能千行百业,解决社会需求。
2024年上半年
GPT新协议的基准测试海外买家
证券时报记者:能否介绍一下科大讯飞星火认知模型的最新研发进展?
潘清华:2022年12月,科大讯飞启动了“1+N认知智能大模型技术与应用”专项研究,并于2023年5月6日正式发布了科大星火认知大模型。
经过多次迭代升级,2023年10月24日,该公司在全球开发者节上正式发布了Spark model V3.0,对标chat GPT(GPT-3.5),实现了中文超越和英文对等。
目前,该团队仍在马不停蹄地进行攻关,公司将于1月30日发布Spark模型的V3.5版本,与过去相比,该版本将大大提高各方面的能力。八数码问题
预计在2024年上半年,Spark模型将迎来一个新的迭代版本,然后它可以完全对标GPT-4。从目前的培训情况来看,我们非常有信心在2024年上半年对标GPT-4。
证券时报记者:与国内外大模式相比,科大讯飞星火认知模式有哪些特点和优势?
潘清华:首先,星火模式是在科大讯飞早期积累的基础上自主研发的。从预训练、微调到强化学习,每一步训练都有技术创新。得益于过去十年深度学习技术、自然语言处理等算法的积累和不断创新,Spark大模型的底层技术更加扎实。
其次,在发布之初,星火大模型就宣布了落地产品在教育、汽车等领域的应用。在过去的业务发展过程中,公司在教育、医疗、工业、智慧城市等领域开发了丰富的认知智能行业应用场景,形成了利用大模型解决实际问题的独特优势。
第三,科大星火模型是中国第一个完全在国产计算平台上训练的大型模型。此前公司两次被美国制裁,我们坚定地走了软硬件国产化的必由之路。2023年10月24日,科大讯飞发布了基于华为升腾生态的自主可控计算平台“邢飞一号”。通过与华为的强大联盟,它共同努力在中国建立了一个新的通用智能计算基地,并在此平台上进行更大规模的模型训练。我们判断未来2-3年国内算力生态将持续繁荣,完全可以支撑通用人工智能模型的自主研发。
证券时报记者:科大讯飞R&D团队在大模型方向的规模如何?
潘清华:此前,公司已经在人工智能领域建立了一个成熟的顶级R&D团队,这也是Spark认知模型的基础。
目前,公司AI算法相关R&D人员主要集中在AI研究院、AI工程院和资源数据团队,合计超过1,500人,其中数百人直接参与大型模型的研发。如果叠加从事大规模模型应用开发和产品线落地的相关团队,以及外部合作伙伴和开发人员,团队规模将更加庞大。
“技术+需求”双轮驱动
证券时报记者:目前科大讯飞星火认知模型的迭代升级主要是技术驱动还是需求驱动?
潘清华:Spark模式的迭代实际上是由技术和需求并行驱动的。
目前来看,驱动力从技术层面来说比较直接,所以我们对于升级大车型也有明确的时间节点;此外,需求端也是重要驱动力。大模型刚起步时,公司就明确了“1+N”的路线,其中“1”是基础模型,“N”是产业应用,即让大模型在教育、医疗、汽车、办公、工业、智能硬件等多个领域落地。
当然,一个大型模型要进入成千上万个行业并不容易。需要长时间的打磨,在潜移默化中逐渐成为常态。
不要高估技术的短期影响,也永远不要低估技术的长期影响。根据我们的判断,与过去的人工智能技术相比,大规模模型进入实际应用的周期可能会大大缩短。因为一旦对大模型的认知能力有所突破,很快就会形成“涟漪效应”,这会让越来越多的用户在应用中形成使用习惯。
证券时报记者:大模型将首先在哪些行业大规模应用?
潘清华:从目前科大讯飞Spark认知模型的应用情况来看,程序员在代码领域对模型的接受能力最强,在教育、医疗、金融等领域也会有快速的应用。此外,还有人机交互的重要方向,包括智能汽车、智能家居、智能硬件终端等。目前,全新的大模型互动产品不断涌现。
证券时报记者:您如何看待大模型对各行各业的赋能效应?会带来替代效应吗?
潘清华:业界对大模型的应用前景仍持乐观态度。我们相信大模型可以帮助许多岗位的工作者,尤其是脑力劳动者,如程序员、作家、工程师、医生、教师等职业更好、更高效地完成工作。
大模型带来的效率提升并不意味着对原有工种的替代,它更多的是一种生产工具,在一定程度上改变了工作模式,提高了后期生产效率。
大规模商业化指日可待。
证券时报记者:大模式已经进化到现在的水平。哪些方面让你觉得惊艳?有哪些平平无奇的表演?
潘清华:应该说,大模式进化到现在,虽然不完美,但已经足够令人惊喜。
我们注意到大模型的能力在几个方面尤为突出:第一,理解复杂而深刻的语义的能力,这不是靠死记硬背,而是结合上下文并真正理解其背后的含义;其次是跨专业学习能力,大模型可以快速调用外部插件和相关工具,短时间内成为“全科医生”;第三,大模型已经有了思维链,可以像人类一样一步一步地推导和解决复杂的任务。
当然,大车型也有一些不尽人意的表现。例如,虽然在某些场合中文本生成能力足够,但它并不易于使用且不够个性化。
我们认为大模型最大的缺点是目前无法准确地成为每个人的个性化助手,因为从目前的情况来看,为每个人定制大模型的成本非常高;此外,与人脑相比,大模型在所有场景下都不那么智能,其一致性和稳定性有待提高。
证券时报记者:目前各家公司的规模化模型仍处于探索应用阶段。你认为大规模模型商业化还需要多长时间?
潘清华:我们觉得在未来一年左右的时间里,可以看到大规模模型大规模应用的进展。当然不同应用场景的落地速度会有差异,直接面向C端用户的应用应该是最快的。
现阶段,成本是最大的制约因素。如果我们要按照现有的计算能力水平随时随地调用大型模型,成本是难以承受的。
未来大规模模型的普及一方面取决于算法的进步,另一方面取决于硬件的进步,即如何在每个芯片功耗相同的情况下实现更强的计算能力。
需要注意的是,最终,大模型的形状可能会有一些变化。也许它不是部署在大型节点上的大型模型,而是分散到小型轻量级节点中,可以很好地完成任务。
证券时报记者:在您看来,我们应该如何打通大模式在行业落地的“最后一公里”?
潘清华:我们知道,行业模型的基础实际上是一个基本的大模型。随着基础模式的迭代,行业模式的落地将加速。
另一方面,行业模型是一个复杂的智能系统,它依赖于专家知识、行业信息、行业数据等。,需要更多了解大模型算法的人进行提炼和彻底应用,以促进大模型技术在行业中的顺利落地。
打造大样板,繁荣生态
证券时报记者:目前,市场呈现出激烈的竞争态势。你认为哪些因素将是输赢的关键?
潘清华:我们认为,要想在“百模大战”中取胜,做出最好的模型,不仅要靠算力还要靠原理层面的算法创新。基于现有的算法框架,还是看谁的模型更大、能力更能提升,但无限堆算力可能不是最优路径,预计很快会进入算法层面的创新竞争阶段。
我们判断最终能出来的可能只有几款通用大车型。未来中国可能会有几个基地,大家选择合适的基地做自己的上层应用。
证券时报记者:在快速发展的过程中,大模式也引发了各界对数据保护、合规风险和隐私泄露的担忧。你认为大模型的安全性如何?应该从哪些方面规避风险?
潘清华:我们认为,从算法原理的角度来看,形成自主意识还为时过早。从大模型本身的安全性来看,如何防止有害和错误信息的产生必须引起重视,可以从数据来源、训练方法和算法等技术方面建立识别假货的支持机制。同时,需要从政策法规层面加以引导,在不影响技术迭代的前提下避免技术滥用。
证券时报记者:您对人工智能产业的发展有哪些建议?
潘清华:首先还是要鼓励实事求是的精神,不要过度包装和“神话”人工智能技术,让市场客观理性地认识技术。此外,我希望更多的人能够参与到人工智能生态中来,以更加积极的态度拥抱技术,促进生态繁荣,推动社会进步。秦火火事件
黄剑波、叶/彭摄/制图
未经允许不得转载:科技让生活更美好 » 源头技术与行业场景双轮驱动 大模型商业化落地未来可期