
在GOSIM HANGZHOU 2025大会期间,诠信全译创始人、上海交通大学张拳石教授接受CSDN &《新程序员》执行总编唐小引专访,深入分享了神经网络可解释性技术的创业实践与产业愿景。
深耕该领域十余年,张教授始终拒绝盲目跟随“端到端黑盒训练”的主流趋势。本次对话中,他系统阐述了公司“严谨机理解释+开源协作”的核心范式——通过将数学严谨的解释方法开源共享,与行业开发者共同验证迭代,避免业界同质化的低效探索。
目前,公司依托突破性研究成果,已正式切入自动驾驶、法律科技、量化投资等垂直领域,致力于以可解释性技术重构AI评测与训练逻辑,系统性解决大模型可靠性难题,推动人工智能从“工程调参”迈向“科学驱动”。
🎬对话精彩亮点:
1. 学术初心:拒绝“端对端”内卷,深耕机理解释的“孤独之路”
“如果一个研究方向要做10年、20年,必须想清楚它的本质。” 2014年从 UCLA做完博士后回国后,张拳石拒绝了当时火热的端对端深度学习,转而聚焦神经网络可解释性。他直言主流趋势的痛点:“深度学习的研究维度越来越窄,大家都在收集数据、调参试错,失去了独特性,长期来看没有价值。”他的核心目标清晰而坚定:“从机理层面解释黑盒模型的所有决策逻辑,用数学严格保证解释的精确性,不是似是而非的近似,而是‘贡献度是3.4就一定是3.4’的严谨。”
2. 核心突破:量化知识点+穿透 Scaling Law,让黑盒模型“可对话”
“当前大模型的 Scaling Law 是个致命缺陷——数据和参数量指数级增长,性能却只能线性提升。”张拳石团队的研究直击核心:通过数学证明,在特定条件下,黑盒模型的内在机理可解释为“稀疏的符号化逻辑”,就像人类大脑用少量知识点高效交流。他们的方法能量化模型的“知识点”,区分可泛化与不可泛化的逻辑:“比如我们发现 DeepSeek 8B 和 Qwen 7B 模型,虽然结构、参数量不同,但70%-80%的知识表征完全一致。”这一突破能绕开端对端训练的低效:“不用再靠结果对错盲目惩罚模型,而是从机理层面有针对性地优化,把训练成本从三天压缩到三小时。”
3. 创业逻辑:从学术到落地,解决“可靠证明”的行业刚需
“很多黑盒模型公司能拿出99%的准确率,但无法说服政府、客户‘机理可靠’——这就是我们的机会。” 张拳石的创业方向聚焦三大垂类场景:自动驾驶需要100%机理可靠,法律模型要避免“张冠李戴”的决策逻辑,量化投资模型需明确可靠表征比例。他的核心价值在于“量化+证明”:“我们能告诉客户,你的模型原来有三分之二的表征是错误的,现在可降到三分之一;能精准找到100%正确测试样本中的潜在错误。” 目前公司虽未正式成立,但已对接大量订单,实现自负盈亏,“我们不盲目融资,先和头部企业做出标志性成果,让行业认可机理评测的价值”。
4. 行业批判:AI 评测体系缺失,同质化竞争是“病态生态”
“现在大模型的竞争像‘比谁的相机变焦强’的手机行业,没有严格量化指标,全靠体验和大佬背书,这很病态。” 张拳石直指当前 AI 生态的核心痛点:评测只看结果不看机理,导致企业“先战求胜”,盲目跟风却找不到差异化。他提出解决方案:“评测要分两层,一是机理层面的性能,比如结果正确时机理是否张冠李戴;二是明确模型与竞争对手的‘知识差距’,像高考状元对标一样,找到缺失的可泛化知识点。” 他举例:“很多法律大模型判案正确,但背后70%-80%的机理是噪声过拟合,这就是隐形风险。”
5. AGI 路径思考:交流式学习是关键,中层机理对接是核心
“当前端对端训练的路径走不出 Scaling Law,离真正的 AGI 还差一个‘数学桥梁’。” 张拳石认为,AGI 的关键不是“训练更大数据”,而是“交流式学习”:让两个黑盒智能体在机理层面对齐,像人类一样通过中层逻辑高效确认、修正信息。“ AI 要从‘机器人’变成‘笨拙的人类’,核心是能把复杂思想总结为符号化逻辑,再与其他智能体对接。” 他强调:“没有中层机理的数学桥梁,AI 永远困在‘读一万本书只学一点信息’的低效循环里,永远成不了强人工智能。”
6. 给开发者的建议:拒绝焦虑,深耕“硬核问题”
面对 AI 发展带来的焦虑,张拳石给出三点建议:一是不要跟风“工程化试错”,要找能长期深耕的硬核方向;二是研究要“能解决根本问题”,而不是凑论文数量;三是未来 AI 的发展方向是“教育”而非“训练”——像教小朋友一样,从机理层面传递需求,这是更有深度的长期路径。“我的学生不用靠论文数量找工作,因为行业里的人都听过他们的研究,甚至有 CTO 直接来办公室挖人。” 他坚信,真正有价值的研究,终将被看见。



