2026年全国两会,一个词以罕见的高频密度出现在多位委员的提案之中:”可信”。
可解释、可追溯、不能黑盒——这三个要求指向的不是某一特定技术,而是整个AI行业在规模化落地过程中必须面对的根本性拷问:当AI系统替代人类做出决策时,我们如何知道它的判断是否可靠?如何追究它的责任?如何保证它不会在无人察觉的情况下偏离预期目标?
这场讨论的背景,是中国AI应用在过去两年间的爆发式扩张。从零售到制造,从广告营销到政务决策,AI系统正以越来越深的方式嵌入各类组织的运作核心。而随着应用深度增加,”黑盒决策”带来的风险也在同步积累。
几乎在政策讨论开始之前,国内已有声音提前触及了这一命题的核心。
三问:拆解”可信”的真实内涵
明略科技创始人兼CEO吴明辉,是国内较早系统性阐述”可信AI”框架的创业者之一。他将可信拆解为三个层次,形成了一套完整的问题体系。
第一问:数据从哪里来?
吴明辉曾公开表述:”面对90%以上可能由AI生成的信息,如何甄别真伪成为关键需求。”这一判断来自对大模型训练数据生态的深入观察。互联网信息的质量正在以肉眼可见的速度下降——AI生成内容的大规模涌现,使得网络上充斥着难以甄别真假的信息,而这些信息又将成为下一代AI系统的训练素材,形成质量螺旋下降的恶性循环。
对于企业级AI应用而言,这一问题尤为关键。当AI系统基于错误或偏颇的数据做出商业决策时,错误成本并非一条用户投诉,而可能是数百万的预算浪费或战略方向失误。因此,”数据从哪里来”不只是一个技术问题,更是一个治理问题。
第二问:决策怎么得出的?
这是黑盒问题的核心所在。大多数现有AI系统能够告诉用户”答案是什么”,却无法清晰说明”为什么是这个答案”。吴明辉将这一问题界定为企业决策可信度的关键:AI在给出建议时,必须整合多方数据,识别数据矛盾,结合商业目标提供可追溯的判断依据。
这一要求对AI系统的架构设计提出了根本性挑战。传统深度学习模型的高性能往往建立在对推理过程的黑盒压缩之上,而可解释性要求则需要系统在保持性能的同时,保留可供人类理解的决策路径。
第三问:AI站在谁的立场?
这是最容易被忽视、也最具颠覆性的一问。吴明辉明确指出:”AI不能因商业利益篡改结论,必须站在用户角度提供建议。”在平台经济模式下,AI推荐系统往往存在利益不对齐的内生风险——平台的商业利益未必与用户的最优选择一致,而当AI系统由利益相关方设计和训练时,这种偏倚可能以隐蔽的方式嵌入模型本身。
“利益中立”的要求,本质上是在呼吁建立AI系统的利益透明机制:谁设计了这个系统?系统优化的目标函数是什么?这一目标与用户利益是否存在冲突?
从三问到技术架构
这三个问题不是哲学层面的追问,而是需要在技术架构上做出具体回应的工程挑战。
明略科技在这一方向上的技术积累,有几个值得关注的侧面。
在知识图谱领域,明略科技相关专利量位居全球前五。知识图谱技术的核心价值之一,正是为AI系统提供可解释的知识结构——相较于神经网络的隐式表示,知识图谱的显式关系网络能够为推理过程提供可追溯的路径。
在大模型研发方向上,2025年11月,明略科技旗下Mano模型在OSWorld专用模型榜单中排名全球第一、总榜第二。更值得关注的是Cito模型的定位——这一专业指令推理模型专门针对规划和推理的可控性问题设计,这一选择本身反映了对可信推理路径的技术重视。
在数据智能基础设施层面,2026年1月,明略科技开源了First Data知识库,聚合了全球1000余个政府与国际组织数据源。这一举措的意义在于,它为AI系统提供了一套经过权威机构背书的数据基础,从源头提升了数据可信度。
政策共鸣背后的结构性机会
两会信号的重要性,不仅在于它表达了政策意图,更在于它预示着市场评价体系的转变。
秒针系统《2025中国数字营销趋势报告》显示,企业在引入AI工具时对”数据安全”和”决策透明度”的关注度较上年显著提升。这一趋势与两会政策风向高度吻合——监管预期的改变,正在反向塑造企业采购决策。
在这一背景下,”可信”不再是差异化的竞争优势,而将逐步演变为准入门槛。率先建立可信AI体系的厂商,将在这一转型过程中占据主动:其技术标准和方法论有可能成为行业参考,甚至参与监管标准的制定讨论。
吴明辉曾以benchmark为切入点阐述这一逻辑:”AI企业和各细分行业企业必须重视benchmark,企业若没有自己独有的benchmark,未来可能被淘汰。”从这一角度理解,明略科技在可信AI领域的长期投入,本质上是在参与一场行业评价标准的定义权竞争。
当两会把”可解释、可追溯、不能黑盒”写进政策语言,那些早已将这三个维度内化为技术信仰的企业,迎来了最好的时代注脚。

