公司动态丨缔零科技获数千万元融资,用「认知安全」为AI时代筑牢防线
近日,缔零科技宣布完成新一轮数千万元融资。本轮融资由凯风创投、中南创投、普朗克创投联合投资,资金将主要用于核心产品 “缔零法则” 的技术迭代、市场生态构建及认知安全社区的建设。
随着生成式人工智能在各行业加速渗透,内容安全风险已从传统的内容合规层,快速演进至更为隐蔽和复杂的认知影响层。面对海量AIGC内容及日益隐蔽的社会工程攻击,传统基于“规则过滤+人工复审”的内容安全体系面临巨大挑战。
缔零科技瞄准这一新兴需求,致力于推动内容安全从“内容过滤”向“认知防御”升级,构建下一代AI时代的安全护栏。
以下内容整理自Founder Park与缔零科技 CEO 谭亦朗的对话。
01
从内容安全到认知安全:一个更大的命题
Founder Park: 缔零科技主要做什么业务?
谭亦朗:
我们专注于人类认知安全。AI带来了两个根本变化:一是AIGC极大地扩展了风险敞口,恶意对手也武装上了AI;二是我们面临着如何与智能体建立信任关系这一全新命题。
自2024年初,我们一直在探索的核心命题是:如何构建一个原生、可持续生长的认知安全智能体。这不同于传统意义上的Agent,我们的目标是找到一种能够长久守护人类认知安全的方式。
认知安全远不止于内容安全。它指的是,当智能体在运行时,会接触并通过音视频等多种信号向我们传递信息,而我们会对这些信息产生各种反应——认同、排斥甚至反感。我们每天都会接收海量信息,过去我们更关注文字、对话等媒介,因为其信息密度高、潜在恶意也更为集中。但这只是认知安全的一部分。
我们从AI发展初期就关注其安全性。这包括在预训练阶段审视数据是否洁净、是否经过清洗、是否包含垃圾广告等不良信息;也包括在对齐(alignment)过程中,确保AI与人类价值观及所需工作环境保持一致。
2024年,我们推出了首款产品 「缔零智数」,这是一个用于模型对齐的数据集产品,旨在帮助模型厂商或数据中间商,使AI系统符合国内的安全要求与文化习俗。
2025年,我们发布了「缔零法则」。它的关键作用在于推理层——在模型生成内容或做出响应时,确保其行为处于既定框架内。如果说此前的对齐如同儒家,赋予模型以思想和原则;那么「缔零法则」则更似法家,将AI牢牢框定在稳健的边界内运行,一旦出现不符合预期的响应,即可被终止。
我们所有的产品都围绕“认知安全”展开。未来,我们还计划推出面向个人用户的认知安全产品,为用户构建自主可控的认知防护屏障。这可能听起来像是“信息茧房”,但不同之处在于:规则并非由平台或我们决定,而是由用户自己来定义这道“护栏”。我们希望能帮助长辈抵御诈骗与谣言,保护孩子远离不良信息——这些,正是认知安全在每个人生活中的真实体现。
02
“缔零法则”:以AI治理AI,解放人力审核
Founder Park:现阶段你们产品的主要业务,是给客户提供内容审核服务吗?
谭亦朗:
是的。过去,全国约有10至15万名内容审核员。这份工作需要24小时不间断运转,与内容发布保持同步。审核员们长期暴露在负面信息中,持续承受心理侵扰;同时面临严格的KPI压力,每日审核条数被量化为明确指标。他们处于这样的工作环境中。
这样的岗位难以持续。首先,工作本身缺乏稳定性,且严重损害员工的心理健康;其次,对企业而言,这类人力成本极其高昂,降低开支一直是明确的诉求。人类是有极限的,持续接触负面内容却缺乏正向激励,让许多审核员陷入压抑。研究与报道均已证实:长期处理极端、暴力、色情等内容,无异于在有害环境中工作。只不过一种是物质上的,另一种是精神上的。
对企业来说,审核员如同可替换的零件,一旦有更经济的方案,更换几乎毫无犹豫。
因此,我们的产品路径非常直接:不局限于降低人工审核比例,而是希望将内容审核整体交由AI处理。机器的标准一致性、计算精度与效率,都可在系统层面实现显著提升。
更深层的挑战来自UGC生态。传统大型UGC平台每秒新增内容通常不超过50条,全球仅有极少数平台的QPS(每秒查询量)能达到五六十。而在AI生成内容的平台上,QPS可以轻松突破数千——内容生产速度提升千倍以上。原有的治理体系虽为漏斗结构,最终仅有1%至2%的内容需人工复核,但如今底层内容规模已增长千倍。
这需要多少人才能应对?原本的十几万审核员规模已难以为继。因此,无论是出于经济理性,还是人道关怀,我们都希望推动这一职业的转型与解放。这正是我们努力的方向。
Founder Park:不同的企业或者垂直行业,比如说小红书和 B 站的内容审核,在内容尺度和领域上会有一些不一样。在落地的时候,你们会用企业过往提供的一些数据或者知识图谱来进行快速适配吗?适配的工作量大吗?
谭亦朗:
我们采用了一些全新的架构和解法,我们模拟了人的思路。人类如何去认识这些不怀好意的对手?人类如何去看待一个全新的文化符号,比如一个新的梗、一段话,或者某个带有另外含义的新内容?
人类如何认识它,我们的模型就如何认识它。我们会依赖客户返回的质检结果。客户会抽样,例如我们交付了100条,他可能抽样5条,我们根据返回的5条的结果来调整我们的尺度。我们在实际运行过程中也确实是会跟人类去比较结果的,几乎就是跟人类平齐地去比较。当然,甲方有一个非常重要的指标,就是希望我们的精度和他们现在的精度至少对齐或者是更高,所以他们会用这种并行的方式来考验我们的结果。
03
应对差异:轻量适配与自动化生长
Founder Park:ToC产品的想象力空间会更大,在你们的规划里这款产品的定位是?
谭亦朗:
我们希望把它打造成一个我们可以完全信任的助手,这个助手来帮助我们判断什么东西可信,什么东西不可信。
未来我们都能想象,大家都会有一个非常亲密的 Master Agent(主智能体)。他可能在手机上推理,可能在PC 上推理,或者在智能眼镜等设备上推理。你总会有一个 Master Agent帮助你去连接其他Agent。我们更希望我们的这个智能,无论它是在原生的生态系统里,还是在另外部署的一个助理里,它能帮助人类和Master Agent 之间构建信任。
我能够完全相信那个帮我处理事务的Master Agent,原因就是有我们的产品在帮助判断Master Agent 的操作是不是合理。它更像一个安全顾问,在不断地告诉你这件事这么做有什么样的风险,能不能行。
Founder Park:我理解了,它的角色大概是一个法务或者安全顾问。但是在产品形态上会有什么想象吗?
谭亦朗:
在当前早期的产品形态验证阶段,我们可能会以插件或后台运行应用的形式来呈现。它主要作用于视觉内容层,旨在按用户自定义的规则,拦截那些被判定为有害的信息。我们更倾向于让产品的存在感尽可能淡化,它或许不需要具备强烈的用户感知。我们并不希望用户每天都需要主动关注它,而是在风险出现时,它能及时发出提醒。当然,当用户感到不确定时,也可以随时主动向它询问。
Founder Park:如果真的有 Master Agent,大模型厂商本身可能也会涉足这块业务,你们和他们的关系会是什么样的?是补强吗?
谭亦朗:
我们跟大模型厂商过去的关系一直都是,我们作为安全方向的专家,给他们提供安全方面的能力补齐。我相信在未来我们跟他们的合作也会以类似的形态一直走下去。我们在B端的合作,更像一个安全专家,我帮你尽可能节省成本的情况下,把安全做好。这同样也是他们不想花大精力去做的事情,因为它不是主线,尽可能便宜就好。对于C端用户来说,我们希望提供一个可靠的后盾,这个后盾能够帮助他守住他的认知安全或者数据隐私安全,使得他能够相信对接进来的Agent,无论是 Master Agent还是其他的agent,能让这些Agent帮用户订外卖,帮忙打车。过去可能是系统在做这件事,那未来可能更多的是安全助手去做这个事情。
04
ToB保证营收,ToC探索更多的方向
Founder Park:对于你们来说,一个是明确的ToB业务,还有一个是未来的ToC业务,会怎么分配在这两块业务上的比重?
谭亦朗:
我觉得在现阶段可能会是7:3开。付费意愿更强的还是B端,他们有非常现实的需求,有非常直接的监管压力,并且本身已经有相关支出,所以现在的付费意愿是最强的。作为企业生存的节奏来看,现在肯定是B端优先。对于C端,我们其实在培养早期用户的体感,看他们的需求具体是什么样的形态可以接受,并且他们真正能更好接入的形式是什么。所以我们其实也在C端等待和寻找机会。
我们早期的营收可能都会来自B端,C端这条路线我们绝对不会放弃,并且它是我们非常重要的一个方向。因为我们这个企业的核心愿景,就是想去构建围绕人类认知安全需求的、持续生长的认知安全智能。这需要以群众基础为第一目标。未来可能会反过来,C端变成7,B端变成3,我们也期待看到那个转变。
Founder Park:我担心的是,B端的很多业务,因为每家公司的内容策略都不太一样,最后会不会变成你们接一个客户就需要给这个客户做一套定制的配置和策略,从而在交付上变成一个很重的业务?
谭亦朗:
这正是我们即将在春季推出的 “缔零法则2.0” 所要解决的关键问题。新版本的核心在于,将目前需要手动介入的适配与系统迭代过程也实现自动化。在1.0阶段,我们主要完成了审核动作的自动化;而在2.0中,我们计划将适配、调优与监督管理的相关环节也实现 80%-90%的自动化。
剩余的部分,我们将更多地通过与客户协同完成。由客户进行质量检验,并反馈正确的结果,从而形成闭环。这意味着,随着第二代产品的发布,我们的适配成本将显著降低。这套自动化机制,既是对第一代产品内部的效能提升,也是2.0版本的重要组成部分。
我们目前重点解决的正是这一核心命题。如果长期依赖定制化开发,企业的投资回报率会持续走低,最终容易陷入“项目制公司”的困境,而这并非我们的发展初衷。因此,在规划2.0时,我们首先瞄准的就是这个痛点。
Founder Park:会不会有点类似于,你们在ToB端做了一个安全的Agent,用户在策略搭配的时候就已经介入,并且很大程度上借助 AI 的能力实现自主化配置,而不需要像以前一样由人来单独对接和配置?
谭亦朗:
是的。我们现在训练的一些新模型,都是围绕这个部分,相当于我们过去运营和策略部分的专用模型。这些模型客户可能看不见,但是当他说出需求的时候,我们把需求转化为我们内部的治理架构,这个部分就是这些模型在起作用。后面的治理架构是自构建的,并且能够自我验证。验证效果之后,会在上线时让客户去确认一下。这样,我们后台的运行部分,也就是过去运营和安全策略做的事情,基本上都自动化掉了。
Founder Park:现阶段模型的搭配,会是端侧小模型和云端大模型配合吗?
谭亦朗:
我们设计的C端认知安全产品里,是端侧和云端同时推理的,分层推理。并且为了保障用户的完全隐私安全,所有的隐私数据都会在本地手机或PC去推理,然后一些抽象过的、复杂的信号处理会放到云端。有点像一个大智能跟一个小智能的关系。因为我们做C端应用,隐私安全非常重要,而且我们的产品要出海。海外各个国家的隐私安全保护条例其实都会不一样,我们尽可能把它做得更完备一点,这样就不会出其他风险。
随着生成式人工智能在各行业加速渗透,内容安全风险已从传统的内容合规层,快速演进至更为隐蔽和复杂的认知影响层。面对海量AIGC内容及日益隐蔽的社会工程攻击,传统基于“规则过滤+人工复审”的内容安全体系面临巨大挑战。
缔零科技瞄准这一新兴需求,致力于推动内容安全从“内容过滤”向“认知防御”升级,构建下一代AI时代的安全护栏。
以下内容整理自Founder Park与缔零科技 CEO 谭亦朗的对话。
01
从内容安全到认知安全:一个更大的命题
Founder Park: 缔零科技主要做什么业务?
谭亦朗:
我们专注于人类认知安全。AI带来了两个根本变化:一是AIGC极大地扩展了风险敞口,恶意对手也武装上了AI;二是我们面临着如何与智能体建立信任关系这一全新命题。
自2024年初,我们一直在探索的核心命题是:如何构建一个原生、可持续生长的认知安全智能体。这不同于传统意义上的Agent,我们的目标是找到一种能够长久守护人类认知安全的方式。
认知安全远不止于内容安全。它指的是,当智能体在运行时,会接触并通过音视频等多种信号向我们传递信息,而我们会对这些信息产生各种反应——认同、排斥甚至反感。我们每天都会接收海量信息,过去我们更关注文字、对话等媒介,因为其信息密度高、潜在恶意也更为集中。但这只是认知安全的一部分。
我们从AI发展初期就关注其安全性。这包括在预训练阶段审视数据是否洁净、是否经过清洗、是否包含垃圾广告等不良信息;也包括在对齐(alignment)过程中,确保AI与人类价值观及所需工作环境保持一致。
2024年,我们推出了首款产品 「缔零智数」,这是一个用于模型对齐的数据集产品,旨在帮助模型厂商或数据中间商,使AI系统符合国内的安全要求与文化习俗。
2025年,我们发布了「缔零法则」。它的关键作用在于推理层——在模型生成内容或做出响应时,确保其行为处于既定框架内。如果说此前的对齐如同儒家,赋予模型以思想和原则;那么「缔零法则」则更似法家,将AI牢牢框定在稳健的边界内运行,一旦出现不符合预期的响应,即可被终止。
我们所有的产品都围绕“认知安全”展开。未来,我们还计划推出面向个人用户的认知安全产品,为用户构建自主可控的认知防护屏障。这可能听起来像是“信息茧房”,但不同之处在于:规则并非由平台或我们决定,而是由用户自己来定义这道“护栏”。我们希望能帮助长辈抵御诈骗与谣言,保护孩子远离不良信息——这些,正是认知安全在每个人生活中的真实体现。
02
“缔零法则”:以AI治理AI,解放人力审核
Founder Park:现阶段你们产品的主要业务,是给客户提供内容审核服务吗?
谭亦朗:
是的。过去,全国约有10至15万名内容审核员。这份工作需要24小时不间断运转,与内容发布保持同步。审核员们长期暴露在负面信息中,持续承受心理侵扰;同时面临严格的KPI压力,每日审核条数被量化为明确指标。他们处于这样的工作环境中。
这样的岗位难以持续。首先,工作本身缺乏稳定性,且严重损害员工的心理健康;其次,对企业而言,这类人力成本极其高昂,降低开支一直是明确的诉求。人类是有极限的,持续接触负面内容却缺乏正向激励,让许多审核员陷入压抑。研究与报道均已证实:长期处理极端、暴力、色情等内容,无异于在有害环境中工作。只不过一种是物质上的,另一种是精神上的。
对企业来说,审核员如同可替换的零件,一旦有更经济的方案,更换几乎毫无犹豫。
因此,我们的产品路径非常直接:不局限于降低人工审核比例,而是希望将内容审核整体交由AI处理。机器的标准一致性、计算精度与效率,都可在系统层面实现显著提升。
更深层的挑战来自UGC生态。传统大型UGC平台每秒新增内容通常不超过50条,全球仅有极少数平台的QPS(每秒查询量)能达到五六十。而在AI生成内容的平台上,QPS可以轻松突破数千——内容生产速度提升千倍以上。原有的治理体系虽为漏斗结构,最终仅有1%至2%的内容需人工复核,但如今底层内容规模已增长千倍。
这需要多少人才能应对?原本的十几万审核员规模已难以为继。因此,无论是出于经济理性,还是人道关怀,我们都希望推动这一职业的转型与解放。这正是我们努力的方向。
Founder Park:不同的企业或者垂直行业,比如说小红书和 B 站的内容审核,在内容尺度和领域上会有一些不一样。在落地的时候,你们会用企业过往提供的一些数据或者知识图谱来进行快速适配吗?适配的工作量大吗?
谭亦朗:
我们采用了一些全新的架构和解法,我们模拟了人的思路。人类如何去认识这些不怀好意的对手?人类如何去看待一个全新的文化符号,比如一个新的梗、一段话,或者某个带有另外含义的新内容?
人类如何认识它,我们的模型就如何认识它。我们会依赖客户返回的质检结果。客户会抽样,例如我们交付了100条,他可能抽样5条,我们根据返回的5条的结果来调整我们的尺度。我们在实际运行过程中也确实是会跟人类去比较结果的,几乎就是跟人类平齐地去比较。当然,甲方有一个非常重要的指标,就是希望我们的精度和他们现在的精度至少对齐或者是更高,所以他们会用这种并行的方式来考验我们的结果。
03
应对差异:轻量适配与自动化生长
Founder Park:ToC产品的想象力空间会更大,在你们的规划里这款产品的定位是?
谭亦朗:
我们希望把它打造成一个我们可以完全信任的助手,这个助手来帮助我们判断什么东西可信,什么东西不可信。
未来我们都能想象,大家都会有一个非常亲密的 Master Agent(主智能体)。他可能在手机上推理,可能在PC 上推理,或者在智能眼镜等设备上推理。你总会有一个 Master Agent帮助你去连接其他Agent。我们更希望我们的这个智能,无论它是在原生的生态系统里,还是在另外部署的一个助理里,它能帮助人类和Master Agent 之间构建信任。
我能够完全相信那个帮我处理事务的Master Agent,原因就是有我们的产品在帮助判断Master Agent 的操作是不是合理。它更像一个安全顾问,在不断地告诉你这件事这么做有什么样的风险,能不能行。
Founder Park:我理解了,它的角色大概是一个法务或者安全顾问。但是在产品形态上会有什么想象吗?
谭亦朗:
在当前早期的产品形态验证阶段,我们可能会以插件或后台运行应用的形式来呈现。它主要作用于视觉内容层,旨在按用户自定义的规则,拦截那些被判定为有害的信息。我们更倾向于让产品的存在感尽可能淡化,它或许不需要具备强烈的用户感知。我们并不希望用户每天都需要主动关注它,而是在风险出现时,它能及时发出提醒。当然,当用户感到不确定时,也可以随时主动向它询问。
Founder Park:如果真的有 Master Agent,大模型厂商本身可能也会涉足这块业务,你们和他们的关系会是什么样的?是补强吗?
谭亦朗:
我们跟大模型厂商过去的关系一直都是,我们作为安全方向的专家,给他们提供安全方面的能力补齐。我相信在未来我们跟他们的合作也会以类似的形态一直走下去。我们在B端的合作,更像一个安全专家,我帮你尽可能节省成本的情况下,把安全做好。这同样也是他们不想花大精力去做的事情,因为它不是主线,尽可能便宜就好。对于C端用户来说,我们希望提供一个可靠的后盾,这个后盾能够帮助他守住他的认知安全或者数据隐私安全,使得他能够相信对接进来的Agent,无论是 Master Agent还是其他的agent,能让这些Agent帮用户订外卖,帮忙打车。过去可能是系统在做这件事,那未来可能更多的是安全助手去做这个事情。
04
ToB保证营收,ToC探索更多的方向
Founder Park:对于你们来说,一个是明确的ToB业务,还有一个是未来的ToC业务,会怎么分配在这两块业务上的比重?
谭亦朗:
我觉得在现阶段可能会是7:3开。付费意愿更强的还是B端,他们有非常现实的需求,有非常直接的监管压力,并且本身已经有相关支出,所以现在的付费意愿是最强的。作为企业生存的节奏来看,现在肯定是B端优先。对于C端,我们其实在培养早期用户的体感,看他们的需求具体是什么样的形态可以接受,并且他们真正能更好接入的形式是什么。所以我们其实也在C端等待和寻找机会。
我们早期的营收可能都会来自B端,C端这条路线我们绝对不会放弃,并且它是我们非常重要的一个方向。因为我们这个企业的核心愿景,就是想去构建围绕人类认知安全需求的、持续生长的认知安全智能。这需要以群众基础为第一目标。未来可能会反过来,C端变成7,B端变成3,我们也期待看到那个转变。
Founder Park:我担心的是,B端的很多业务,因为每家公司的内容策略都不太一样,最后会不会变成你们接一个客户就需要给这个客户做一套定制的配置和策略,从而在交付上变成一个很重的业务?
谭亦朗:
这正是我们即将在春季推出的 “缔零法则2.0” 所要解决的关键问题。新版本的核心在于,将目前需要手动介入的适配与系统迭代过程也实现自动化。在1.0阶段,我们主要完成了审核动作的自动化;而在2.0中,我们计划将适配、调优与监督管理的相关环节也实现 80%-90%的自动化。
剩余的部分,我们将更多地通过与客户协同完成。由客户进行质量检验,并反馈正确的结果,从而形成闭环。这意味着,随着第二代产品的发布,我们的适配成本将显著降低。这套自动化机制,既是对第一代产品内部的效能提升,也是2.0版本的重要组成部分。
我们目前重点解决的正是这一核心命题。如果长期依赖定制化开发,企业的投资回报率会持续走低,最终容易陷入“项目制公司”的困境,而这并非我们的发展初衷。因此,在规划2.0时,我们首先瞄准的就是这个痛点。
Founder Park:会不会有点类似于,你们在ToB端做了一个安全的Agent,用户在策略搭配的时候就已经介入,并且很大程度上借助 AI 的能力实现自主化配置,而不需要像以前一样由人来单独对接和配置?
谭亦朗:
是的。我们现在训练的一些新模型,都是围绕这个部分,相当于我们过去运营和策略部分的专用模型。这些模型客户可能看不见,但是当他说出需求的时候,我们把需求转化为我们内部的治理架构,这个部分就是这些模型在起作用。后面的治理架构是自构建的,并且能够自我验证。验证效果之后,会在上线时让客户去确认一下。这样,我们后台的运行部分,也就是过去运营和安全策略做的事情,基本上都自动化掉了。
Founder Park:现阶段模型的搭配,会是端侧小模型和云端大模型配合吗?
谭亦朗:
我们设计的C端认知安全产品里,是端侧和云端同时推理的,分层推理。并且为了保障用户的完全隐私安全,所有的隐私数据都会在本地手机或PC去推理,然后一些抽象过的、复杂的信号处理会放到云端。有点像一个大智能跟一个小智能的关系。因为我们做C端应用,隐私安全非常重要,而且我们的产品要出海。海外各个国家的隐私安全保护条例其实都会不一样,我们尽可能把它做得更完备一点,这样就不会出其他风险。