强人工智能(也称为“通用人工智能”)问题是人工智能领域的“圣杯”,必须从实践和哲学方面认真面对。然而,真正决定强人工智能能否实现的不是表达物性能力强度的“算力”与表现容量密度的储存力,而是表征智慧能力的算法。如果能够发明“获得问题”和“表达问题”的人工智能算法,那么实现强人工智能就存在逻辑的可能性。因此,探讨人工智能领域中证成强人工智能的技术与理论路径就是深入探讨人工智能获得问题与表达问题的内在机理与实现路径。而且,任何对强人工智能证成的尝试与探索都不是简单地改善与提升人工智能的数据处理能力,而是追问人工智能能否发展出理智能力和主体意识的根本问题。
在强人工智能证成中,图灵奖获得者朱迪亚·珀尔(J.Pearl)的因果推断理论是最具特色的理论。这一理论不仅引发了人工智能技术设计领域中的因果革命,更是从人类认知革命与意识结构方面探讨强人工智能能否实现的哲学叙事。因为,从技术层面讲,机器不可能以还原事实的方式从原始数据中获得理解力,而因果推断第一层级的被动观察能够使人工智能把握事实之间的关联并超越原始数据的抽象叙述,获得超出生物机体限定的超强物性能力,使依赖于重复与速度的问题变得越来越简单;从哲学层面讲,因果推断第二层级的干预行动能够赋予人工智能算法自我改进与进化的动力,使之从能力强大跃升到智能超群,算法的自我进化使其能够不断地数据环境中获得自我改进的因素与条件;从存在层面讲,因果推断第三层级的反事实(counterfactual)“反思过去行为、设想可能情境的能力是自由意志和社会责任的基石”,(Pearl&Mackenzie,p.10)可以使人工智能获得主体的道德责任和社会意识从而有可能成为与人共在的存在。所以,珀尔依据人类认知革命的成果和改造世界的方式,把强人工智能实现的关键锚定于因果推断的算法化。这一方面是因为因果推断转变了人类提问的方式,从“有什么”的直观发问深入到“为什么”的反思追问;另一方面则是因为因果推断是人类想象能力与改造世界能力的意识基底和心智结构,“智人祖先在后天掌握的因果想像力使其能够以一种我们谓之‘规划’的理智过程(tricky process)来有效完成诸多事情。”(Pearl&Mackenzie,p.25)因果推断作为融合观察能力、行动能力和想象能力的理智能力,不仅能够有效地应对各种复杂的境况使智人立足,而且还能以反事实的反思性建构人的自由、责任乃至主体意识。
由此看来,因果推断证成强人工智能具有超越技术范式革命的哲学意义,阐释由人工智能技术发展推动的追问智能本质与智慧本性的哲学叙事就具有重要意义。因为,因果推断证成强人工智能,其实是使“人工智能摆脱了任何关于实际的有机体如何做它们想做之事的问题,而代之以这样的追问:我们依靠哪一种能力簇,可在原则上使得人工物有智能。”(布兰顿,第5页)所以,从规则性因果、干预因果和反事实因果三个层级来透视与把握人在历史性实践中生成的智能与智慧,进而探讨强人工智能获得智能与智慧的可能性,就是对人工智能探问智能本质与智慧本性的哲学回答。
一、规则性因果的描述与人工智能的能力
规则性因果是人对从已知的事物到想知道的事物迈进的必然性的认知描述,它以逻辑的方式描述了事物之间的事实性关系,源于人们的经验而非抽象的推理或思考。无论是休谟的描述性定义,还是刘易斯的形式化定义,都强调规则性因果是事实之间的前后跟随性。规则性因果与人的被动观察和事实的必然状态这二者都有不可分割的内在联系。任何规则性因果原则的模型化,都不意在刻画事物之间的“相关性”,而是要呈现塑造事物关系的因果性力量。因此,珀尔认为规则性因果作为人工智能的“知识语言”,必然被模型化才能转化成人工智能的能力,“即使是定性处理数据产生的模型也必须描述在环境中控制与形塑数据产生的因果力量。”(Pearl&Mackenzie,p.8)把握住事物之间“听从于谁”的规律,就能够使人工智能超越生物机体的局限性,作出能力超强的有效应对。
1. 忽视因果关系的“相关性”
人工智能当前发展的现实告诉我们,忽视因果关系的“相关性”,虽然能够有效地处理专用人工智能领域中的专业问题,但是却无法跨越“大数据小任务”的泥潭。人工智能长期依赖于算力和存贮力量增长的能力模式,本质上是将规则性因果关系“相关性”化的后果。这一后果,一方面产生了人工智能发展中的严重技术依赖,相信只要制造技术飞速发展,就能够产生类似人类自然进化的智能大爆发,从而落入了技术达尔文主义的窠臼;另一方面也引发了诸多人工智能奇点论的伦理与社会后果的担忧,认为机器的自我维持必然与人处于资源的争夺(特别是争夺电力)之中,从而陷入技术怀疑主义的两难。
基于概率的“相关性”对事实之间关系的描述,虽然有利于从现有事实中寻求规律,但其规律的有效性严重依赖于数据的数量与数据的种类。失却因果的“相关性”只是把世界当作一堆“枯燥”事实的堆积,并非把事实作为由因果关系网络融合成整体的现实。(ibid.,p.24)以此为基础的人工智能只能在海量数据中寻求有限的少量规律,依靠物的延展性来表现人工智能能力的超强性。
相关性”对于被动观察到的世界具有直接的解释力,但是因为“相关性”对事件发生方向的不敏感(甚至是有意回避方向性),限制了源于数据的规律的深度与广度。因此,相关性可以很好地描述事实既有规律,但是却很难洞见事实发生的因果链条及其内在逻辑。
基于“相关性”的行为逻辑,虽然可能反映事实之间存在的因果关系,但是却只能在重述事实规律的意义上才具有逻辑的必然性。借用马克思的逻辑,我们可以说相关性只是解释世界,而问题在于改变世界。
因此,相关性作为注重从事实中来寻求规律的重要算法原则,在算力与存储力的支持下能够“发现”事实之间的相关关系,但却不能刻画事实之间的逻辑关系和方向关系;虽然能够最大限度将被动观察的结果“知识化”成预测未来的能力,但是却很难生成改造世界的智慧。因为,缺乏因果词汇、不区分因与果的相关系统与回归系数,是以已有数据为基础的事实还原和解释逻辑,其逻辑的有效性取决于数据拟合的精确性和数据“规律”的合理性,而所有这些最终都依赖数据的丰富性。
更进一步讲,刻意回避因果关系顺序的相关性一方面难以解释事实之间关系的稳定性,另一方面无法洞见偶然事件的存在论意义并有效处理其现实性影响。于是,行为主义的效果评价和实用主义的价值权衡成为人工智能能力强弱的标准,使得专用人工智能的算法衷情于相关性而排斥因果关系,因果只是当作存在于人脑之外的钢性原则,只是被人的观察反映的既定规律。然而,这恰恰是机械唯物主义的直接结论。按照塞尔的观点,人观察到的事实,无论是有意识的还是无意识的,“都是具有因果关系的现象”。(塞尔,第14页)因此,停留于相关性层面的人工智能,虽然能够依赖计算算力的提升、存储容量的增大来解决大数据的问题,但是却很难突破机械逻辑的局限将观察活动所体现的主体性与规范性纳入到算法的设计之中,更难谈及主体创造性的实现问题。
2.贝叶斯算法对客观与主观的连接
被动观察对主体性的排斥,使人工智能只能局限于工具层面进行完善,根本无法真正模拟(更不用说实现)“一个关系真实世界的心理模型”(Pearl&Mackenzie,p.88),从而实现对事实间规则性因果关系的描述与还原、因果力量的把握与再现以及因果效应的预估与反思。因此,如何在人工智能知识化数据事实的过程中具体体现观察活动的主观性与事实对象的因果规范性,一方面影响着人工智能从专业领域向通用领域扩展的进程,另一方面则决定着人工智能能否超越计算能力而获得推理能力的可能性。在遵循因果关系是客观存在与主体描述的前提下,贝叶斯分析成为了重要的选择方案。因为,“贝叶斯方法结合源于数据的证据(表现出来的可能性)与先天判断形成一个描述未知量的后向概率。”(Spiegelhalte,p.339)所以,贝叶斯分析因为具有根据新证据改进先天判断的能力,使其能够表征事实的因果关系。
贝叶斯统计以条件概率的方式将观察到的证据内化成先天判断的内容,同时又能够保证判断的客观性。贝叶斯为了论证“目击者的证词永远无法证明神迹的发生”的观点,追问假设事件发生在既定事实之前的逆概率而发明了贝叶斯统计方法。(cf.Pearl&Mackenzie,pp.95-96)贝叶斯统计一方面提出了证据的量对观念支持程度的问题,另一方面则提出了事件发生顺序是源于偶然还是源于必然的问题。贝叶斯对逆向概率的数学计算表明,从果溯因既在逻辑上是可能的,又在操作上是可行的。因此贝叶斯统计可以根据既定事实的概率重新估计引起既定事实发生之因的概率,从而完成对先天判定的修正。但是人工智能的贝叶斯学习系统敏于数据、依赖算力的技术范式,使之并不严格区分由规则性因果决定的前件与后件之间的关系,所以即使贝叶斯系统能够在修正先天观念的过程中消解先天性,使之具体呈现为后天经验组成的客观性规律,但是还无法使人工智能的算法本身超越“大数据小任务”的局限。
但是,贝叶斯分析保证信念传播的能力,使其具有与规范因果描述事实相一致的能力。贝叶斯分析成功地把“假设我知道”的认识论判定翻译了概率语言,建构了一种规范性规则,能够应用观察到的数据进行信念的更新,并以客观性的规律保证更新后的信念有效传播。在实现手段上得益于贝叶斯分析充分运用数据而不敏于因果不对称的特性,才使逆概率修正先天判定成为可能。按照贝叶斯分析算法的实现来讲,只需告诉前向概率,那么人工智能就可以在计算逆向概率的基础上修正“假设”的内容,并重新来预测未来的事件。这一方面使基于既成事实预测未来的推断具有逻辑上的合理性,另一方面也使基于事实的规范性原则具有存在论的根据。“直观的看,贝叶斯规则是他定义条件概率的初步结论。但是从认识论的角度讲,这一规则远远超出了他的初衷。事实上,这是一条根据证据更新信念的规范性规则。”(Pearl&Mackenzie,p.103)因此,贝叶斯分析给出的逆概率一方面是关于“我知道”的一个实证性指称,另一方面则是对事实间关系的一个的规范性刻画。
贝叶斯分析强调经验事实对先天判断影响的哲学叙事超越了规则系统加事实集的功能主义和行为主义范式,赋予事实间关系的规则性预测与合理性诊断。如前所述,贝叶斯分析升华了观察经验使其成为客观的规范性,能够根据上向因果来追溯前件对后件的支持率,同时也可以根据下向因果来刻画未来发生的可能性。当然,在贝叶斯分析中,上向因果与下向因果并不由方向与数量共同刻画,而只是由数量来刻画。而不同方向上条件概率的似然比却提出了信念传播的方向性问题并直接表现为信息的本质与规范性的本性。(cf.ibid.,pp.110-111)一方面,贝叶斯网络可以向整个网络以先天概率乘以似然比的方式传播信息、接受不同节点的反馈,另一方面似然比又规定着先天判断规范的有效性与改进方向。
由此看来,贝叶斯以人类经验来修正先天判断的理论逻辑既从方法论的角度给出了人类确信基于观察的规范性原则,又提出了事实之间规则性因果的方向性问题。虽然贝叶斯分析不断运用前向概率、后向概率等方向性的术语,但却并没有以规则性因果的方向性作为理论基底,致使其虽然能够解决诸多专业领域的计算问题,但却并没有真正成为专业人工智能迈向强人工智能的哲学阶梯。
3. 路径对规则性因果的表达及其对人工智能“能力”的推进规则性
因果本质上内涵着数据信息量的确定性与方向信息质的规定性。规则性因果不仅要描述事实之间量的关系,而且还描述这些量的产生过程,即解释数据产生的过程。这意味着人在思考的时候不仅需要知道面对的事实结论,而且还需要理解观察结果的产生过程、规则性因果建构的过程。也正是这个意义上,休谟提出的对规则性因果“心理习惯”的证成就具有重要的哲学意义与方法论启示。
路径作为对事实关系进程的逻辑表达,是对“什么导致什么”的规范性回答,是人类思维灵活性与稳健性形式化的重要方式。从学术史发展来看,不表达方向、不解释数据生成的概率不能成功形式化规则性因果。因为,当以概率来表达A提高B发生的可能时,提高作为因果范畴表达了A对B的规范性,但是概率解决混杂的困难使之很难对因果作出清晰的定义,更难对之形式化。即使是大名鼎鼎的“模糊逻辑”改进、“信念函数”明确等都无法解决由规则性因果表达的规则与人工智能数据描述事实之间的有效组合问题。因为,拒斥路径的概率无法阻止混杂的侵入。(ibid.,p.109)按照当代心灵哲学的研究结果,人类具有有效解决规则性因果方向的直觉能力。“你可能有我们后做某一件事远比先做它有意义的直觉。这是因为我们的大脑拥有理解因果关系效应的特殊机制,而非仅仅只是觉察到相关性。”(Pearl&Mackenzie,p.113)因此,必须有一种表达这种直观方向性的方式。
路径作为一种主观选择,是对数据产生过程的理解与解释。路径分析是一种分析因果过程的灵活方法,具有将遗传学、经济学、心理学乃至研究者自己专业领域的规则性因果形式化的能力。表达路径关系的因果图,是事实对象具有因果关系的拓扑结构(规则性因果关系),既表达了事实对象专业领域中的基本共识,又是对传统客观教条的一种超越。因为,“就因果性而言,睿智的主观性远比任何的客观性都更能阐明现实世界的本质。”(Pearl&Mackenzie,p.89)路径作为一种规范性的规定,一方面是研究者对先天判断与事实证据的客观描述,另一方面则是对事实间规范性关系的主观性理解与表达。路径分析表达因果效应的特质,使其解释了相关性无法阐释的事实发生的逻辑与数据生成的过程。(cf.ibid.,p.81)因为建立在科学思考上表达因果拓扑关系的路径,不仅是针对数据的分析,而是对初始数据不包含的数据生成过程的解释与体现。因此,路径分析充分表达了我们关于真实世界规则性因果逻辑的判断(ibid.,p.89),使数据反映的既成事实能够动态地表达事实之间存在的因果关系和人对因果的理解与操作。
路径分析的算法实现,避免了人工智能算法设计中混杂的难题,将之与人类认识能力的进展有机结合起来,赋予了人工智能基于数据和行为模拟的“能力”,具有更强的适应性与普遍性。因为路径分析在逻辑上不仅意味着前向路径的判断,以既有知识与数据设想未知问题的解决方案;而且路径分析意味着可在逻辑上进行反向追溯,从而加强人工智能挖掘数据、改进先天判断的能力。这恰恰是规则性因果对人工智能物性“能力”的重要推进。
总之,规则性因果对世界的描述不仅使人工智能能够操作被动“观察”到的数据,而且提出了把握规则性因果之于人工智能从专用领域向通用领域发展的问题。也正是在这个意义上,珀尔改进“图灵测试”的“迷你图灵测试”提出,“创造‘儿童机’是创造出掌握因果关系的人工智能的前提”的重要论断,就具有明确的哲学指向。即,要实现强人工智能并达致人工智能奇点,必须使人工智能既能够“观察”,又能够自动扩展观察的视阈。人工智能如果仅能实现对规则性因果描述的世界的理解的话,那么人工智能最多只能提高其“物性”的能力,而要扩展人工智能“理解”与“把握”世界的能力,就必须进入因果的第二层级:“干预”!
二、干预因果的发问与人工智能 “认知”
从描述世界的存在到追问世界的存在,是人类认识史上的巨大飞跃,这得益于人具有干预的实践能力。人工智能能否获得追问世界存在的能力,是人工智能能否超越物性能力具有认知能力的关键。因为,追问世界的干预实践是主动探索的认知,而“主动探索能力也是思维自主性的一个标志。”(赵汀阳,2020年,第55页)按照珀尔的看法,今天大数据挖掘与深度学习的进展虽然推进了人工智能的智能化,但仍然尚不具备推动人工智能从因果推断的观察层级上升到干预层级的能力。因此,只有发展出一种超越规则性因果“知识语言”的“实践语言”,才有可能赋予人工智能认知能力。因此,实现干预因果的形式化与算法化是强人工智能实现的必要条件。珀尔认为,干预因果是从被动观察向主动干预迈进的否定性认知和探索性追问,一方面是因为干预因果内化了被动观察结果对干预实践的自然主义规范性,另一方面则是因为干预因果为认知的方式和内容植入了实践性的内涵。干预因果将人的主体活动合理地添加到已有的因果知识库之中,一方面构成未来行动的规则性因果规律,另一方面则成为反思修正的对象。进而,基于“do演算”的干预因果,能够将干预的主体力量内化成人工智能算法的构成要素,成为算法升级的内在动力。
1. 容纳实践的干预因果及其提问方式变革
干预意味着在面对事实和数据时,主体在选择特定的行动集对之进行肯定/否定的控制性操作的前提下来重新获得事实认知与数据集,并形成超越已有数据集的因果推断。干预因果是通过对因变量的控制来观察结果变化的状态,伍德瓦德(J.Woodward)、钟磊(Zhong Lei)对干预因果的形式化定义,使得干预成为了一个整体性的概念,能够精确地描述融合反事实因果条件句的对比性事实。虽然干预性因果有时被质疑为缺乏形而上学根据的实用主义策略,(参见李珍,第14页)但是干预因果引入主体操作效应的思想突破却带来了因果推断对提问方式的重大变革。
干预因果承认主动改变世界的行动是因果推断的内在构成要素。主动改变世界就是人主动地和既成事实脱离开的一种主体性活动,其产生的效果一方面体现了主体对既成事实因果关系内化的程度,另一方面又提出了主体突破既成事实因果的进展与合理性问题。显然,赫拉利以达尔文主义的“超进化加速”观点对人类思维能力飞跃的解释虽然具有形而上学的成份(参见赫拉利,第4-74页),但是却提醒我们必须关注人的实践活动对因果关系的存在论影响。主动性干预和被动性观察一样,都是因果推断的理论基石和实践基础。而且,干预因果是无法通过数据量的增长、神经网络的“类人性”完善而得到解决的。干预因果不完全还原为物理特性的推断逻辑,使其必须既诉诸于观察到事实的客观性,又诉诸于人干预活动的实践性。赖特提出应在“各种(可能的)行动”之下来考虑因果关系(cf.Wright,p.65)的观点,虽然引发了有关因果定义的循环论与主体论的争论,但是干预因果在解决统计混杂方面的巨大成功,却使得人们不得不从关于因果关系本质的形而上学争论中超越出来,直面改变世界的干预实践在因果推断中的重要地位。
干预是一种有计划地打破已有数据环境的主体性实践,提出了“如果我们改变环境将会发生什么”(Pearl&Mackenzie,p.32)的存在论追问。因此,无论主体的干预是否实质发生,我们都预设了一个因果模型,其目标函数为P(x|do(y)),干预行动do(y)意味着将x从其它强迫它发生的影响因素中解放出来,使之只服从于y的影响。(cf.ibid.,p.41)这样的操作一方面阻止了无限回溯的“恶的无限”,另一方面则主体性地“设置”了事件发生的因。如果目标函数的值为零或者足够小,意味着主体的干预没有影响,否则主体的干预就必须成为判定事实发展趋势的根据。干预这种主体性活动是人自孩提时代起就已形成的实践能力,当它被形式化到上述目标函数之内的时候,就成为对打破逻辑机制的形而上学追问与实践后果的存在主义考量。由此看来,干预因果实质上是从问“我们看到了什么”这一问题,深入到追问“如果我们在看到的基础上再做什么的话,将会是什么、将会发生什么”的问题。这一提问方式的转换具有重要的意义。即,我们一方面相信数据和事实给我们呈现出来的规则性因果,另一方面我们则迫使世界向我们敞开数据和事实没有表达出来的因果关系。
严格控制条件的实验干预和干预因果模式都能准确地刻画干预这种改变环境、追问因果关系的主体性活动。因此,干预是以实践的方式对因果关系进行的深层哲学追问,使得干预因果在明确的目标函数和完善的数学与逻辑理论支持下具有形式化的可能。即是说,对照性实验所创造的人造环境既是对物理因果关系的一种主体性逼问,又是对主体干预活动及其效应客观性的哲学追问。干预一方面能够将因果关系与偶然关系、相关关系等区分开来,另一方面使主体实践活动的成果内化成因果关系的内在构成要素。因此,干预因果作为一种非还原性因果,它的有效性既要求因果推断既不拒斥唯物主义的客观性,又不诉诸于还原主义的唯物论,而是借助于变量之间值的变化关系来刻画因果推断的有效性。即,干预因果“认为因果关系是变量之间的关系,而变量可以取不同的值,并且对原因变量和结果变量的取值会决定因果命题的真假”。(Menzies,p.206)干预因果在关心因变量的初值与干预值、结果变量的初值与干预值的过程中建构了事实之间客观的因果关系,以及干预实践对规则因果的影响,自然地将人的实践活动纳入到因果推断之中。所以,干预性因果的关系项虽然是量而不是质或具体事件,但是质或事件都可以转化成以量为关系项的因果。
由此看来,由科学哲学倡导并发展起来的干预因果,一方面呈现了经验科学研究的存在论根据,另一方面则改变了规则因果的传统提问方式。因为,干预因果不再是直观地问因果关系是何的问题,而是深层次地追问因果关系到底为何的问题,并奠定了解释数据产生过程的方法论基础,“成为当今计算机科学与心理学中大量研究的理论预设与方法论基础”。(陶焘,第36页)
2. “do演算”(do-calculus)公理化干预因果与人工智能的认知
“‘do演算’是珀尔的发明”,不仅从根本上革新了人工智能算法设计的思想理念,而且更是对人工智能能否从“大数据小任务”到“小数据大任务”认知能力建构的哲学探问。“do演算”作为一种算法,通过特定计算步骤与逻辑迭代,可以利用已有条件概率消除“do算子”的影响,“使我们顺利地从因果之梯的第一层爬升到因果之梯的第二层”(Pearl&Mackenzie,p.231),实现对干预因果机理及其效应的定量刻画与定性表征。“do演算”不是一种简单利用“前门调整”(ibid.,pp.224-231)和“后门调整”(ibid.,pp.220-224)的替代和转换,而是基于干预因果存在论特质的一种公理化尝试。“do运算”以明确所有可能干预因果路线图的方式,一方面是让“干预”实践透明化和数值化,另一方面则是跨越数据不全的限制对因果效应作出科学的估计。因此,“do演算”作为干预因果算法化的成果,是为人工智能植入“获得问题”能力的技术尝试与哲学探索。
“do演算”是对人干预实践的认知落实,用观察到的数据量化与形式化干预实践。算法化的“do演算”能够赋予人工智能在不进行实际干预的前提下以纯粹数学的手段对干预的效应作出因果推断。这不仅意味着作为主体的人可能在“do演算”中体验到“心胜于物”存在论肯定,而且意味着人工智能可以借助“do演算”超越被动观察,进入到“主动”探知的层面。“do演算”一方面实现了“模型取代实践,干预量简化成观察量”(ibid.,p.233),另一方面则消解了既成事实与干预事实之间的差别,具体地体现了人类认知结构的特性。“do演算”可以使观察的量不再停留于对定在的重复,而是对将在与可能在的因果证成。毫不夸张地讲,“do演算”与人实践性的理论思维具有功能上的一致性、结构上的同构性、效应上的相似性,都能够在现存世界的基础上有效地改造世界。也正因为如此,珀尔才深信不疑地宣称“do演算”算法化能够把人工智能从物性的机械能力提升到认知的人性能力上来。
“do演算”不依赖于自然主义还原论的设计纲领、超越既定“观察”量的逻辑可能预示着其有着类似于“克林尼不动点定理”(参见任晓明、李熙,第51页)的功能。逻辑地讲,就实现干预因果的“do演算”而言,我们很难说人工智能借助它可以生成自指的能力,但却是人工智能却可能用“do演算”将经验(此处特指“观察”是量)因果化成采用动作和决策的前提。因此,与其说“do演算”是一个类公理的运算系统,倒不如说是人类认知能力的形式化与机械化尝试。依据干预因果的内在特质及其自我修正的特点,“do演算”即使面对单一的数据,也是面对模型自身。因为,在“do演算”中,条件概率的引入结合贝叶斯系统必然会不断地修正系统所依据的规则性因果系统。“do演算”本身就是一个具有不断修正能力的自省系统。虽然这种自省的修正只涉及到系统表达的因果关系,但是足已说明“do演算”已经具有将经验提升为认知的可能性。
“do演算”超越被动观察的预判能力(cf.Pearl&Mackenzie,p.233),实质上是认知的预估能力,虽然尚未达致反思的层面,但是却可以准确地回答“实际的操作变量是否与正在操作的变量”是否一致的认知问题。即,“do演算”已具备了人类认知“擅长的对自然的质询”(Pearl&Mackenzie,pp.257)能力。而且“do演算”不预设关于对象的规则性因果模型,奠定了其超越观察的方法论前提;而其表现因果方向性及其走向的要求则使之能够在技术上易于控制混杂,在哲学于上易于超越观察的有限性。“do演算”逻辑上的开放性,使之既能够不断纳入修正先天判断的数据,又能客观地表达规则性因果的规定性本身。这也就是为什么“do演算”可以轻易实现工具变量从一特定对象转向另一特定对象的根本原因,并且具有修正自身内在结构能力的根本原因。因此,“do演算”公理化干预因果,并不是造就一个封闭的自治系统,而要在技术上创造一种能够从因果之梯第一级(规则性因果)上升到因果之梯第二级(干预因果)的能行方法(ibid.,p.251),要在哲学上探讨系统内部突破自身的可能与方法。
总之,“do演算”公理化干预因果本身不是简单地实现干预过程的形式化,而是在对干预行动进行技术描述的意义上来赋予机器计算认知世界可能性的哲学尝试。当然,“do演算”为人工智能植入的认知能力只是在与人类认知同构的意义上进行的。或者说,“do演算”是一种与干预因果同构的运算逻辑,而非对人认知结构自然主义的还原、符号主义的建构或联结主义的复制。所以,如果说“do演算”能够以表达干预因果本质特质与实践本性的方式为人工智能植入了认知模式的话,那么这种认知在何种层面上构成了主体性实践的表达就是我们必须回答的重要问题。
(本文为文章摘录版,如需引用,参阅原文)
来源:哲学研究微信公众号