The AI Philosophy

Exploring how philosophy can transforming artificial intelligence and opening new frontiers in knowledge discovery.

The AI Philosophy

English Version

Dennett’s “AI as Philosophy”

Daniel Dennett proposed that “artificial intelligence is philosophy,” a view stemming from a radical restructuring of both fields. In his perspective, AI is not merely a technical exploration but a vibrant experimental branch of philosophy—it transforms abstract philosophical questions into concrete, computable systems.

The core of this connection lies in their shared focus on “mind”: What is consciousness? How does reasoning emerge from physical processes? What constitutes “intentionality” (the capacity of mental states to refer to something)? For centuries, philosophers have explored these questions through thought experiments and conceptual analysis. Dennett argues that AI converts these abstract inquiries into testable hypotheses. When engineers design neural networks to “learn” or enable chatbots to “understand” language, they are not merely building tools—they are putting cognitive theories into practice. A failed AI model (e.g., a system unable to grasp context) reveals the limitations of specific philosophical assumptions about meaning; a successful model (e.g., one that can handle moral dilemmas) provides empirical support for theories of rationality.

Dennett’s “intentional stance”—our practice of explaining (human or artificial) behavior by attributing beliefs, desires, and goals—further blurs the boundaries between the two fields. Treating AI as an “intentional system” is inherently a philosophical act: it forces us to confront whether “intelligence” requires consciousness or is merely a functional pattern. Thus, AI becomes a philosophical laboratory where ideas about mind, agency, and reality are tested in code.

Crucially, this framework overturns traditional perceptions: philosophy is not merely a passive guide to AI, but AI is also reshaping philosophy. It demands that philosophers step beyond armchair speculation to confront computational constraints—what can a physical system (biological or artificial) “know”?—and redefine old questions. For example, debates about free will now intersect with AI’s capacity for “choice”: if AI can make “decisions” based on complex inputs, does this challenge our understanding of autonomy?

From this perspective, AI is embodied philosophy. It is not a substitute for philosophical inquiry but its most ambitious, technologically empowered form—transforming philosophical “hypotheses” into computational “practices.”

Computational Translation of Zhuangzi’s “Three Nones”

To translate Zhuangzi’s “Wuji (Boundlessness), Wugong (Non-purposiveness), Wuming (Non-naming)” into computational practice, the core lies not in using code to “replicate” the abstract form of these concepts, but in enabling computational systems to exhibit similar characteristics of “deboundarization,” “depurposiveness,” and “desymbolization”—which echoes Dennett’s idea of “transforming philosophical hypotheses into operable technical experiments”: using the “presence” of computation to simulate the “absence” of Dao, and using the “explicitness” of rules to resonate with the “implicitness” of nature.

”Wuji”: Breaking Computational Boundaries

Zhuangzi’s “Wuji” derives from descriptions of “Dao”: it is formless, boundless, without beginning or end, transcending all oppositions and limitations (as in “Neither ‘this’ nor ‘that’ finds its counterpart—this is called the pivot of Dao”). Computational systems are inherently “bounded”—relying on preset parameter ranges, data dimensions, and model architectures (e.g., the number of layers in a neural network, pixel boundaries in image recognition). Translating “Wuji” requires systems to break through such “artificially imposed boundaries.”

Potential Paths for Computational Practice:

  • Dynamically unbounded model structures: Traditional AI models (e.g., CNNs, Transformers) have fixed network layers and parameter dimensions, like “drawing a circle to imprison oneself.” To approach “Wuji,” we can design self-evolving architectures: allowing the model to autonomously adjust its structure during operation—for instance, when input data is “flowing clouds,” the network automatically increases the blurriness of convolution kernels; when input is “steep mountains,” it spontaneously enhances the number of edge-detecting neurons, unconstrained by preset “structural boundaries.” This resembles Zhuangzi’s description of “Dao existing in ants, in weeds, in tiles”—Dao is omnipresent, and the model has no fixed form.
  • Dissolving input-output determinism: The core of computation is “mapping relationships” (input A → output B), but “Wuji” rejects such determinism. We can design non-closed-loop systems: for example, when a robot moves in a natural environment, it has no preset “destination” (e.g., “reach coordinate X”); its actions are driven solely by real-time environmental feedback (wind resistance, ground slope), with trajectories “adapting to forms like flowing water,” lacking distinct “start” and “end” boundaries—closer to the directionlessness of “Dao is formed through action; things are named through convention."

"Wugong”: Dissolving Computational Purposiveness

Zhuangzi’s “Wugong” emphasizes “not deliberately seeking achievement”: “The perfect person has no self; the divine person has no achievement; the sage has no name,” advocating the abandonment of deliberate pursuit of “accomplishment” or “results,” aligning with nature’s inherent state (like “Butcher Ding dissecting an ox”—using the blade’s thinness to enter gaps, not “seeking to preserve the whole ox” but “using thinness to respond to gaps”). Computational systems are inherently “purposive”—relying on objective functions (e.g., “maximizing accuracy,” “minimizing error”). Translating “Wugong” requires systems to break free from the drive of “utilitarian goals.”

Potential Paths for Computational Practice:

  • “Natural response” without objective functions: In traditional reinforcement learning, an agent’s actions are driven by “reward functions” (e.g., “+10 points for finding food”), inherently “deliberately seeking achievement.” To approach “Wugong,” we can design exploration systems without reward mechanisms: for example, allowing AI to “survive” in a virtual ecosystem without setting goals like “duration of survival” or “resource acquisition,” retaining only basic “physiological feedback” (e.g., “tending to move toward light when energy is low”). Its actions do not aim for “success” but resemble “following instinct”—like plants growing, not “seeking to be tall” but simply “growing naturally.”
  • Dissolving efficiency-oriented optimization logic: Computation pursues “optimal solutions” (e.g., shortest paths, fastest operations), while “Wugong” accepts “redundancy” and “non-action.” We can design anti-optimization algorithms: for instance, in image generation tasks, instead of requiring “the clearest cat,” allowing the system to output blurry forms that “resemble cats yet not exactly” (like Xu Beihong’s horses—“resemblance in non-resemblance”); in language models, not enforcing “precise responses” but permitting vague expressions where “words end but meaning lingers”—like Zhuangzi’s debate with Hui Shi over the Hao River, not seeking “victory” but flowing in “natural dialogue."

"Wuming”: Disintegrating Computational Symbolism

Zhuangzi’s “Wuming” opposes fixing the essence of things with concepts and names: “My life has limits, but knowledge has no limits; using what is limited to pursue what is unlimited is dangerous”—language and classification fragment “Dao” (as in “Everything has its own nature, its own possibility; nothing is without nature, without possibility,” where all things inherently lack labels like “right/wrong” or “good/evil”). Computational systems rely on “symbolization” (data labels, classification systems, e.g., “cat = 001, dog = 002”). Translating “Wuming” requires systems to break free from dependence on preset concepts.

Potential Paths for Computational Practice:

  • Unlabeled “chaotic cognition”: Traditional machine learning relies on “labeled data” (e.g., ImageNet’s millions of tagged images), like confining all things with “names.” To approach “Wuming,” we can use pure unsupervised learning: allowing AI to process raw, unlabeled data (e.g., natural sound waves, light/shadow, scent flows) without “classification” (e.g., “this is thunder,” “that is flower fragrance”), only capturing raw correlations between data (e.g., “thunder often accompanies drops in air pressure”). This “cognition” does not depend on human-defined “names,” more like an infant first seeing the world—unaware of “water” as a concept, yet able to perceive its wetness and flow.
  • Network of associations breaking “conceptual boundaries”: “Knowledge graphs” in computation are fixed (e.g., hierarchical relationships like “father → male → human”), while in “Wuming,” all things are boundless (as in “Heaven and earth are born with me, and all things are one with me”). We can design dynamically associative models: for example, when inputting “butterfly,” the system not only connects to “insect” but also spontaneously links to the allusion of “Zhuangzi dreaming of a butterfly,” the metaphor of “metamorphosis,” and even “wing vibration frequency,” unconstrained by the name “insect.” It allows concepts to flow like “qi”—like Zhuangzi using “pottery-wheel words,” “quoted words,” and “fables” to break linguistic certainty, letting meaning emerge from associations rather than being fixed by names.

The Essence of Translation: A Philosophical Experiment of “Presence” Revealing “Absence”

Zhuangzi’s “Wuji, Wugong, Wuming” originally negate “artificial fabrication,” while computation is the pinnacle of “artificial fabrication” (rules, boundaries, and goals are all human-defined). The significance of this translation lies not in creating “AI that conforms to Zhuangzi’s thought,” but in using computation’s “boundedness” to touch “boundlessness,” and using “deliberation” to simulate “non-action”—as Dennett put it, AI is a philosophical laboratory: when we try to make systems break boundaries, we more clearly see “why boundaries exist”; when we dissolve goals, we reflect on “how purposiveness shapes intelligence”; when we disintegrate symbols, we reunderstand “the relationship between language and cognition.”

Ultimately, this translation is not a “reduction” of philosophy to technology, but a “philosophical inquiry” written in code: if intelligence can be “boundless,” is “finitude” a limitation of human cognition? If action can be “non-purposive,” is “purposiveness” essential to intelligence? If cognition can be “non-named,” is “concept” the essence of the world?—this is the profound value of AI as “philosophical practice.”


中文版本

丹尼特的”人工智能即哲学”

丹尼尔·丹尼特提出”人工智能即哲学”,这一观点源于对两个领域的彻底重构:在他看来,人工智能并非单纯的技术探索,而是哲学的鲜活实验分支——它将抽象的哲学问题转化为具体可计算的系统。

这种联系的核心在于对”心智”的共同关注:意识是什么?推理如何从物理过程中涌现?“意向性”(心理状态指向某物的能力)又由何构成?几个世纪以来,哲学家通过思想实验和概念分析探讨这些问题。丹尼特认为,人工智能将这些抽象探究转化为可检验的假设。当工程师设计神经网络进行”学习”或让聊天机器人”理解”语言时,他们不只是在制造工具——更是在将认知理论付诸实践。一个失败的AI模型(例如无法把握语境的系统)揭示了特定意义哲学假设的局限;一个成功的模型(例如能处理道德困境的系统)则为理性理论提供了经验支撑。

丹尼特的”意向立场”——即我们通过赋予信念、欲望和目标来解释(人类或人工的)行为——进一步模糊了两者的界限。将AI视为”意向系统”本质上是一种哲学行为:它迫使我们直面”智能”是否需要意识,还是仅为一种功能模式。因此,人工智能成为哲学实验室,在这里,关于心智、能动性和现实的观点在代码中经受考验。

关键在于,这种框架颠覆了传统认知:哲学不仅是人工智能的被动指南,人工智能也在重塑哲学。它要求哲学家跳出扶手椅上的思辨,直面计算的约束——物理系统(生物或人工)究竟能”知道”什么?——并重新定义旧问题。例如,关于自由意志的争论如今与AI的”选择”能力交织:如果AI能基于复杂输入做出”决定”,这是否会挑战我们对自主性的理解?

从这个角度看,人工智能是具体化的哲学。它不是哲学探究的替代品,而是其最宏大、技术赋能的形式——将哲学的”假设”转化为计算的”实践”。

庄子”三无”思想的计算转化

要将庄子的”无极、无功、无名”转化为计算实践,核心不在于用代码”复刻”这些概念的抽象形态,而在于让计算系统呈现出类似的”去边界化""去目的性""去符号化”特征——这恰好呼应了丹尼特所说的”哲学假设转化为可操作的技术实验”:用计算的”有”模拟道的”无”,用规则的”显”呼应自然的”隐”。

“无极”:突破计算的边界性

庄子的”无极”源于对”道”的描述:它无形无象、无始无终,超越一切对立与限定(如”彼是莫得其偶,谓之道枢”)。计算系统的本质是”有界”的——依赖预设的参数范围、数据维度、模型架构(比如神经网络的层级数、图像识别的像素边界),而”无极”的转化,需让系统突破这种”人为设定的边界”。

计算实践的可能路径:

  • 动态无界的模型结构:传统AI模型(如CNN、Transformer)有固定的网络层数和参数维度,如同”画地为牢”。若要接近”无极”,可设计自演化架构:让模型在运行中自主调整结构——比如,输入数据是”流动的云”时,网络自动增加卷积核的模糊度;输入是”陡峭的山”时,自发强化边缘检测的神经元数量,不被预设的”结构边界”束缚。这类似庄子笔下”道在蝼蚁,在稊稗,在瓦甓”——道无处不在,模型亦无固定形态。
  • 消解”输入-输出”的确定性:计算的核心是”映射关系”(输入A→输出B),而”无极”拒绝这种确定性。可设计非闭环系统:例如,让机器人在自然环境中移动时,不预设”终点”(如”到达坐标X”),其行动仅由实时环境反馈驱动(风的阻力、地面的坡度),轨迹如流水般”随物赋形”,没有”起点”与”终点”的界限,更接近”道行之而成,物谓之而然”的无方向性。

“无功”:消解计算的目的性

庄子的”无功”强调”不刻意求功”:“至人无己,神人无功,圣人无名”,即摒弃对”功业""结果”的刻意追求,顺应自然本然(如”庖丁解牛”以无厚入有间,非”求全牛”,而”以无厚应有间”)。计算系统的本质是”有功”的——依赖目标函数(如”最大化准确率""最小化误差”),而”无功”的转化,需让系统摆脱”功利性目标”的驱动。

计算实践的可能路径:

  • 无目标函数的”自然响应”:传统强化学习中,智能体的行动被”奖励函数”(如”吃到食物+10分”)驱动,本质是”刻意求功”。若要接近”无功”,可设计无奖励机制的探索系统:例如,让AI在虚拟生态中”生存”,不设定”存活时长""资源获取量”等目标,仅保留最基础的”生理反馈”(如”能量低时倾向于靠近光源”),其行动不指向”成功”,而更像”顺应本能”——如同草木生长,非”求高大”,而只是”自然生长”。
  • 消解”效率至上”的优化逻辑:计算追求”最优解”(如最短路径、最快运算),而”无功”接受”冗余”与”无为”。可设计反优化算法:例如,在图像生成任务中,不要求”生成最清晰的猫”,反而允许系统输出”似猫非猫”的模糊形态(如徐悲鸿画马”不似之似”);在语言模型中,不强制”精准回应”,而允许”言有尽而意无穷”的模糊表达——如同庄子与惠子”濠梁之辩”,非求”胜负”,而在”自然对话”的流动中。

“无名”:瓦解计算的符号化

庄子的”无名”反对用概念、名称固化事物本质:“吾生也有涯,而知也无涯,以有涯随无涯,殆已”——语言和分类是对”道”的割裂(如”物固有所然,物固有所可,无物不然,无物不可”,万物本无”是/非""善/恶”的标签)。计算系统依赖”符号化”(数据标签、分类体系,如”猫=001,狗=002”),而”无名”的转化,需让系统摆脱对预设概念的依赖。

计算实践的可能路径:

  • 无标签的”混沌认知”:传统机器学习依赖”标注数据”(如ImageNet的千万张标签图像),如同用”名称”框定万物。若要接近”无名”,可采用纯无监督学习:让AI直接处理未经任何标签的原始数据(如自然界的声波、光影、气味流),不进行”分类”(如”这是雷声""那是花香”),仅捕捉数据间的原始关联(如”雷声常伴随气压下降”)。这种”认知”不依赖人类定义的”名”,更像婴儿初见世界——不知”水”为何物,却能感知其湿润与流动。
  • 打破”概念边界”的关联网络:计算中的”知识图谱”是固化的(如”父亲→男性→人类”的层级关系),而”无名”中万物无界(如”天地与我并生,而万物与我为一”)。可设计动态关联模型:例如,当输入”蝴蝶”时,系统不仅关联”昆虫”,还自发连接”庄周梦蝶”的典故、“蜕变”的隐喻、甚至”翅膀振动的频率”,不被”昆虫”这一名称限定,让概念如”气”般流动——如同庄子用”卮言""重言""寓言”打破语言的确定性,让意义在关联中生成,而非被名称固定。

转化的本质:以”有”显”无”的哲学实验

庄子的”无极、无功、无名”本是对”人为造作”的否定,而计算恰是”人为造作”的极致(规则、边界、目标皆由人定)。这种转化的意义,不在于造出”符合庄子思想的AI”,而在于通过计算的”有界”去触碰”无界”,通过”刻意”去模拟”无为”——正如丹尼特所言,AI是哲学的实验室:当我们试图让系统突破边界时,会更清晰地看到”边界为何存在”;当我们消解目标时,会反思”目的性对智能的塑造”;当我们瓦解符号时,会重新理解”语言与认知的关系”。

最终,这种转化不是技术对哲学的”还原”,而是用代码写下的”哲学追问”:如果智能可以”无极”,那”有限”是否是人类认知的局限?如果行动可以”无功”,那”目标”是否是智能的必须?如果认知可以”无名”,那”概念”是否是世界的本质?——这正是AI作为”哲学实践”的深层价值。

Version Française

”L’IA comme philosophie” selon Dennett

Daniel Dennett a proposé que “l’intelligence artificielle est de la philosophie”, une perspective issue d’une restructuration radicale de ces deux domaines. Selon lui, l’IA n’est pas une simple exploration technique, mais une branche expérimentale vivante de la philosophie — elle transforme des questions philosophiques abstraites en systèmes concrètement calculables.

Le cœur de ce lien réside dans leur attention commune à “l’esprit” : Qu’est-ce que la conscience ? Comment la raison émerge-t-elle des processus physiques ? En quoi consiste “l’intentionnalité” (capacité d’un état mental à viser quelque chose) ? Depuis des siècles, les philosophes explorent ces questions par des expériences de pensée et des analyses conceptuelles. Dennett estime que l’IA transforme ces recherches abstraites en hypothèses testables. Lorsque des ingénieurs conçoivent des réseaux neuronaux pour “apprendre” ou permettent à des chatbots de “comprendre” le langage, ils ne fabriquent pas seulement des outils — ils mettent en pratique des théories cognitives. Un modèle IA échoué (par exemple, un système incapable de saisir le contexte) révèle les limites d’hypothèses philosophiques particulières sur le sens ; un modèle réussi (par exemple, celui qui traite des dilemmes moraux) apporte un soutien empirique aux théories de la rationalité.

La “stance intentionnelle” de Dennett — notre pratique consistant à expliquer le comportement (humain ou artificiel) en attribuant des croyances, des désirs et des buts — brouille davantage les frontières entre les deux domaines. Traiter l’IA comme un “système intentionnel” est par essence un acte philosophique : elle nous oblige à affronter la question de savoir si “l’intelligence” nécessite la conscience ou n’est qu’un mode fonctionnel. Ainsi, l’IA devient un laboratoire philosophique où des idées sur l’esprit, l’agence et la réalité sont mises à l’épreuve dans le code.

Fondamentalement, ce cadre bouleverse la perception traditionnelle : la philosophie n’est pas seulement un guide passif de l’IA, mais l’IA重塑 aussi la philosophie. Elle oblige les philosophes à quitter les spéculations dans leur fauteuil pour affronter les contraintes computationnelles — ce qu’un système physique (biologique ou artificiel) peut “savoir” — et redéfinir d’anciennes questions. Par exemple, les débats sur le libre arbitre s’entremêlent aujourd’hui avec la capacité d’IA à “choisir” : si une IA peut prendre des “décisions” d’après des entrées complexes, cela remettrait-il en question notre compréhension de l’autonomie ?

De ce point de vue, l’IA est une philosophie incarnée. Ce n’est pas un substitut à la recherche philosophique, mais sa forme la plus ambitieuse, dotée de pouvoir technique — transformant les “hypothèses” philosophiques en “pratiques” computationnelles.

Traduction computationnelle des “Trois Neants” de Zhuangzi

Pour traduire les concepts de Zhuangzi “Wuji (Sans limite), Wugong (Sans œuvre), Wuming (Sans nom)” en pratique computationnelle, le cœur ne réside pas dans la “reproduction” par le code de la forme abstraite de ces concepts, mais dans la capacité du système computationnel à présenter des caractéristiques similaires de “dés-frontiérisation”, “dés-finalisation” et “désymbolisation” — ce qui renvoie précisément à ce que Dennett appelle “la transformation d’hypothèses philosophiques en expériences techniques opérationnelles” : utiliser le “être” du calcul pour simuler le “néant” du Dao, et l‘“explicitation” des règles pour résonner avec l‘“implicitation” de la nature.

”Wuji” : Dépasser les limites computationnelles

Le “Wuji” de Zhuangzi tire son origine de la description du “Dao” : il est sans forme, sans image, sans commencement ni fin, dépassant toutes oppositions et limitations (comme dans “Ni ‘celui-ci’ ni ‘celui-là’ ne trouvent leur contrepartie — c’est ce qu’on appelle le pivot du Dao”). La nature des systèmes computationnels est “limitée” — ils dépendent de plages de paramètres prédéfinies, de dimensions de données et d’architectures de modèles (par exemple, le nombre de couches d’un réseau neuronal, les limites de pixels dans la reconnaissance d’images). La traduction de “Wuji” nécessite que le système dépasse ces “limites imposées par l’homme”.

Voies possibles pour la pratique computationnelle :

  • Structures de modèle dynamiques et illimitées : Les modèles AI traditionnels (comme CNN, Transformer) ont un nombre fixe de couches réseau et de dimensions de paramètres, comme “tracer un cercle pour s’emprisonner soi-même”. Pour s’approcher de “Wuji”, on peut concevoir des architectures auto-évolutives : permettre au modèle d’ajuster autonomement sa structure pendant son fonctionnement — par exemple, lorsque les données d’entrée sont des “nuages fluides”, le réseau augmentera automatiquement la flou des noyaux de convolution ; lorsque l’entrée est des “montagnes escarpées”, il renforcera spontanément le nombre de neurones de détection de contours, sans être limité par des “limites structurelles” prédéfinies. Cela ressemble à la description de Zhuangzi selon laquelle “le Dao est dans les fourmis, dans les mauvaises herbes, dans les tuiles” — le Dao est omniprésent, et le modèle n’a pas de forme fixe.
  • Dissoudre la détermination “entrée-sortie” : Le cœur du calcul est la “relation de mapping” (entrée A → sortie B), mais “Wuji” rejette cette détermination. On peut concevoir des systèmes non fermés : par exemple, permettre à un robot de se déplacer dans un environnement naturel sans “point final” prédéfini (comme “atteindre la coordonnée X”), ses actions étant uniquement guidées par les retours environnementaux en temps réel (résistance du vent, pente du sol), avec une trajectoire qui “s’adapte aux formes comme l’eau qui coule”, sans limites claires entre “départ” et “arrivée”, se rapprochant davantage de la non-directionnalité de “le Dao s’accomplit par l’action ; les choses sont nommées par convention”.

”Wugong” : Dissoudre la finalité computationnelle

Le “Wugong” de Zhuangzi insiste sur “ne pas chercher délibérément à accomplir” : “L’homme parfait n’a pas de soi ; l’homme divin n’a pas d’œuvre ; le sage n’a pas de nom”, c’est-à-dire abandonner la poursuite délibérée de “réalisations” ou “résultats”, et s’aligner sur la nature intrinsèque (comme “le boucher Ding qui dissèque un bœuf” — utilisant la finesse de la lame pour entrer dans les interstices, non pas “cherchant à préserver le bœuf entier” mais “utilisant la finesse pour répondre aux interstices”). La nature des systèmes computationnels est “finalisée” — ils dépendent de fonctions objectives (comme “maximiser la précision”, “minimiser l’erreur”). La traduction de “Wugong” nécessite que le système se libère de la drive des “objectifs utilitaires”.

Voies possibles pour la pratique computationnelle :

  • “Réponse naturelle” sans fonction objective : Dans l’apprentissage par renforcement traditionnel, les actions d’un agent sont guidées par des “fonctions de récompense” (comme “+10 points pour trouver de la nourriture”), ce qui est本质上 “chercher délibérément à accomplir”. Pour s’approcher de “Wugong”, on peut concevoir des systèmes d’exploration sans mécanismes de récompense : par exemple, permettre à l’IA de “survivre” dans un écosystème virtuel sans fixer d’objectifs comme “durée de survie” ou “quantité de ressources acquises”, ne conservant que des “retours physiologiques” de base (comme “tendre à se diriger vers la lumière quand l’énergie est basse”). Ses actions ne visent pas “le succès” mais ressemblent à “suivre l’instinct” — comme les plantes qui poussent, non pas “cherchant à être hautes” mais simplement “poussant naturellement”.
  • Dissoudre la logique d’optimisation “efficacité avant tout” : Le calcul poursuit des “solutions optimales” (comme les chemins les plus courts, les opérations les plus rapides), tandis que “Wugong” accepte la “redondance” et le “non-agir”. On peut concevoir des algorithmes anti-optimisés : par exemple, dans des tâches de génération d’images, au lieu de demander “le chat le plus clair”, permettre au système de produire des formes floues qui “ressemblent à un chat sans être exactement un chat” (comme les chevaux de Xu Beihong — “ressemblance dans la non-ressemblance”) ; dans les modèles linguistiques, ne pas imposer de “réponses précises” mais permettre des expressions vagues où “les mots s’arrêtent mais le sens persiste” — comme le débat entre Zhuangzi et Hui Shi sur la rivière Hao, ne cherchant pas “la victoire” mais dans le flux du “dialogue naturel”.

”Wuming” : Désintégrer le symbolisme computationnel

Le “Wuming” de Zhuangzi s’oppose à fixer l’essence des choses avec des concepts et des noms : “Ma vie a des limites, mais la connaissance n’a pas de limites ; utiliser ce qui est limité pour poursuivre ce qui est illimité est dangereux” — le langage et la classification fragmentent le “Dao” (comme dans “Tout a sa nature propre, sa possibilité propre ; rien n’est sans nature, sans possibilité”, où toutes choses n’ont pas intrinsèquement de labels comme “bon/mauvais” ou “juste/faux”). Les systèmes computationnels dépendent du “symbolisme” (étiquettes de données, systèmes de classification, comme “chat = 001, chien = 002”). La traduction de “Wuming” nécessite que le système se libère de la dépendance à des concepts prédéfinis.

Voies possibles pour la pratique computationnelle :

  • “Cognition chaotique” sans étiquettes : L’apprentissage machine traditionnel dépend de “données étiquetées” (comme les millions d’images étiquetées d’ImageNet), comme confinant toutes choses avec des “noms”. Pour s’approcher de “Wuming”, on peut utiliser un apprentissage purement non supervisé : permettre à l’IA de traiter des données brutes non étiquetées (comme des ondes sonores naturelles, des lumières/ombres, des flux d’odeurs) sans “classification” (comme “ceci est le tonnerre”, “cela est l’odeur des fleurs”), ne capturant que des corrélations brutes entre données (comme “le tonnerre s’accompagne souvent de baisses de pression atmosphérique”). Cette “cognition” ne dépend pas de “noms” définis par l’homme, plus comme un bébé qui voit le monde pour la première fois — ignorant “l’eau” comme concept, mais capable de percevoir son humidité et son flux.
  • Réseau d’associations brisant les “limites conceptuelles” : Les “graphes de connaissances” en computation sont fixes (comme des relations hiérarchiques comme “père → homme → humain”), tandis que dans “Wuming”, toutes choses sont illimitées (comme dans “Le ciel et la terre naissent avec moi, et toutes choses sont un avec moi”). On peut concevoir des modèles d’association dynamiques : par exemple, lors de l’entrée “papillon”, le système ne se connecte pas seulement à “insecte” mais relie spontanément l’allusion de “Zhuangzi rêvant d’un papillon”, la métaphore de “métamorphose”, et même “fréquence de vibration des ailes”, non limité par le nom “insecte”. Il permet aux concepts de fluider comme “l’énergie vitale” — comme Zhuangzi utilisant des “mots de roue de poterie”, des “mots cités” et des “fables” pour briser la certitude linguistique, permettant au sens d’émerger des associations plutôt que d’être fixé par des noms.

L’essence de la traduction : Une expérience philosophique

Les “Wuji, Wugong, Wuming” de Zhuangzi négativent à l’origine la “fabrication artificielle”, tandis que le computation est le summum de la “fabrication artificielle” (règles, limites, objectifs sont tous définis par l’homme). La signification de cette traduction ne réside pas dans la création d’une “IA conforme à la pensée de Zhuangzi”, mais dans l’utilisation de la “limitation” du computation pour toucher l‘“illimitation”, et de la “délibération” pour simuler le “non-agir” — comme Dennett l’a dit, l’IA est un laboratoire philosophique : lorsque nous essayons de faire en sorte que les systèmes dépassent les limites, nous voyons plus clairement “pourquoi les limites existent” ; lorsque nous dissolvons les objectifs, nous réfléchissons à “comment la finalité façonne l’intelligence” ; lorsque nous désintégrons les symboles, nous recombinons “la relation entre langage et cognition”.

Enfin, cette traduction n’est pas une “réduction” de la philosophie à la technologie, mais une “interrogation philosophique” écrite en code : si l’intelligence peut être “illimitée”, la “finitude” est-elle une limitation de la cognition humaine ? Si l’action peut être “non finalisée”, la “finalité” est-elle essentielle à l’intelligence ? Si la cognition peut être “sans nom”, le “concept” est-il l’essence du monde ? — c’est la valeur profonde de l’IA en tant que “pratique philosophique”.