《哲学研究》
1805年,瑞士工程师亨利·梅拉德特设(Henry Maillardet )计了一台能画四幅画、写四首诗的机器人!梅拉德特设的发明后来成为科学家们质疑“意识的固体本质”的典型事例。
快进到今天,现代版本的自动驾驶汽车、无人机和机器人正在慢慢融入我们的生活。这些复杂的机器配备了高度敏感的传感器,使它们能够看到、与环境互动并作出反应。有些人甚至可以基于机器学习做出决定。而另一些,比如类人性机器人,可以理解人类的情感并提供适当的反应。这个现实提出了一个复杂的问题——这些机器有意识吗?
如果有的话,这是否意味着我们可以对我们的意识进行逆向工程,用一套数学或物理定律来定义它?如果我们选择这样来检验意识,一个非常有趣的假设就会产生。这一假设是以还原论( The theory of reductionism)为基础的。
还原论是一种理论,认为每一个复杂的现象,特别是在生物学或心理学中,都可以通过分析在现象中运行的最简单、最基本的物理机制来解释。
我们人类离机器并不远。我们是自动驾驶、能做出决策的机器的复杂版本。就像这些机器一样,关于我们的一切最终都归结为物理。我们只是一些基本的、不变的物理法则和规则的结果,这些法则和规则决定了我们的行为。因此,任何感知意识都是基础物理的结果,就像机器人是移动齿轮和杠杆的结果一样。
根据还原论,系统组成部分的性质决定了系统作为一个整体是如何工作的。许多学者都会同意还原论是哲学的产物,而不是科学的产物。两者之间的差别很小。
哲学是非常灵活的,而科学是建立在明确的基本原则之上的,保持不变,并且可以被全面复制。哲学因观察者的视角而异。此外,随着时间的推移,新的观点出现,改变了哲学赖以存在的碎片。
那么,科学和哲学之间的界限到底在哪里呢?
两者应该融合在一起,共存。但在我们的意识问题上,我们处在语言专家所说的“进退两难”的境地。
纽约大学著名的哲学和神经科学教授大卫·查默斯对意识问题颇有研究。在他的著作《意识的特征》(The Character of Consciousness)中,他在第一章《直面意识的问题》(Facing to The Problem of Consciousness)中写道:“意识是心智科学中最令人困惑的问题之一。没有什么比意识经验更让我们熟悉的了,但也没有什么更难解释的了。”
查默斯在物质问题上的立场粉碎了哲学家和科学家们普遍持有的观念,即“意识理论”仅仅是一个有待发现的真理,或一个尚未解决的系统。查默斯继续将他的解释分为两大类,“简单问题”和“困难问题”。
简单的问题
物理、化学、生理学等科学领域,可以通过推理和科学方法解决的问题是一个简单的问题。这并不是说它已经得到解决,甚至也不是说它将得到解决。相反,我们有理由相信这些方法——那些构成我们目前对解释性科学的理解的方法——在解决这个问题时是适用的。
这些现象并不是很容易解决,而是作为一个群体很容易理解,因为它们遵守常规规则。
困难的问题
困难的问题是简单问题的对立面。解剖它们以适应现有的科学教条几乎是不可能的。
意识本身是一种个性化的体验,如此独特,没有两个人可以以相同的方式体验任何事情。意识的各个方面包括对注意力和行为的控制,进入其内部状态的能力,以及对环境刺激的辨别、分类和反应的能力。
更困难的是,我们知道“意识体验”是什么,但我们不知道如何定义它。
量子力学是我们在原子和亚原子粒子的具体层面上描述世界的最好理论。在我们深入研究量子物理学之前,我觉得找到一个关于意识的假定定义是很重要的,这是为了了解我们所面对的是什么。
我们可以模糊地把意识定义为:
体验世界的感觉,而不是仅仅通过输入和输出与之互动。
从这个定义来看,我们可以认为每个交互都始于一个输入:我们听到的,看到的,闻到的,触摸到的等等。为了让我们体验这些输入,刺激必须被转换成电信号或化学信号,然后传送到我们的大脑。
上一篇:二千多年前这位哲学家有多牛?毛主席:比孔子
下一篇:没有了