关于“人工智能”的一点思考,


随着对于人工智能各种技术、模型的学习,学习者逐渐意识到思想的缺位,并逐渐萌生对于人工智能本质的思考。

举例而言,现在我们有了一个黑箱,当我们把图像输入后,从黑箱中输出图像中的可识别主体,比如说一条狗。这是图像识别领域中单目标识别问题所做的。我们可以说它能识别出狗、它认识狗。但是它的认识和人的认识能相提并论吗?

通过统计学理论建立的模型和人脑中学习产生的模型区别在哪里呢?我曾听说刚出生的人视力微弱、视神经未发育完全。料想这时他显然是不能识别狗的。那么在学习过程中,他对狗的认识一定和其他人对狗的认识相同吗?进一步说,他对狗的认识一定和机器学习训练出的模型对狗的认识不同吗?

对于第二个问题,如果人脑的模型基础不同的话,显然是不同的。也许人脑的视觉识别还有未曾了解的奇妙处理,使得性能如此优异……这也许是一块遮羞布。

对于第一个问题,我的学识尚不足以解答,甚至不能做出自我信服的猜测。对于每个猜测,都能举出适当的驳斥。

回望初涉人工智能领域时,少年心气,以为未来正在塑造;稍加了解后,平复了浮躁认真学习,但尚对技术充满乐观;如今渐行渐远,确实是渐行渐远。

 

有个叫“中文屋”的思想实验,说的大概就是这些事。又想到古时能工巧匠创作的仿生物,报时鸟、打鼓行军的人偶、木牛流马、字水灯……,直到人偶和“恐怖谷效应”。真想知道他们是因知晓其中原理而不曾恐惧,还是没有预见这抵近藩篱的光怪陆离。

创造者和受造物是如此相像。

现在我们进行第二个思想实验,我们有了一个“有意识”/“会思考”的机器人……为了简单起见,我们假设它除了“有意识”/“会思考”以外只能让一个小灯点亮/熄灭。显然聪明的机器人可以模仿摩斯电码(或者发出某种反统计规律的信号)来传递出它“有意识”/“能思考”(太长了,以下简称有意识且不加引号)这件事。

且慢,其实这个机器人上还有一个独立的意识主体,它什么也不能做,只能静静感受小灯诡异的明灭,猜测另一个意识的存在,最后在漫长的孤独中消亡……如果我们足够无情的话可以剥夺它的一切感知,包括时间。不过善良的我决定给它一个存在过的证明,在某个时间点,我交换了两个意识的处境。现在主客易位,原来的旁观者可以疯狂的开关小灯以宣泄感情,直到我再次交换。

在小灯疯狂闪烁的同时,我们考虑另一件事。如果你的身体并不由你掌控,(就像常见的meme:你的大脑让你觉得大脑很重要),而是由另一个主体在控制,只不过它的控制是如此合理(不,也许只是你习惯了),让你觉得是你自己所思所为。比方说你在思考这种荒诞的假设时,它控制你感觉不到它的存在,并让你觉得这很荒诞。

当然,我知道只需要祭出那把剃刀就可以让你辛苦的驾驶员灰飞烟灭。不过,为什么我们不做得彻底一点:把你也一并除去?

我的意思是,我有一种看起来更简单(但是不一定合理)的假设:如果意识也只是一种,高级的“反射”呢?

在演化过程中究竟发生了什么,让我们保留一种幻觉至今,并以此为傲,自命为万灵之长。为此我们付出了巨大的脑容量(虽然相比被我们戕害夷灭的远亲较小)在知识库之外编织大梦一场,消耗大量的能量,每天牺牲时间进行危险的睡眠,让母亲们感受10级疼痛,留下了又一个致命弱点……理性一点,这些付出值得吗?

根据我浅薄的人类学知识——主要来自于《人类简史》——这些代价可能是值得的。因为有了这种幻觉,人类能维持比血亲更广大的势力。当野兽还凭借原始反射驱逐同类、维持领地时,人类凭借对伟力/领袖/理想/利益的一致信仰团结到一起,构建出人类世界。

不过这里有个小问题。其实我们用不着那些幻觉,似乎也可以做到这些。倒不如说去掉那些幻觉,我们更接近理想模型,比如什么社会学人、经济学人之类的。反射过程中似乎没有必要特别给某个白吃白喝的看上一眼。

这个小问题我现下只想到两个解释。一是演化冗余,就像漫长的喉返神经一样,没有它更好,但是留着它日子还是照样过。顺便一提,抹杀人的意识似乎是一种犯罪,从这个角度来说我们似乎没法验证这一观点的正确性了。

另一种解释就比较难以言说了(我物理学得不太好)。也许随着大脑中反射的复杂度和/或量级上升,意识必然地涌现了。举个不恰当的例子,那只打字机上的猴子打出来的宏篇巨著中总有两种现象出现:每个字符、或者每个模式的出现频率服从某种分布;总有一些文字看上去有点道理。我不知道意识像前者还是后者,又或许根本不是这样。

大概就是上面这些了,如果读者/或者今后的我觉得作者是空想者/民科的话,前者我觉得合适——因为此时我也感同身受;后者我觉得不太合适——出于主观意愿。我猜测应该有前贤智者论述过类似的观点,还请指路。

相关内容

    暂无相关文章