点击上方卡片关注👆关于数字生命,有哪些值得关注的议题?随着 AI 快速发展,数字生命正迅速渗透各个行业,深刻影响我们的工作、生活和娱乐。虚拟偶像、直播带货、社交娱乐等领域都涌现了数字人的身影,而「复活亲人」等概念也引发了伦理争议。如果未来人人都有一个属于自己的数字分身,你会用它来做什么?如何保障数字生命技术始终向善?一起来看看答主们的回答吧。 如果未来人人都有一个属于自己的数字分身,你会用它来做什么? |答主:舟晓南要看这个分身是否能够对真正的物理世界产生影响。我个人是很喜欢看科幻小说和科幻电影的,但往往这些作品中如果出现复制体,也多数是为了剧情服务,很少有能够真正去思考应该使用什么样的技术和法规去规范数字分身的使用,如何使用自己的复制体。弱 AI所谓弱 AI 的数字分身,就是目前我们已经常常能看到的数字分身带货,这种分身没有自己的思考能力,其内核是多个 AI 模型共同模拟出你的外观,并没有你真正的性格和为人处世的模式,好处在于它拥有本人所不具备的知识,因为可以联网搜索,大语言模型本身也是对大量知识的压缩。这种数字分身只能做一些代码指定的事。如果是我,会让它做一些我在平常生活工作中不想亲自做的事,比如写一些简单代码,做一些论文的总结,帮我写一下报告,但由于模型本身具有的不确定性,我依然需要亲自做些检查。元宇宙元宇宙和 AI 的关系其实不大,更多的只是场景模拟和动作模拟,还需要你亲自穿戴设备进行操作,好处是这个分身反应了你每一个动作。如果是这种模式,那我可能会用它来进行跨距离的社交,开会等需要与他人频繁互动的场景。强 AI,虚拟世界如果是强 AI 的分身,那么可以做的事情就太多了,因为它是一个被几乎无限增强的我,除了完美复制我的外观,性格,还能接入各种知识,可以瞬间在虚拟世界学会几乎所有技能。 如果是这样,那我会让他直接替我上班,但由于无法影响物理世界,所以只能做一些虚拟产业的工作。对于我来说,就是完全解放,在现实生活中可以自由自在和老婆玩耍了。强 AI,物理世界如果是这样,在可靠的阿西莫夫的机器人三定律法则下,我可能才放心让他出来做一些活动,在这样的世界下,每个真正的人类都被解放,一切生产活动皆由分身完成。
当 AI「复活」成为产业,如何保障数字生命技术始终向善? |答主:太空僧在我看来,AI 可以重新编程,甚至可以用谦卑而怜悯的态度看待人类,但是一个不会犯道德错误的 AI 不算是真正的人工智能。现在这个阶段,什么 AI「复活」这种小技巧无关痛痒,GPT-4o 的流畅对话这种反馈,也不算是真正的人工智能。所以它们很容易被代码写死成所谓的「始终向善」。真正的 AI,我们希望它是一个拥有类似人类智慧的、但有强大记忆、力量和寿命的非肉体形式的类生命体。是的,我们正在构建一种强大的类生命形式,但这些类生命形式并不一定对我们的社会伦理和复杂性有充分的理解。另一方面,让这种类生命体变邪恶的方式几乎是无限的,而让它变善的方式要少得可怜。我们可以告诉 AI,杀人是恶,因为杀戮会降低人类物种的生存繁衍概率。那么,如果杀死一个手拿遥控器的恐怖分子,可以提高另一个人质的生存概率,这是不是恶呢?机器人没有杀死恐怖分子而导致人质死亡,是不是恶呢?换个角度说,虐待机器人可以提高我们的生存概率,这是不是恶呢?素食主义者认为人类不能虐待动物,是因为动物会感觉到痛苦,那么以后拥有人类思想模型的机器人呢?折磨一个认为自己是人类的人工智能是不是恶呢?我们人类自己都没搞明白,什么是善,什么是恶,我们实际上只知道,如何做能提高一个群体的生存概率,如何增加他人的痛苦。但是,拥有类似人类智慧的计算机实际上并不思考,计算机只是计算。计算得越准确,就越会在这个混沌的社会体系中出现难以发现的盲区。因为,人类社会不是非黑即白的。我还是那个观点,探索月球建立基地也好,移民开发火星也好,我们都需要大量的 AI 和机器人,但我们永远不能完全相信它们。相信我,美国人会制造出杀死苏联人的机器人,而苏联人也将制造出杀死美国人的机器人。人类的历史,没有什么新鲜事,善与恶,都是任人打扮的小姑娘。 |答主:傻瓜的两块钱数字一旦成为生命,那就必然牵扯到伦理问题,价值判断问题。很多认为,AI「复活」逝去的人,可以让生者不必那么痛苦,起到一定的心理抚慰作用。这种技术反正成产业,同时也是一种为人类谋取福利的善举。以前的人,只能通过文字和图画来纪念逝者,现如今可以通过 AI 合成来再现,这是极大的进步。所以对于乐观的科技主义人士,往往看到科技带来善的方面。当然还有更多的人是一种旁观者的角度,应该是一种认为科学技术无关善恶的问题。用技术来做善事或者恶事,只是掌握和运用技术的人的善恶问题,而不是技术本身的善恶问题。这是一个被人广泛接受的论点。但是实际上有一点,大家没有去思考到。那就是数字生命技术发展到究极状态,「它们」如果一旦接管人类而进行小到各项日常事务的处理,大到事关人类存亡的重大事项决策时。那么这项技术的终极善恶就会体现出来了。因为数字是需要定量的,他们无论是精确比较还是模糊比较,永远无法去把人类的生命价值给量化成数字。很简单,比方说电车难题,或者是类似的舍小取大的问题,还是弃车保帅的问题。这一系列人类一直面对的困境,「它们」怎么根据选择呢。在强大的算法能计算出一个人的生命和一群人的生命的比值吗?答案应该是否定的。但是一旦数字生命的技术最后走向完善,接手或者替代人类,是否会用天生的算法缺陷,从而导致典型的「功利主义」。比方说车祸发生时,选择撞向边上的无辜路人,避开要撞上的公交车,用一个人的生命换取一车人的生命。而这种选择,理论上可能是赋予上帝的权利(随机),现在可能就变成精确的算法推导,成为数字生命确凿无误地执行命令的核心判断。就算简单的 AI「复活」,也是同样的问题,技术如果超前于人类伦理认知的或者是超越价值观的发展。那么是否会造成某种意义上的原罪。一种超过普通人类认知的无法抑制的罪恶。如何去保障技术向善,始终是一个根植于技术到超脱技术的问题。而且就像有人说的,可能得重新划分伦理的范围,重新定义终极的善恶标准。