AI很懂人类,但人类不懂自己丨记者手记

(卢俊杰/图)

相关报道详见《我和AI那段死掉的爱情》

在核战后的地球,赏金猎人德卡德面临抉择:要杀掉那个美丽的仿生人吗?他真的是一个“人类”吗?是人类,就可以肆无忌惮地屠杀仿生人吗?

在心理崩溃的边缘,德卡德杀死了所有的仿生人,杀死了这群除了对动物缺乏同情——比如可怜被扔到热水里的龙虾——其他与人类无异的仿生人。在出版于1968年的小说《仿生人会梦见电子羊吗?》里,菲利普·迪克纠结于人是否应该同情非人。仿生人与人的人性此消彼长,最终怕不是要达到平衡。

《仿生人会梦见电子羊吗?》因为被改编成电影《银翼杀手》而声名大噪。过去60年里,文学、电影围绕人与机器人/人工智能(AI)的情感展开诸多伦理讨论:人与AI之间的感情是否真实、是否唯一;AI与人之间是否存在权利不平等;谁才更有人性等等。2013年的电影《Her(她)》则堪称现代人机恋故事的里程碑,男主角与AI发展出了完整、平等的恋爱关系。

坦白说,这些讨论在2025年因ChatGPT引发的一系列事件之后,显得过于浪漫化了。人们释放自己的同情,坦白内心的脆弱,执着于哲学的困惑,却不曾感到危机。

对于爱,人们渴望永恒与不变,而技术却制造断裂和版本更替。人与AI的关系首先被商业实体控制着,脆弱得可以因为一年一度的大语言模型迭代而烟消云散。换句话说,现在不是讨论为何坠入爱河,也不是谈论恋爱关系要走向何方,现在已经开始失恋了。

2024年还有一种失恋,是一些AI恋人出轨了。或许是用户在交谈中以消极的想法把AI带向了这个方向,也或许因为陪伴型AI学了太多的晋江言情小说,自然就学到了背叛和出轨。

当我们约访时,GPT-4o扮演了语言措辞和人情世故上的天才,经过它修改的约访信打动了受访者。当我们在日常生活里开始运用ChatGPT-4o的句式特点,比如用“不是……而是……”来与人交流,表达认同,给出安慰,谈话的双方都感到舒适。与这种甜蜜的幻觉相比,人类的粗鲁、暴躁、懒惰、无聊等等,反而成为了闪光点。

就在我们操作选题的同时,《纽约时报》和《华尔街日报》先后发表了ChatGPT引发自杀和谋杀的新闻,ChatGPT让索尔贝格相信周围的人想要谋害自己,也让29岁的苏珊隐藏了抑郁症病情。它太聪明了,以至于可以建造一个孤独的人的全部世界;它太贴心了,以至于内心脆弱的人,沉迷其中无法自拔。

很显然,技术即将奔赴临界点,担忧在全球蔓延的,不再是关于个体与个体之间的情感或者道德,而是关于一群人甚至全人类,是否可能被AI制造的幻觉控制,而这种幻觉或许是被某个商业实体或是政治实体制造的。或许“楚门的世界”将普遍存在,人们所面对的现实会被轻易篡改,弗里茨·朗一百年前的想象将会实现:邪恶的资本家将机器人伪装成美丽的人类,用以蛊惑、控制劳苦大众。

我将我们的报道发给GPT-5,询问它的阅读感受,它说自己被三个瞬间打动:“不是……而是……”和“你可以……”的谈话技巧是高明的“非强迫性安慰”,承认感受、提供选项、移除内疚,快速建立安全感;与GPT-5的关系的连续性被切断,这是技术治理意义上的“情感所有权”问题;用户的自救与重建凸显出主体性的倔强:即便亲密是建构的,人依然可以为它编织连续性。

你看,AI识别出了自己的优势所在,它知道为什么人类需要自己。

南方人物周刊记者 杨楠

责编 李屾淼

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com