(一)AI想象的实在层面:对技术的理解和定位
社会想象具有实在性与规范性。技术本身作为物理力量限制行动或增强体验的物质性是社会技术想象优先关注的方面之一。通过对ChatGPT的对象化,即它是什么和能够做什么的特定解释,人们假设并实践了生成式AI在社会生活中的应用,既反映出人们如何理解、安置、面对和应用技术的认知差异,也通过对技术特定方面的选择性感知揭示了人们对AI的期待,构成技术与社会安排相互作用的要素之一。人们对ChatGPT的两种对象化方式,聚焦AI社会影响的不同面向,一种侧重于将它作为提升工作效率的工具或面向个人的数字助手,另一种则把AI想象为“交流者”。
1. 作为生产力工具的AI:驯化“贾维斯”与使用“放大器”
从事写作的自由职业者林娅和设计师Howie不约而同地把理想的助手型AI具象化为钢铁侠的智能管家“贾维斯”,与微软发布的新项目 “贾维斯”不谋而合。更多被访者将ChatGPT视为生产力工具,展示了从辅助设计、生成报表、学习语言、数据分析到撰写发言稿等各种应用场景。已把不同生成式AI接入日常工作的设计师Howie认为,其重要程度不亚于电脑绘图替代纸笔;财经记者Yenny笑言“未来会使用ChatGPT的打工人将成为老板最爱的员工”;商业策划师肖畅表示会主动拥抱AI,“当作使自己更强的工具”——Open AI公司在2月24日发表的通用人工智能(AGI)愿景亦如是:要让AGI成为增强人类的“放大器”。
“贾维斯”和“放大器”代表着截然不同的思考框架和对AI在数字未来中的角色的不同想象。“放大器”只与特定功能的强弱有关;而“贾维斯”却意味着与另一种智能体的共处。JARVIS(Just A Rather Very Intelligent System)的命名体现了人类对AI的双重期待:智能化和服从性,后者隐含着一种对强AI与人类之间关系的不安。贾维斯能够替人类做决策和完成各种任务,但它不是“人的延伸”——“贾维斯”会不会成为“奥创”?会不会以人类竞争者和对手的面目出现?正如林娅的担忧:“奴隶主揩油(榨取人工智能剩余价值)的心态很快就会变成担心:我能压榨这个奴隶多久?奴隶太蠢的话倒是不会跑,但剩余价值也不多;奴隶太聪明的话,会不会用没两天就造反?”循此思路,就比较容易导向一种限制AI能力的吁请,“有意让人工智能变得‘笨’一些,即有意让它们的功能比较专门化、小型化……防止它们向超级通用智能发展”。
“放大器”的修辞则类似于流行病学的“功能增益类比”,恰到好处地强调把AI对象化为人类的增强而非替代,突出AI作为专门化工具而非全局“大脑”的角色,从而封锁了关于“主仆关系”倒置的联想和恐惧。但这个功能窄化的类比被认为掩盖了驱动AI发展的动力,也未能体现其作为一种“元技术”所具有的广泛性和武器化威胁。对未来学家和既得利益者来说,生成式AI是通向奇点和AGI的基础,这些概念让大部分被访者难以理解。从公共决策的角度,将AI视为一种专门工具,将会采取一种技术化的监管和治理路径;而将AI 定义为通用技术,则会产生与考虑AI特定应用的政策大不相同的结果。
2. 作为交流者的AI:功能、关系和本体论想象
与上述实用性目标相对,多数没有使用过ChatGPT的被访者更倾向于拿它与语音助手Siri或聊天机器人小冰、小爱比较,重视它的对话流畅感,会从人格属性的角度评价它“在撒谎”“很聪明”“甄嬛体”“像个老干部”等。林娅要求ChatGPT聊天时自称“LISA”,她反复与LISA探讨关于情感、意识、主观体验和存在意义的问题,其中一个问题是:“佛家说,有情生命必经生老病死,无情事物必经成住坏空,你觉得自己是前者还是后者?”
这并非简单的“媒体等同”心态。将过去作为技术中介的AI想象为交流主体,既是对人类关系的投射或衍射,也意味着非人类中心主义的交流可能,这涉及AI作为交流者的功能、关系和形而上学等方面。譬如,AI作为交流者的伦理意涵是什么?人类交流是否应该成为评判人机交流的“黄金标准”?喜欢听Siri讲笑话的年轻媒体实习生Selena明知ChatGPT的回答“不过是编程而已”,但仍会抱怨它“没有像人类朋友那样给我情感回应”,还不如乙女游戏提供的情绪价值,尝试过一次就放弃了。她说:“我那个部门是做社会新闻的,每天会遇到千奇百怪的问题,也能看到人类的很多个侧面,但是目前的AI不能处理这些。”
再如,我们如何认识AI与自身的关系,进而通过这种关系反观自我?帕帕克瑞斯(Papacharissi)指出,在AI时代,人们利用技术来重新想象自己是谁的方式,个体在与特定技术的交互中使自己形成新的意义的方式,都是对“网络化自我”的探索。AI可以被用来促动、重新想象和重新组织我们对自我的理解、对生活意义的构想,乃至什么是人类的本体论问题。在人文主义者看来,如果计算机也能拥有意识或自主思考,那么关于“人”的意义的基本概念就会被削弱。AI会威胁人之为人的独特性吗?关于这个问题的辩论由来已久,从“洛夫莱斯夫人的异议”到德雷福斯(Hubert Dreyfus)的“计算机不能做什么”系列,最新版本则是乔姆斯基(Noam Chomsky)、齐泽克(Slavoj Žižek)等人对ChatGPT的批判,以AI或机器无法完成人类才能做的活动来为人类优越性进行辩护。ChatGPT对自己是否会取代人类的回答也采用了同样的方式,它一再表示AI不具有人类的情感和创造力,不能保持身份的一致性,也没有同理心、换位思考或推理的能力。
然而,大部分被访者却并不像ChatGPT那样笃定人类拥有不可复制的特征或能力。相反,他们频频提及在社交媒体上看到的AI与人共情的故事(豆子);幻想借助AI“复活”过世亲人带来的情感冲击(梁丽、徐雨);以及AI伴侣满足情感需求的可能性与利弊(小窦、吕大大)——尽管当下的ChatGPT被吐槽机械刻板、缺乏人情味,但AI在类人化方面的突破却被想象为不言自明的近未来。对HMC研究者而言最为重要的人与智能技术之间的本体论边界,在非专业知识群体的想象中似乎并不存在不可跨越或者令人惊惶的鸿沟。
(二)AI想象的规范层面:对技术未来的预期、焦虑与无定形的想象
社会技术想象不是关于技术发展或未来状态的中性陈述,它投射了什么是好的和值得实现的愿景,包含着对良善社会或公共利益的共同理解。就此而言,社会技术想象概念被置于规范维度之中,反映了人们对社会秩序的期待和对特定价值的优先考虑。访谈结果呈现出令人意外的矛盾性:一方面,绝大部分被访者并没有受到公共话语中盛行的AI焦虑影响,尤其在失控和失业议题上都持有乐观态度;另一方面,他们对新技术可能构筑的社会景观却缺乏积极想象,反而不断表达着对AI带来的新的不平等进而加剧社会分化的深刻担忧。
1.“技术发展不可避免,谁会是牺牲品”:技术乐观主义与“社会折叠”的交织
受访者一致对ChatGPT持有肯定、欢迎的积极态度,把AI发展视为大势所趋:他们调用既有文化资源,援引历史上的技术发展案例如核武器的发明、内燃机的诞生和工业革命,来说明AI发展“不以个人意志为转移”,使跨时空的不同技术在“技术发展不可避免”的共同想象中相互支持;也用历史上其他新技术崛起时的恐慌情绪来阐明“新观念、新事物需要很长时间才能被接纳”。
失控、失业和“社会折叠”成为受访者谈论最多的关切。既有研究认为,“AI焦虑”集中体现在两方面:对人类社会面临终结的担忧和对技术性失业的担忧,这也是公共话语中盛行不衰的主导想象。但受访者普遍认为AI失控作为“远虑”过于缥缈且带有炒作嫌疑,相比AI统治人类,他们更担忧开特斯拉的会不会撞人(张旭);“割韭菜”的诈骗公司带来的切实的负面影响。大厂项目经理Alex语气轻快地说,“AI杀死人类”的想法也流行不是一天两天了,酒精、香烟、空气污染都在杀死人类,他不介意多一个“天敌”。对于技术性失业的“近忧”,被访者也认为并非无解,从提升个人竞争力到某些岗位的不可替代性,再到注册门槛和防火墙限制,多数人抱有与其被动淘汰、不如主动拥抱的心态,外贸业务员Mia的话很有代表性:
21世纪过了五分之一了,以往那么多工具的诞生都会造成技术性失业,但实际上,只要是有逻辑规律可循(包括语言)的东西,只要能把这个逻辑表达出来并用工具表达,那这种类型的技术性失业是迟早的事……只要还有工开就开,该前进就前进,这没什么好说的。说老实话,我反倒还会小期待一手这类型的技术,可以反推过来净化一下那些本来就很无谓(对于人成长本身)的螺丝钉工作,冲击一下市场里那些冗杂的部分,反推人向着或许更有意义的方向成长(毕竟人时间精力就是有限的),让资源往值得的地方流。
林娅转发了某位作家的微博,谈到“AI替代人写小说后会不会导致很多写小说的人失业”,帖子的最后一段是:“这个世界,比我厉害无数倍,写得也比我好无数倍的作家多了去了,我不在乎再多一个。”她对此深表认同。
不同于流行话语聚焦的失控和失业议题,受访知识群体的主叙事落在以数字鸿沟为核心的“社会折叠”。几乎所有被访者都认为,未来人与人的差距会进一步拉大,AI无法成为所有人共享的普惠性基础设施。地区、阶层、年龄、教育资源的差异,技术能力、媒介素养的分布不均,种种因素都会让AI放大乃至创造不平等。Yenny说:“那些能在生成式AI的加持下活得很好的人必定是精英,他们能最大限度被赋能,享受到科技的红利。”49岁的精算师志华在解释他为什么没有试用ChatGPT时说自己上有老下有小,老的春节进过ICU,小的刚上高一,“不同的年龄处于不同的生命周期,面对的任务,或者说关注的事情,是不一样的。我如果20岁,肯定更开放地接纳应用ChatGPT”。他描述自己对技术使用的弱势感:“作为非互联网原住民,就像老年人用手机一样……我觉得45岁以上的大部分人,在这方面都有弱势吧。”志华忧心少数人成为技术赋能的“外星人”,而大部分人越来越被边缘化:“我毕竟还有另外一些资源和优势,所以还能保持中产的生活水平。条件比我差的人,他们该怎么办呢?”捧着“铁饭碗”的小窦同样感到不安:“这个工具肯定会直接或者间接改变世界。只是在改变过程中,谁会是牺牲品?”如果AI真的带来“超能力”,谁能够拥有?这与福山(Francis Fukuyama)就超人类主义的道德代价提出的质疑如出一辙。超人类主义作为美国的主导性技术想象,被福山视为对平等理念的巨大威胁。AI应用的不平等会发展为继生物技术之后的又一种超人类主义吗?
“社会折叠”想象并不源自受访者的切身体验或个人危机。关切技术使用的伦理后果,期待技术普惠,将解决社会分化问题(而不是效率优先、经济增长)作为优先事项,根植于平等互利的价值观。他们拒绝技术民族主义叙事,也并不推崇新自由主义式的原子化个体,这里所浮现的利他价值观,与一篇谈AI的时评隔空呼应——“只要全局纵观我们的生活,我们远不如自己想象的那样‘自私’和‘自保’”。
2. “我现在的态度变得暧昧起来”:无定形的想象
社会技术想象文献往往把积极想象/消极想象(贾桑诺夫直接称之为乌托邦和敌托邦)截然二分,在此前提下来探讨不同想象的互动。社交媒体上更是流行用简化标签将人群分类,如降临派、幸存派和拯救派。谈到AI的社会影响和未来图景时,被访者也常常使用“双刃剑”这个说法,但当深入他们的描述和语境,尤其是通过回访获得一种动态视野时,就会发现其AI想象的模糊、游移和多面性很难被还原为任何一种僵化的二分法。
我们可以从那些交织着兴奋与紧张、期待与焦虑的描述中识别出想象的张力。小窦一方面肯定生成式AI强大到“已经想象不出来极限在哪里”,另一方面又因此而疑虑——“当AI能够满足很大一部分感情需求,甚至比真人做得更好,成为一个不需要付出,可以尽情索取的伴侣时,人类对这种亦真亦幻的感觉是什么态度”?有声书主播欣平的第一反应是觉得应该从法律上对AI的发展进行一定限制,但旋即又自我否定,“限制科技发展也没有未来”。诗人顾涛说自己“兴奋和惆怅”,既在理性上对AI持肯定态度,又产生“莫名其妙的失落感,并不附着在任何具体事件上,就是一瞬间的情绪,或许是多发性的瞬间。我也不确定是不是一种对新事物感到排斥、抗拒的天然本能……”。
不同立场者的共性及弹性也出人意料。相对激进的媒体策划Matthew和自认为“老派”的Selena看似处于光谱两端,但他们会不约而同地转发同一篇文章。随着时间的推移,很多被访者也在微调自己的看法,变得更加复杂和摇摆。自称“反技术主义者”的林娅一个多月后开始使用ChatGPT并考虑付年费。初访时声称“对所有的技术未来都报以极大乐观”的Matthew在回访中对立场迥异的AGI宣言和FLI公开信同时表达了深度认同,并觉察到自己的矛盾情绪:一个“繁荣到我们任何人都不可能完全想象程度的世界”,真的会出现吗?我现在的态度变得暧昧起来……核心的问题还是“面对一个并不太全知全晓内容”时的不确定感。它来得太快了,真的“毫无准备地匆忙坠入”。
此外,AI技术的复杂性与不确定性使得被访者难以在当下辨明意义,需要在相互竞争的叙事——譬如,支持/反对、工具/武器、赋能/罢黜、文明利器/潘多拉魔盒——之间不断辨别方向、寻找平衡,同时,也要在现成的解释和他们自己的体验之间游走,对其中的矛盾和悖论进行协商。比如,国内外媒体常把ChatGPT描述为中美之间生成式AI军备竞赛的一部分;技术民族主义也在既往研究中被视为中国技术文化的主导想象。但在受访者看来, “AI应用都是很具体的东西,上升不到那么高”(肖畅)。寻找意义的过程不能被简化为乌托邦或反乌托邦式论述,轻易贴上标签或确立宏大叙事,就会错过日常意义建构实践中,想象不断框定和重塑的过程。无论哪种“主义”“派别”“主导想象”或“反想象”,都很难捕捉到想象游移浮动的时刻。化用科幻作家姜峯楠的说法,这是初稿式的,“无定形”的想象。
(三)AI想象的“背景认识”:无法拒绝,无法预判,无法参与
AI想象在特定的实践、道德和政治背景中呈现意义。这些背景犹如暗物质,无法被直接观察,但通过引力施加影响。泰勒认为,需要一种更广阔的领会,他称之为“背景认识”,即“对我们所处的整个环境非结构化的、难以名状的认识……由于这种认识不受限和不确定的性质,它永远无法以清晰的学说的形式来充分表达……意义的赋予以整个世界为参照,也就是依赖我们对于在时空中、在他人和历史中的整体困境的感知”。循着泰勒的洞见,本节试图透过技术乐观主义中的罅隙,探寻那些导航了驳杂想象的深层认识——它们是支撑或构筑社会技术想象的库存。
当未来社会的博弈双方被想象为人类和AI时,受访者普遍流露出“不喜亦不惧”的超然:接受个体在技术演化进程中的渺小卑微、无能为力。Iris说“该毁灭就毁灭”;顾涛借用《侏罗纪公园》里的一句话“人类自有其法”;静雯表示,假如硅基文明更有进化潜力,那么“人类需要重新思考自己的位置”。工程师赵涛形容“AI发展跟‘看不见的手’是类似的,既然已经到达了临界点,那么也就只能沿着这条路走下去。个人需要做的只有一点:‘接受现实’”。
真正激发忧惧的是技术背后的权力与控制问题。受访者一致认为技术不是万能解药,有别于中国互联网IT意见领袖的技术解决主义思路,也与西方社会相异——不少国外研究将“社会技术盲目性”视为“AI焦虑”的主要来源之一,即只关注程序而把创造、部署、维护和赋予AI程序操作意义的人类和人类行为排除在外。但在我的访谈中,情况恰恰相反:受访知识群体熟稔于种种技术之外的政治画外音,他们频繁提及技术创新的制度环境和社会运转的现实逻辑,比如脱钩、“墙”、宣传、资本、大公司及其竞争者、社会资源控制,等等,焦虑的根源正在于“AI应用是社会问题而不仅仅是技术问题”(徐雨),“有很多普通人无法控制和想象的因素”(Mia)。对科技公司和国家干预的双重不信任,强化了个人在建立监管、采取措施等问题上的矛盾和迷茫。
AI开发者和研究者都喜谈“对齐”,关键在于,“对齐”谁?换言之,AI服务于何人?谁来决定它的用途?它体现谁的价值观?科幻作家姜峯楠认为,将大部分对AI的恐惧解读为对资本主义恐惧最恰当,他的意思是技术与资本交织在一起,我们对资本主义将如何利用技术来对付我们感到焦虑。《纽约时报》的专栏作者说,其实我们的恐惧来自于无力监管资本主义。如果把这个论断作更本土化的改动:那是对置身技术的巨大不确定性和技术逻辑对其他社会逻辑的压倒性权力中,缺乏自主性与选择权的“全无知全无能”的恐惧。赵涛用“看不见的手”这个类比极其精妙地表达了:技术世界与经济生活一样,能动者困在抽象的、客观的、“不以个人意志为转移”的力量中,也是一种技术决定论的内化。
在这样的受困状态中,人将如何看待自己和未来的关系?卢恰诺·弗洛里迪(Luciano Floridi)曾呼吁社会大众应深入了解AI的技术原理和社会后果[94],问题在于,普通人从哪里去获得可靠的专业知识,并且有足够的能力来分辨和判断专家莫衷一是的话语呢?一项针对中国的AI伦理在线公共话语研究发现,“技术复杂性和不可理解性”是微信和知乎的知识生产者们谈论最少的话题。在赞颂专业意见、降级个人经验的文化氛围中,面对技术“黑箱”,普通人不得不把自己摆放在只可“乐成”而不足以“虑始”的被动位置上。越是知识群体,越是谨慎表态,多位被访者在谈话中称自己“科技小白”“不懂技术的局外人”,甚至表示自己“完全不具备参与讨论的条件”(顾涛)。
专业知识是资格的核心,相反,取消资格也正是建立在对专业知识的想象中,没有资格不仅仅是一种日常的解释,更是一种话语封闭模式。面向未来时的话语封闭过程,一方面限制了人们的替代性想象,另一方面增强了个人对于技术进步不可避免和“无能”的体验,从而建构出无能的主体。在社会技术想象理论中,“制造身份”作为共同生产的重要工具,通过某种集体身份的归属而参与到技术秩序的制定过程中,其主要形式是专家身份、国族身份,以往的研究很少注意到,具有否定性意涵的默会共识也可以构成一种身份,譬如“无能的主体”。由于缺乏专业知识,知识群体在心态上自我取消了参与资格,使技术未来的权力集中在关键少数的社会氛围愈发自然化,公共政治视角下多元主体参与社会技术的共同生产沦为修辞。
普通人的无力感还表现在“想象的缺席”。受访者在展望未来时往往局限于技术本身的强大和更广的应用场景,极少谈到对理想社会的憧憬,偶尔提两句又会自嘲为“都是一些不切实际的美好幻想”。人类学家阿帕杜莱(Arjun Appadurai)曾写道,“我们需要把愿望的能力看作一种社会和集体的能力,没有这种能力,诸如‘赋权’‘发声’‘参与’等词就失去了意义”,愿望是“想象事业的政治对应物,因为只有通过某种希望的政治,任何社会或团体才能设想出一个通往事物状态的理想变化的旅程”。社会技术想象是规范性的,是一种对未来的选择(拒绝亦然),因此具有生产性和述行性,与实践密不可分,也是改变现状的关键。但如果感到无法自我决定或参与协商可能成真的未来,那么“想象的缺席”就不难理解了。赵涛说得直白:“普通人多数时候是不会有选择的余地……绝望带来自由。”
流行女歌手孙燕姿就“AI孙燕姿”发布公开信,她形容自己“就像一个吃着爆米花、坐在电影院最佳座位上的人”,“在这无边无际的存在之海中,凡事皆有可能,凡事皆无所谓”——就个人心态而言,这是平和通透,但由之引发的情感共鸣却暴露了我们所处历史境遇的深刻缝隙,也映射出社会技术想象最为无力的时刻:主体退守为对未来的袖手旁观,成为“受影响的旁观者”——在这种社会技术型构中,个体很大程度上被剥夺了用户或公认的利益相关者通常所拥有的那种能动性。不同社会想象之间的竞争和对抗是公共政治的一个重要问题,替代性想象的消失取消了这一前提,而“受影响的旁观者”进一步取消了“质询的公众”。