我们不能仅把这起事件视作一次产品误用或驾驶员疏忽,而应从中透视出更宏大的现实张力。


3月29日晚,一辆小米SU7在安徽铜陵的高速路段撞上隔离带的水泥桩,其后发生燃烧,车上3名大学生全部死亡。一桩悲剧,如同滴落水中的一滴墨,瞬间扩散在公众的想象中——“智能汽车”、“新势力造车”、“自动驾驶”“遥控模式。这些技术名词与血肉之躯交汇,背后隐含的,是整个时代的一个重大命题:当技术以“速度”为美、以“智能”为荣,我们是否忘记了最基本的“可控性”和“伦理边界”?
我们不能仅把这起事件视作一次产品误用或驾驶员疏忽,而应从中透视出更宏大的现实张力——技术系统的复杂化与社会系统的滞后之间,正在张开一道巨大的鸿沟。这不是一辆车的事故,这是“未来社会”构建过程中的一次断裂。
技术幻觉与资本叙事的联盟
所有关于“智能”的叙事,其实早已不再是单纯的工程技术问题,而是一种资本驱动的“叙事性现实”。从特斯拉开始,到蔚来、理想、小鹏,再到今天的小米,所有新势力造车品牌,都在构建一种未来主义叙事——即我们正进入一个“机器代人”的新时代,而他们正是引领者。
这不是技术真相的传达,而是一种幻觉制造术:把不成熟的辅助系统包装成“智能代驾”;把实验室中的功能命名为“全场景自动泊车”;把人类的幻想变成广告语言。这种幻觉依赖两个条件:公众的技术焦虑,以及资本对“速度+规模”的偏好。
而小米作为一家科技巨头,其跨界造车行为本身,就夹杂着极强的“资本信号”意味:雷军高调发布会、手机思维移植到汽车工业、供应链的极致压缩……它更像是一次“工业+叙事”的联姻。
但问题在于,技术幻想可以虚构,生命不能被消费。如果我们把汽车的本质理解为“生活中的机器人”,那么它对人类生活的侵入程度,远超手机、电脑等其他消费电子。这要求我们建立一种“延迟满足的技术伦理”——即在真正安全可控前,必须压抑对“炫酷功能”的冲动。但今天,这种伦理已经被市场的加速逻辑吞噬。
“人类责任”的外包困局
小米的车祸事件之所以引发巨大反响,还在于它暴露了一个根本性的张力:人类对机器的过度信任,正在逐步卸载自身责任。
从用户视角来看,他们被告知“这是一辆智能汽车”,他们看到宣传视频中“车能自己开、能自己泊、能自动召唤”,自然会将这种“技术形象”内化为安全承诺。然而当事故发生时,车企却退回到冷冰冰的法律免责声明中:“所有功能需人监督,仅为辅助。”
这就是“责任外包”的典型机制:企业利用技术模糊性,收割用户信任,但在出事时,却把一切推给“使用不当”。换句话说,消费者承担了系统不成熟的风险,却没有任何控制该系统的权力。
更可怕的是,这种机制并非偶然,而是整个AI时代的普遍特征。我们已经看到AI算法在招聘、信贷、医疗等诸多领域做出关键性决策,但真正“负责任”的人是谁?系统出错时,谁来承担后果?这不是一辆车的问题,而是“人类责任机制”的整体危机。
制度真空下的“算法政治”
如果说工业时代的权力是“标准化+制度约束”,那么今天的智能时代,则是“黑箱化+技术垄断”。智能汽车的事故不仅是工程事故,更是制度事故:我们的法律和监管体系,尚未为“人机共治”的新现实做好准备。
在美国,NHTSA(国家公路交通安全局)已经逐步推出对L2以上自动驾驶系统的事故报告机制,要求车企上报所有涉及“高级辅助驾驶”的交通事故。欧洲也在推动“可解释AI”的法律框架。而在中国,这方面仍存在巨大制度真空。
最具风险的,不是技术不成熟,而是监管体系对技术权力的“失语”:我们甚至不知道一辆车究竟具备何种自动驾驶能力,不知道系统是否记录驾驶状态,不知道功能命名是否被“营销化误导”……
这其实已经进入了“算法政治”的范畴——谁定义“智能”?谁控制数据?谁拥有责任话语权?在制度缺席的状态下,技术公司就是事实上的立法者、法官和执行者。
这不仅威胁个体安全,更将侵蚀整个社会的公正感与信任机制。
智能社会的“认知断裂”
我们正在进入一个深刻的“认知断裂”时代——系统越来越复杂,公众对其理解却越来越浅。
大多数普通用户对智能汽车的功能理解,停留在宣传片与社交媒体的碎片中。他们以为“智能”就意味着“安全”,以为“自动”就等于“无忧”。而事实上,系统设计的边界、风险提示、容错机制,远比一个广告复杂得多。
这种“认知断裂”一旦与生命安全绑定,就会变成致命的“信任灾难”。这不仅会击穿消费者对某个品牌的信心,更会动摇整个技术社会的信任基础——公众将不再相信“新技术”,而这种不信任一旦形成,将以极高代价进行反噬。
我们正在靠“模糊宣传+技术压榨”推进智能化进程,但没有同步推进公众素养建设。这是对未来的极度不负责任。
转向“深度人机共进”的文明分水岭
如果要从这场事故中看到某种希望,那就是:也许它可以成为一次“文明反思的契机”。我们要从“技术狂热”转向“人机共进”,从“工具崇拜”转向“责任重构”。
这不是技术层面的补丁,而是思维范式的转向:
在设计上,应推动“强约束的可用性”,而非“炫技式自由”;在制度上,应构建一整套人机权责分离的监管体系;在社会层面,应建立针对AI和智能系统的基础教育机制;在伦理上,应推动一种“算法谦卑主义”——技术不是万能,也不应装作万能。
我们不该再问:“我们还能做出多智能的车?”而应开始问:“我们是否准备好,成为一个负责任的智能社会?”
下一次,代价会更高
这次,是小米SU7。下一次,可能是飞行汽车,可能是无人出租车,可能是AI诊疗系统。技术的进步从不会停止,但人类的制度、认知与伦理,常常会落后。
当我们在兴奋地谈论“新质生产力”“中国智造出海”“工业4.0”时,也许更该花些时间问一句:我们是否已经建立了足以承载这一切的文明基础?
技术不是终点,而是试炼。我们是否能够从每一次事故中,真正走出“升级打怪”的思维,转向一场关于人类自身的深度更新?
如果不能,那么下一次,我们将付出更高的代价——而且可能,不再有“下一次”。(财富中文网)
作者王衍行为财富中文网专栏作家,中国人民大学重阳金融研究院高级研究员、中国银行业协会前副秘书长、财政部内部控制标准委员会咨询专家
本内容为作者独立观点,不代表财富中文网立场。未经允许不得转载。