这家公司,81%的老美没听过新智元

12/28/2025

2025年,AI像空气一样无孔不入,可我们却越来越不敢呼吸。一份跨越全美的民调戳破了科技繁荣的假象:在高效的背面,是蓝领的倒计时和白领的盲目。当「跑赢对手」不再重要,我们该如何守住身为人的最后那份解释权?

过去20年,那些影响深远的技术,电视,电脑,互联网,智能手机都指向同样的结局:被惊叹,被接纳,被依赖,直到如同呼吸一般理所当然。

但这一套逻辑,放在AI身上却行不通了。

它在极短的时间里渗透进我们的生活,可始终没赢得我们的信任。

美国公众对AI重要性的判断。多数人将AI视为与智能手机相当的重要技术,而非蒸汽机、电力等「文明级」基础设施。

AI在人们的认知里,既不像互联网,也不像智能手机,反倒像一种新型的社交媒体——高效,粘人,以及......威胁。

美国公众对不同技术整体社会影响的净评价对比。AI的整体好感度明显低于互联网与智能手机,更接近社交媒体

人们从对技术的狂热中抽身,第一次认真地审视这位「新朋友」:我们真的要把未来,全盘托付给AI吗?

先用,再理解:AI正在变成新的「黑盒中介」

很多人都用AI,但真正懂它的人,远比想象的少。

这并不是某些科技公司的年度总结,而是来自Searchlight Institute的一份全国性民调。

比起模型性能,调查者更关心一些实际的问题:当AI真正进入生活,人们如何看待它?为什么感到不安?

调查结果很扎心:接近一半的受访者认为,像ChatGPT这样的工具只是在「翻数据库」,或者是照着某种预设的脚本回答。

工具与公司之间的认知断开。ChatGPT家喻户晓,但仍有四成以上的人从未听说过OpenAI;像Anthropic这种处于核心技术圈的公司,八成以上的人完全没听过。

美国公众对主要科技公司的认知对比。与Google、Amazon等传统科技公司相比,AI公司仍处在大规模「认知空白」中。

先使用,再理解,这是一种十分危险的「逻辑倒置」。

当我们把查证、筛选、总结这些环节交给AI,却并不清楚它如何运作、依据什么做判断、又在受谁影响时,权力的天平已经悄悄倾斜。

报告中有一个细节:AI正在成为一种新的「信息中介」。

越来越多的人不再直接触碰原始信息,而是习惯于先看一眼由模型生成的摘要、排序和解释。

这意味着,无论是公共议题还是健康资讯,在我们看到之前,其实已经被AI 「加工」过了。

当这种过滤成为一种潜移默化的习惯,问题就不仅是信息来源准不准确,而是——我们看到的,是真实的世界,还是AI编造出的世界?

同一项技术,不同的生存直觉

在调查中,白领群体对AI的接纳度更高。

他们熟练地将其接入写作、整理与分析的流程。对他们而言,AI是生产力的加速器,是效率的延伸。

但在服务业与体力劳动者的视野里,看法完全相反。超过一半的服务业从业者认为,AI终将取代他们当下的生计。

他们从不纠结模型的好坏,也不关心版本的更迭,他们只在意——这个系统,是在帮我,还是在瞄准我。

这恰恰是这份调查最残酷的地方。AI制造的分裂,从来不是会不会用,而是身处不同位置时的生存直觉。

对白领来说,AI替他们承担着琐碎且低风险的杂务;但对服务业者而言,AI会侵占那些标准化的、可复制的、容易被数据衡量的劳动。

美国AI用户的主要使用场景。当前AI更多被用于信息获取、文本处理等认知型任务,而非直接介入现实生产劳动。

同一项技术,一边看到的是效率提升,一边看到的却是失业倒计时。

美国公众对AI与工作的关系判断。

这种担忧,并不只存在于某个行业。大多数的美国人相信AI会取代工作,而不是补充工作。

这种恐惧也并非平均分布。在调查中,医生、电工、维修工人对「被取代」的担忧明显更低。

因为他们深知,真实的物理世界充满了模糊的情境与未知的现场,这是目前的算法难以踏足的禁区。

在那些关乎生死的瞬间,人类无法将「道德责任」转嫁给一段代码。

AI可以处理海量的数据,却无法做出「该不该」的抉择;它能给出精准的建议,却无法为最终的后果负责。

在这条无形的裂缝之上,AI不仅是进步的象征,它更像一面照妖镜,冷冷地照出了职业与阶层之间,那份本就不对等的风险承担。

2025的转向:速度,不再是最高价值

在「该怎么办」这件事上,人们的态度出奇地一致。

超过三分之二的受访者认为,政府目前对AI的监管实在太少了。

Scroll for more