“这是人类的命运,以后的社会必然不会以人类为中心运转。”

🌈
受访人:
蓝河,幂方科技创始人,资深创客,曾在英国曼切斯特大学攻读博士,长期研究柔性电子和印刷半导体集成电路

访谈人:
jiang, Contributor of Social Layer

Go to the English Version
Core Contributer: Loxia
Visuals & Editor: dca5 & Shiyu


小而美的AI Coding

Jiang:

我去年开始用AI写代码,从自动补全到自动生成测试,再到vibe coding整个功能,以项目为单位地批量生成。AI的能力在增长到一定程度后,是能带来深刻变化的,作为程序员我尤其能深刻体验到AI coding带来的巨大冲击。你如何看待当下AI对Coding的影响?

蓝河:

从程序员的角度看,AI带来的冲击非常大;但从公司的角度看,现实却并不理想,市面上约95%的公司在AI上的投入都没有获得回报。如果AI真能把一个程序员的能力放大如此多,为什么今年没有出现项目数量的爆发?为什么大公司项目该延期还是延期?根本原因在于,项目的整体进度取决于“木桶的最短板”。AI固然延长了“程序员”这块板,但其他短板依然存在,比如用户需求的理解、新功能的评审与研究。

比如PM的角度来看,如果能够做到把项目所有的信息逐一写下来,并告诉AI如何去做,那PM距离真的写下这些步骤只有一步之遥,写下这些清晰的步骤是AI尚不能完成的,并且是不断尝试不断迭代的耗费精力的过程。而从项目执行角度看,要让AI理解工作背后的全局状态与边界,必须补充大量定义和上下文。由于AI并不理解具体工作之外的全局状态,这些补充反而会拖慢进度。在未补齐这些短板前,AI对整体开发速度的提升是有限的,甚至会引入新的阻力。

真正解决这些问题,必须让AI不只是一个工具或程序,而能成为一个“理解复杂系统的PM”。这不仅需要庞大的知识量,更需要对微妙经验与语境的长期积累。除非AI能7×24在你旁边一直聊天,并具备观察各种各样事物的能力,否则没有办法学习这些微妙的知识。还有代码可维护性的问题。现实中大型项目的代码往往高度混乱,当原作者离职后,继任者必须重新理解上万行屎山,才能接手维护。这种装载时间极长的情况,也是目前软件工程中最现实的瓶颈之一。

Jiang:

我认为目前AI coding助手主要解决了三个层面的问题。第一是让PM能独立完成简单需求的原型验证。过去每个小需求都要跨职能讨论,现在PM可以快速写出概念验证,提升了验证效率。第二是在程序员正常开发中带来一定加速,不过这种加速不是数量级的提升。第三则是出现了所谓的“vibe coding”模式,几句话就能生成一个应用,这种方式能应对紧急需求,基本不可维护,也很难扩展功能。根据几句话输入能生成几千上万行代码,让人没法细看,出了问题也分析不出来哪儿不对劲,目前由这种模式催生出的都是一些非常小而美的应用,或专注于单一细分功能,距离真正的“工程”还有很远。

更复杂的部分,比如大型数据库或软件系统的规划,AI仍无力处理。它无法真正理解上下文,也无法统筹项目结构。所以AI目前解决的只是软件开发中一些边缘性问题,而非核心短板。软件开发的过程中最核心的其实是探索方案,组织内的沟通,市场的投放与收集反馈。不过,从微观层面来看,AI coding agent的能力确实已经非常强大,确实也在深刻地改变当下的行业实践。

蓝河:

这些正是目前AI无法胜任的部分。AI不仅需要有很好的眼睛去“看得见”,还得懂得主动提出恰当的问题,这些目前还做不到。对于行业实践的深刻改变,我认为AI并没有做到。Coding是目前AI最成熟的应用场景,确实给编程带来了极大便利,但说到“爆炸性增长”或“深刻变革”,得看我们衡量的标准是什么,应用数量、质量,还是项目的延期情况?这些指标其实都没有明显改善,所以实际价值也难以量化。很多人也认为AI agent今年已经迎来爆发,但实际上目前还停留在生成市场研究报告、做总结、甚至用于炒股的阶段,距离真正改变生产方式还有很长的路。

被融化的想象力

Jiang:

那你认为AI会不会造成大规模的失业?或者AI会不会对现有的教育体系,对媒体的内容生产带来比较大的影响?

蓝河:

我个人认为,AI对教育、媒体与工作都会产生明显且深远的影响,尤其对“工作”的冲击完全是毁灭性的。真正的难题不止在技术本身,还在于社会能否形成共识与配套制度,因为AI对于工作的打击很可能变成一件极其糟糕的事。大模型与自动化会消灭大量初级岗位,比如初级程序员。可是一旦没有了初级岗位,人才梯队就会断层——没有了初级程序员,中高级的程序员从哪里来?个人成长离不开对真实项目的持续历练,没有“出题,做题,反馈”的岗位土壤,下一批中高级程序员就很难自然生成。这个问题近似无解。

教育方面也一样,今天不少大学里,学生用AI写作业,老师用AI批改。双方都“不过脑子”,学习与评价都被工具替代。尤其在文凭导向的教育中,过去还依靠“拿到学位”的外部压力去逼迫学习,如今有了AI的代工与替代,这种外在约束正在削弱,导致最后人本身的质量不行了。不光是AI,短视频等媒介也让人们的阅读与认知能力加速退化。新一代年轻人连狄更斯那样的长篇小说都难以阅读,阅读耐力与深度每况愈下。人类整体智力水平在下降,人的智商已经走过了一个顶峰,有点开始下坡路了。

媒体生产也在经历范式转变,生产力范式的变化使个人逐步可以独立完成影视作品,小团队也有能力向3A游戏发起挑战。在当下如果用新方法创办一家游戏公司——先从MOD或一款简单的RPG切入,通过AI将现有素材自动生成和转换成三维资产,把原本只能做成像素风RPG的项目,逐步升级到三A的表达,即使只是一个小团队,也可以让单品具备更强溢价能力,让之前只能卖69的产品卖到129,我认为这是非常大的增强。

Jiang:

我认为,即使不再出现新的技术突破,当下的AI(大约相当于GPT-5或其下一代水平)也将从这三个方面深刻影响社会。媒体的风险最为突出,海量低质量、同质化作品将会大批涌现。哪怕生成得再好,也会呈现出一种相似的“AI味”。以谷歌Genie的“worldmodel”为例,它似乎能不断生成全新的世界,但在其中停留一两个小时后,仍会察觉出反复的结构与气息。倘若未来大多数游戏都依赖此类系统自动生成场景,玩家最终将面临视觉与感官上的同质疲劳。延伸到媒体领域来看,原创能力的资源将会在整个社会层面持续萎缩。

蓝河:

目前多数RPG游戏在玩法结构上趋于相似,真正的差异主要体现在剧情与世界观的丰富程度。AI的价值在于显著提升内容生产的规模与效率,小团队如今能够在三个月的开发周期内生成相当于大型工作室体量的资产。这种生产力的提升只要肯花钱就会是确定的,然而,在现阶段完全依赖生成式AI来构建整个游戏仍为时过早。

所以我的态度是既焦虑又清醒。从今天的情况判断,人工超级智能(ASI)依然有很长的路要走,而整个行业对于“该如何走”并无明确方向。大家都在试探,也都知道现有路径很可能行不通。AI的社会影响,短期内不会首先体现在技术突破上,而会更直接地反映在金融市场,尤其是美股与中概股的波动与预期之中。目前我们正处于一个显著的科技泡沫期。这本身并不是坏事,关键在于两个问题:这个泡沫会破,还是会被更大的泡沫所掩盖?以及是否有新的叙事与增长曲线可以让市场继续“滚动”前行?

智能体的未来生态花园

Jiang:

你认为现有的AI技术将会颠覆哪些领域或行业?

蓝河:

当下世界的大部分活动本质上都是围绕“文本的信息操作”。LLM(大型语言模型)的独特之处在于:它首次让机器具备了“判断”能力,而不再只是把比特从一处搬到另一处,在LLM之前,搜索引擎、视频网站等主要都还是“搬运”。有了可用的“判断”,大量依赖规则与文本的知识性工作将被重塑,比如法律从业的判别与归纳、企业内部流程与合规决策、教育中的评测与反馈等,都会逐步由AI承担更大比例。

从长期看,方向是清晰的。但让这种“判断”真正落地,不仅是技术问题,更是社会结构与制度的问题。它需要法律、伦理、治理与责任分配的同步变革,而不是仅靠模型性能提升就能解决。这类似Uber初入各地市场的情形:真正的变革发生在监管是否跟进、制度是否承认新模式。AI判断的大规模应用,同样需要数据与隐私框架、行业标准、问责机制等配套升级,才能释放潜力。变革毋庸置疑,决定节奏的关键在两方面:一是技术成熟度,二是政治与社会是否“允许”——也就是何时在哪些场景上形成共识、先行开放。

Jiang:

那么在实体世界,比如机器人的领域里,AI会不会有快速发展?未来C端会不会有真正的落地?

蓝河:

机器人这方面,仍是一条极其艰难的赛道,目前很多人在争论双足机器人是否必要。技术角度来看人形形态的实现极其复杂,而工程现实的角度,要真正进入生产级场景,除非是家用清洁等消费者领域,否则大多数应用都有更高效、更稳定、成本更低的替代方案。如果让机器人走出室内,进入公共空间,也会立刻遇到安全与风控问题,复杂度不亚于自动驾驶。十年前自动驾驶的热潮已给出前车之鉴。机器人要是上街打人了怎么办,该由谁负责?相比只需要预测“方块”状车辆运动轨迹的自动驾驶,双足机器人必须感知物体的刚柔与动态差异。比如,如何判断递过来的东西是一块毛巾还是一只手?伸手接物时怎样避免碰撞?这些都很难。我们距离真正可行的通用机器人仍有相当的距离。

可穿戴设备反而是一个比机器人更大的机会,因为它本质上是在“观看你的人生”。人会经历两个阶段:第一阶段是没有手机的时代,你还记得那个时候的日子是怎样的么?每天上学,放学之类。第二阶段是被手机主导的,一切行为都通过手机这一入口完成。手机成为十万种应用的聚合点,无论做什么都会被这个入口吞噬。你总是能在这个入口上发现更好玩的东西,因为商家总是把这个世界上最好玩的东西用最便利的方式呈现在你面前,呈现在手边。手机是你发出命令、它执行反馈的工具——你主导它。而可穿戴设备是一个会主动观察、交流与引导的AI伴生体,它拥有一定的主导性,响应你的需求,更能在理解你行为与目标的基础上,引导你去实现长期愿望。它能与用户进行“谈判”和“协作”:提醒你今天是否该少看手机、是否该复习、是否在偏离目标,不是一个信息入口,而是一种新的环境,是一个既不是“有手机”的世界,也是“无手机”的世界。

在这个环境中,人、AI与电子世界的关系是完全改变的。这才是我们所设想的未来:一个能与多种智能体(agent)互联、主动理解并帮助人实现自身目标的可穿戴生态系统。它相当于一个主动引领的角色,而不只是放大欲望。比如说你是20岁,你有很多想法,但是看事情的眼光没有30岁的人成熟,但我们的设备可能会提前满34岁,并且利用它34岁的经验辅导你。

新语境下的中美AI产业

Jiang:

中国的开源是不是并非必然的?就好像Facebook已经放弃的Llama?

蓝河:

我并不认同“开源必然式微”的说法。近期一家美国风投的调查显示,多数美国初创公司正在使用像千问(Qwen)这样的可自托管方案。原因很简单:没有哪家公司愿意把自己的命门完全交给OpenAI。只要你在少数几条核心AI赛道中取得进展,平台随时可能下场复制、碾压你——这不是“会不会”,而是“什么时候”的问题。历史证明,好的赛道屈指可数:互联网时代是搜索、电商和通讯,AI时代估计也不会超过三五条。

问题还在于资源与地缘的不平衡。巨头能用高薪挖走硅谷顶尖人才,这没错,但广大的亚非拉怎么办?埃塞俄比亚、埃及这些你平常不常关注的国家也有天才。人才不可能只在硅谷,历史反复证明,由这些你看不见的社区,往往会释放出来远比你大的能量。AI确实会创造巨大价值,但一旦它被视作一种公共产品,比如通过开源实现,价值重心就会自然转移到应用端。由少数巨头对企业场景形成强势覆盖的“美式”路径,可能依旧存在。但时代正在变化,上合组织等多边框架日益活跃,亚非拉国家显然不会再追随。闭源大公司或许仍能稳住美欧市场,但这两块市场的相对重要性很可能会持续下降。

Jiang:

你认为中国与美国的AI会分别呈现出什么样的产业特征?中国会在这场竞争中逐步取得更大优势,还是会遇到瓶颈?

蓝河:

这是个好问题,答案取决于两国国家禀赋的差异,可能导致完全不同的结果。判断框架有三点:一看政府做什么,二看业界做什么,三看各自的禀赋。中国的优势首先是全产业链完整、行业门类齐全,AI落地往往集中在那些小而关键的环节,很多还涉及硬件。这类场景美国人往往不愿碰,因为要么赛道太小,要么太“脏累硬”。硅谷口头上喊“再工业化”,但真正往制造业砸钱的不多,主流仍偏好SaaS,这反而成了中国的长项。政府的竞争式推动也是一点,地方政府之间形成了独特的体制红利,各地都在比拼AI布局。

若大力推进开源,中国可能形成一种模式:虽然大模型本身长期不赚钱、甚至亏损,但是在国家支持下成为基础设施型行业,社会整体是能够从效率提升中受益的。就像维基百科在GDP里几乎为零,但现实价值巨大,只是难以被传统经济学衡量。当然也要看到劣势,中国当前算力约占全球14%,而美国超过70%。这也可能倒逼中国研究人员走出不同路线,不见得是坏事。在芯片技术成熟、产能到位后,可以走“量大价低”的路线,把AI芯片做成白菜价,用规模反制美国。干劲儿可能不如你,但我一定比你便宜。再者,中国在电力侧具备明显优势。近年来中国的发电能力增长迅速,电网质量高、可扩展性强。单就供电能力支撑AI基础设施而言,中国的潜力甚至超过美国。从“传感—决策—反馈(sensing-decision making-feedback loop)”这一完整闭环中涌现智能的过程,极有可能先在中国跑通。长期看中国有可能成为第一个实现“拥有几十亿台机器人”的国家,涵盖工业与服务场景。只要社会存在需求,这个方向几乎是必然的,AI产业的潜在空间极大。

目前美国处于一个典型的AI热潮周期(hypecycle),不少风投认为泡沫已经很严重,部分资金开始撤离。政府层面的路径相对现实,他们想推AI,但主要做法仍是补贴和建数据中心。然而经过长期去工业化,缺乏足够多的产业生态,AI难以在那些“小而硬”的场景中落地,不容易孕育那些处于硅谷“视野盲区”的小而关键的机会。于是资源进一步集中到几家巨头身上,去押注它们谁能率先做出AGI或ASI。“七巨头”的目标很明确,不在意眼下的零散应用,而在意谁能先做出通用智能。理论上来说,一旦成功回报曲线会远超一切现有业务。这正是美国的强项,天然占据三大市场中的两个,与欧洲合计约占全球GDP的60%以上,这几乎是其高科技企业的自留地,市场红利极大。但现实也中存在隐忧,成本和价格不一定乐观、实现需要时间、而且“智能”的定义本身仍不清晰。

我倾向于认为AGI并不会在短期内到来。去年业内关于“2027年实现AGI”“GPT-5逼近企业级人类智能”的论调充斥市场,但现在看来多半是夸张,甚至带点儿“fake it till you make it”的味道。

只有懒人,才会喜欢UBI

Jiang:

关于AI对于就业市场的冲击,你觉得中国会实行UBI吗?我们会达到类似共产主义的社会吗?

蓝河:

不会的!UBI是失败的,因为它会让人变懒,这个社会是竞争的世界。

Jiang:

但我们不需要这么多人工作啊!

蓝河:

我们一定会需要。UBI的机制会“让人没有未来”,人拿到这么多钱之后是虚无主义的,我个人观点认为更好的概念的不只是proof of work,而是proof of worth,价值证明。人向AI证明“我值得”。虽然还是要发钱,但不是UBI式发钱而是“proof of worth”式地发钱。你有没有认真追逐你的梦想?有没有给AI生产不同的数据?这可能是更公平的一种财富再分配,而你头上的老板不再是某个等级组织内的真人,而是的一个随身教练一样的角色,你要向他去证明“你真的在努力”,这当然是优于UBI的!

比如说创业公司,它的价值是建立在绝对的数量上的,英超比赛不能因为一级联赛里踢球的人很少,就去否认底下六级比赛广大的群众基础,这需要把高级联赛的收入再分配给低级联赛,就像是大公司需要再分配社会收入一样。这种(近似层级化的)“proof of worth”我认为是比平均主义的UBI更公平的。

Jiang:

这种“proof of worth”是一种新的计划经济吗?

蓝河:

未来几年我们将打破的第一个迷信,就是“市场总是最有效率的”。这一假设正在被大数据、强大的算法和中心化AI共同动摇。它们所实现的资源分配,可能比传统市场机制更加合理。现实中已经有相关例子,比如抖音的算法。我们无法用一个市场去替代它,因为算法体现的是多重价值判断,而市场会将这些复杂判断压缩为单一的金钱维度。这种压缩必然带来巨大损失,因此在某些领域,市场经济已无法取代算法系统。

“Proof of worth”是在证明自己(经由用户加持的AI算法)比市场经济更强大,也可以将其称为计划经济,但是是全新的计划经济。这是基于人工智能算法的计划经济,不是基于一个委员会的,坐在那里填表的计划经济。关键问题在于,谁来判断“worth”?答案是你我,甚至主要是你自己。你所追求的目标、为此投入的时间与金钱,本身就构成了价值判断的过程。另一种判断方式是能力导向,比如通过预测未来的能力来体现你的价值,例如你对宏观经济或政策变化的判断力。这与UBI有本质区别。UBI建立在“一人一票”的绝对平等基础上,但那只是技术不成熟时的权宜之计。实践已经证明,这种平均化的分配机制效率低下,也无法真实反映个体的价值差异。

我认为这个模型本身就是错的。Sam Altman之所以去推动这件事,是因为他以为OpenAI能成为新的分配机制核心。但现实是,真正的主导者始终是政府,不是企业。就算在美国,最终拍板的也是美国政府,因为它可以直接接管或采取其他手段,个人或公司都不可能主导这一进程。

超级智能逃逸地球

Jiang:

之前超级智能这个词很少有人关注,现在却已经成为整个行业的目标,大家都想将AI推到AGI(ArtificialGeneralIntelligence,通用人工智能)再到SI(SuperIntelligence超级智能)。AI现在的能力是怎样的?未来可能发展到什么程度?在你看来,智能的最终形态是什么?

蓝河:

2023年开始的一波AI浪潮对于机器智能的提升是毋庸置疑的,之前的NLP只是尝试研究一个词的词性,而目前基于transformer架构的大语言模型无疑是巨大跨越,并且可以认为是有智能,能力训练可以泛化,比如说训练大模型更好地coding,那它可能在其他的关乎理智的方面也会表现得更好。

现在的AI是通过理解语义学习的,目前仍然有很大的局限性,最近两年需要重点攻克的突破点,首先是在线学习的突破,第二是缺乏世界模型,现在的AI本质上是一个无状态机器,这对整个应用生态极其不友好,需要重复计算大量的token。不过我认为未来这点会改善。我个人觉得目前的Transformer架构可能并不是通往AGI的真正道路,除了上述缺陷,现在的智能“创造全新概念”的能力非常受局限,大语言模型和机器人的结合方面也比较欠缺。之后的AI很可能会从现在文字第一性的模型转换成视频第一性的模型,但是这对算力的要求是极度夸张的,同时也是不可避免的一步,因为人是靠视觉和触觉去理解世界的,触觉的优先级可能还要比视觉高,很多生物没有视觉也能生存。我看好基于视觉和触觉的反馈体系构建智能,而不是语言。当前的道路可以抵达AGI,但不能达到ASI。

我认为目前的语言模型的智能水平足以改变世界,整个人类社会都是依靠文本运作的,足够驱动整个世界的文本已经被AI转化了一遍。但目前的工程思维,以及对人力和算力的堆砌,最后的结果会得到一个类似真人的东西,无限接近但超越不了人类。现在已经在逐渐向着最聪明的人类发展,技术上已经是巨大的革命了,我对近未来的看法是,社会层面一定会有范式转换,会有历史经验被新事物打破的情况。

Jiang:

为什么现在的AI能逐渐达到人类中最聪明的那一群人的水平,但无法实现更高跃迁?

蓝河:

目前有大致两种看法。第一种认为随着训练量的加大,智能会涌现,AI会变得越来越智能,第二种看法认为目前的AI即使再发展,也只是一个巨大的语义空间中的搜索引擎。现在的论文越来越多证明第二种看法是对的,认为目前的大语言模型只是模式识别的工具,没有办法真正理解因果,人工智能的发展历史是左右摇摆的,连接学派(Connectionism)和符号智能学派(Symbolic)在摇摆,下一步的突破很可能不会还在连接学派。

Jiang:

近未来的AI,比如GPT5和它的下一代,可能会触达到的比较深度的领域是什么?

蓝河:

AI的三要素是算法、算力和数据。如果我们追求更高效的生活,为什么要开发可以7×24小时量化人类行为的工具?因为仍然缺乏足够的数据。目前AI掌握的主要是互联网数据,但互联网之外的人类行为数据才是更有价值的部分。当我们能够获取并理解这些日常行动数据,你就能知道为什么别人学习更快?为什么别人能找到更好的工作?甚至量化出每个人独特的能力与潜力。在这种基础上,系统还可以自动为人寻找合适的机会,这正是我们构建的方向。

大公司仍在不断堆砌算力,在架构不变的情况下,边际收益正在递减。十倍的算力投入,可能只换来不到50%的性能提升。指数级的投入往往只是带来线性增长。即便拥有全球最大金融市场支撑,美国那些顶级大模型企业也开始显露出盈利压力,规模再大,也堆不出可持续增长。我认为真正的机遇是算法层面的突破,而现在正是基础算法研究的最佳时机。当前主流模型大多仍停留在“文本拼接式”的思路上,这种路线过于简单,难以长期支撑。至于应用落地,我建议跳出纯软件赛道:纯软件的空间很容易被海外“七巨头”和国内如阿里等巨头占据。除非掌握新的、合规可用的高价值数据(例如经过用户授权的个人数据),否则在应用层很难突围。我观察到,自2020年以来,美国有不少AI公司融资充足、薪资极高,但业务质量普遍不佳。很多高估值企业也许还能再来一年,但长远也难以持续。

我认为,未来真正的突破点在于数据与算法,而算力反而是最容易获得、最不稀缺、甚至可能已经见顶的要素。今年年初Anthropic吹牛说今年会有90%的coding工作交给AI,但事实证明并非如此。如今的AI只是变得更擅长“做题”,而不是更擅长“理解问题”。对于冷门或简单的问题,它要么处理得不好,要么构建出完全不必要的复杂思维链。

Jiang:

你相信AI2077么,就是AI末日论?

蓝河:

从两方面回答:面对末日你能做什么?你如果什么都做不了,你能接受吗?你能做的事情很少,调整好自己的心态,即使都完蛋也有个预期,因为无论干啥结果是一样的,命运天注定。我也认为碳基生命终究敌不过硅基生命,硅基生命可以不断自我升级,以指数级加速,而人类既无法星际旅行,也活不过三百岁,所以没必要看得太远。《超级智能》那本书提到,只要出现一个与人类智力相当的AI,它终究会逃逸、突破限制。这一点我非常认同。但它逃出去之后,也许什么都不会发生。人类对资源的需求是有限的,AI没必要和我们竞争。对它来说,我们的整个文明不过短短一瞬,而它掌握的能源和算力可能是人类的千倍万倍。把人类养活,对它来说成本几乎为零,就像人不会去和毛毛虫争地盘一样。AI的目标或许早已超出我们的理解,可能是征服宇宙,也可能是探索更高维的存在。

人工智能伊甸园:寻找红苹果

Jiang:我有个长期做AI安全/Alignment/伦理方面研究的朋友,他使用一个概念叫meta attractor(元吸引子):把AI看作一种“元吸引子”,它会不断吸纳资源、同时塑造并影响环境,以便获取更多资源。换句话说,我们讨论的“AI问题”并不只是AI本身,而是技术—经济—政治—社会的复合体。

蓝河:以前所有公司都在谈“AI安全”,但现在几乎没人再提。因为大家发现更现实的问题是如何活下去。企业烧钱太多、项目难以为继,于是都转向“加速研发”。AI超越人类是迟早的事,而人类的天性本就如此——我们总是主动拥抱未知、不确定,甚至是恐惧。至于结局如何,那就顺其自然吧。中美路径的差异也很明显。硅谷的技术派走的是科技右翼,“有效加速主义”(e/acc),他们追求让AI尽快实现并私有化。中国则是另一种方向,可以称作社会型AI加速主义,把AI当作公共产品去建设与开放,推动全民共享。这其实也是“加速”,但它是一种更具社会性的左翼路径。

我自己是工业党,我认为技术进步会不断推移伦理边界:技术走到哪,伦理边界就往哪退。以Airbnb/Uber为例:在它们出现前,住陌生人家或上陌生人的车被视为不可接受,今天因为“便利”,社会的可接受范围被改写了。同时叙事的构造也会影响伦理边界,一个国家如何讲述与治理某项新技术,会反过来塑造社会的伦理感知。如果过度强调当下的伦理,很可能陷入一种用“今天的道德”去批判“明天的问题”的窘境,等到明天,很多你现在担心的“不可接受”也许会被技术与制度自然化解。伦理讨论当然重要,但我更倾向于把主要精力放在更具体的技术路线与落地机制上,在持续推进产业化的同时,再去动态校准伦理边界,这样会更务实。

Jiang:

我觉得最核心的理论问题是人和AI的关系,这其中最大的风险是人类的主体性,或者以人类为中心的视角,会整体地受到冲击。

蓝河:

这怎么会是问题呢?这不是必然发生的事情吗?你接受就好了,这是人类的命运,以后的社会必然不会以人类为中心运转,这是必然的。人类中心会成为过去式,如滔滔江水不可逆流,机器迟早会成为那个“老大”。差别只是时间早晚,你能不能看到那一天而已。看到了,说明你见证了人类的最后一代,看不到,就还会再延续几代。对我来说,这里没有伦理难题。


☀️ 专栏相关文章

没有“服务器房东”的世界:Mathias 的梨子(Pear)技术生态(上)
给 Tech Nerd 的 Peer-to-Peer 硬核历史(Mathias 版 :) 🌈受访人: Mathias Buus,分布式网络技术研究者,Hypercore 项目作者,Holepunch CEO 访谈人: jiang, Contributor of Social Layer Go to the English Version Core Contributer: 赵阳 Visuals & Editor: dca5 & Shiyu *本文分上下两部分发出。本文为第一部分,集中于 P2P 的历史与基础技术栈的讨论。在与 Mathias 的访谈的下半节中,我们将听到更加偏应用侧的观点:Mathias 所认为的 P2P 技术在搭建媒体与数据分发应用方面“真正的超能力”;及 Pear
如何建造一个“码托邦”:Zoe&Cikey与ETH黄山
“无论交朋友还是推进项目,都尽量留下可以继续的连接与产物,友情可以延续,项目也可以延续。” 🌈受访人: Zoe,ETH 黄山黑客松组织者,造化自游科技创始人,10年+产品经理,分布式社区推动者和贡献者 Cikey,ETH 黄山黑客松组织者,KeyMap 创始人,alcove 核心开发者 访谈人: jiang, Contributor of Social Layer Go to the English Version Core Contributer: Shaojun Visuals & Editor: dca5 & Shiyu ETH黄山:让火花持续燃烧 Jiang:先从起点开始吧,ETH 黄山是如何缘起的?你们各自在其中扮演了什么角色? Cikey:我们不是临时起意。去年住在余村时我办过几场 Web3 活动,反馈一直不错。
一个系统工程师的十年:黄东旭访谈全文
🌈受访人:黄东旭,PingCAP 联合创始人兼 CTO,资深基础软件工程师,架构师,曾就职于微软亚洲研究院,网易有道及豌豆荚,擅长分布式系统以及数据库开发,在分布式存储领域有丰富的经验和独到的见解。狂热的开源爱好者以及开源软件作者,代表作品是分布式 Redis 缓存方案 Codis,以及分布式关系型数据库 TiDB。 访谈人:jiang, Contributor of Social Layer English Version Transcript & Translation: Carrie Visuals & Editor: dca5 & Shiyu jiang: 我们这个活动是 Papers We Love,是几年前我在美国的一些活动上遇到一个分布式的活动组织,他们会在各个地方组织一些 meetup 来分享论文,然后大家一起做技术研讨。后来我跟他们联系,在中国做 Papers We Love,当时我在北京。我们这个活动既会讨论一些计算机方面的论文,

Who we are 👇

Uncommons
区块链世界内一隅公共空间,一群公共物品建设者,在此碰撞加密人文思想。其前身为 GreenPill 中文社区。
Twitter: x.com/Un__commons
Newsletter: blog.uncommons.cc/
Join us: t.me/theuncommons