人类组织管理的本质、发展历程和未来
参考whynotTV播客中翁嘉翌提到的人类组织管理方式,拓展以下
一、 人类组织管理的本质:上下文(Context)共享与一致性(Consistency)
翁嘉翌将组织管理与代码库管理进行了深度的类比,认为管理的本质在于信息处理与系统协同:
- 核心在于“一致性(Consistency)”:管理公司和管理代码库非常类似,如果没有一致性,公司就像一个“拼装的人类”,身子动了但是脚没动,力气无法往一处使。
- 信息流的无损传达:一个利于硬核创新的高效组织架构,必须做到信息流通的通畅。即高层的决策能够无损传达到基层,而基层开发的最前沿进展也能无损传达到高层。这就要求一号位、二号位(如Sam Altman和Greg Brockman)必须愿意钻研到细节中,了解公司的每一个毛细血管,保持对技术的敏感性。
- 系统的“造血”机制与去中心化:一个健康的组织,其标志是所有人都是可以替代的。组织必须具备持续培养新人、持续造血的能力,像干细胞一样维持系统的正常运转,哪怕流失了大量核心人才也能继续前进。
二、 组织的发展历程:从高能效的“单线程”到受限于人脑的“臃肿系统”
随着规模的扩大,人类组织不可避免地会遭遇物理和认知上的双重瓶颈:
- 初创期(高迭代速度与高人才密度):在公司规模较小(如翁嘉翌刚加入OpenAI时的280人,或小规模的初创公司)时,代码库小、沟通成本极低。此时组织可以聚焦于单一目标,维持极高的人才密度,自发涌现出意想不到的创新,单位时间内的迭代速度远高于大公司。
- 扩张期(Context共享的物理瓶颈):当公司扩张(如OpenAI膨胀至3000多人)并需要同时处理多个业务场景时,速度必然变慢。这并非单纯因为人才密度下降,而是因为“人类大脑的Context(上下文窗口)是有限的”。
- 臃肿的必然性:因为没有人能一下子在脑海中装下整个组织或代码库的全部Context,导致Context sharing(上下文共享)出现不一致。为了防止出错,人们开始写防御性代码或增加管理层级,这必然导致基础设施(Infra)和组织架构的双重臃肿。这是人类组织发展到一定规模后无法避免的宿命。
三、 组织管理的未来:拥有无限Context的AI Agent出任CEO
面对人类认知极限带来的组织臃肿,翁嘉翌基于当前的AI发展趋势,给出了极具颠覆性的未来预测:
- 无限Context的AI接管决策:为了彻底解决人类大脑上下文短、无法维持大型组织一致性的问题,未来每个公司可能会出现一个拥有无限Context的AI Agent来当CEO。这个AI将掌握所有的信息共享(Sharing)和决策(Decision),由于它能无损且全局地处理所有Context,它可能是最完美的决策者。
- 执行层(研发与工程)的率先被取代:在未来的组织中,AI会优先取代那些只需要“快速试错和验证Idea”的岗位,例如研究员(Researcher)和基础设施工程师(Infra Engineer)。人类只需要廉价地生成Idea,剩下的代码编写和迭代完全可以由AI自动化完成。
- 人类价值向“身份认同(Identity)”与“情感连接”转移:尽管AI能在逻辑和信息处理上超越人类,但某些岗位短期内无法被替代。例如销售(Sales),因为销售需要说服人类买单,人与人之间的情感沟通和信任是AI难以完全模拟的。同样,像Sam Altman这样的组织领袖,其核心价值不再是纯粹的技术能力,而是他作为一个**“身份标识(Identity)”**所带来的商业认知、地缘政治协调以及融资说服力,这种人类社会的认同感一旦缺失,组织将面临分崩离析。
总结:人类组织管理的过去和现在都是在与“有限的信息处理能力”作斗争。未来,随着AGI的到来,机器将接管保证组织“一致性”的硬核管理与执行工作,而人类在组织中的核心价值将退守至提供“初始目标(Idea)”以及维持“社会化信任与情感连接”。
播客内容总结
1. 早期成长与清华经历:打破信息差与寻找自我评价体系
- 提前投资未来:翁嘉翌从小在数学上展现出天赋,初中便学完高中数学,他将这种超前学习视为“投资未来”。因为升学压力,他参与了信息学奥赛(OI)并保送清华。
- 打破信息差:在清华本科期间,他将自己所有的作业和资料开源到GitHub上。他认为信息差在大学竞争中常常导致“疲于奔命”,他希望推动信息平权,让学弟学妹不用重蹈覆辙。
- 重塑评价体系:他极度反感仅以GPA作为核心的评价标准,认为GPA是“三年后完全不重要的东西”,够用即可。他更认同非官方的评价体系,如GitHub的Star数、比赛成绩以及论文,追求对他人产生真实的影响力(Impact),让更多人记住自己的名字。
2. 从科研到开源:天授(Tianshou)与签证系统的诞生
- 转向Infra(基础设施):大二时他偶然进入朱军老师实验室接触强化学习(RL),但他极其讨厌当时RL研究中靠玄学调参和面对单一环境(如游戏)过拟合的过程。
- 开发天授框架:因为觉得已有的RL库(如RLlib)代码臃肿、抽象复杂,他仅用两周时间从头手撸了第一版强化学习框架“天授”,获得了社区的极大欢迎。
- 代码慈善家:在疫情期间,他还开发了免费的退学(tuixue.online)签证查询系统。他将写代码做工具视为一种“慈善”,从中获得了巨大的正反馈和满足感。
3. OpenAI的工作经历与技术洞察
- 放弃学术界,直奔工业界:他认为如果目标是工业界,读PhD是浪费生命,依靠Master加上优秀的开源Infra经历足以形成差异化竞争。他最终拒绝了幻方(DeepSeek前身)、Google等Offer,因为看中OpenAI的高人才密度而加入。
- 核心贡献(RL Post-training Infra):他是OpenAI多代模型(GPT-3.5至GPT-5)背后强化学习后训练(RLHF)基础设施的最核心贡献者。有趣的是,GPT-4的RLHF跑通其实比GPT-3.5还要早。
- Infra决定上限:他提出了一个核心观点:“教一个Researcher做好工程,远比教一个Engineer做好Research难”。在当前的大模型时代,Idea是非常廉价的,真正的瓶颈在于Infra的吞吐量、正确性以及单位时间内的迭代速度。谁修的Bug多、迭代快,谁的模型就越好。
4. 宏观思考:组织架构、AGI与宿命论
- 组织的“上下文(Context)”瓶颈:随着公司变大(OpenAI从他加入时的280人膨胀到3000多人),沟通成本增加,代码库和组织都会变得臃肿。他认为这是人类“上下文”处理能力有限导致的,未来可能需要无限Context的AI Agent来做CEO。
- 大公司开源的博弈论:他认为闭源是OpenAI为了生存和持续融资以实现AGI的一种博弈论妥协。
- 宿命论与未来:在哲学层面,他坚信世界是确定性的(宿命论),认为一切早在宇宙大爆炸时就已注定,甚至怀疑时间线是可以跳跃的(未来的自己影响现在的自己)。目前面对AGI的必然到来,他正处于人生的迷茫期,试图寻找下一个真正想做的事。
人类组织管理的本质、发展历程和未来
https://tolsz.site/2026/02/25/Tech/人类组织管理的本质、发展历程和未来/