源码AGM回顾:高度比广度更重要

中国经济已与世界经济深度融合,下一个中国,亦在中国。在快速变化的科技与投资领域,源码资本一直以敏锐的市场洞察力和前瞻性战略引领行业发展。近期,我们成功举办了源码资本投资者大会,汇聚了来自全球的投资者、行业领袖和创新者,共同探讨和分享了对当前市场趋势和未来机遇的深刻见解。

我们的管理团队和投资团队在大会上分享了对AI、机器人等关键技术趋势的深入分析,以及这些趋势如何塑造未来的投资机会。

源码坚持投资于科技驱动的创新,投资于持久真实价值的创造。我们相信,通过我们的洞察和战略部署,源码资本将继续在投资领域保持领先地位,并借由投资富有潜力的初创企业,持续推动经济和社会进步。我们期待与所有投资者和合作伙伴一起,迎接新的挑战,抓住新兴技术带来的无限可能。源码资本将继续作为连接创业者、投资者和行业的桥梁,共同推动社会向更加智能、高效和创新的未来发展。

曹毅AGM演讲节选

高度比广度更重要

源码资本十周年,而我在风险投资领域也已经20年。如果要分享作为个人以及公司,在20年来最重要的价值观方面的思考,那么我会说:高度比广度更重要。

换句话说,我想强调商业模式的重要性。当20来岁的我成为一名风险投资人后,我的大部分时间都专注于公司从0到1的过程,大部分精力和才智都用于判断PMF(产品市场契合度),判断正确的产品能否拥有合适的市场。

PMF非常重要,这是创业公司的关键,赢得胜利或生存,拥有0到1的过程。但是,当你拥有最好的投资商业模式时,你可以享受从1到10、甚至从10到100的过程,而不仅仅是从0到1。

我们在过去已经积累了优秀的投资回报。但最重要的是未来,高度比广度更重要,我们将更加专注于投资最好的商业模式、最好的创始人。

过去,我们有一些经验教训,以为随着AUM的扩大,更多的人可以保证更好地投资。但是现在我们认为,如果有好的组织和人才,精简、有活力的团队反而能做出更好的成绩。

国内外环境都在发生深刻变化,以AI为代表的科技发展,将带来深刻而广泛的社会和经济变革,中国的AI正在迅速发展。中国的创业者也持续进化,他们更加以股东为导向、更有效地控制开支和成本。超过90%的新一代创业者拥有全球视野,从一开始就锚定全球市场——这正是中国风险资本的优势所在。

源码新十年,仍然年轻。我们将轻装上阵,守正创新;我们将保持耐心和好奇,永葆初心;我们将更老练,稳准狠,不废话,少走弯路,少做无用功。我们将谨慎前行,但无所畏惧,心向辽阔,探索不熄。

黄云刚AGM演讲节选

AI投资的AB面

我们认为,AI的机会分为两类,一类是AI原生,一类是AI赋能。

AI原生(A面):AI原生指的是AI在产品或服务中的贡献超过50%,即AI是产品或服务的核心部分。典型产品包括ChatGPT、Gemini、新必应(Bing)、Character.AI等,这些产品主要依赖AI技术来提供服务或创造价值。

AI赋能(B面):AI赋能指的是AI对实体产品或服务的贡献低于50%,即AI作为辅助工具或技术提升现有产品或服务。典型产品:包括AdobeFirefly、Oblender、BCopilot、CapCut等,这些产品结合了AI技术以增强功能或用户体验。

我们认为,从AI原生到AI赋能,从线上到线下,可以将目前的主要领域划分至四个象限。

线上(A1和B1):A1是面向消费者的应用,直接利用AI技术提供服务的产品,涉及如搜索引擎、内容平台等。B1是通过AI技术增强用户体验或服务效率的产品,如社交网络和电子商务。游戏处在它们中间。

线下(A2和B2):A2指高度依赖AI技术的产品,如自动驾驶汽车或先进的机器人系统,以及AI应用的药物研发。B2指将AI集成到现有产品中以提高性能或增加新功能的产品,如医疗器械、材料和物流等领域。

从投资机会来看:A面>B面,AItoC应用>AI+硬件>工业AI

我们在AI投资中更青睐能够直接利用AI技术创造新价值、提供创新服务或产品的企业,它们在AI技术的前沿领域具有颠覆性潜力。

同时,我们在评估投资机会时,也会特别关注那些能够快速响应市场需求、具有高度创新性和用户导向的AI应用,针对性地寻找和支持那些最有可能引领行业变革和实现商业成功的企业,从而构建一个多元化且具有高增长潜力的投资组合。

参考文章:独家|黄云刚和源码的新VC:回到经典打法

3D AIGC的 Sora 时刻,或在中国发生

从ChatGPT代表的文生文,到Midjourney代表的文生图,再到Sora代表的文生视频,Suno为代表的文生音乐,“暴力美学”在持续突破内容生产的天花板,多模态也成为了共识的发展趋势,下一个领域会是什么?在人类可视范围,可选的答案不多,更多人愿意押注在3D领域。

它代表了从元宇宙、XR设备、以及Apple Vision Pro 带来的持续期待,关于我们对内容消费体验的不断追求,关于人类自身未来生活的想象。

但3D赛道同时又似乎是目前尚未被巨头覆盖的领域,尚未有基石模型,一切尚在混沌,尚在迅疾发展,但也拉开一场争夺未来的赛马:是发布产品还是打磨技术?是不断迭代还是交付工业标准?是从图像开始还是3D原生?在这些问题的推动下,3D领域的技术在过去一年飞速迭代,甚至已经开始出清。

本文试图描述3D领域的技术发展路径,并通过不同玩家的产品和市场判断,尝试解答上述问题。

有意思的是,似乎当前在3D领域最有价值的工作,多数都是由华人完成的。有团队直白地告诉我们:图生3D的 Sora 时刻,会在中国发生。这真是令人兴奋的判断。

01

从谷歌DreamFusion 开始的升维路径:

从2D图像生成模拟3D模型

与图像和视频不同,人们在日常生活中单纯从视觉感知很少接触真正的3D信息。

因为人的双眼成像和立体视觉机制,导致人的大脑如此容易被骗,我们可以通过多种手段把2D信息做成3D感受,比如最近Sora 带来的视频,比如全景图片、球幕电影、3D电影、裸眼3D等多是如此。

而且,3D资产比2D复杂很多。2D的AIGC基本只有一种选择:生成像素。但是模型、贴图、骨骼、(关键帧)动画等都可以算作3D资产的一部分。而即使是最主流的3D资产——3D模型——其表示也分为网格(Mesh)、体素(Voxel)、点云、SDF、NeRF 等等。

一旦考虑到实际落地到渲染管线中,由于多年来产业发展的基础限制,基本上只有一种主流表示可以选择:Mesh。一个基本的Mesh大概如下图所示。由成百上千个或四方的,或三角形的面,共同构造出一个三维的物的各个角度。

图片来自Polygon mesh的维基百科

在非AI生成的情况下,这样的3D模型可以通过扫描生成,也可以由建模师手动生成。后期再进行对外部材质的贴图,呈现出一只可以用在游戏中的,或是蓝色卡通感的海豚,或是偏灰现实感的海豚。

虽然3D模型属于三维模型,但我们进行观察时,仍然可以从任意面将其视为一个二维图像——这也是最初人们在试图对3D模型进行AI生成时,所考虑的路线——这种路线被称为“2D升维派”。

2022年9月29日,Google发布了文生3D的技术DreamFusion,利用预训练的2D文本到图像扩散模型,首次在无需3D数据的情况下完成开放域的文本到3D的合成。

这中间,是借用了一个叫做NeRF的表达方式,全名为神经辐射场(Neural Radiance Field, NeRF)。

辐射场,是描述光如何从3D场景中的表面发射或散射的术语。而NeRF通过在模型训练过程中,分析模型输出和目标数据(如3D扫描结果)之间的辐射场残差,实现误差反馈,让模型可以迭代优化预测,从而提高生成精确3D表征的能力。

在Google的3D生成方法中,模型并没有见过3D数据,而是见了足够多的2D数据。

实际上,人眼其实也只能看见2D的图像,但是当人对一个物体的多个角度的2D图像进行观察之后,人就能够意识到某个物体,实际上的3D的状态。

图片来源:Mildenhall, Ben, et al. “Nerf: Representing scenes as neural radiance fields for view synthesis.” Communications of the ACM 65.1 (2021): 99-106.

从某个角度来讲,可以把NeRF理解为一个从2D升往3D表达的中间态。当一个人见过物体足够多的角度后,拿一坨粘土,就能捏出这个物体的3D拟合态,这个粘土就是NeRF。

在Google推出这个思路后,其后很久的3D生成,都走了类似路线,即从 2D预训练模型蒸馏出3D信息。

其中影响比较大的工作,包括英伟达在谷歌之后没多久推出的AI工具 Magic3D,虽然技术路线相似,但对其进行了进一步的改良,提升了其质量。

国际图形学年会(SIGGRAPH)2023年最佳论文提出了可替代NeRF的新的表达方式——3DGS(高斯喷射),渲染速度、生成质量等各方面都好于NeRF,并在3D重建方面价值提升明显,只是无法转成质量较好的mesh。而整个3D产业基于 mesh为基础单位发展至今,软硬件及引擎都只能编辑 mesh,由此形成了一定限制。

02

多头问题何解?

基于3D原生数据的大模型

从2D升维至3D,大模型跟人类一样,观察了足够多的平面,可以意识到它的3D状态。

在每一个角度看、即在每一个2D平面上,我们都能看到一个完整的物体切面,但是当这块粘土以此被捏成3D状态时,这种方法最大的问题便是——AI生成的3D对象有多个头或者多个面,多头问题也即雅努斯问题(Janus Problem)。

由于ProlificDreamer缺乏3D形状一致性而出现的雅努斯问题。左边是一只看似正常的蓝鸟的正面视图。右边是一幅令人困惑的图像,描绘了一只有双面的鸟。

为了能够实际应用到内容制作中,理想的3D生成模型应当满足以下要求:

(a)有能力生成具有几何细节和任意拓扑的形状。

(b)输出的应该是纹理网格,这是Blender和Maya等标准图形软件所使用的主要表达。

3D模型必须具备从不同角度看物体形状的一致性,才能避免每个正面侧面都正常,变成整体却不正常。

有没有可能,直接用3D原生数据训练3D大模型?

在OpenAI的Sora出现之前,人们普遍使用借用较为成熟的文生图像的方式,希望能用生成二维的图像的方式,再做一些升维的工作,完成视频的生成,也确实曾经取得一些成果。

而Sora的到来则几乎推翻了前人的所有工作——只要将足量的完整视频输入Transformer的架构中进行训练,大模型能够涌现的智能,要远超人类能够为它所做的修修补补。大模型自己学到了原训练数据中的许多内容,在生成视频的时长、多角度拍摄连贯性上,取得了巨大的提升。

正如Sora的技术革新所展示的,虽然图像生成是更为成熟的技术领域,人们习惯从图像生成出发去推导生成其他的形态,实际上,对于要生成的资产进行直接训练,能够让模型获得更大收益。

以Sora而言,直接对视频进行训练,大大提升了其视频内部的帧间一致性。基于图像生成的视频生成,因为训练时没有足够长的时序的信息约束,生成的视频很多时候会出现闪烁的问题,无法确保基础物理法则的一致性,视频长度也无法保证。而直接以视频作为单位进行训练,虽然需要消耗更大的计算资源,则能直接规避这个问题。

“3D原生派”直接在ShapeNet等3D数据集上进行训练,从训练到推理都基于3D数据。

NIPS在 2016 年提出3D-GAN ,即计算机视觉领域主导模型之一GAN的3D版本,以 voxel 为单位,生成3D模型。

3D GAN 的原理和生成效果

2022 年,英伟达发布GET3D架构:核心是通过可微分表面建模、可微分渲染以及2D生成对抗性网络,可以从2D图像集合中训练模型,直接生成具有复杂拓扑、丰富几何细节和高保真纹理的显式纹理3D网格。

GET3D生成模型(来源:GET3D论文官网https://nv-tlabs.github.io/GET3D/)

OpenAI在2023年5月,推出3D原生数据训练的文生3D模型Shap·E,但是效果距离3D领域追求的Production-Ready还有距离。

用3D原生数据训练大模型,问题显而易见:3D的数据集(ShapeNet 有 51 K 模型、Objaverse 有 800+K、商业模型网站 SketchFab 有 5M)和 2D的 LAION 的5B数量级的数据差了至少三个数量级,且因为3D数据天然的稀缺性、收集的难度,也难实现数据多样性。数据的限制让研究人员普遍认为很难在此基础上训练出足够好的大模型,在特定领域有效,但泛化性受限。

是否有办法增强模型泛化性?当前有团队的实践是,尝试把万物的3D形态都编码到同一种表达上,也就是进行tokenize,再传入模型训练,据了解,结合与Sora相同的Diffusion Transformer架构,没有任何2D先验的原生3D大模型,已在泛化性上有较好表现。

大模型CLAY

03

数据问题一定要解决吗?

2D升维的新进展

2023 年 7 月,来自UCSD等机构的研究者发布了One-2-3-45,摆脱了逐物体优化的生成范式,能够在45秒内将任何单一的2D图像转化为3D效果。

首先,他们使用一个特殊的模型(视图条件的2D扩散模型)来从原始的2D图片生成多个不同角度的2D图像。这就像是从不同的角度看同一个物体。然后,他们使用一个基于SDF(有符号距离函数)的神经网络模型,根据这些多视图图像来构建出3D模型。这就像是将这些不同角度的2D图像”堆叠”起来,形成一个完整的3D形状。

过去一年涌现的大量3D AIGC工作

与其他现有的2D升维方法相比,这种方法有几个优点:

● 速度快:它可以在很短的时间内生成3D模型,比其他方法快很多。

● 几何形状好:生成的3D模型的形状更接近真实物体的形状。

● 3D一致性好:从不同角度看,生成的3D模型的外观更一致。

● 紧密遵循输入图像:生成的3D模型更准确地反映了原始2D图片的内容。

与单纯依靠3D原生数据的方法相比,这种方法通过利用2D模型的先验知识,具有更强的泛化性,能够不受有限的3D训练数据的影响,生成更多种类,更加多样的3D模型。

受此启发,学术界大量工作开始遵循这一新生成范式。近期不少研究专注于利用2D扩散模型来生成一致的多视角图像,或训练3D网络从多视角图像生成3D模型。

One-2-3-45团队也在2023年11月发布了新工作One-2-3-45++,实现了更高精度的几何和纹理生成。

图片来源: https://sudo-ai-3d.github.io/One2345plus_page/

2023 年 11 月,Adobe Research和澳大利亚国立大学(ANU)联合研发的人工智能模型宣布了新算法,该算法采用了名为LRM(Large Reconstruction Model)的高度可扩展神经网络,包含一百万数据集和五亿参数,涵盖图像、3D形状和视频等多种数据。

LRM通过采用大规模数据和高容量模型的组合,实现了从单张图像到3D模型的快速而准确的重建。

项目页面:https://yiconghong.me/LRM/

这两项研究,推动了2D升维派的技术升级。在2D和3D的联合训练模型绕开了3D原生数据问题。

04

Production Ready 的距离

大模型的技术能力在过去一两年进展飞速,而其中一个令人诟病的点,在于模型能力虽然飞速发展,展现出惊人的潜力,但AI应用的商业化,却并没有人们想象地那么快。

很多应用,如文生图,虽然效果出众,C端用户玩的热闹,但是并没有非常快地渗透到专业的生产管线中产生价值。

而这样的情形,如果在3D生成领域复制的话,对于创业公司可能是致命的。

目前B端的3D模型使用主要分为两个大类:一个是在工业设计方面。3D模型直接服务于设计和生产,在这种工业流程中,对于3D模型的各方面的要求,都需要非常精确。因为生产出来,是真的需要能够严丝合缝地贴合在一起。

所有的人工智能生成技术,目前都很难控制精准生成,以目前的3D生成技术,想在这个方面达到可用,都还比较难,商业化相对也较为遥远。

而另一个大类,是艺术创作方面,即包括对游戏的角色、背景等的建模。在这个领域,精确性的要求相对于生产更低,是目前比较可能进行商业化的路线。

不过,以目前的3D模型的生成精度,直接生成成品,替代掉原有稳定的人工生成,还比较难。模型表面的面片设计是否光滑对称、模型能否具备可驱动的能力等等都是目前的3D模型无法直接提供成品的障碍之一。

而3D模型生成服务能不能进入游戏设计管线?

目前看来是可以的,但也仍然面临困难。

正常游戏中的建模,人的头发、人的脑袋、人的衣服、鞋都是分开建模,但目前的算法还很难做好,而且AI对于3D模型的生成质量其实距离专业人士建模水平还有较大距离,AI对生产管线引入带来的价值究竟有多大?

在游戏生产中,目前比较可行的一个方案是,为游戏、动画的背景填充提供素材。目前多个团队都已经与影视、游戏等厂商展开了相关的合作。

在一个动画场景中,其实除了主要人物的建模外,还存在大量的背景物品建模。比如可能一个主人公站在桌子前,而桌子上摆满了很多瓶瓶罐罐。这些瓶瓶罐罐每一个实际上都需要建模,而如果全部用人工进行这样的操作,十分费时。

具体的合作中,3D建模团队直接从博物馆拍摄了很多动画所需的素材,用模型生成了对应的3D模型,并对其模型的API调用收费。

不过这样的商业模式是否能走向规模化,还是取决于技术的成熟度。3D生成的技术路线,目前还远远没有到一个收敛到同一技术路线的阶段。

整个基础模型的水平,类比图像生成,可能还在MidjourneyV3-V4的状态,因此模型的竞争还会至少持续一年。之后可能才是比拼应用侧的包装,个性化内容生成的竞争。

3D数据如何tokenize,模型训练数据量的大小,后期的材质生成,都是一些3D模型生成需要卷的问题。

不过,也是正因如此,国内外AI 3D模型方面,技术差距并不大。

05

3D到底有什么用?

人类对内容的消费,经历了文字、图片、音乐、短视频、电影等多种内容形式的发展,然而到了如今,如果你有 30 分钟,你会选择打开抖音,还是打开王者荣耀,还是打开一本书?

无关对错好坏,人类对内容的主流消费,始终是往单位时间内信息密度更高的方向发展。在同样的时间里,短视频或者游戏的信息密度远远大于一本书。

如果我们要追逐一个更高单位信息密度的内容形式,那也许就是3D——这就是为什么元宇宙、XR曾如此激发市场热情。

普通人如何在视觉端感知3D内容?或许我们需要与3D信息产生视觉之外的交互,这一点有赖于终端设备的变革。以手机为最主要的终端设备,当前的内容形式已经走到了尽头。XR设备能在多大程度替代手机,3D就能在多大程度上替代当前的内容形式。从这个意义上讲,Apple Vision pro是苹果公司打开并定义未来的硬件设备。

我们现在用文字写日记、用照片记录珍贵时刻、用短视频记录生活,未来或许我们将进入用3D信息记录场景的时刻。

这会是多大的市场?有3D产业人士向我们进行了测算:当前 UE 引擎的用户数+Unity的用户数+Blender 的用户数≈3D 市场用户。排除同时使用多个软件的人,这样的3D模型的使用者,大概为1000万到2000万人。

但是长远来看,如果真的有3D成为人类生活主要内容消费形式的那一天,当前的2D创作者或许都将变成3D创作者。这中间的增量是多少呢?大约15个亿。那看起来是距离现在还很远的未来,那个时候,我们的生活场景可能都已经发生了巨大变化。但让我们怀抱期待。

ROBOT+AI 尖峰系列|人形机器人发展简史

没有什么其他的人造物像人形机器人这样,包含了人类的敬畏、赞赏和恐惧:我们期待它们让生活更方便和安全,但与此同时,我们却无法信任它们。我们如此细致地按照自己的样子塑造他们,但是与此同时,又如此担心它们会替代我们。

人形机器人曾经长期处于实验室阶段,但是近来有了新的转向——人形机器人开始能在实际环境中执行任务,并且与人类一起执行任务。

7月28日,谷歌DeepMind发布了一款新的机器人模型RoboticsTransformer2(RT-2),它是一个融合了视觉、语言、动作能力的多模态大模型。在超过6000次机器人试验中,研究人员通过将VLM预训练与机器人数据相结合,直接控制机器人。

通过对大量网络知识的预训练,RT-2模型产生的泛化和涌现能力,可以让机器人对从未见过的对象或场景上执行操作任务。

人形机器人的时代即将来临吗?

我们只花了几年时间就接受了iPhone智能手机带来的掌上虚拟世界,我们也会快速接受一个充满机器人的世界吗?

人类正在制造一些

终将代替自身的东西吗

2021年8月,在特斯拉AI日上,马斯克出乎所有人的意料,公布了特斯拉人形机器人(TeslaBot)项目。当时在现场只有一个模型和几页罗列了参数和概念的PPT,马斯克对机器人的市场定位是替代人类去做一些有危险,或重复枯燥的劳动。

在第二年的AI日上,这个PPT中的人形机器人在没有人工辅助和后背连线的情况下就走上了发布会的舞台,代号Optimus(和大家熟悉的变形金刚擎天柱同名)。接下来,马斯克播放了一段Optimus在办公室搬运箱子,给花浇水以及在特斯拉超级工厂中工作的演示视频。

Optimus的工作功耗是500w,配2.3KWh的电池,重73公斤。不包括手的自由度(能够独立运动的关节数)为28,手部有11个自由度,能够抓起9公斤左右的物体。计算设备来自特斯拉FSD自研平台衍生的SOC。

Optimus在研发上沿用了很多特斯拉在电动汽车领域已经取得的优势。机器人用的视觉深度学习模型来自特斯拉汽车;研发汽车所用的硬件仿真平台也为机器人的可靠性与结构设计提供了评估结果与优化支撑。马斯克在现场谈到Optimus的预期售价是2万美元。

今年的特斯拉AI日还没有到,但在5月的股东会上,马斯克再次展示了机器人项目的最新进展。

最新的特斯拉机器人行走的流畅度比Optimus有所提升;也能灵活地抓取放下物体。在技术方面,采用电机扭矩控制,机器人可以做出更轻柔的动作;环境发现与记忆能力被加入到特斯拉机器人中,现在机器人可以对周围的环境进行大致的建模;通过捕捉人类动作,特别是手部,训练机器人动作,使其具备类似人的物品抓取能力。

特斯拉在AI方面的研发投入,以及在自动驾驶领域已经应用的技术,都为人形机器人的研发提供了技术支撑。特斯拉人形机器人从21年的“PPT”到现在原型机能够行走、抓取物品,成长速度可以说是飞快。此外特斯拉充足的研发资金,和自家超级工厂这一应用场景,都让特斯拉人形机器人比过去的前辈们有更好的未来与应用场景。

特斯拉重新勾起了大众和投资领域对人形机器人的兴趣,不光因为特斯拉是这几年科技与电动汽车领域的明星企业,更因为人们对人形机器人有着浓厚的兴趣。

人类对未来的想象无法脱离现实的引力,但未来亦是由过去和现在一步一步循序而来。

人形机器人发展历史

早在1495年,意大利画家、科学家达芬奇就设计出了一个通过皮带滑轮和拉绳操作的机器人,这个穿着中世纪骑士盔甲的机器人能够做出和人类似的站立、坐下、抬起面罩和独立活动的手臂。

到了1860s,瑞士钟表匠皮埃尔雅克-德罗兹父子3人设计制造出3个真人比例的机器人——分别可以写字、绘图和演奏乐器。

这些古老的机器人更像是某种自动机,受限于当时的技术和科技水平,能做的事情也极为有限。但它们的存在意味着人类在技术进步前,就有了制作“人形机械”的想法。

20世纪突飞猛进的技术进步让人形机器人有了质的飞跃。1921年捷克作家卡雷尔·恰佩克在他的戏剧作品《R.U.R.》中创造了“Robot”这个单词,机器人这一概念逐渐走入大众的视野。

1927年,为了推广新研发的Knowlestube电子管,美国西屋电器工程师温斯利制造了一个名为“HerbertTelevox”的人形机器人。它有一个像人的身体,眼睛能够发光。实际功能是通过电话控制家里电器的开关。虽然类人的造型只是噱头,但这一举动吸引了无数目光。

1928年,日本首个机器人诞生,由发明家西村真琴制作,名为學天則。學天則可以通过气压装置改变面部表情,摆动头部和手。

同年,英国的首个机器人Eric也由一战退伍兵理查兹和飞机工程师雷费尔制作出来。Eric由两个人操作,可以站立或坐下,它的声音通过无线电接收,但无法迈腿行走。Eric的胸口印着“R.U.R.”,向捷克作家卡雷尔·恰佩克致意。

1937年,西屋公司推出了第二款机器人Elektro,高2.1米,重达118公斤。庞大的身体也意味着更丰富的功能。Elektro可以通过语音命令行走,能说700个单词,会抽烟,戳爆气球和摆动头部和手臂。它还有一个配套的机器狗Sparko,会叫会坐下还会讨好人。

机器人Alpha在1932年引起来一些争议,这款由发明家哈利·梅制作的机器人,在没有命令的情况下,意外地用手中的手枪朝发明家射击,子弹击中了发明家的手。不过也有人在考证后指出,实际上是机器人漏电烧伤了梅的手,开枪伤人是夺人眼球的夸大。

1939年,瑞典工程师奥古斯丁·哈柏制作了机器人RadioMan,耳朵里的麦克风可以接收语音命令,躯干安装了短波接收器,可以通过无线电波接收命令,进而做出行走、说话、唱歌和用瑞典传统约德尔调唱歌。

1953年,工程师哈维查普曼用废弃飞机零件制造了机器人Garco,一开始只是一个能举起简单物品的噱头产品。但查普曼后来接受采访时认为Garco这样的通用机器人可以替人类做很多危险的工作。Garco后来还和沃尔特·迪士尼一起出现在了迪士尼乐园,成为了一个代表科幻、未来的招牌机器人。

NASA在1967年制作了“articulateddummies(关节假人)”,可以模仿35种人类的动作,用来替代宇航员测试加压宇航服。假人穿上宇航服后,操作人员可以控制其四肢活动,从而测试动作力矩大小。

20世纪前半叶,人形机器人逐渐从草稿和精巧玩偶变成了电力驱动,具有一些具体功能的铁皮庞然大物。除了NASA这样的研究机构有一些实际应用场景,人形机器人仍然只是用来吸引眼球和满足大众对未来的想象好奇心的载体。

人形机器人行业成为一项被认真对待的研究领域,早稻田大学加藤一郎教授领导的WABOT项目功不可没。1973年推出的WABOT-1,这是世界首个全尺寸拟人机器人。拥有肢体控制系统、视觉系统和对话系统。WABOT-1拥有人造嘴,可以用日语与人交流,并用人工眼耳感知环境,测量与物体间的距离和方向。双腿可以静态步态行走,拥有触觉的双手可以抓握物品。其智能程度大概和18个月的婴儿类似。

同时期日本电子制造业和汽车工业的兴起,给人形机器人研究在技术方面提供了很大支持,在接下来的30年中,形形色色的日本人形机器人相继问世,也正式开启了人形机器人这一研究领域。

1984年,WABOT-2推出,这是在WABOT-1的基础上,和多个研发实验室合作开发,更智能化的音乐演奏机器人。它的头部有摄像头,可以用来读乐谱,灵活的手指可以在键盘上演奏一般难度的曲子,还能给唱歌的人伴奏。WABOT-2是人形智能机器人研发历史上第一个里程碑式的产品。

1986年,汽车制作商本田开发了双足行走机器人E0,这个只有两条腿的机器人开启了本田在机器人领域长达20年的研发。E0的开发是为了让机器人实现像人一样的双足行走。E0实现了静态步行,每迈出一步,机器都会重新调整重心,稳定后再迈出下一步。

接下来本田很快迭代升级了E0,从1987年到1991年相继推出了E1、E2、E3等原型机,其双足行走的步态越来越稳定,E2的行走速度已经达到了1.2km/h,也拥有类似人类的动态步行(每迈出一步,动态地调整平衡)方式。

在平整道路上实现了快速行走后,本田又在E4、E5、E6上实现了上下台阶,斜坡行走。并且增加了更多传感器,改善了稳定性算法。在拥有了稳定双足行走结构与算法的基础上,本田给原型机加上了上半身,开始致力于人形机器人的研发。

1993年,高1.9米,重175公斤的原型机P1诞生。P1可以做一些简单动作,包括开闭电脑开关,抓住门把手,拾取物品。这一阶段的研究重点是上身与下肢的协调控制。

之后的4年里,原型机P1不断升级。P2是世界上首个自主控制双足人形机器人,高1.8米,重210公斤。躯干中加入了计算机、驱动电机、电池和无线通信装置等必要的设备。P2可以自主完成行走,上下楼梯,推车等任务。

P3则进一步小型化轻量化,通过使用复合材料和分散布局控制系统,P3的体积重量为高1.6米,重130公斤,比前两代能更好地适应在人类环境中使用。

在E系列和P系列的研究成果上,本田在2000年正式推出了名为ASIMO的智能化人形机器人。为了更好地在人类生活环境工作,ASIMO的身高在1.3米左右,重量也降低到了50公斤左右。ASIMO有着灵活稳定的行走系统,并且在接下来的11年中不断升级。

ASIMO的行走速度不断加快,平衡系统也愈加完善,甚至可以以9公里/小时的速度奔跑。智能化系统让ASMO可以理解人类的手势,识别人脸叫出名字,在和人类相处时,更好地响应人类的指令,或自主行动。工作模式也由单一个体,进化到了多机体协同工作。

本田非常努力地让ASIMO更好地适应在人类生活、工作环境中协助人类。在2011年推出的最新一代升级中,ASIMO的自主性达到了最高水平。能分辨三个人同时说话;抓住水瓶,拧开瓶盖将水倒入纸杯;灵活的手部可以打手语等等。

日本研发人形机器人最初的设想是进入人类社会和家庭,成为人类的帮手。遗憾的是在成本、机器人的能力等方面,一直存在缺憾,未能实现这一理想。明星一般的ASIMO在2018宣布宣布“退休”,正式停止了研发。

当日本的人形机器人研发走入平淡时,电子计算机、人工智能等领域的兴起让人形机器人研发有了新的方向。

2009年,欧洲多个高校与意大利技术研究院联合开发了开源人形机器人iCub。这个身高1米,体型近似3岁儿童的机器人拥有视听感知和分析能力。研究人员系统通过赋予机器人感知能力,从而培养机器人的自主意识,主动探索环境,对外界做出反应,这是一个专门用来支持人工智能研究的机器人。

2013年,开源人形机器人项目Poppy上线,电机、处理器和传感器均采用现成产品,躯干零件3D打印,这是一台便宜实惠,可以自行组装的人形机器人。

同年,波士顿动力公司开发的Atlas机器人成为了新的明星,这款动力机器人拥有出色的运动稳定性,可以在布满石块的崎岖路上行走,被外力干扰也能持续保持单脚站立平衡。

2016年,改进后的Atals亮相,拥有了更强的运动平衡能力。在演示视频中,工作人员打掉了Atals手中的搬运箱,还狠狠推了它一把,但Atals向后退了好几步,但依然保持站立。

2017年,Atals在视频演示中展示跳跃能力,可以从一个箱顶跳到另一个箱顶,能够跳上高台,甚至还能从高台后空翻跳下并平稳落地。接下来的几年里,Atals的运动能力持续加强,能够小跑跨越障碍,跃上交错的高台,做出倒立,前空翻等跑酷动作。

算法和机器学习的进步是Atals运动能力变强的推力之一。在2021年的演示中,Atals已经可以识别环境,自主规划路径,寻找动作落点。3D打印降低了成本,也给团队提供了定制化开发部件的可能性。Atals的腿部结构和一些关键零件,均由3D打印技术自行开发制作。

在新技术的帮助下,人形机器人的发展并没有停滞。

当下,人工智能领域的快速发展,为人形机器人提供了新的发展机遇。强大的机器学习和效能不断上升的芯片,让机器人的智能化有了新的可能。新的传感器和相关技术,让机器人能获取更丰富的环境信息,更好地感知外部世界。AGI的成熟,也需要更多落地场景,人形机器人或许有可能和自动驾驶一样,成为与人工智能领域相伴发展的行业。

人形机器人的研发起起伏伏,不断有机构尝试将人形机器人投入到实际场景中,试图找到人形机器人发挥起作用的领域。NASA在2011年向国际空间站发射了Robonaut2太空机器人,希望机器人能和宇航员一起执行危险的太空任务;软银也曾在2014年销售面向社会大众,号称可以交流情感的机器人Pepper。

高盛在最近的一份报告中估计,在未来10到15年内,人形机器人市场规模将达到60亿美元(或更多),到2030年,这样一个市场将能填补美国制造业预计劳动力缺口的4%,到2035年填补全球养老护理需求的2%。而如果能完全克服产品设计、使用案例、技术、经济承受能力和广泛的公众接受度等障碍,高盛预计到2035年,仿人机器人的市场规模将达到1,540亿美元。如此规模的市场可以填补48%到126%的劳动力缺口,以及高达53%的老年护理缺口。

但迄今为止,人形机器人的发展史上,还没有任何成功实现商业化的案例。波士顿动力在视频中呈现的超强性能,也只是实验室项目。

商业市场上最先进的机器人技术之一是自动驾驶汽车,但仿人机器人必须拥有远高于自动驾驶汽车的智能和处理能力。

前人的尝试大都以失败告终,但如今大模型涌现能力已被验证,拥有超强工程能力和数据积累的厂商也许会带来不一样的结果,正如日本在经济和技术都如日中天的年代,坚实的制造业基础投入到人形机器人研发中,取得了和过去相比突破性的进展。

参考资料:

[1]本田ASIMO官网https://www.honda.co.jp/ASIMO/
[2]波士顿动力官方博客https://bostondynamics.com/blog/flipping-the-script-with-atlas/
[3]iCub官网https://icub.iit.it/
[4]早稻田大大学WABOT介绍https://www.humanoid.waseda.ac.jp/booklet/kato_2.html
[5]ASIMO解析,无处不在的小土https://gaoyichao.com/Xiaotu/book=robot_cases&title=asimo
[6]NIPPONIA,机器人专题https://webjapan.org/nipponia/nipponia38/zh/feature/feature05.html

AIGC“尖峰系列” | 涌现正在发生:LLM大模型的暴力美学

在古希腊哲学家柏拉图的《理想国》中,有一个著名的洞穴之喻,描述了一群被困在黑暗洞穴中的人们,他们只能看到洞穴墙上的阴影,以为那是世界的全部。但是,有人因为某种原因走出了洞穴,看到了真正的世界,对于这个人来说,回到洞穴是一种不可想象的打击。而他若试图说服其他的洞中人,也是很难的任务。

这个故事让人们反思,我们真的了解自己所处的世界吗?或者,我们只是困在一座看似真实却实际上是幻觉的洞穴里,以为自己已经看到了全部?

当下,ChatGPT震撼了人们对人工智能的预期。就像柏拉图的那些困在洞穴中的人们一样,过去,AI可以分析一组数据并在其中寻找模式,但是算法无法真正理解语言的内涵和上下文,人们通过算法只能看到表面的阴影。但是,以ChatGPT为代表的AIGC,让我们相信一些重要的变化正在发生,也许人类即将走出这个看似真实但实际上是幻觉的洞穴。

我们正式推出AIGC的“尖峰系列”,呈现源码资本在AIGC领域的深度思考,分享科技和商业的前沿洞察。在伟大征程的起点,召唤更多人与我们同行。

此前,我们发布了《谁是AIGC的“大玩家”?》,从应用到模型、再到行业基础设施,全面总结和探讨了AIGC各环节玩家面临的情况。今天,我们进一步聚焦,从GPT的技术演进到LLM大模型,尝试回答为什么我们正站在AI应用指数级爆发的起点

ChatGTP及相关应用用户趋势

01  GPT模型的技术演进路径

GPT是什么?

GPT(Generative Pre-trained Transformer),是由OpenAI开发的基于深度学习的自然语言处理模型。该模型的核心是Transformer架构,它可以在大规模文本语料上进行无监督的预训练,即在没有标注数据的情况下,通过模型自身的学习能力,从大规模的文本语料库中自动学习到语言的规律和特征,进而应用于各种自然语言处理任务,例如语言生成、问答、文本分类、机器翻译等。
具体来说,GPT模型首先通过大规模的文本语料库进行训练,例如维基百科、BookCorpus等,从中学习到单词和句子之间的关系和上下文信息。这个过程是无监督的,即没有人工标注的标签和答案。
之后,GPT模型采用自回归语言模型(AR autoregressive),即预测下一个单词的概率分布,使得模型能够理解和学习文本中的语法和语义信息。
预训练完成后,GPT模型可以在各种自然语言处理任务中进行 fine-tuning,通过调整已经预训练的模型的参数,进一步优化模型在特定任务上的性能。
Transformer架构是GPT技术演进中,第一个关键里程碑。
训练时:不需要任何标注数据,任何一段文字都可以直接带有标签。
调用时:将输出后的单字加在序列后,重复调用Decoder(解码器),直到输出一个终止符。

GPT 1-3:模型逐渐加大,模型泛用能力逐渐增强

从GPT1到GPT3,语言模型的参数量和训练数据集的规模不断增加。随着技术的不断提升,GPT模型的性能和应用范围也在不断拓展。
GPT-3模型引入了零样本学习技术,能够在没有任何先验知识的情况下,通过少量的示例进行学习,就可实现新的任务。例如,模型可以通过输入“Translate this sentence into French”这样的指令,自动将英文句子翻译成法文,而无需进行特定的翻译训练。
GPT-3模型具有1750亿个参数,这是迄今为止公开的单体最大模型,在单体性能上具备行业领先性,可以生成几乎与人类水平相当的文本。其成功第一次向人类表明,所有跟语言相关的任务通过一个模型即可达成,不仅可以完成语言相关的任务,还可以完成逻辑相关任务,其模型结构和训练方式都具有很好的可扩展性。
从Transformer到GPT,一切语法和内容分析,都变成了生成的过程。

GPT-1至GPT-3成长路径

在机器学习领域中,模型的参数是指模型中需要学习和调整的变量或权重。模型的训练过程就是为了调整这些参数,使得模型能够更好地适应训练数据,并能够对新数据进行准确的预测或分类。
在深度学习中,模型的参数数量通常非常庞大,包括多个层次、多个节点和多个权重等,因此参数数量可以成为衡量模型复杂度和性能的一个重要指标。参数数量越多,模型的学习能力和表达能力就越强,能够处理更加复杂和多样的任务。

ChatGPT is scary good

现在,我们使用的ChatGPT和New Bing Chat,则是使用了RLHF算法的进一步迭代。
在GPT-3语言模型下,可以通过精心设计的文本提示来引导模型执行自然语言任务。但是,这些模型有时会生成不真实、有害的输出,这部分原因是因为GPT-3是在大量的互联网文本数据集上训练的,而不是在特定任务上进行训练,因此与用户的意图不一定对齐。
为了使模型更加安全、有效,OpenAI使用了InstructGPT对GPT-3模型进行监督学习微调,它使用人类专家编写的提示来指导模型生成更加准确、安全的输出。这些提示通常针对特定任务或应用场景设计。
OpenAI在2022年3月提交的论文显示,与拥有1750亿个参数的GPT-3相比,13亿个参数的InstructGPT模型的输出更受用户青睐,尽管其参数数量较少100倍。此外,InstructGPT模型也在真实性方面的表现更好,同时在公共NLP数据集上的性能基本保持不变。
InstructGPT第一代10万级的标注数据

ChatGPT是在GPT-3.5系列上进一步微调的结果。OpenAI使用了Reinforcement Learning from Human Feedback (RLHF)算法,旨在生成与输入条件和上下文相匹配的自然语言文本,并通过人类反馈来调整模型的生成行为。
RLHF的三个要素:
● Action:模型(Policy) 多次调用输出的一个Sequence
● Environment:人 + 理解人偏好的神经网络
● Reward:人和神经网络的反馈奖励机制

1.采样调用API的数据。人类AI训练师写一个“标答”给网络作监督学习。
2.采样一个更大的调用API的数据。网络生成多个答案,让AI训练师对它们进行优劣排序,形成奖励模型。
3.利用这些奖励模型,使用接近策略优化(Proximal Policy Optimization)微调模型。

现在,New Bing会展现出情绪变化、更丰富的创意创作;ChatGPT也会拒绝不合理请求,承认自己能力有限——它们表现得更像人类了。

02  涌现能力:仅存在于大模型的暴力美学

曾经,小型模型被认为是理解语言“最先进”的技术。这些小模型擅长分析任务,被用于欺诈分类等工作,但这样的传统AI始终是“程序”,它们对通用生成任务的表现力不够,生成人类水平的写作或代码是个白日梦。
现在,人们改变了这一预期,AGI的发展可能会比想象中来得更快。而这其中最重要的因素之一就是大模型的发展。GPT-3模型下1750亿参数量“涌现”出的强大智能表现,让AI似乎具备人类“无中生有”的原创能力。

Scaling Law:加大模型,效果就会变好

Scaling Law(规模定律)是指,在某些系统中,随着系统规模的增加,某些性能指标呈现出特定的变化趋势。在AI大模型中,Scaling Law意味着,当模型足够大、语料足够多、算力足够充足的时候,GPT的性能不光会线性提升,还会突然的指数级爆发,以往在逻辑、正确性等方面的棘手问题将更有希望解决。
如果使用模型的交叉熵损失 Cross-entropy Loss 作为评价模型的标准。自回归Transformer模型在所有的模态上都随着模型的扩大持续变好,且完全没停下来的意思。
在几乎所有模态上,AR Transformer都能平滑地扩大,只对超参数(如宽度、深度或学习率)产生极小的变化。更大的模型总是学习得更快、在更少的步骤中达到任何给定的损失值。
图:所有类型的任务上,模型扩大都带来了一个更低损失的指数规律。

从数据的角度,更大的模型只需要训练更少的词元(Token)就可以达到相同的效果。损失函数在随模型扩大持续减小,且没有停下的意思。
Loss的减少意味着什么?这意味着语言模型说话越来越像人——更加有趣、自然,也会说假话、有偏见……

交叉熵损失的信息理论解释Loss=S(True)+D_KL(True||Model)
可以预测和真实数据分布与模型分布之间的KL散度。


GPT-3只用了约700GB的数据,根据估计人类数据总量在100TB量级,假设不论质量,全能使用,大约还有140x数据。按最合适的比例规模将扩大~250x,从175billion扩大到44trillion。而对应的 Loss为GPT-3的66%。GPT的未来将远超人类想象。

存在于大模型而非小模型的涌现能力

在研究中,我们可以观察到模型的表现:1)当尺寸相对小的时候提升并不大 2)当模型变大时有很明显的提升;某些能力可能不存在于小模型中,而是在大模型中获得的。

Wei. et. al. 2022. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models。X 轴为模型大小。GSM8K 是是一个小学水平的数学问题集。

“涌现”发生了。
在AI中,涌现意味着通过简单的规则和相互作用,模型可以自发地产生出复杂的行为和智能功能。这些行为和功能往往超出了单个个体的能力范围,而是由整个系统或群体的相互作用和反馈效应所决定的。
更深入的研究发现,GPT至少还存在以下3种涌现能力:
● 复杂推理:大型模型在没有使用全部训练数据的情况下便显著优于以前的小型模型。
● 知识推理:大型模型可能没有小模型效果好,但大模型不需要额外的知识来源(知识可能很昂贵,或者很难从非结构化数据中抽取)。
● 分布外鲁棒性:这是之前进行模型精调时需要努力解决的问题。大型模型虽然在同分布情况下的效果不如以前的方法,但非同分布情况下的泛化性能却好得多。
我们相信,大模型的规模效应、涌现能力等特性将带来商业模式的巨大改变,需要人类发挥创造能力的各个行业都可能被重塑。AI大模型将成为生产力引擎,驱动应用生态创新爆发。

AIGC关键概念(由ChatGPT生成)

Transformer架构
Transformer架构是一种用于序列到序列学习(Sequence-to-Sequence Learning)的深度学习模型。Transformer由谷歌的Vaswani等人在2017年提出,被广泛应用于自然语言处理(Natural Language Processing,NLP)领域。
自注意力机制可以使模型更加关注输入序列中不同位置之间的相互关系,从而更好地捕捉序列的全局信息。
Transformer的核心结构包括编码器(Encoder)和解码器(Decoder)。编码器和解码器都由多个相同的层级(Transformer层)堆叠而成,每个层级都包括多头自注意力机制(Multi-Head Attention)、前向传播神经网络(Feed-Forward Neural Network)和残差连接(Residual Connection)等模块。其中,编码器用于将输入序列编码成一个固定维度的向量,而解码器则用于将编码器输出的向量解码成目标序列。Transformer架构在NLP领域广泛应用于机器翻译、文本摘要、对话生成等任务中,取得了很好的效果。

零样本学习(Zero-Shot Learning)
在机器学习中,零样本学习(Zero-Shot Learning)是指在没有训练数据的情况下,通过模型学习到的先验知识或常识,对新的任务或新的数据进行预测或分类。通常,零样本学习需要模型具有一定的泛化能力和知识表示能力,能够将已有的知识和经验应用到新的任务或数据中。
在GPT-3模型中,零样本学习指的是模型可以在没有特定的训练数据的情况下,通过少量的示例或指令,完成一些新的任务或生成新的文本。例如,模型可以通过输入“Translate this sentence into French”这样的指令,自动将英文句子翻译成法文,而无需进行特定的翻译训练。
GPT-3模型之所以具有零样本学习的能力,主要是因为它在训练过程中学习到了大量的文本语料库,并能够自动提取和表示文本中的语法和语义信息。这使得模型能够通过示例或指令,理解并完成一些新的任务或生成新的文本。
关于GPT-3与GPT-2的计算资源和时间的比较,由于GPT-3模型的参数量达到了1750亿,比GPT-2模型的参数量大得多,因此在训练和应用时需要更多的计算资源和时间。在训练方面,GPT-3模型的训练时间和成本更高,需要大量的计算资源和存储空间。在应用方面,GPT-3模型的推理时间和成本也更高,需要更大的模型内存和计算能力。但是,由于GPT-3模型具有更强的学习和表达能力,能够处理更加复杂和多样的自然语言处理任务,因此其性能也更加优秀。

微调(fine-tuning)
在机器学习中,“微调”(fine-tuning)指通过调整已经预训练的模型的参数,进一步优化模型在特定任务上的性能。微调通常是通过在特定任务上训练模型来实现的,这个过程通常包括以下几个步骤:
1. 选择合适的预训练模型:根据任务需求选择一个合适的预训练模型,例如GPT、BERT等。
2. 准备任务数据集:收集和标注一定量的数据集,用于在模型上进行微调。
3. 调整模型参数:将预训练模型中的参数作为初始值,通过在任务数据集上训练模型,调整模型参数以适应特定任务的需求。
4. 评估模型性能:通过测试集等方式,评估模型在特定任务上的性能表现,并根据结果调整模型参数和训练过程。
总之,微调是指在预训练模型的基础上,通过调整模型参数来适应特定任务需求的过程。微调通常是在有标注的任务数据集上进行的,因此也可以看作是监督学习的一种形式。

监督学习(Supervised Learning)
在人工智能领域中,监督学习(Supervised Learning)是一种常见的机器学习方法,它是一种通过从带有标签的数据中学习来构建预测模型的方法。
监督学习中,我们将数据集分成输入和输出两个部分,其中输入部分被称为特征,输出部分被称为标签。算法的目标是学习一个函数来将输入映射到输出。算法通过训练数据集中的特征和标签,来学习构建一个能够准确预测未知数据标签的模型。在预测时,算法会使用训练数据集中的学习结果来预测新的未知数据标签。
例如,当我们要训练一个图像分类器时,我们将图像作为特征输入,并为每个图像赋予一个标签,表示这张图像属于哪个类别。我们使用带有标签的训练数据来训练模型,以使其能够准确预测未知图像的类别。在此过程中,模型使用已知的图像和标签之间的关系来构建预测模型。
监督学习是人工智能领域中最常见的机器学习方法之一,其应用广泛,包括图像识别、自然语言处理、预测分析、推荐系统等。

无监督的预训练
“无监督的预训练”指的是在没有标注数据的情况下,通过模型自身的学习能力,从大规模的文本语料库中自动学习到语言的规律和特征。在GPT模型中,采用的是一种叫做自回归语言模型的方式进行预训练。
具体来说,GPT模型首先通过大规模的文本语料库进行训练,例如维基百科、BookCorpus等,从中学习到单词和句子之间的关系和上下文信息。这个过程是无监督的,即没有人工标注的标签和答案。GPT模型采用的是自回归语言模型,即预测下一个单词的概率分布,使得模型能够理解和学习文本中的语法和语义信息。预训练完成后,GPT模型可以在各种自然语言处理任务中进行微调和 fine-tuning,以适应特定任务的需求。
相比于有监督学习,无监督的预训练具有更高的灵活性和适用性。因为在实际应用中,往往存在大量未标注的文本数据,而无监督学习可以利用这些数据进行预训练,提高模型的泛化能力和鲁棒性。
总之,“无监督的预训练”是指在没有标注数据的情况下,通过大规模文本语料库进行自学习,从中自动学习到语言的规律和特征,提高模型的泛化能力和鲁棒性。在GPT模型中,无监督的预训练是通过自回归语言模型实现的,为模型的应用和微调提供了强大的基础。

大语言模型(Large Language Model,LLM)
大语言模型(Large Language Model,LLM)是一种基于深度学习的人工智能技术,旨在通过大规模的训练数据和深度神经网络来实现语言理解和生成的能力。大语言模型可以用于许多自然语言处理任务,例如机器翻译、文本生成、对话系统等。
近年来,由于数据和计算资源的增长,大型语言模型的发展取得了重大进展。其中,OpenAI的GPT系列模型、Google的BERT模型以及Facebook的RoBERTa模型等是最著名的大语言模型之一。这些模型通常具有数亿或数十亿个参数,可以从大量的文本数据中学习语言的规律和结构,并用所学到的知识来生成高质量的文本或执行其他自然语言处理任务。
在自然语言处理领域,大语言模型已经在许多任务上取得了显著的成功。例如,GPT-3模型可以生成自然流畅的文本,并在各种语言生成和文本分类任务上取得了最先进的结果。BERT模型则在文本分类、命名实体识别、问答系统等任务上取得了很好的表现。
总的来说,大语言模型是一种强大的自然语言处理工具,它的应用潜力非常广泛,并在自然语言处理领域发挥着越来越重要的作用。

参考资料:
[1] 源码研究组内部报告
[2] Open AI 官网 Introducing ChatGPT
[3] Open AI 官网 Aligning language models to follow instructions
[4] Scaling Laws for Autoregressive Generative Modeling – Open AI 2020/11/06
[5] Scaling Laws for Neural Language Models – Open AI 2020/01/23
[6] 大模型的突现能力和ChatGPT引爆的范式转变https://yaofu.notion.site/A-Closer-Look-at-Large-Language-Models-Emergent-Abilities-493876b55df5479d80686f68a1abd72f
[7] ChatGPT问答

谁是AIGC的“大玩家”?

在刚刚结束的这一年,以ChatGPT、Midjourney为代表的颠覆性AI应用,引发了AIGC的全球共振。

源码认为,这次生成式AI的浪潮背后可能会隐藏着巨大的机会。与过往深度学习浪潮不同,由于其更加庞大的模型规模,将参与竞争的门槛明显提高,小公司可能更倾向于直接适用服务而非搭建自己的模型,AI因此有机会成为一种平台型服务。同时,随着AI能力的进一步提升,AI应用也愈发靠近具体的商业场景,流畅自然的机器人对话、瑰丽超现实的图像生成,让普通个体也成为这场技术狂欢的一部分。

需要注意的是,与大多数技术一样,生成式AI在技术上的差异并不明显,但我们对其应用和商业前景保持希望,仍有可能出现十分有价值的应用场景。模型规模的扩大让传统的规模效应更加明显;同时,一个合适的产品形态和商业模式,可能催生额外的壁垒,比如足够的闭源数据。生成式AI通过优秀产品经理的打磨,亦可能将带来全新的体验,形成牢固的用户生态。

生成式AI作为一个可能有很高上限的底层技术变革,是一个十分值得认真关注的领域。

a16z投资人日前发布网站文章,从应用到模型、再到行业基础设施,全面总结和探讨了生成式AI各环节玩家面临的情况,并提出了非常有趣的洞察:训练了生成式AI并且将它们部署到实际app中的公司,创造了最大价值,但并没有在产业链中获得最大收益。

作为一项振奋人心的新技术,生成式AI产业链中的价值将如何演化?新的护城河是否会出现?谁才是这个领域的最大赢家?

源码编译此文与读者共飨,部分细节有表述调整,希望给您带来更好的阅读体验,启发更深刻的洞察思考。

01

提纲挈领的技术架构:基建、模型及应用

我们关注到,生成式AI领域出现了技术分工的早期阶段。

数百家创业公司正冲进来,开发基础模型,构建AI原生应用,建设基础设施或工具等等。

通常,热门技术被市场采用前,就被过度炒作透支了。但生成式AI的繁荣来自真实的市场收益,以及真实的公司推动。以人工智能驱动的文本转图像模型Stable Diffusion和自然语言对话模型Chat GPT为代表的这类模型,正获得爆发性的用户增长;同时很多应用在发布一年内,营收就超过了1亿美金。AI模型在一些任务中的表现已经超过人类好多个数量级了。

因此,有足够的信号显示,AI领域正在发生大规模的变革。但最关键的问题是:在生成式AI市场中价值将在何处出现?

我们通过与大量生成式AI公司交流发现,基础设施服务商可能是最大赢家,获得最多的财富。应用公司虽然增长十分迅速,但他们仍在为留存率、产品差异化和毛利率挣扎。而尽管模型提供商决定了这个市场是否存在,但多数还没达到大型商业化规模的门槛。

换句话说,训练了生成式AI并且将它们部署到实际app中的公司创造了最大价值,但没有获得最大价值。

预测这个产业未来的利益分配会如何演变并不容易。但我们认为关键是甄别到底哪些因素可以实现差异化,哪些又可以成为壁垒。这将对市场结构(比如横向和纵向的公司竞争格局)和长期价值驱动力(比如利润率、留存率)产生极大影响。

遗憾的是,除了此前业已形成的传统优势,我们还没在当前的技术分工中找到任何结构性的优势壁垒。

【来源:Matt B., Guido A., & Martin Casado (2023, January 23). Who owns the Generative AI platform? Andreessen Horowitz. Retrieved January 30, 2023, from https://a16z.com/2023/01/19/who-owns-the-generative-ai-platform/ 】

通过“应用-模型-基建”的分析框架,目前整个生成式AI可以分为3层:

应用层,通常基于自有的模型或依赖第三方的API,将生成式AI模型集成到面向用户的产品。

模型层,通过专用API或开源检查点(需要一个托管方案),赋能AI产品。

基础设施层,为生成式AI模型执行训练或调用请求,比如云平台和硬件生产商。

02

应用:可开启规模化之路,

但用户留存和产品差异化依然在挣扎

在之前的技术周期中,传统的观点是,如果要建立一个独立的大型公司,就必须有C端或B端客户。这容易让我们认为生成式AI领域最大的公司也将是面向终端用户的应用公司,但事实未必如此

可以肯定的是,由于智能生成内容非常新颖,具有多种应用场景,生成式AI应用程序的增长是惊人的。在图片、文字、代码生产三个领域,其年化收入均已经超过1亿美元。

然而,仅靠增长还不足以建立基业长青的软件公司——重要的是,增长必须是有利可图的。

从某种意义上说,用户一旦注册,就会产生利润(高毛利率),并长期留在这里(高留存率)。在缺乏强大的技术差异化的情况下,2B和2C应用程序通过网络效应、数据存储或构建日益复杂的工作流来获取长期的客户价值。

但在生成式AI领域,这些假设并不一定成立。

由于模型推理的成本不同,不同应用公司的毛利率区别很大:少数公司高达90%,但更多情况下只有50% -60%。“漏斗”头部的公司增长非常惊人,但目前投放效率和留存率已经开始下降,这种获客策略是否具有可扩展性还不确定。

该领域的应用都大同小异,因为它们依赖于相似的底层AI模型,也没有发展出竞争对手难以复制的网络效应或数据和工作流。

因此,现在还不确定销售应用程序是否是构建长期生成式AI业务的唯一途径或最佳途径。随着竞争加剧和模型效率的提高,利润率应该会提高;随着AI观光客们离开,产品留存率也应该会增加。

也有观点认为,更垂直的应用将在差异化方面有优势,不过这仍待观察。

展望未来,生成式AI应用公司还会面临如下难题:

垂直整合(“模型+应用”)。将AI模型作为一种服务来消费,允许应用开发者在小团队中快速迭代,并随着技术的进步替换模型提供商。也有开发者认为产品就是模型,从头开始训练模型是建立壁垒的唯一方法——即通过不断地对专有产品数据进行再训练,但这是以更高的资本要求和更不灵活的产品团队为代价的。

构建功能vs.做应用。生成式AI产品可以有许多不同的形式:桌面应用、移动应用、Figma/Photoshop插件、Chrome插件,甚至Discord机器人。在用户已经习惯的场景集成AI产品很容易,因为UI通常只是一个文本框。那么其中哪些会成为独立公司,哪些会被巨头收购呢?

管理技术成熟度曲线。目前还不清楚当前这批生成式AI产品的用户流失是注定的,还是由于行业处于早期导致的“假象”,或者,用户对生成式AI的兴趣是否会随着技术成熟度曲线的回落而下降。这些问题对应用公司具有重要影响:包括何时加速融资、如何积极投入获客、优先考虑哪些用户、何时确认PMF等等。

03

模型:模型提供商虽然发明了生成式AI,

但仍未达到较大的商业规模

如果没有Google、OpenAI和Stability这些公司出色的研究和工程工作,我们说的生成式AI就不会存在。通过新颖的模型架构和扩展训练的规模,人们才都能受益于当前大型语言模型和图像生成模型。

然而,与这些应用的使用量和热度相比,模型相关的收入仍然相对较少。

人工智能文本转图像模型Stable Diffusion获得了爆炸性的社区增长,这是用户界面、托管产品和Fine-tuning方法构成的生态系统共同支持的结果。不过,其所属的公司Stability把提供免费调用作为其业务的核心原则。

在自然语言模型中,OpenAI的GPT-3/3.5和ChatGPT占主导地位。但到目前为止,已经降过一次价的OpenAI构建的杀手级应用还相对较少。

但这都有可能是暂时的。Stability是一家新公司,目前并不急于盈利。而随着更多杀手级应用程序的建立,尤其是模型能力如果能顺利整合到微软的产品矩阵中,OpenAI也有潜力发展出庞大的商业图景,在NLP领域中大获其利。鉴于这些模型的巨大使用量,大规模的收入可能已经不远。

但他们也面临强大的竞争对手。作为开源发布的模型可以由任何人托管,包括不承担耗费千万甚至上亿训练成本的外部公司。现在还不清楚是否有闭源模型能长期保持优势。

由OpenAI 前核心员工组成的 AI 创业公司Anthropic、自然语言处理平台Cohere和前谷歌研究人员创立的Character.ai等人工智能公司,也在构建大型语言模型(LLMs)。他们的模型使用相似的架构、在相似的数据集(即互联网)上进行训练,性能已经接近OpenAI。Stable Diffusion的例子也表明,如果开源模型达到了足够的性能水平基准,取得了社区支持,那么闭源的替代方案可能很难与之竞争。

也许,对于模型提供商来说,最清晰的结论是,商业化会和托管绑定。对于闭源API(比如Open AI)的需求在快速增长,开源模型的托管(如Hugging Face和Replicate)也在逐渐成为方便分享和集成模型的枢纽。甚至在模型生产者和消费者之间出现了一些间接的网络效应。有一个强假设是,模型提供商有可能通过模型微调和托管能力与B端客户达成合作来盈利。

除此之外,模型提供商还面临着许多棘手问题:

同质化。人们普遍认为,随着时间的推移,人工智能模型的性能将趋于一致。但是和应用开发者交流后,我们发现差异化会持续存在。图片和文字生产领域都有强大的头部玩家,只是他们的优势不是基于独特的模型架构,而是基于高资本投入、专用的产品互动数据和稀缺的AI人才。这会是长期优势吗?

被替代的风险。依靠模型提供商是应用公司起步和发展业务的有效途径。但是,一旦达到一定规模,应用公司就有动力建立、托管自己的模型。许多模式提供商的客户分布高度集中,少数应用带来了大部分收入。如果这些客户转向内部AI开发时,会发生什么?

钱重要吗?生成式AI的前景非常大,但也可能非常有害,以至于许多模型提供商已经成为公益公司(B corps),或者发行有限投资回报的股权(译者注:如微软投资OpenAI的案例),或者用其他方式明确地将公共利益纳入其使命。这并没有妨碍他们的融资。这里有个问题是,模型提供商是否真的想要盈利、以及他们是否应该盈利。

04

基建:基建服务商无处不在,并收割成果

生成式AI几乎在方方面面都需要使用云托管的GPU/TPU。无论是模型提供商/研究实验室去训练、调用、微调,还是应用公司进行两者的某种组合——算力(FLOPS)始终是生成式AI的命脉。

最具颠覆性的计算技术的进展受到大规模计算的约束,还是第一次。

因此,生成式AI领域的大量资金最终流向了基础设施服务商。粗略估计,应用程序公司将大约20-40%的收入用于调用模型和每个客户的微调,这些费用通常会直接支付给云服务商;或者支付给第三方模型提供商,而模型提供商再把大约一半的收入花在云服务上。因此,我们有理由猜测,如今生成式AI总收入的10-20%会流向云服务商。

在此基础上,训练自己模型的创业公司已经筹集了数十亿美元的风险投资——其中大部分(早期甚至高达80-90%)也花在了云服务商身上。许多科技上市公司每年都与云服务商或硬件制造商合作,在模型训练上花费数亿美元。

对于这样一个新兴行业而言,这着实是一大笔钱,而其中大部分都花在了三巨头上:亚马逊 AWS 、谷歌 GCP 和微软 Azure。这些云服务商每年保持超千亿美元的资本支出,确保他们拥有最全面、最可靠、最具成本竞争力的平台。特别是在生成式AI领域,它们也从供应限制中受益,因为它们可以优先获得稀缺的硬件(如Nvidia A100和H100 GPU)。

但有趣的是,实质性竞争正在出现。像Oracle 这样的挑战者已经通过大笔资本支出和促销措施进入了市场。一些初创公司,如Coreweave和Lambda Labs,通过提供专门针对大型模型开发商的解决方案迅速成长。它们在成本、可用性和个性化支持等方面展开全面竞争,还公开了更细粒度的资源服务(即容器 Container),而大型云服务商由于GPU虚拟化的限制,只提供虚拟机实例。

而迄今为止生成式AI领域的最大赢家——英伟达,就藏在这一切背后。该公司在2023财年第三财季报告了38亿美元的数据中心GPU收入,其中有相当一部分用于生成式AI应用。英伟达通过数十年对GPU架构的持续投入、强大的软件生态系统,以及在学术界的深度应用,已经建立了坚固的护城河。最近的一项研究发现,Nvidia的GPU在研究论文中被引用的次数是顶级AI芯片初创公司的90倍。

其他硬件选择也确实存在,包括谷歌的TPU,AMD Instinct GPU,AWS Inferentia和Trainium芯片,以及来自Cerebras、Sambanova和Graphcore等初创公司的AI加速器。英特尔也带着高端Havana芯片和Ponte Vecchio gpu进入了这个市场。但到目前为止,这些新芯片还没能占据重要的市场份额。两个值得关注的例外是谷歌和台积电,前者的TPU在Stable Diffusion社区和一些大型GCP中有一定吸引力;后者则生产了上述所有芯片,包括英伟达的GPU(英特尔使用自己和台积电的晶圆厂制造其芯片)。

换句话说,基础设施服务商处于一个有利可图且持久稳固的位置。它们需要回答的关键问题包括:

如何防止跨云迁移。无论你在哪里租英伟达的 GPU都是一样的,大多数AI工作负载是无状态的,也就是说,模型推理不需要附加额外的数据和存储(除了模型权重本身)。这意味着AI计算任务可能比传统应用程序计算任务更容易跨云迁移。在这种情况下,云服务商如何提高粘性,防止客户转向最便宜的选择?

如何在芯片短缺结束后生存。云服务商和英伟达本身的高定价,主要是由性能最良好但供应又稀缺的GPU支撑的。一家供应商告诉我们,A100自上市以来,其指导价一直在涨,这对计算硬件来说是极其少见的。当这种供应限制最终通过增加生产、采用新的硬件平台而弱化时,将对云服务商产生什么影响?

挑战者们的云能成功吗?我们坚信,垂直云能通过提供更专业的服务,从三巨头手中夺取市场份额。到目前为止,在人工智能领域,挑战者们通过适度的技术差异化和英伟达的支持,已经获得市场吸引力。对于英伟达而言,现有的云服务商既是最大的客户,也是新兴的竞争对手。长期的问题是,这是否足以克服三巨头的规模优势?

05

所以,我们将从哪里创造价值?

我们还不知道。但根据目前所掌握的生成式AI的早期数据,结合早期AI/ML公司的经验,我们的直觉如下:

现在,在生成式AI领域还没有出现任何系统性的护城河。应用产品由于使用相似的模型而缺乏差异性;模型在类似的数据集和类似的架构上训练,长期差异不明确;云服务商运行相同的GPU,也缺乏深度技术差异;甚至硬件公司也在同一家晶圆厂生产它们的芯片。

当然,还有标准的护城河:规模护城河(“我有/能比你筹集到更多的资金!”)、供应链护城河(“我有GPU,你没有!”)、生态系统护城河(“每个人都已经在使用我的软件!”)、算法护城河(“我们比你更聪明!”)、分销护城河(“我有更强的销售团队和更多的客户!”)和数据护城河(“我在互联网上爬的数据比你多!”)。但这些护城河都不可能长期持续。现在判断更强更直接的网络效应能否会在任何一层玩家占据上风都还为时过早。

根据现有的数据,我们还不清楚生成式AI领域是否会出现长期的赢家通吃的情况。

虽然这很奇怪,但这是个好消息。这个市场的潜在规模很难把握——它介于所有软件和所有人的努力之间,所以我们预计会有很多、很多的参与者,在各个层面上进行良性竞争,最终是市场和用户决定了最佳的产业结构。如果终端产品的主要区别是人工智能本身,那么垂直类产品可能会胜出。而如果人工智能是一个更大的、长尾的功能集的一部分,那么平台型产品将更有优势。当然,随着时间的推移,我们会看到更多传统护城河的建立,甚至是新型护城河的出现。

无论如何,可以肯定的是生成式AI改变了游戏规则。所有人都在实时学习这些规则,大量价值将被释放,科技领域也将因此变得非常不同。让我们静待花开。

文中提及的部分公司与模型介绍:

Stable Diffusion

Stable Diffusion是2022年发布的深度学习文生图模型。它主要用于根据文本的描述产生详细图像。由初创公司StabilityAI与慕尼黑大学的CompVis团体合作开发。

ChatGPT

ChatGPT是由OpenAI开发的一个人工智能聊天机器人程序,于2022年11月推出。该程序使用基于GPT-3.5架构的大型语言模型并通过强化学习进行训练。

ChatGPT得到的关注空前。上线仅5天的ChatGPT用户数量突破100万。

Hugging Face

Hugging Face是一家美国公司,AI/ML社区和平台,创立于2016年,开发使用机器学习构建应用程序的工具。早期通过 Transformers 模型库和高质量社区受到关注。用户可以在 Hugging Face 上托管和共享 ML 模型、数据集,也可以构建、训练和部署模型,即模型托管平台。

OpenAI

OpenAI 是美国一个人工智能研究实验室,目的是促进和发展友好的AI,使人类整体受益。OpenAI由伊隆·马斯克以及山姆·柯曼成立于2015年底,总部位于加利福尼亚州旧金山。目前最前沿的文本生成模型GPT-3系列、文生图模型DALLE2都来自于OPEN AI。

2019年,在训练模型的高成本压力下,OpenAI划分出有利润上限的盈利性组织 OpenAI LP。紧随其后,微软宣布为OpenAI注资10亿美元,并获得了将OpenAI 部分AI技术商业化、赋能产品的许可。

Stability

在2020年,Emad Mostaque创办了Stability AI,希望成为一家和Open AI一样非盈利模式的、同时更加开放的机构。22年8月,Stability推出首个免费的开源产品模型Stable Diffusion。

最初,Stability AI以1亿美元估值完成1000万美元融资。22年10月,Stability AI宣布获得来自Coatue和光速的1.01亿美元投资,且估值将达10亿美元。

本文编译自a16z:Who Owns the Generative AI Platform? | Andreessen Horowitz

如有侵权,请联系我们处理

如果您对AIGC相关话题感兴趣,欢迎留言与我们交流

码荟成员「贝壳」完成双重主要上市 首个居住产业数字化服务平台成功返港

5月11日,中国居住产业数字化服务平台贝壳正式在港交所挂牌上市,股票代码“2423”,成为首家以“双重主要上市+介绍上市”形式返港的中概股。11日上午,在遵守北京市防疫政策的前提下,贝壳于公司总部完成“云敲锣”。

贝壳联合创始人、董事长兼CEO彭永东在上市仪式表示:“今天,贝壳在香港交易所主板成功上市。感谢所有相信贝壳的客户、服务者、合作伙伴与股东,感谢香港交易所的指导和支持。从链家到贝壳,我们见证并参与居住领域数十年发生的变化——科技重塑居住体验,服务者价值崛起;作为领先的线上线下一体化房产交易和服务平台,我们看到中国家庭对美好居住的期望不断提升。我们相信,从‘有尊严的服务者,更美好的居住’使命出发,贝壳可以让未来的中国家庭,住得更美好!”

从创立至今,贝壳依托VR、人工智能、大数据和物联网等技术,对居住产业中的人、物、流程等核心要素进行数字化改造升级,率先打造了中国居住领域的行业基础设施和标准,致力于提高行业运转效率、服务品质和用户体验,以推动居住产业高质量发展。

为了更广泛、长期地触达居住服务领域的消费者并提供优质多元化的供给,成为“让家更美好”的居住产业数字化服务平台,2021年末,贝壳宣布进行“一体两翼”战略升级,“一体”即房产经纪事业群,“两翼”分别为整装大家居事业群与惠居事业群。

目前,贝壳基于线上线下一体化、ACN为基础设施和底层操作系统成功从房产交易行业横向拓展到家装、家居及其他服务领域。4月下旬,贝壳宣布已经成功完成对国内领先的家装家居品牌圣都的收购,为未来横向赋能整装大家居产业打下良好基础。

贝壳还积极响应“房住不炒”、“租购并举”等政策,顺应时代需求,探索“住有所居、租购并举”的商业新模式。2021年11月成立惠居事业群后,贝壳随即推出品质租住服务平台“贝壳租房”,以科技为驱动,通过专业机构化运营、平台服务保障、中小企业赋能等举措,提升包含城市新市民、青年人等各类人群的租住体验,利用科技能力和商业资源能力探索美好租住的新路径、新模式和新方法。

中信证券研究报告指出,此次贝壳上市方案有效保护了股东利益,预计将消除关于上市地位的不确定性。贝壳此次两地上市将为投资者提供更多的交易地点选择和更灵活的交易时间,也有助于引入更多境内外投资人,以提高公司股票交易的流动性。在双重主要上市方案下,贝壳如果在港交所交易量和市值达到一定的标准后更有希望被纳入指数和港股通交易。

财报显示,2021年贝壳全年成交额(GTV)为人民币3.85万亿元,同比增长10.1%;营业收入为808亿元,同比增长14.6%;经调整后净利润为22.94亿元。截至2021年底,贝壳拥有现金及现金等价物、限制性现金和短期投资总计561亿元。

源码创业服务2.0:从“两化”到“六全”

2021年12月23日,源码资本在北京举行了「全码力为你」2021创业服务报告会。报告会上正式宣布源码资本投后服务升级为“码力创业服务中心”,并整体阐述了码力创业服务中心的“六全”理念,过百位码荟创业者、投资人通过线上、线下的方式参加了本次会议。

 

继上一次投后服务报告会已过去两年时间,两年的时间里,通过深度理解创业者需求,持续开展并精进创业服务,源码创业服务将此前的“体系化、产品化”的服务体系升级为“六全”的创业服务体系,即全效助攻、全程陪伴、全面服务;全心投入、全员参与、全法支撑

截至目前,源码资本被投企业累计超过了300家,源码向被投企业提供的创业服务次数从2018年的426次增长到2021年的986次,增长率高达132%。2021年累计完成了986次创业服务动作,相比2020年增长了28%,其中44%服务于早期公司(含种子阶段),56%服务于成长期公司,获得高价值度评价的服务占比达到93%。

从“两化”到“六全”

从1.0的“体系化、产品化”到2.0的“六全”经历了两年的时间,经历了洞察、思考、实践的不断循环。

创业者是服务的用户,从用户视角看,全效助攻意味着创业服务要从实际效果出发,为创业者带来快速、准确、有效的服务,助力创业者解决最真切的问题;全程陪伴则是体现在不管公司发展在种子期、早期、成长期成熟期,源码的创业服务从内容、产品和能力都能覆盖;全面服务是指,创业公司的需求是多元的,战略、增长、组织、资源等,不管在哪个领域有需求,创业服务在相关领域都有该领域最优秀的专业人士可以帮忙。

从源码视角看,全心投入是底层发心,源码从一开始就十分重视对创业服务的投入,全心全意帮助创业者,帮助创业者成功。全员参与则意味着,创业服务不仅仅只有创业服务团队,还包含投资、平台、内外部资深专家顾问,以及整个码荟生态都参与到服务中来,实现“人多、人强、人的合作更有效”。全法支撑,则体现了源码资本注重底层思考,讲策略、重实践,用科学的方法提供有效的服务,是“体系化、产品化、线上化”的概括。

从“四横四纵”到“四横十纵”

过去在“体系化、产品化”的服务体系中,源码构建了「四横四纵」服务地图,将创业者的需求分成四大类型,服务方式分成通用的、定制的、补充的、前置的四类解决方案,输出了20+套投后服务产品。

随着被投公司数量增多,阶段,行业广泛等,将原来的「四横四纵」迭代到「四横十纵」,进一步帮助我们全程陪伴&全面服务创业者。在两年时间内,新增到30+创业服务产品。

在新增专业线方面,每建一条专业线,都需要经过半年时间的调研,从需求真实性和供给有效性等方面深入研究,从关键点切入实践并快速迭代,同时广泛寻找这一领域最具优势的专家或团队加入。

例如资本市场方向,创业者希望源码能提供一些IPO方面的指导,公司认为在IPO之路还未清晰的时候寻找匹配的CFO难度较大,且有效性不高,如果源码能提供共享CFO,几家公司一起共用不但效率更高,有很多相关问题就能马上解决。

经过调研确认了创业者对这一领域的需求,源码研发了资本市场系列课,邀请A股、港股、美股资深CFO、投行专家等不同视角的优秀嘉宾深度分享,将这些行业顶尖人才引荐给创业者,在这个过程中,也进一步明确了供给方式,并邀请了王巍加盟,担任合伙人,负责资本市场专业服务的建立,帮助被投企业建设体系化的资本市场能力。

在新增产品方面,每新增一个产品,产品提供方都需要写一个详细的产品说明书,写明产品的应用场景,交付流程,效果评估等,更好的帮助创业者理解、调用产品。例如早期公关这一产品,源码创业服务团队发现很多公司在早期阶段对于如何对公众发声这件事很纠结,怎么说,用什么方式,什么渠道,说到什么程度都是困扰他们的问题。经过内部反复讨论、探索尝试,决定用视频这个形式,首先为早期公司提供对外输出的方法论框架,其次协助他们输出和优化内容,然后配合视频采访和传播,帮助他们打响早期公关第一枪,之后会将过程中的素材和记录以及传播效果全部交付给公司完成闭环。

30多套产品中每一个产品背后都有很多故事,从洞察需求、深度思考、提供和打磨产品、效果评价以及快速迭代,这都是科学提供服务的体现。

有一家机器人赛道To B公司,源码投它的时候已经是成长期,有千人规模,他使用了组织咨询、定向招聘、危机公关这些广泛受成长期企业欢迎的产品,同时也使用了债权融资产品,负责债权融资的专业人士帮助他们成功融到了债权资金。

再例如,有一家消费赛道To C公司,源码从种子期就已进入提供服务,在种子阶段,源码提供了业务方向研讨、渠道资源、创业新手包产品;当公司进入早期阶段之后,他则用到码脑、市场资源、融资支持、政策解读、定向招聘产品;公司进入成长期,他很自然找源码提供组织咨询、战略研讨、PA策略、危机公关等产品,这是一家公司的例子,也是陪伴创业者成长的过程。

创业服务BP和线上化

源码创业服务强调全员参与:人多,人强,人的合作更有效。在人的合作更有效上我们做了很多思考和探索,其中一个很重要的探索成果就是创业服务BP(以下简称创服BP)。创服BP是源码和创业者的连接器和助推器,是源码创服的IP,是创业者身边的小助理。很多创业者已经养成习惯,有需求找创服BP,他们会第一时间联系创服BP帮助他们连接专业资源解决问题。

如果说创服BP是对创业服务组织的创新和优化,那么“线上化”就是“全法支撑”的基础设施,体现在工作流程线上化、创业内容线上化。

线上化使得源码创服的服务效率更高,效果更好。创业服务从需求收集到需求确认、需求执行,再到需求完结的整个过程,全部都在线上完成,被服务的创业者可以在线上实时查看服务进度,给出服务评价。

同时,随着服务的增加,创业服务知识的积累也日渐强大,在线上平台积累了超过70万字的精编课程内容、100篇以上的深度好文、200位以上的CEO朋友圈。这些宝贵的创业经验积累,将让更多创业者能够获益,也体现了知识和经验的传承。

不仅要看到创业的痛点, 更要看到创业的high点。源码创业服务团队持续做的事情就是去理解创业者,理解他的远大的梦想和当下的挑战,理解他清晨的乐观和夜晚的孤独,理解他的如履薄冰,也理解到他的永不言弃。

因为有了对创业者精神的同频共振,才有了“全心”的投入和随时的陪伴。希望陪伴创业者去成为那个变化,为创业者创造价值,共同成长、彼此成就。

从“两化”进阶到“六全”,“投后服务”焕新为“创业服务”。源码资本创始合伙人曹毅说:“‌未来几年,我们已经‌‌有了更加清晰的‌‌规划。码力创业服务中心会是各位创业者最靠谱的‘战友’,我们将继续和坚韧敢为的创业者一道‌‌不负时代,不负使命。”

「科技+生物医疗」的跨界交叉,融合创新的投资新共识

深耕科技领域多年沉淀的独特经验,为医疗和生物领域注入跨界交叉的新共识:这是源码资本对“科技+生物医疗”的投资理念,也是源码生物医疗投资团队身体力行的长情实践。
                                                                                                                                                                                                                                                                                                     ——源码资本合伙人黄云刚
「以下文章来源于36氪 」

2021年即将过去。

这一年,全球持续面临疫情挑战,生物医疗领域不断寻找着黎明曙光,厚积薄发迎来了多项创新突破。

其中,重要的里程碑有被评为“人类在 21 世纪取得的最重要的科学突破之一”的AlphaFold2,对蛋白质结构快速且准确的预测,为疾病的预防和治疗带来更多想象;也有诸多跨领域跨学科的交叉融合带来的“科技+生物医疗”应用落地,如人工智能驱动药物和制剂开发,工业设计和科技结合而来的便携医疗设备等,都将致力于不断优化人类的美好生命体验。

科技融合,跨界交叉

以科技投资见长的源码资本,自2019年起即布局科技+医疗领域。源码资本合伙人黄云刚说:“深耕科技领域多年沉淀的独特经验,为医疗和生物领域注入跨界交叉的新共识:这是源码资本对‘科技+生物医疗’的投资理念,也是源码医疗投资团队身体力行的长情实践。”

源码资本在科技+生物医疗领域的投资理念可以用“三个坚持”来表达:坚持创造持久真实价值,坚持系统化的深度求知,坚持相信交叉跨界的创新共识。

生物医疗的研究及落地都需要很长久的耐心和笃定,但每一次次创新,都能带来人类社会巨大的改变。源码资本看到了深远意义背后诸多的可能性,也相信未来已来,并提早布局去支持难而重要的大方向。看到了,也要系统化的理解才能更精准的助力,源码生物医疗投资团队都是业内专家,始终坚持不断求知、求真知、求新知,从诸多跨界投资的旅程中,也能看到团队知行合一的身影忙碌在科研实验室、生产厂房和企业等。最重要的,也是伴随着科技的发展,学科的边界似乎不再鲜明,生物医疗这类科学的发展也需要结合更强大的科技工具,并衍生出商业应用。源码资本秉持的投资理念,相信可以给创业者带来有全景观的融合创新,带来交叉跨界的力量。

至今,源码资本在医疗相关领域已投资了多家领先的公司,METiS、星药科技、宇道生物、Bota Bio、科亚医疗、健海科技、微脉、小药药、无疆脑科技、硅基仿生、墨卓生物、奇诺动力等。

三个投资故事,也是三段跨界之旅

源码投资人张玉豪是北京大学生物物理学博士,从事了多年的前沿生物医疗领域投资工作。深势科技是张玉豪加入源码资本后,从“科技融合,跨界交叉”理念再度出发,完成的新一轮投资,领投B轮数千万美金。

深势科技源于学界,创始人兼首席科学家张林峰所在的“深度势能”团队成果获得了国际高性能计算领域最高奖项 “戈登贝尔奖”,也是“高性能计算领域的诺贝尔奖”。

从科技领域切入,一开始,张玉豪对深势科技革命性的“机器学习+科学计算+高性能计算”新范式印象深刻,他同时也系统化的理解了新范式是如何应用在复杂跨尺度建模任务中的,如分子动力学问题上,精确的物理建模又是如何被带入了材料模拟,对化学、生物、制药等领域将有哪些更实际的应用前景。

数个月来,张玉豪多次拜访深势科技的创始团队,常常伴随着傍晚霞光到深夜星空,一聊就是几个小时,会议室的白板上都是大家对“深度势能”如何更好落地应用的探讨。团队间的不断碰撞与审视跨越了数理化生医的传统学科边界,最终明确建设高性能计算支持下的科学计算生态,对创新药物和材料的开发设计具有深远意义。这次投资,反映了源码资本对跨学科科技融合的笃定。

跨界交叉寻找新的模式,也是源码资本领投恩和生物Bota Bio的基本路径。科技+生物医疗的结合,体现在了对合成生物学、基因编辑工具、高通量和自动化的融合上。

恩和生物Bota Bio是一家致力于酶工程和菌种开发及优化的合成生物公司,通过结合生物计算和机器学习对生物体进行系统性、工程性编辑,为多种产业如制药提供解决方案,最终落地生产。机器学习等是源码擅长投资的科技领域,但转化到合成生物学和基因编辑,源码生物医疗团队又迎来一次快速的学习到实践,从领悟菌种工程可持续降低生物合成成本,到科技如何实现生物制造。

此外,在这次合作中,恩和生物Bota Bio的科学家懂专业,源码的团队懂得如何助力快速成长的科技+生物医疗公司,两相配合,也是跨界。不同国家的科学家,和在全世界范围内真正完成过落地生产的人才,纷纷汇聚在恩和生物Bota Bio。而源码非常善于帮助研发类企业渡过业务发展中的挑战。源码投后团队深度帮助企业,在半年时间内,辅助恩和生物Bota Bio完成了组织和人才方面的梳理,激励体系绩效体系的完善,OKR落地和推进等;还帮助公司招聘了部分高阶岗位,同时给公司提供管理等方面的体系化课程和咨询赋能。

恩和生物Bota Bio的CEO Cheryl Cui博士是哈佛 – 麻省理工学院医学工程和生物物理博士,她认为“人类生产力的变革,是通过少数技术创新带来,而这样的技术创新需要自由包容的环境,在这样的环境下,由交叉融合带来的创新就会产生。源码很理解这种跨界交叉的新模式,并且我可以非常笃定的感受这家资本对科技创新的耐心。”

跨界交叉,融合创新,也必须解决实际的社会问题,为更多人带来真实持久的价值。源码资本的成员企业硅基仿生就在服务糖尿病人的方向上,不断尝试突破。

根据国际糖尿病联合会(IDF)公布数据,全球10%成年人罹患糖尿病,患病人数两年增长16%;中国在过去的十年间,糖尿病人数增长50%,且半数患者尚不知情。要知情,则需要持续监测血糖的变化。传统的血糖检测仪弊端多,患者需要频繁扎指尖血,也无法形成持续的数据来观察趋势。11月4日,国家药监局批准了硅基仿生自主研发的国内首款具备自主知识产权14天免校准实时持续葡萄糖监测系统(CGM),并正式颁发了三类医疗器械注册证。从此,糖尿病人可以在家自己做监测,无痛无感,并得到实时数据提示。

为科研成果落地的这一天,硅基仿生坚持了近6年,过程中也有源码资本的守望相助。这款产品解决了多个复杂的跨界交叉问题:基础硬件和自主芯片的开发,微型酶传感器要如何与组织间液的葡萄糖发生反应并发送电流,电流如何转化成信号,25个信号又要如何被算法处理,再传送到终端等等。

一路上,源码医疗投资团队也在知行合一中建立专业的思考体系,除了不间断的深度学习,几位投资人几乎每天都要往自己身上扎针去尝试各种产品设备,模拟患者来记录数据并给出详细反馈。此外,源码团队也特别注重引导算法和医学分析的结合,以及如何以终为始做到产品落地并量产。

硅基仿生的董事长赵瑜说:“跟云刚一起沟通,会发现他从一开始的不熟悉,到很快就能成为行业专家,并且能将互联网的经验,战略和管理方向的思维带入给公司,他的跨界速度是非常快的。”这次,源码将“科技+生物医疗”的投资理念,再一次贯穿始终,落到实地。

专业系统化,长期有耐心

生物医疗不是一个很容易就学习透,系统化理解好的赛道,黄云刚在开启“科技+生物医疗”的探索中,付出了诸多心血。

他在人才招募时,更像是在寻找志同道合的伙伴。今天,源码资本在医疗领域已经组建了五个人的投资团队,其中一位北大博士,两位清华博士,他们的背景各不相同,但都带着同样的目标:想要跟创业者一起跨界,从交叉创新中寻找新共识。让科技与生物医疗碰撞出更多的可能性,并支持这些有理想的创业者,让中国的科技+生物医疗未来在全球范围内具有更大影响力。

张玉豪是北京大学生物物理学博士,曾主导参与了深势科技、宇道生物、Insilico Medicine、百奥智汇、普瑞基准、宸安生物、齐碳科技、键嘉机器人、博睿康、Bota Bioscience等项目投资。李严凯2018年获清华大学工学博士学位,曾就职于波士顿咨询公司(BCG)及和玉资本,专注医疗健康领域投资。倪鲁2020年获清华大学免疫学博士学位,师从原清华大学医学院院长、免疫学研究所所长董晨院士,加入源码前在百度风投专注前沿生物赛道投研工作。李旭峰拥有爱尔兰科克大学计算机硕士学位,曾供职于字节跳动战略投资部和盈峰投资,主导和参与多家人工智能和机器人项目投资,投资了AI制药公司望石科技和数字疗法公司无疆脑科学。

投资团队带来的跨界交叉思路也融合进了源码始终如一的投后服务,战略、政策、组织、人才、市场等各项职能也在探索科学家创业的特点和需求,帮助科学家们发挥他们的专业,在商业领域取得更大的成功。

跨界交叉,融合创新。源码资本将始终创造持久真实价值,系统化赋能创业者,帮助“科技+生物医疗”领域的创业者们共同创造出对人类有巨大价值的产品和服务,让更多的人能够通过先进的医疗服务获得更好的生命体验。

抖音电商&源码资本联合发布《新品牌成长趋势白皮书》

11月19日,抖音电商与源码资本联合举办“新品牌发展趋势研讨沙龙”,并在研讨沙龙上共同发布了《新品牌成长趋势白皮书》(以下简称《白皮书》)。

《白皮书》中抖音电商总结了“新品牌,新生意,新增量”的消费品牌发展趋势,品牌如何通过内容去连接用户和美好生活重塑消费链路。并且通过王小卤、Blank ME、云鲸、PMPM、WonderLab、王饱饱、usmile源码资本消费赛道成员企业的具体案例,总结了新品牌在抖音电商的成长策略。源码资本则从投资机构视角,分析了新品牌的成长路径,数字化变革为新品牌提供的土壤,以及新品牌如何打造“产品力”护城河。

研讨会上,源码资本合伙人吴健、常凯斯,抖音电商服务商负责人张浩,抖音电商商家策略负责人黄庭府,源码成员企业代表WonderLab,云鲸,PMPM等共同分享了各自领域的最新思考。未来,抖音电商将成为新品牌的成长载体,新品牌也将通过抖音电商,做好“雪球式增长”。源码资本在消费领域投资了云鲸智能、百果园、邻几、布鲁可、PMPM、moody、usmile、WonderLab、茶颜悦色、王小卤、喜姐炸串等新品牌,未来将持续在消费领域挖掘有科技力和产品力的新品牌。

“兴趣电商”,从上游激发增量

“新品牌发展趋势研讨会”上,抖音电商服务商负责人张浩表示,未来十年是中国消费者黄金十年,也是中国新锐品牌的黄金十年,在这个十年要成为长效经营的赢家,品牌一定要从产品和内容出发,重视内容经营,优化货品供给,强化消费场域建设。2021年,兴趣电商被定义为一种基于人们对美好生活的向往,满足用户潜在购物兴趣,提升消费者生活品质的电商。

张浩说:“相比传统电商和线下购物等渠道,抖音兴趣电商通过推荐技术,把优质的商品内容与海量兴趣用户连接起来,激发了用户消费的新体验与新需求,能够有效帮助新品牌商家解决品牌知名度低、目标用户触达不精准、品牌与效果营销不能兼顾等问题。”

抖音电商商家策略负责人黄庭府介绍了“新品牌”倍速增长的底层逻辑,黄庭府说:“新品牌生意的成长可以大致归为三个主要阶段:启动,成长和突破。不同发展阶段下有不同的经营目标,新品牌需要稳扎稳打提升经营能力,通过合理的成长节奏实现生意的稳定跃迁。”

不同于传统的货架式电商的漏斗形增长模式,抖音电商是兴趣激发增量需求再到购买的雪球式滚动增长,首先是兴趣,然后激发,再来是购买。其区别在于,兴趣电商是基于流量上游的兴趣点,从上游人们的需求和兴趣切入,对于新品牌来说,商家的机会更多。

投资视角,如何看品牌穿越周期

在研讨会上,源码资本合伙人常凯斯说:“真正穿越周期的品牌有哪些共性?我们看到穿越周期的品牌,一定会把握渠道红利和媒体红利,在历史上宝洁、可口可乐等品牌都有同样的规律。品牌创立之初利用渠道和媒体的规模优势,比较容易起来。”

“除了这些之外,还是产品为王。假设市场上只有A、B两个品牌,消费者随机进来,A品牌可能有50%的留存,B品牌可能30%的留存,留存就是产品力的直接体现。集中把精力花在产品上,更能够帮助大家建立长久的竞争优势,并且更快的收敛市场,我们一直也是跟我们被投企业不断的强调产品为王,大家要花更多的精力在研发产品上。”常凯斯说。

同时,除了国内机会之外,中国品牌也已经具备在全球市场的竞争力。常凯斯认为,中国品牌从技术创新,供应链优势,渠道能力和文化影响力上,都已经构建了能影响世界的基础实力,对于中国品牌走向全球市场,已经成为十分确定的判断,源码资本也会助力这些企业,把中国的产品推向全球,为全球消费者创造价值。

源码资本创立于2014年春,致力于发现并助力科技推动商业变革中的世界级领军企业。目前源码资本管理资金规模人民币和美元基金总计折合约350亿元人民币。投科技、投好的产品,支持中小企业发展是源码一贯的理念,和优秀的创业者一起,用科技和创新的力量,助力美好生活。

在服务新品牌方面,源码资本合伙人吴健表示,源码资本针对消费品牌的需求,探索和完善了相关投后服务,例如,在商务拓展方面,协助品牌对接国家级重点科研院所、重点大学重点学科,共同探索如何更高效更精准地进行产学研转化、打造科研护城河;在人力资源方面,重点挖掘电子商务、运营相关领域高端人才;在早期公关方面,协助品牌更好进行消费者沟通、共同应对危机;在公共事务方面,梳理企业内外部公共事务相关工作,协助新品牌对接国家及地方主要学会协会、政府监管部门,建立并放大企业的行业影响力,等等。

新品牌,新趋势下的持续成长

在《新品牌成长趋势报告》中,详细分析了王小卤、BlankMe、云鲸、PMPM、WonderLab、王饱饱、Usmile七家新品牌的成长,通过详细案例展示了品牌从0到1的发展。

其中,PMPM创始人兼CEO闪烁表示:“抖音电商为新品牌提供一个打造品牌阵地的机会,如何一以贯之将品牌精神及产品优势在抖音展现,品牌必须亲力亲为建构属于自己的方法论,才能不断加深目标消费群体对品牌的认知与喜爱。”

王小卤创始人兼CEO王雄表示:“抖音无论作为传播媒介还是销售渠道,在小卤的成长过程中都至关重要。过程中,字节团队的小伙伴也一直全力陪跑,无论是流量工具的使用,策略的制定和复盘,内容和效果的优化等方面,持续为小卤提供了专业、细致、全面的指导和帮助。良性的合作一定会驱动平台和品牌的共创共赢。”

WonderLab联合创始人刘乐表示:“对于新品牌,抖音电商带来了全新的商业思考,如何做好内容,以及围绕内容打造商业模型,是挑战,也是巨大的机遇。”

同时,抖音电商为进一步帮助新品牌加速成长,目标在未来一年帮助100个新品牌在抖音电商销售过亿。符合“抖品牌”特征的新品牌,平台将提供多项权益支持,包括:专属服务、产品特权、流量扶持、品牌宣发资源、营销活动曝光及投融资助力。

 

源码资本宣布常凯斯任合伙人

近日,源码资本宣布常凯斯先生晋升合伙人。常凯斯先生毕业于清华大学自动化系,在英国剑桥大学获得博士学位。常凯斯先生于 2016 年加入源码资本,也是源码最早的成长期投资人,重点关注新消费及新品牌领域投资,曾连续两年被创投媒体《36氪》评为中国大消费领域投资人TOP20。

加入源码资本五年多时间,常凯斯先生主导投资了易点云、云鲸智能、usmile 、布鲁可、茶颜悦色、自如、邻几便利店、百果园等公司,参与了字节跳动、贝壳找房、易久批、新潮传媒、王饱饱等公司的投资。

常凯斯表示:“创业就是在和时代做连接,创业者需要找到自己的时代机会。我们相信未来的时代,属于能更好的利用科技,更注重产品和消费者,更深刻的理解全球市场的创业者。投科技、投好的产品,支持中小企业发展是源码一贯的理念。我们愿意和优秀的创业者一起,用科技和创新的力量,助力美好生活。”

云鲸智能创始人&CEO张峻彬说:“一个优秀企业的诞生极大程度取决于创始团队,因此找到顶级的创始团队成了投资人极其重要的能力。凯斯能在众多跌宕起伏的企业中,找到这批人,并持之以恒地支持他们,这是真正的长期价值投资。”

易点云创始人&CEO纪鹏程说:“凯斯是一个优秀的价值投资人,对用户的需求有敏锐的洞察性,对商业模式有深度的分析和扩展能力,直达事物本质。一直以来,凯斯陪伴着易点云的发展和成长,在战略战术上为我们提供了卓越的帮助,是我们信赖的朋友。”

源码资本完成五期人民币基金募集:推动科技创新,助力中小企业

源码资本近日宣布完成五期人民币基金募集,募资总规模超过70亿元人民币。此次人民币基金募资工作从正式开始到完成仅用了三个多月时间。新加入的出资人除了近10家保险机构外,还包括国家级引导基金,例如国家中小企业发展基金。现有LP中有多家机构都是连续多年出资,例如母基金元禾辰坤连续四年投资了源码资本。与此同时,五期人民币基金继续吸引了众多优秀的产业投资人。

截至目前,源码资本管理资金规模人民币和美元基金总计折合约350亿元人民币,受托管理的资金主要来自于国家级引导基金、地方科创基金、金融机构(保险、银行等)、市场化母基金、产业出资人,全球顶尖的主权财富基金、大学捐赠基金、慈善基金、养老基金等。

创始合伙人曹毅表示:“非常感谢新老投资人对于源码的信任,五期人民币基金募资完成让我们有更多力量去支持中小企业发展,继续寻找各个行业的优秀创业者,并支持他们从种子阶段一路成长为行业领军企业。我们也将继续通过投资去发现价值和创造价值,投早、投小、投科技,为推动科技创新、产业数字化、人工智能、机器人、先进制造、集成电路、生命科学、碳中和等领域的发展,推动数字经济和实体经济深度融合尽一份责任和力量。”

人民币基金募资负责人景雯娜表示:“源码团队持续不断为投资人创造优秀回报,此次人民币基金募集也受到了市场的广泛关注。在携手长期资本、产业资本助力科技创新的同时,源码也将继续保持基金规模在合适的体量,持续为出资人着想,推出更多优质的基金产品。”

投早、投小、投科技

自2014年成立以来,在促进科技创新、助力中小企业、丰富美好生活、推动绿色发展等领域,源码资本投资了超过300家创业企业,涵盖了产业数字化、人工智能、机器人、先进制造、绿色发展、企业软件、生命科学、新消费及新品牌、出海等行业,其中80%为早期阶段的创业企业。

成立之初,源码就在产业的数字化领域有深度的研究,发现了不同行业的数字化升级机会。当时大量传统行业都在酝酿数字化升级,在布料、药品、汽车后市场、物流、快消品等行业,数字化升级的趋势日渐明显。源码投资并见证了一批产业数字化、工业互联网企业的成长壮大,包括:百布、小药药、开思、锐锢、运去哪、易久批、易点云、众能联合等。

近三年来,源码在人工智能及机器人、基础软件及应用软件、集成电路、空天技术等重点技术创新领域投资了云鲸智能、海柔创新、厨芯、梅卡曼德、擎朗机器人,ONES、弘玑、稿定设计、安世亚太、D5、太极图形,壁仞科技、聚芯微电子,银河航天、凌空天行等。

此外,源码资本在生命科学领域加速投资,例如对微脉、恩和生物、硅基仿生、健海科技、剂泰医药、星药科技、宇道生物等医疗科技公司。在绿色发展方面,在新能源汽车产业链投资了理想汽车、小牛电动等,在新能源方面投资了联盛新能源、德兰明海、云谷等“碳中和”相关企业。

如果说生命科学和绿色发展让人们的生活更加持久健康,在大消费领域,源码则一直围绕那些持续探索人们美好生活需求、重视技术驱动的产品服务创新企业,投资了字节跳动、美团、贝壳、自如、百果园、邻几、布鲁可、PMPM、moody、WonderLab、茶颜悦色等。

陪伴创业者长跑

源码从成立开始就与创业者保持紧密的关系,并持续坚定的增加在投后服务方面的投入。在投后服务方面的持续重投入,曾经被很多人不理解,也会有人认为投后服务不可能做到体系化。

源码投后通过建立投后服务“需求、供给和流通”模型,构建了体系化、产品化的服务框架,已经输出了涵盖了码脑课程、公共事务、品牌公关、人力资本、组织发展、资本市场、商务拓展、财法税、战略发展、增长营销等10大功能模块的28套投后服务产品,例如:牛人周报、组织咨询、产业政策研究、资本市场咨询、早期公关、营销私享会、茶话会等产品。

云鲸智能创始人兼CEO张峻彬说:“源码不仅是一家投资机构,更多承担了一个联合创始人的角色,不仅给予资金上的支持,还在组织、流程、制度和一些外部的协作等帮助我们很多。最重要的是,源码不会因为市场短期出现波动,就让我丢掉始终坚守的那些理念、使命和愿景。”

聚芯微电子创始人兼CEO刘德珩说:“创业对于创业者而言是一件非常困难事,每一天都在焦虑中度过。过程中我经常和源码的同事聊天,每次聊天都会觉得很有收获,在认知上给我们很多帮助。我每个月都会收到源码投后团队寄给我的书,每一本都是精挑细选,每次阅读也都像跟源码团队一起在思想上交流,有一起成长的感觉。”

梅卡曼德创始人兼CEO邵天兰说:“我们公司成立不久就遇到源码资本,创业的过程中一直在接触,当公司发展到了合适的阶段我们马上想到源码,因为彼此风格很相似,有很好的信任基础,就像在创业的过程中有一个老朋友加入进来,这种感觉非常好。”

Bota Bio创始人兼CEO崔好博士表示:“创业者本身跟投资人就像是战友的关系,一起去面对很多的问题。源码提出的创造持久真实价值非常打动人的,这也是我们想要去追求的事情。源码跟我们一样也是一个在持续成长的基金,这是一个相互陪伴的过程。这几年我们都是充满活力、奋斗的几年,非常珍惜大家可以去见证彼此成长。”

创造持久真实价值 

源码资本从2014年诞生之初不到10人,逐步成长到投资、投后、平台三大板块,包含7位合伙人和超过100人的专业化团队,形成来自投资管理、产品技术、创业者、企业高管、顾问专家等不同背景但底层统一的多元组合,领导力、行业和专业厚度持续提升,办公室分布北上深三地的跨区域机构。

近五年,源码一直探索在投资行业建设“智能组织”之路,实践传感、计算、执行的有机协作并不断进化。如何实现及时有效准确的反馈和复盘机制,如何充分发挥“分布式计算”和“集中计算”的各自优势,如何设计合理组织结构、制度机制、流程系统等传动控制单元,如何通过文化来增加共识,减少规则,如何持续寻找并践行组织发展和个人发展的交集点以吸引最优秀人才等等问题都是持续面临的难题和挑战。也正是这些难题在驱动组织的不断“智能化”,最终实现每一个团队成员在源码内部都能有自己充分释放“算力”持续迭代“算法”,在共同的使命愿景和战略目标下为组织整体输出源源不断的竞争力、创造力和生命力。

在2021年源码资本CEO年会上,曹毅曾说:“我们就是想去不断的做难而正确的事情,创新进取,持续做对创业者、对行业有价值的事情。研究为先、判断为重,敢于善于投资‘非共识’、投资‘质变’、投资长期。坚持信任创业者,坚持长期陪伴,像创业者一样想问题,像创业者一样做事情。我们合作的理念是不去追求自身的短期利益最大化,而是我们愿意对创业者、对合作伙伴更好一点,希望整个行业能够更加公正、持久和有大局观。这些可能就是我们这个行业的‘创业者精神’吧,我们不断养成的这些精神、理念和形成的行动将吸引到我们想吸引的人。我觉得在未来十五年一定会出现一大批源自中国的世界级企业,我们希望在这中间助一臂之力。”

随着五期人民币基金募集完成,源码资本将扎根于中国的创业创新肥沃土壤,投早、投小、投科技驱动,不断定义“现在的边缘未来的主流”赛道、不断发掘最优秀创业者、持续给创业企业提供有价值的帮助、持续给出资人贡献稳健优秀回报,组成创新共同体,一同创造持久真实价值。

源码成员企业「理想汽车」今日成功于香港交易所主板上市

IPO庆祝仪式现场图

2021年8月12日,中国新能源汽车制造商-理想汽车,今天宣布其A类普通股在香港交易所主板成功上市(股票代码:2015)。

在2021年7月,理想汽车交付8,589辆理想ONE,同比增长251.3%,单月交付量首次突破八千辆,创下新纪录。截至2021年7月31日,2021年总交付量已达到38,743辆,累计交付量已达到72,340辆。

源码资本合伙人王星石表示,“非常高兴看到理想汽车今天在香港交易所主板上市,源码资本作为理想汽车最早期机构投资人,是理想汽车的A轮主要投资方,并在后续持续多轮加码投资。”

“汽车工业是一个国家工业综合实力的体现,新能源智能汽车是汽车工业和信息技术结合的跨时代创新产品,契合新能源结构的发展方向,承载美好生活空间的诉求。理想汽车团队历时5年打造的理想ONE,上市以来取得优秀的成绩,赢得了用户和合作伙伴的信任和支持。我们相信理想汽车持续推出环境友好、科技领先、用户满意的新产品,创造持久真实价值。”王星石说。

“创造移动的家,创造幸福的家”是理想汽车的使命,在这个使命的驱动下,理想汽车将打造让每一位家庭用户满意的产品。2022年理想汽车将会推出X平台上的首款产品——全尺寸豪华增程式电动SUV,并于2023年在X平台上推出另外两款SUV。此外,理想汽车也在开发纯电动车技术,包括为高压纯电动车型开发的两个平台——Whale及Shark。自2023年起,理想汽车每年将会至少推出两款采用高压纯电动技术的车型。

理想汽车认为,新能源车的能源补充效率必须和燃油车一样便捷、高效。因此,无论是增程式电动解决方案,还是高压纯电动解决方案,均可为用户提供媲美燃油车一样便捷、高效的能源补充体验。为了达成这一目标,理想汽车将计划部署一个由超快充充电站构成的高功率充电网络,保证用户充电体验。

智能化方面, 在售的2021款理想ONE标配了全栈自研的理想AD高级辅助驾驶系统,并采用了两颗地平线 “征程®3”自动驾驶专用芯片及五颗博世第五代毫米波雷达。理想汽车始终认为一家人的安全,只有标配,没有选配。因此自2022年起,所有新车型均将标配自研开发的L4级自动驾驶软、硬件,并且将持续优化自动驾驶系统。另外,在智能座舱方面,我们也将开创空间智能技术的研发,让智能服务于车里的每一位家庭成员。

理想汽车表示:“此次在香港交易所上市和全球发售,战略性地拓宽了我们的资本渠道,扩大了我们的投资者基础,并进一步增强了我们扩大规模、加大创新和进入新市场的能力。随着电动汽车的普及,我们很开心能凭借业界领先的技术创新和产品力,引领这一前所未有的机遇。我们对今天的上市感到高兴,并将专注于我们的战略以实现可持续增长,坚持利用技术为用户创造价值。”