Inception公司筹集5000万美元,用于构建代码和文本的扩散模型
AI初创公司融资热潮下的新机遇
当前大量资本正涌入人工智能初创领域,这对于怀揣创新构想的AI研究者而言恰逢其时。若创意具备足够新颖性,以独立公司形式获取所需资源可能比依托大型实验室更为便捷。
Inception的破局之道
专注于扩散模型开发的初创公司Inception正是典型案例。该公司刚完成5000万美元种子轮融资,由Menlo Ventures领投,Mayfield、Innovation Endeavors、微软M12基金、Snowflake Ventures、Databricks Investment及英伟达风险投资部门NVentures跟投。吴恩达与安德烈·卡帕西亦参与了天使轮投资。
技术领航者的创新实践
项目负责人斯坦福大学教授Stefano Ermon长期致力于扩散模型研究。这类模型通过迭代优化而非逐字生成的方式创造输出,已成为Stable Diffusion、Midjourney和Sora等图像AI系统的技术核心。在人工智能热潮兴起前就已深耕该领域的Ermon,正通过Inception将扩散模型拓展至更广泛的应用场景。
技术落地与性能突破
伴随融资进展,公司发布了专为软件开发设计的新版Mercury模型。该模型已集成至ProxyAI、Buildglare和Kilo Code等多款开发工具。Ermon强调,扩散方法将帮助其模型在延迟响应时间和计算成本这两个关键指标上实现优化。
“基于扩散架构的大语言模型比现有技术方案更为迅捷高效,”Ermon表示,“这完全是另辟蹊径的技术路径,仍蕴藏着巨大的创新空间。”
技术架构的范式革新
要理解技术差异,需从基础架构切入。主导文本AI服务的自回归模型(如GPT-5和Gemini)采用序列化工作方式,根据已处理内容逐词预测后续内容。而源于图像生成的扩散模型则采取整体性策略,通过渐进式调整响应结构直至达成目标结果。
虽然业界普遍将自回归模型作为文本应用首选,且该方案在历代AI模型中成效显著,但最新研究表明,在处理海量文本或受数据约束的场景下,扩散模型可能更具优势。Ermon指出,这些特性使其在大型代码库操作中展现独特价值。
硬件效能的颠覆性提升
随着AI基础设施需求日益明晰,扩散模型在硬件利用方面展现出关键优势。自回归模型必须顺序执行运算,而扩散模型可并行处理多项操作,这在复杂任务中能显著降低延迟。
“我们的基准测试显示每秒可处理超1000个token,远超现有自回归技术的极限,”Ermon解释道,“因为这套系统天生为并行计算设计,其运行速度具有革命性突破。”