23 年和 24 年我们主要精力在提升 UI 还原准确率以及更好的实现组件识别等问题上,并且已经积累了一部分用户。
随着 2024年 AI 模型能力的提升,越来越多的公司和团队开始探索通过 AI 来开发应用,类似 v0.dev, bolt.new 等。但在涉及到 UI 生成时,Text2Code 或者 Image2Code 的方式很难得到精确的 UI 结果,相比简单 demo 和模糊需求很难得到用户满意的结果。
预计未来1-2年内,基于设计稿进行开发的占比仍会较高,对 UI 结果有精确的诉求不会被消灭。
此时 D2C 结果可用于帮助大模型精确理解设计稿,作为 AI 开发应用的中间环节。另一方面 AI 的代码和图像理解能力也可以帮助 D2C 完善中间环节与下游加工环节,比如提升交付代码的可维护性,响应式布局能力、补充业务交互逻辑等。
因此未来在基础能力提升之外,我们会在 D2C 和 AI 能力的结合上做更多的突破。
- 在核心能力层,目前基于工程化的方式对 UI 还原提升不再明显,未来会通过引入 AI 对图片和 Figma 原始数据的理解,帮助生成更合理的 Dom 结构和响应式布局。
- 在组件接入层,目前用户接入组件识别的成本过高,阻碍了 D2C 扩大用户规模。未来会尝试通过降低组件标记成本甚至放弃组件标记的方式实现组件识别。
- 在消费链路层,一方面会通过D2C平台和 AI 改写能力优化代码可维护性。另一方面,探索如何让大模型更好的消费和理解 D2C 代码,以及在某些有特定规范的领域,探索业务逻辑的生成,数据接入和部署上线等能力。