在第五届字节跳动奖学金颁奖典礼上,字节跳动技术副总裁杨震原分享了公司自2014年起在技术领域的探索历程。作为技术爱好者,杨震原自2014年加入字节跳动后,从搭建推荐系统起步,参与了多项关键技术突破,逐步推动公司技术体系的发展。
2014年,字节跳动在推荐系统领域设定了极具挑战的目标:实现万亿级特征规模。当时,工业界最大规模的机器学习系统是搜索广告中的离散逻辑回归模型,而将其应用于推荐系统面临诸多难题,包括软硬件工程与机器学习的交叉人才稀缺,以及高硬件成本投入的顾虑。团队通过优化系统建模、存储计算架构和算法设计,最终在年底引入FM类算法,并逐步构建起基于深度学习的通用体系。这一系统从上线之初便采用流式训练模式,至今仍被证明在推荐场景中具有高效性。
2021年,字节跳动通过收购Pico团队布局XR技术,并制定双路线战略:一方面持续运营视频、直播等内容生态,另一方面加大基础技术研发投入。2023年,公司调整策略,聚焦技术突破,减少内容营销投入。针对XR设备清晰度问题,团队与供应商合作定制MicroOLED显示技术,通过微透镜阵列优化亮度与色均匀性,实现单眼4K分辨率与轻量化设计。在运动追踪(MR)领域,团队自研专用芯片,将系统延迟压缩至12毫秒,显著优于行业平均水平。公司还构建了高精度测试系统,以支撑虚实融合场景的识别与交互需求。
2023年,大模型技术成为字节跳动技术布局的核心方向之一。尽管公司早在2021年已开展相关研究,但直至ChatGPT引发全球关注后,才加速商业化进程。目前,其AI对话助手“豆包”已成为国内用户规模最大的产品,火山引擎的大模型服务也占据中国MaaS市场首位。技术层面,公司依托早期积累的基建优势,构建了高效训练系统MegaScale,浮点运算利用率(MFU)超越主流开源框架1.3倍。通过优化模型结构与自研服务器,公司成功降低大模型服务成本,在保持毛利率的同时打破行业价格底线。
杨震原指出,当前大模型能力存在显著不均衡性:例如在数学竞赛中表现超越99.9%人类,却难以胜任初中生水平的电话客服工作。这一差距源于模型学习机制与人类本质差异——现有模型训练与推理阶段分离,部署后仅能通过上下文学习,而人类具备持续学习能力并可利用社会环境反馈。模型在交互能力(IO)上仍与人类存在差距,尤其在内容理解与界面操作等基础领域。这些挑战将成为技术团队未来探索的重点方向。

