在上海交通大学的实验室里,一张张高分辨率图像正在由一枚特殊芯片生成。这枚名为LightGen的芯片,刚刚登上国际顶级期刊《科学》杂志,并获选为“高光论文”重点报道。
这不是普通的电子芯片,而是一枚全光计算芯片,它用光的传播代替了电子流动进行计算,被专家视为突破当前AI算力与能耗瓶颈的关键方向。
01 学术突破
北京时间12月19日,这项由上海交通大学集成电路学院陈一彤课题组完成的成果,正式发表于《科学》杂志。
这项研究的核心是首次实现了支持大规模语义视觉生成模型的全光计算芯片,并被命名为LightGen。
上海交通大学为论文第一作者和通讯作者单位,陈一彤助理教授为第一作者及通讯作者。这也是上海交通大学集成电路学院(信息与电子工程学院)成立以来首篇第一单位且独立通讯单位的《科学》正刊论文。
02 技术本质
所谓“光计算”,可以通俗理解为:不是让电子在晶体管中运行,而是让光在芯片中传播,用光场的变化完成计算。
光天然具备高速和并行的优势,因此长期被视为突破算力与能耗瓶颈的重要方向。
然而,要把光计算真正用到生成式AI上并非易事。生成模型往往规模更大,还需要在不同维度之间不断变换。
如果芯片规模较小,则不得不频繁在光与电之间级联或复用,光计算的速度优势会被延迟与能耗迅速抵消。
03 核心突破
LightGen之所以能够实现性能飞跃,在于它在单枚芯片上同时突破了三项领域公认的关键瓶颈。
这三项突破分别是单片上百万级光学神经元集成、全光维度转换,以及不依赖真值的光学生成模型训练算法。
其中任何一项单独突破都足以构成重要进展,而LightGen将它们同时实现,使得面向大规模生成任务的全光端到端实现成为可能。
更重要的是,LightGen展示的是让全光芯片完整实现“输入—理解—语义操控—生成”的闭环:输入图像进入芯片后,系统能够提取与表征语义信息,并在语义操控下生成全新的媒体数据。
04 性能表现
在性能评估上,LightGen采用了严格的算力评价标准。实测表明,相比顶尖数字芯片,即便采用较滞后性能的输入设备,LightGen仍实现了2个数量级的算力提升和2个数量级的能效提升。
而如果采用前沿设备使得信号输入频率不是瓶颈的情况下,LightGen理论上可实现算力提升7个数量级、能效提升8个数量级的性能跃升。
论文实验验证,LightGen可完成高分辨率(≥512×512)图像语义生成、3D生成、高清视频生成及语义调控,同时支持去噪、局部与全局特征迁移等多项大规模生成式任务。
05 行业意义
随着深度神经网络和大规模生成模型的迅猛演进,AI正以前所未有的速度革新世界。然而,规模爆炸式增长的生成模型带来超高算力和能耗需求,与传统芯片架构的性能增长速度已出现日益严峻的紧迫缺口。
后摩尔定律时代,面向未来的研究焦点转向光电计算等“下一代算力芯片”。然而,当前光电芯片仍主要擅长加速判别类任务,距离支撑前沿大规模生成模型还有不小距离。
如何让下一代算力光芯片能运行复杂生成模型,成为全球智能计算领域公认的难题。
目前,生成式AI正加速融入生产生活,要让“下一代算力芯片”在现代人工智能社会中真正实用,研发能够直接执行真实世界所需前沿任务的芯片势在必行。
LightGen芯片展示的全光路径,不仅体现在实验室数据上,更指向一个可预见的未来:人工智能生成高质量图像、视频乃至3D模型的速度将提升百倍甚至千万倍,而消耗的能源将大幅降低。
这项突破为新一代算力芯片真正助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式智能计算提供了新的研究方向。



