科学家称他们已经消除了人工智能领域的一个主要瓶颈——现在他们可以“以光速”进行计算
AI 深度解读
AI正在解读中...

科学家认为,一种新的架构以被动式、单次触发的光速操作取代了传统的瓶颈,这可能成为通用人工智能的基础硬件。

Image

科学家们开发了一种用于下一代光计算的基础架构——使用光而不是电来驱动芯片——这可能会彻底改变人工智能(AI) 模型的训练和执行方式。

大型语言模型 (LLM) 和基于深度学习的语言模型的核心是一种称为“张量”的加权组织结构,它就像一个文件柜,上面贴着便利贴,指示哪些抽屉使用最频繁。

当人工智能模型被训练来执行某项任务或功能(例如识别图像或预测文本字符串)时,它会将数据整理成张量。在现代人工智能系统中,模型处理张量数据(或称“文件柜”)的速度是根本性的性能瓶颈,也是模型规模的硬性限制。

在典型的基于光的计算中,模型通过多次发射激光阵列来解析张量。它们的工作原理类似于扫描包装条形码以确定其内容的机器,只不过在这种情况下,每个容器都对应一个数学问题。处理这些数据所需的计算能力与模型的固有能力成正比。

尽管光计算在小规模应用中速度更快、能效更高,但大多数光系统无法并行运行。与图形处理器(GPU)不同,后者可以串联起来,从而指数级地提升处理能力,而光系统通常只能线性运行。正因如此,大多数开发者更倾向于选择并行处理,因为并行处理能够带来更大规模的强大处理能力。

正是由于这种扩展瓶颈,OpenAI、Anthropic、Google 和 xAI 等公司开发的最强大的模型才需要数千个 GPU 协同运行才能进行训练和运行。

但这种名为并行光学矩阵乘法(POMMM)的新架构有望解决阻碍光计算发展的难题。与以往的光学方法不同,它利用单次激光脉冲即可同时进行多个张量运算。立即注册订阅 Live Science 每日新闻简报

将世界上最引人入胜的发现直接发送到您的邮箱。请与我联系,告知我其他 Future 品牌的新闻和优惠信息。接收我们代表我们信任的合作伙伴或赞助商发送的电子邮件提交您的信息即表示您同意条款和条件以及隐私政策,并且您已年满 16 岁。

最终成果是一种基础性的 AI 硬件设计,它有可能将给定 AI 系统的张量处理速度扩展到超越最先进的电子硬件能力,同时降低其能耗。

下一代光计算和人工智能硬件

杂志上,详细介绍了实验性光学计算原型的结果,以及与标准光学和 GPU 处理方案的一系列对比测试。

科学家们利用传统光学硬件组件的特定排列方式,结合一种新颖的编码和处理方法,在一次激光脉冲中捕获和解析张量包。

他们成功地将数字数据编码到光波的振幅和相位中,将数据转化为光场中的物理属性——这些光波结合起来执行矩阵或张量乘法等数学运算。

在这种模式下,这些光学操作无需额外的功率进行处理,因为它们是在光传播过程中被动发生的。这消除了处理过程中对控制或切换的需求,以及执行这些功能所需的功率。

“这种方法几乎可以在任何光学平台上实现,”该研究的第一作者、阿尔托大学光子学研究组负责人孙志培在一份声明中表示。“未来,我们计划将这一计算框架直接集成到光子芯片上,使基于光的处理器能够以极低的功耗执行复杂的AI任务。”

张估计,该方法可在三到五年内整合到主要的AI平台中。

通用人工智能加速器

代表们将此描述为迈向下一代通用人工智能 (AGI) 的一步——AGI 是一种假想的未来人工智能系统,它比人类更聪明,并且可以独立于训练数据,在多个学科中进行普遍学习。

张在声明中补充道:“这将创造新一代光学计算系统,显著加速众多领域中复杂的人工智能任务。”

虽然论文本身没有明确提及通用人工智能(AGI),但确实多次提到了通用计算。

在计算机科学界的某些领域,认为扩展当前的 AI 开发技术是实现通用人工智能 (AGI) 的可行途径的观点非常普遍,以至于你可以买到印有“扩展就是你所需要的一切”字样的 T 恤。

其他科学家,例如 Meta 即将离任的首席人工智能科学家Yann LeCun,则持不同意见,他们认为 LLM(当前人工智能架构的黄金标准)无论其规模扩大到何种程度,都永远无法达到 AGI 的水平。

科学家们表示,有了 POMMM,他们可能找到了硬件难题的关键一环,可以消除该领域最大的瓶颈之一,使开发人员能够远远超出当前范式的基础限制。

已显示 25%,查看完整内容需登录

您已阅读了文章的 25%,剩余 75% 内容需要登录后查看。

立即登录 注册账号

收藏
打赏
在土耳其发现的宏伟陵墓可能是迈达斯国王王国的王室成员陵墓
上一篇
NASA确认银河系中存在6000颗隐藏行星,我们或许并不孤单
下一篇

发表评论

注册不是必须的

个人中心
xuanzhang
509 文章
0 评论
6 收藏

扫码分享

微信支付
支付宝