首页>TAG列表
流式语音识别模型 低延时 基于Transformer的高效

流式语音识别模型 低延时 基于Transformer的高效

从场景上,语音识别可以分为流式语音识别和非流式语音识别,非流式语音识别,离线识别,是指模型在用户说完一句话或一段话之后再启动识别,而流式语音识别则是指模型在用户还在谈话的时刻便同步启动语音识别,流式语...

谷歌Infini 间接裁减到有限长

谷歌Infini 间接裁减到有限长

谷歌又加大招了,颁布下一代Transformer模型Infini,Transformer,Infini,Transformer引入了一种有效的方法,可以将基于Transformer的大型言语模型,LL...

反派新架构掀翻Transformer!有限高低文处置 2万亿token碾压Llama 2

反派新架构掀翻Transformer!有限高低文处置 2万亿token碾压Llama 2

继Mamba之后,又一勇于应战Transformer的架构降生了!来自Meta、南加州大学,USC,、CMU和UCSD的钻研人员提出了全新的神经网络架构——Megalodon,巨齿鲨,这是专为有效处置...

一文梳理Transformer在期间序列预测中的开展历程代表上班

一文梳理Transformer在期间序列预测中的开展历程代表上班

Transformer的序列建模才干,让其自然就比拟适宜期间序列这种也是序列类型的数据结构,然而,期间序列相比文本序列也有很多特点,例如期间序列具备自相关性或周期性、期间序列的预测经常触及到周期十分长...

高维多变量下的Transformer时序预测建模方法

高维多变量下的Transformer时序预测建模方法

当天给大家引见一篇CIKM2024中的期间序列预测上班,这篇文章针对高维多变量时序预测疑问,提出了一种基于Transformer的建模方法,论文题目,ScalableTransformerforHig...

How You Much Need? Do Transformer结构长处 Attention

How You Much Need? Do Transformer结构长处 Attention

前言本期基于凯斯西储大学,CWRU,轴承数据,启动Transformer的结构长处启动解说,结合论文,HowMuchAttentionDoYouNeed?,,探求不同模块对缺点分类义务的影响力,1,H...