安徽新一代语音关键事件检测介绍

时间:2024年01月11日 来源:

    用于将场景图像检测模型输出的检测结果和光流图检测模型输出的检测结果进行融合计算,基于融合计算的结果,确定关于目标防护舱的事件检测结果。可选的,一种具体实现方式中,上述结果确定单元包括:乘积计算子单元,用于根据场景图像检测模型和光流图检测模型的权重,计算场景图像检测模型输出的检测结果和场景图像检测模型的权重的乘积,并计算光流图检测模型输出的检测结果与光流图检测模型的权重的第二乘积;结果确定子单元,用于计算乘积和第二乘积的和值,基于和值,确定关于目标防护舱的事件监测结果。可选的,一种具体实现方式中,事件检测结果为:关于未发生异常事件的结果,或者,关于发生异常事件且所发生异常事件类型的结果。可选的,一种具体实现方式中,上述装置还包括:事件判断模块,用于当事件检测结果为关于发生异常事件且所发生异常事件类型的结果时,判断目标防护舱当前时刻发生的事件类型是否包括预设类型的事件;如果是,触发报警模块;报警模块,用于生成并发出与预设类型对应的报警信号。可选的,一种具体实现方式中,上述装置还包括:图像截取模块,用于当事件检测结果为关于发生异常事件且所发生异常事件类型的结果时,对当前帧图像进行截图。语音关键事件检测是未来语音识别和智能交互领域的重要研究方向之一。安徽新一代语音关键事件检测介绍

安徽新一代语音关键事件检测介绍,语音关键事件检测

    确定在时刻t0目标人物所处的位置信息,以及在时刻t1目标人物所处的位置信息。根据两个时刻目标人物所处的位置信息,可以获取目标人物的运动轨迹。根据目标人物的运动轨迹,可以获知目标人物所处的理论位置范围。在确定了目标人物的理论位置范围之后,控制器12可以从m个第二摄像头14采集到的实时图像中,识别出目标人物游泳时的动作姿势,进而获取目标人物的泳姿信息。在实际应用中,游泳者在游泳时,其对应的泳姿可以为蝶泳、蛙泳、仰泳、自由泳等。无论哪种泳姿,都存在一定的规律性。在具体实施中,控制器12可以采用现有的图像识别方法来识别目标人物游泳时的动作姿势。控制器12可以将识别出的动作姿势与现有的泳姿信息库进行比对,从而获知目标人物的泳姿信息。具体的比对过程也可以采用现有的匹配算法,本实用新型实施例不做赘述。在具体实施中,可以预先根据经验值,设置相应的目标频率值。例如,根据大数据统计分析,正常情况下,游泳者沉浮一次间隔的时间为15s,也即1分钟游泳者的沉浮频率为4次。此时,可以设置目标频率值为1分钟4次。可以理解的是,目标频率值也可以根据实际的应用场景进行设定,并不仅限于本实用新型上述实施例中提供的示例。河北语音关键事件检测特征语音关键事件检测的设备有哪些?欢迎咨询!

安徽新一代语音关键事件检测介绍,语音关键事件检测

    便可以得到一个第二样本图像组及样本图像组的事件检测结果。实施例三:上述步骤f2,基于场景图像检测模型输出的检测结果,确定关于目标防护舱的事件检测结果,可以包括以下步骤f21-f23:步骤f21:将至少包含光流图在内的第二类图像确定为辅助图像,第二类图像中各个图像的类型均为:基于每两帧连续的关于所述目标防护舱且包括所述目标对象的图像获取的光流图,光流图为当前帧图像对应的光流图;步骤f22:将辅助图像输入到预设的光流图检测模型中,得到光流图检测模型输出的检测结果;其中,光流图检测模型为:采用各个第二样本图像组和每个第二样本图像组的事件检测结果所训练得到的模型,且每一第二样本图像组中的图像与待分析图像的图像数据相同,各个第二样本图像组中的图像为:关于防护舱的光流图;步骤f23:将场景图像检测模型输出的检测结果和光流图检测模型输出的检测结果进行融合计算,基于融合计算的结果,确定关于目标防护舱的事件检测结果。也就是说,在本实施例三中,可以同时利用场景图像检测模型对类图像进行检测,得到一个检测结果,利用光流图检测模型对第二类图像进行检测,得到另一个检测结果,进而,将两个检测结果进行融合计算,并基于融合计算的结果。

    光流图检测模型为:采用各个第二样本图像组和每个第二样本图像组的事件检测结果所训练得到的模型,且每一第二样本图像组中包括n+1帧光流图。第二种情况:待分析图像为:当前帧图像和当前帧图像之前的连续m帧图像的多张图像;场景图像检测模型为:采用各个样本图像组和每个样本图像组的事件检测结果所训练得到的模型,且每一样本图像组中包括m+1帧场景图像;辅助图像为:光流图;光流图检测模型为:采用各个第二样本图像和每个第二样本图像的事件检测结果所训练得到的模型,且每个第二样本图像为一帧光流图。第三种情况:待分析图像为:当前帧图像;场景图像检测模型为:采用各个样本图像和每个样本图像的事件检测结果所训练得到的模型,且每个样本图像为一帧场景图像;辅助图像为:包括光流图和光流图之前的连续n帧光流图的多张图像;光流图检测模型为:采用各个第二样本图像组和每个第二样本图像组的事件检测结果所训练得到的模型,且每一第二样本图像组中包括n+1帧光流图。第四种情况:待分析图像为:当前帧图像;场景图像检测模型为:采用各个样本图像和每个样本图像的事件检测结果所训练得到的模型,且每个样本图像为一帧场景图像;辅助图像为:光流图。利用语音关键事件检测技术,我们可以自动提取音频中的情感信息,如愤怒、快乐或悲伤等。

安徽新一代语音关键事件检测介绍,语音关键事件检测

    基于光流图检测模型输出的检测结果,确定关于目标防护舱的事件检测结果,可以包括以下步骤g21-g23:步骤g21:将至少包含当前帧图像的类图像确定为辅助图像;步骤g22:将辅助图像输入到预设的场景检测模型中,得到场景检测模型输出的检测结果;步骤g23:将场景图像检测模型输出的检测结果和光流图检测模型输出的检测结果进行融合计算,基于融合计算的结果,确定当前时刻,关于目标防护舱的事件检测结果。其中,关于类图像的相关描述内容、场景检测模型的相关描述内容、场景图像检测模型输出的检测结果和光流图检测模型输出的检测结果进行融合的融合过程等,可以参见上述的以第二类图像作为辅助图像时的相关描述内容。相对应上述本发明实施例提供的一种事件检测方法,本发明实施例还提供了一种事件检测装置。图6为本发明实施例提供的一种事件检测装置的结构示意图,如图6所示,该装置可以包括如下模块:图像获取模块610,用于实时获取关于目标防护舱的图像,并将当前时刻所采集到的图像作为当前帧图像;图像检测模块620,用于检测当前帧图像是否包含目标对象,其中,目标对象为:能够表征用户进入目标防护舱的用户身体部位;如果是,触发图像确定模块;图像确定模块630。语音关键事件检测的好处有哪些?欢迎咨询!湖北新一代语音关键事件检测特征

语音关键事件检测在线咨询鱼亮科技!欢迎来电咨询!安徽新一代语音关键事件检测介绍

    根据设定的span宽度,对语句进行span划分,以将语句划分为多个span,并对每个span进行标记;其中,每个标记表示x+y+1种类型中的任意一种,1表示所述触发词的类型和所述事件主体的类型以外的其他类型。在本申请的示例性实施例中,所述对所述向量化语义表示w1进行span划分,得到多个语义片段可以包括:获取设定的span的大宽度max_span_width;根据span的宽度从1到max_span_width依次在所述向量化语义表示w1上进行选取,获得多个span的语义表示span_embedding。在本申请的示例性实施例中,所述对所述新的语义表示w3进行span分类可以包括:使用两层全连接神经网络和softmax层对每个span进行分类;其中,在训练阶段,将分类结果与带有标记的span进行误差计算和反向传播。本申请还提供了一种事件检测装置,可以包括处理器和计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令被所述处理器执行时,实现上述任意一项所述的事件检测方法。与相关技术相比,本申请可以包括:获得语句的向量化语义表示w1;对所述向量化语义表示w1进行span划分,得到多个语义片段;对多个语义片段进行平均池化,得到每个span的表示w2。安徽新一代语音关键事件检测介绍

信息来源于互联网 本站不为信息真实性负责