腾讯ima上新「发言人识别」:支持中、英、粤及7种方言

2025-09-29 21:31:21 来源: 腾讯云
中性

  这句话究竟是谁说的?

  在采访、研讨会、圆桌论坛等线下录音场景中,最让人头疼的,不是听不清,而是分不清——多个人的声音混在一起,如果没有事先标注,想要回溯某句话,只能靠反复回听、猜测,甚至指望记忆力「超常发挥」。

  现在,这个难题有解了——

  腾讯AI工作台ima.copilot(简称ima)全新推出「发言人识别」功能,基于智能声纹识别技术,可自动区分不同说话人,转写文本直接标明「发言人1」「发言人2」……一目了然。

  ima支持中文、英文、粤语及7种方言(包括四川、陕西、河南、上海、湖南、湖北和安徽方言),即使多种语言方言混合表达,也能精准区分,大幅提升多人对话的记录与整理效率。

  //更清晰:自动区分说话人,转写文本一目了然

  传统录音转写内容混杂,难以对应具体发言人。

  ima能够在录音过程中自动辨别不同语音特征,实现分角色标注,方便用户快速定位发言来源。用户也可根据实际需要,自主开启或关闭该模式,灵活适配正式会议或自由讨论等不同场景。

  //更兼容:支持多种语言与方言,混合表达精准识别

  过去在录音转写中,只要夹杂几句方言,系统就容易「听不懂」;如果是中英文混着说,转写也容易错乱、缺字、跳句,造成重要信息的丢失。

  现在,ima 支持中文、英文、粤语三种常用语言,同时兼容四川话、陕西话、河南话等 7 种方言。即使面对普通话夹杂方言、中文英文轮番混说的场景,也能精准识别、自动区分,让转写结果逻辑清晰、不丢内容。

  无论是多地联合开会,还是跨语种访谈、教学讨论,ima 都能听得懂、分得清。

  //更稳定:高精度识别,嘈杂环境错字律降低20%

  距离远、语速快、现场吵?过去,这些因素都可能让语音识别「听了个寂寞」。

  ima 搭载微信与腾讯云联合打造的 ASR 大模型,在远场、噪音、多人同讲等复杂环境下,字错率降低约 20%,还可动态适应不同口音和语速,真正实现「听得懂、跟得上、不漏字」。

  即便是高并发场景,ASR大模型也能毫秒级响应不卡顿,保证用户体验。

  无论是线下会议、产品评审、商务谈判,还是课堂互动、访谈调研、团队讨论,ima 都能自动标注发言人,让整理和复盘更高效。新功能尤其适合职场人、教师、记者、学生等用户群体。

  对话,是思想碰撞的起点,而清晰的记录能让灵感得到延续。戳下方链接更新 ima ,试试全新的「发言人识别」功能——

  有不懂的问题?评论区 @元宝,它随时在线,给你解答!

关注同花顺财经(ths518),获取更多机会

0

+1
  • 北信源
  • 兆易创新
  • 科森科技
  • 卓翼科技
  • 天融信
  • 吉视传媒
  • 御银股份
  • 中油资本
  • 代码|股票名称 最新 涨跌幅