modelscope-funasr区分音频通道解析 这个问题怎么解决?提了个issue#1509,
要解决delScope-Funasr区分音频通道解析的问题,您可以尝试以下步骤:
soundfile.read("vad_example_zh.wav")
得到的numpy.ndarray或torch.Tensor对象,可以直接用于推理。综上所述,要解决ModelScope-Funasr区分音频通道解析的问题,需要进行多方面的尝试和排查,包括检查音频文件格式、提供正确的音频数据、使用正确的音频对象等。同时,也需要关注官方文档和社区支持,以及等待官方团队的回复和指导。
为了解决ModelScope-Funasr中区分音频通道解析的问题,您可以尝试以下几种方法:
请注意,解决技术问题可能需要一定的时间和耐心,同时也可能需要您进行一些实验和调试。希望以上建议能够帮助您解决问题。
给你一个提示:你输入的是文件,有音频头,内部会进行预处理,例如,通道合并,重采样等。你如果输入的是采样点或者pcm,没有音频头,内部不会对音频输入进行预处理,在这种情况下,你需要自己把音频处理到16000采样率,单通道,16bit位深等等 音频处理函数是这个,你可以debug一下:
https://github.com/alibaba-damo-academy/FunASR/blob/main/funasr/utils/load_utils.py#L37
此回答整理自钉群“modelscope-funasr社区交流”