开发者社区> 问答> 正文

智能语音交互、语音AI中一般我们进行websocket协议进行语音实时识别。握手成功后发送语音到服务

智能语音交互、语音AI中一般我们进行websocket协议进行语音实时识别。握手成功后发送语音到服务器没有反馈信息回来是音频格式不对吗还是什么原因?好像反馈一个是400002然后最后是说无法解析json信息的字样,我们发送音频数据过去的时候还需不需要一一直保存加入头文件信息那些?还是握手成功后只需单独持续发送音频数据就行?好的"task_id":"a6096a65c1cb410ea669dc7066ef6c3f" 最后我发送结束指令的时候会出现这一句{"header":{"namespace":"Default","name":"TaskFailed","status":40000002,"message_id":"512338507c5b49f58488cb517e695c49","task_id":"87f5841de5705340de8e67ac59195d37","status_text":"Gateway:MESSAGE_INVALID:Failed to parse nls message to json!"}}这种发送的数据是pcm音频数据。我还在想怎能给它显示出来还没搞懂如何让它显示出来我说将pcm浮点数组转字节数组后发送。会不会是音频的数据格式不对,就是我在引擎里面不知道怎么把它提提取出来。实时请求的方式可以拿一段现成的音频测试吗?就是我自己引擎里面打印这个pcm音频字节数组出来都是一些1多几到250之内跳动这样的数字在持续发送。数字是100到250之间的字样

展开
收起
真的很搞笑 2023-05-03 21:29:13 169 0
1 条回答
写回答
取消 提交回答
  • 您这边有报错提示吗?taskid给下,您发送的数据可以给一下嘛,此回答整理自钉群“阿里语音AI【5群】”

    2023-05-03 21:44:01
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
阿里云总监课第二期——IoT时代的语音交互智能 立即下载
阿里云总监课第二期——Latency Controlled-BLSTM模型在语音识别中的应用 立即下载
智能语音交互:阿里巴巴的研究与实践 立即下载