智能语音交互、语音AI中一般我们进行websocket协议进行语音实时识别。握手成功后发送语音到服务器没有反馈信息回来是音频格式不对吗还是什么原因?好像反馈一个是400002然后最后是说无法解析json信息的字样,我们发送音频数据过去的时候还需不需要一一直保存加入头文件信息那些?还是握手成功后只需单独持续发送音频数据就行?好的"task_id":"a6096a65c1cb410ea669dc7066ef6c3f" 最后我发送结束指令的时候会出现这一句{"header":{"namespace":"Default","name":"TaskFailed","status":40000002,"message_id":"512338507c5b49f58488cb517e695c49","task_id":"87f5841de5705340de8e67ac59195d37","status_text":"Gateway:MESSAGE_INVALID:Failed to parse nls message to json!"}}这种发送的数据是pcm音频数据。我还在想怎能给它显示出来还没搞懂如何让它显示出来我说将pcm浮点数组转字节数组后发送。会不会是音频的数据格式不对,就是我在引擎里面不知道怎么把它提提取出来。实时请求的方式可以拿一段现成的音频测试吗?就是我自己引擎里面打印这个pcm音频字节数组出来都是一些1多几到250之内跳动这样的数字在持续发送。数字是100到250之间的字样
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。