语音识别合成_javascript语音交互

网页端语音识别与合成主要通过Web Speech API实现,包含SpeechRecognition(语音转文字)和SpeechSynthesis(文字转语音)。首先创建SpeechRecognition实例并设置语言、监听onresult事件获取语音识别结果,调用start()开始识别;再通过SpeechSynthesisUtterance设置朗读内容及语速、音调等参数,调用speak()播放语音。两者结合可实现“你说一句,网页回一句”的交互效果,适用于语音助手、无障碍功能等场景。需注意仅支持HTTPS或本地开发环境,且Chrome支持较好,其他浏览器可能存在兼容性问题,建议在用户触发操作后启动以避免权限拦截。

现在网页端实现语音识别和合成功能,主要依靠浏览器提供的 Web Speech API。这套 API 包含两个核心部分:SpeechRecognition(语音识别)用于将用户的语音转为文字;SpeechSynthesis(语音合成)则把文字转成语音朗读出来。下面分别介绍如何在 JavaScript 中使用它们来实现基础的语音交互功能。

语音识别:让网页听懂你说的话

SpeechRecognition 接口可以捕获麦克风输入并实时转换为文本。目前 Chrome 浏览器支持较好,其他浏览器可能需要前缀或暂不支持。

使用步骤如下:

  • 创建一个 SpeechRecognition 实例,通常通过 webkitSpeechRecognition 兼容 Chrome
  • 设置识别语言、是否连续识别等参数
  • 监听 onresult 事件获取识别结果
  • 调用 start() 方法开始识别,stop() 停止
示例代码:
const recognition = new (window.SpeechRecognition || window.webkitSpeechRecognition)();
recognition.lang = 'zh-CN'; // 设置中文
recognition.continuous = false;

recognition.onresult = function(event) {
  const transcript = event.results[0][0].transcript;
  console.log('你说的是:', transcript);
  // 可在这里触发后续逻辑,比如自动回复
};

recognition.onerror = function(event) {
  console.error('识别出错:', event.error);
};

// 开始听写
recognition.start();

语音合成:让网页“开口说话”

SpeechSynthesis 是浏览器内置的文本朗读功能,兼容性良好,无需额外权限。

基本用法包括:

  • 使用 window.speechSynthesis 获取语音合成实例
  • 创建 SpeechSynthesisUtterance 对象表示要朗读的内容
  • 可设置语速、音调、音量和发音语言
  • 调用 speak() 方法播放语音
示例代码:
const utter = new SpeechSynthesisUtterance();
utter.text = '你好,我听到了你的声音';
utter.lang = 'zh-CN';
utter.rate = 1;   // 语速
utter.pitch = 1;  // 音调

window.speechSynthesis.speak(utter);

组合使用:实现简单语音对话

将语音识别和合成结合,就能做出“你说一句,网页回一句”的交互效果。

常见应用场景:

  • 语音助手原型:识别关键词后自动播报回应
  • 无障碍功能:帮助视障用户与页面互动
  • 教育类应用:口语练习时即时反馈

注意处理麦克风权限请求,建议在用户操作(如点击按钮)后启动识别,避免被浏览器拦截。

兼容性与注意事项

当前技术限制需了解:

  • SpeechRecognition 在 Firefox、Safari 支持有限,生产环境建议降级处理
  • 必须通过 HTTPS 或本地开发服务器运行,否则无法获取麦克风权限
  • 移动设备上部分安卓浏览器支持不稳定
  • 长时间识别可能因超时中断,可设置 restart 机制

基本上就这些。Web Speech API 让前端语音交互变得简单直接,虽然还有局限,但对于轻量级语音功能已经足够实用。