

新闻资讯
行业动态Web Audio API 通过 AudioContext 构建可编程音频处理图,核心包括挂起后需 resume 的上下文、connect 连接的音频节点链、支持 setValueAtTime 等自动化平滑控制的参数机制,以及需显式接入链路的 AnalyserNode 实时分析能力。
JavaScript 通过 Web Audio API 实现高性能、低延迟的音频处理,它不是简单播放声音,而是构建一个可编程的音频处理图(audio processing graph),让你能精确控制声音的生成、变换与输出。
所有 Web Audio 操作都始于一个 AudioContext 实例,它相当于音频系统的“引擎”和“时间系统”。它管理音频节点的生命周期、调度事件,并提供高精度的时间参考(比 Date.now() 或 setTimeout 更准)。
const audioCtx = new (window.AudioContext || window.webkitAudioContext)();(兼容旧版 Safari)audioCtx.resume(
) 才能开始播放或处理,这是浏览器为节省资源和防止自动播放而设的策略。currentTime 属性——一个单调递增的秒数,用于精确调度(例如:2.5 秒后启动振荡器)。Web Audio 的核心是节点:每个节点完成特定功能(生成、过滤、混音、分析等),通过 connect() 方法连接成图。常见类型包括:
OscillatorNode(合成波形)、AudioBufferSourceNode(播放加载好的音频文件)、MediaStreamAudioSourceNode(接入麦克风或屏幕共享流)。BiquadFilterNode(高低通/带通滤波)、GainNode(调节音量)、ConvolverNode(卷积混响)、DelayNode(延迟回声)。audioCtx.destination(即扬声器),也可连到其他节点作中间路由(如先混音再统一流控)。连接是单向的:A.connect(B) 表示 A 的输出送入 B 的输入;多个节点可连接到同一目标(自动混音),但一个节点不能直接连自己(会报错)。
几乎所有节点参数(如 gain.value、frequency.value)都支持随时间变化的自动化,避免“突变”,实现平滑过渡。
setValueAtTime() 设定初始值linearRampToValueAtTime() 或 exponentialRampToValueAtTime() 创建斜坡变化setTargetAtTime() 实现平滑趋近(类似模拟电路的 RC 响应)例如:让音量在 0.5 秒内从 0 淡入到 1:gainNode.gain.setValueAtTime(0, audioCtx.currentTime); gainNode.gain.linearRampToValueAtTime(1, audioCtx.currentTime + 0.5);
通过 AnalyserNode 可实时提取频谱(FFT)或时域波形数据,用于可视化或音频反应逻辑:
analyser.fftSize = 2048),决定频率分辨率analyser.getByteFrequencyData(array) 获取 0–255 范围的频域能量分布analyser.getByteTimeDomainData(array) 获取 ±128 的波形采样点(适合画 oscilloscope 效果)requestAnimationFrame)中反复调用才能持续更新。不复杂但容易忽略:AnalyserNode 本身不改变音频流,只“旁听”经过它的数据,因此必须连接在处理链中(哪怕只是 source → analyser → destination)。