Get to know MDN better
Dieser Inhalt wurde automatisch aus dem Englischen übersetzt, und kann Fehler enthalten. Erfahre mehr über dieses Experiment.
Veraltet: Diese Funktion wird nicht mehr empfohlen. Obwohl einige Browser sie möglicherweise noch unterstützen, könnte sie bereits aus den relevanten Webstandards entfernt worden sein, in Kürze entfernt werden oder nur noch aus Kompatibilitätsgründen bestehen. Vermeiden Sie die Verwendung und aktualisieren Sie vorhandenen Code, falls möglich; siehe die Kompatibilitätstabelle am Ende dieser Seite, um Ihre Entscheidung zu unterstützen. Beachten Sie, dass diese Funktion jederzeit aufhören könnte zu funktionieren.
Die createScriptProcessor()-Methode der BaseAudioContext-Schnittstelle erstellt ein ScriptProcessorNode zur direkten Audioverarbeitung.
Hinweis: Diese Funktion wurde durch AudioWorklets und die AudioWorkletNode-Schnittstelle ersetzt.
Die Puffergröße in Einheiten von Abtastrahmen. Wenn angegeben, muss die bufferSize einen der folgenden Werte haben: 256, 512, 1024, 2048, 4096, 8192, 16384. Wenn sie nicht angegeben wird oder der Wert 0 ist, wählt die Implementierung die beste Puffergröße für die gegebene Umgebung, die während der gesamten Lebensdauer des Knotens eine konstante Potenz von 2 sein wird.
Dieser Wert steuert, wie häufig das audioprocess-Ereignis ausgelöst wird und wie viele Abtastrahmen bei jedem Aufruf bearbeitet werden müssen. Niedrigere Werte für bufferSize führen zu einer geringeren (besseren) Latenz. Höhere Werte sind notwendig, um Audioausfälle und Störungen zu vermeiden. Es wird empfohlen, diese Puffergröße nicht anzugeben und die Implementierung eine gute Puffergröße auswählen zu lassen, um ein Gleichgewicht zwischen Latenz und Audioqualität zu erreichen.
numberOfInputChannelsGanzzahl, die die Anzahl der Kanäle für den Eingang dieses Knotens angibt, standardmäßig 2. Werte bis zu 32 werden unterstützt.
numberOfOutputChannelsGanzzahl, die die Anzahl der Kanäle für den Ausgang dieses Knotens angibt, standardmäßig 2. Werte bis zu 32 werden unterstützt.
Warnung: WebKit erfordert derzeit (Version 31), dass eine gültige bufferSize übergeben wird, wenn diese Methode aufgerufen wird.
Hinweis: Es ist ungültig, wenn sowohl numberOfInputChannels als auch numberOfOutputChannels null sind.
Ein ScriptProcessorNode.
Das folgende Beispiel zeigt, wie ein ScriptProcessorNode verwendet wird, um eine Spur, die über AudioContext.decodeAudioData() geladen wurde, zu verarbeiten. Dabei wird jedem Audiosample der Eingabespur ein wenig weißes Rauschen hinzugefügt und über den AudioDestinationNode abgespielt.
Für jeden Kanal und jeden Abtastrahmen verwendet der audioprocess-Ereignishandler des Skriptnodens das zugehörige audioProcessingEvent, um durch jeden Kanal des Eingabebuffers und jedes Sample in jedem Kanal zu schleifen und eine kleine Menge weißes Rauschen hinzuzufügen, bevor dieses Ergebnis in jedem Fall als Ausgabesample gesetzt wird.
Hinweis: Sie können das vollständige Beispiel live ausführen oder den Quellcode anzeigen.
| Web Audio API # dom-baseaudiocontext-createscriptprocessor |
JavaScript aktivieren, um diese Browser-Kompatibilitätstabelle anzuzeigen.
Der Bauplan für ein besseres Internet.
Besuche die gemeinnützige Muttergesellschaft der Mozilla Corporation, die Mozilla Foundation.
Teile dieses Inhalts sind ©1998–2026 von einzelnen mozilla.org-Mitwirkenden. Inhalte sind verfügbar unter einer Creative-Commons-Lizenz.