Audiosignal: Was ist das und wie funktioniert es?

von Joost Nusselder | Aktualisiert am:  3. Mai 2022

Immer die neueste Gitarrenausrüstung & Tricks?

Abonniere DEN Newsletter für angehende Gitarristen

Wir verwenden Ihre E-Mail-Adresse ausschließlich für unseren Newsletter und respektieren Ihre Datenschutz

Hallo, ich liebe es, kostenlose Inhalte voller Tipps für meine Leser, Sie, zu erstellen. Ich akzeptiere kein bezahltes Sponsoring, meine Meinung ist meine eigene, aber wenn Sie meine Empfehlungen hilfreich finden und am Ende etwas kaufen, das Ihnen über einen meiner Links gefällt, könnte ich eine Provision ohne zusätzliche Kosten für Sie verdienen. Mehr erfahren

Wie macht es das? Wie gelangt das Audio von der Quelle zum Lautsprecher, damit Sie es hören können?

Ein Audiosignal ist eine elektrische Darstellung von Ton in der Audiofrequenz Bereich von 20 bis 20,000 Hz. Sie können direkt synthetisiert werden oder von einem Mikrofon- oder Instrumenten-Tonabnehmer stammen. Der Signalfluss ist der Weg von der Quelle zum Lautsprecher, wo das Audiosignal in Ton umgewandelt wird.

Schauen wir uns an, was ein Audiosignal ist und WIE es funktioniert. Ich werde auch die verschiedenen Arten des Signalflusses besprechen und wie man einen Signalfluss für ein Heim-Audiosystem einrichtet.

Was ist ein audiosignal

Audiosignalverarbeitung verstehen

Was ist Audiosignalverarbeitung?

Haben Sie sich jemals gefragt, wie Ihre Lieblingssongs zusammenkommen? Nun, es ist alles dank der Audiosignalverarbeitung! Die Audiosignalverarbeitung ist der Prozess der Umwandlung von Ton in digitale Formate, der Manipulation von Tonfrequenzen und dem Hinzufügen von Effekten, um den perfekten Song zu erstellen. Es wird in Aufnahmestudios, auf PCs und Laptops und sogar auf spezialisierten Aufnahmegeräten verwendet.

Erste Schritte mit der Audiosignalverarbeitung

Wenn Sie mehr über die Audiosignalverarbeitung erfahren möchten, ist Warren Koontz' Einführung in die Audiosignalverarbeitung der perfekte Ausgangspunkt. Es deckt die Grundlagen von Ton und analogen Audiosignalen, Sampling und Quantisierung ab digitaler Ton Signale, Zeit- und Frequenzbereichsverarbeitung und sogar spezifische Anwendungen wie Equalizer-Design, Effekterzeugung und Dateikomprimierung.

Lernen Sie die Audiosignalverarbeitung mit MATLAB kennen

Das Beste an diesem Buch ist, dass es Beispiele und Übungen enthält, die Skripte und Funktionen von MATLAB verwenden. Das bedeutet, dass Sie Audio in Echtzeit auf Ihrem eigenen PC verarbeiten können und ein besseres Verständnis dafür bekommen, wie die Audiosignalverarbeitung funktioniert.

Über den Autor

Warren Koontz ist emeritierter Professor am Rochester Institute of Technology. Er hat einen BS von der University of Maryland, einen MS vom Massachusetts Institute of Technology und einen Ph.D. von der Purdue University, alle in Elektrotechnik. Er verbrachte über 30 Jahre bei Bell Laboratories mit der Entwicklung digitaler Übertragungssysteme und trat nach seiner Pensionierung der Fakultät des RIT bei, um bei der Schaffung einer Audio Engineering Technology-Option mitzuwirken. Koontz hat seine Forschungen auf dem Gebiet der Audiotechnik fortgesetzt und Ergebnisse seiner Forschung veröffentlicht und präsentiert.

Die Wissenschaft hinter Wechselstrom

Was ist AC?

Alternating Currents (AC) sind wie das wilde Kind der Elektrizität – sie bleiben nicht an einem Ort und verändern sich ständig. Im Gegensatz zu Gleichstrom (DC), der nur in eine Richtung fließt, wechselt Wechselstrom ständig zwischen positiv und negativ. Aus diesem Grund wird es in Audiosignalen verwendet – es kann komplexe Klänge mit Genauigkeit reproduzieren.

Wie funktioniert es?

AC-Audiosignale werden so moduliert, dass sie der Tonhöhe des wiedergegebenen Tons entsprechen, genau wie Schallwellen zwischen hohem und niedrigem Druck wechseln. Dies geschieht durch die Änderung von zwei Werten – Frequenz und Amplitude.

  • Frequenz: Wie oft wechselt das Signal von positiv nach negativ.
  • Amplitude: Der Pegel oder die Lautstärke des Signals, gemessen in Dezibel.

Warum ist AC so großartig?

Wechselstrom ist wie der Superheld der Elektrizität – er kann Dinge tun, die andere Formen der Elektrizität nicht können. Es kann komplexe Klänge aufnehmen und sie in elektrische Signale umwandeln und sie dann wieder in Schall umwandeln. Es ist wie Magie, aber mit Wissenschaft!

Was ist Signalfluss?

Die Grundlagen

Der Signalfluss ist wie ein Telefonspiel, aber mit Ton. Es ist die Reise, die ein Klang von seiner Quelle bis zu Ihren Ohren nimmt. Es könnte eine kurze Reise sein, wie wenn Sie Ihre Lieblingsmusik auf Ihrer Stereoanlage zu Hause hören. Oder es könnte eine lange, kurvenreiche Reise sein, wie in einem Aufnahmestudio mit allem Schnickschnack.

Der Nitty Gritty

Wenn es um den Signalfluss geht, gibt es viele Stopps auf dem Weg. Der Ton kann durch ein Mischpult, externe Audiogeräte und sogar verschiedene Räume geleitet werden. Es ist wie ein großer alter Audio-Staffellauf!

Die Vorteile

Das Schöne am Signalfluss ist, dass er dazu beitragen kann, Ihren Sound zu verbessern. Es kann Ihnen helfen, die zu kontrollieren Volumen, fügen Sie Effekte hinzu und stellen Sie sogar sicher, dass der Ton an die richtige Stelle gelangt. Wenn Sie also das Beste aus Ihrem Audio herausholen möchten, sollten Sie den Signalfluss kennenlernen.

Audiosignale verstehen

Was sind Audiosignale?

Audiosignale sind wie die Sprache Ihrer Lautsprecher. Sie sind diejenigen, die Ihren Lautsprechern sagen, was sie sagen sollen und wie laut sie es sagen sollen. Sie sorgen dafür, dass Ihre Musik fantastisch klingt, Ihre Filme intensiv klingen und Ihre Podcasts wie eine professionelle Aufnahme klingen.

Welche Parameter charakterisieren Audiosignale?

Audiosignale können durch einige verschiedene Parameter charakterisiert werden:

  • Bandbreite: Dies ist der Frequenzbereich, den das Signal übertragen kann.
  • Nennpegel: Dies ist der durchschnittliche Pegel des Signals.
  • Leistungspegel in Dezibel (dB): Dies ist das Maß für die Stärke des Signals relativ zu einem Referenzpegel.
  • Spannungspegel: Dies ist das Maß für die Signalstärke im Verhältnis zur Impedanz des Signalpfads.

Was sind die verschiedenen Pegel von Audiosignalen?

Audiosignale liegen je nach Anwendung in unterschiedlichen Pegeln vor. Hier ist ein kurzer Überblick über die gängigsten Ebenen:

  • Line Level: Dies ist der Standardpegel für professionelle Mischpulte.
  • Verbraucherpegel: Dies ist ein niedrigerer Pegel als der Line-Pegel und wird für Verbraucher-Audiogeräte verwendet.
  • Mic Level: Dies ist der niedrigste Pegel und wird für Mikrofone verwendet.

Was bedeutet das alles?

Kurz gesagt, Audiosignale sind wie die Sprache Ihrer Sprecher. Sie sagen Ihren Lautsprechern, was sie sagen sollen, wie laut sie es sagen sollen und wie Sie Ihre Musik, Filme und Podcasts großartig klingen lassen. Wenn Sie also möchten, dass Ihr Audio optimal klingt, müssen Sie die verschiedenen Parameter und Pegel von Audiosignalen verstehen.

Was ist digitales Audio?

Was ist das?

Digital Audio ist die digitale Form eines Audiosignals. Es wird in allen Arten von Audio-Plug-Ins und DAW-Software (Digital Audio Workstation) verwendet. Im Grunde sind es die Informationen, die die DAW von einer Audiospur zu einem Plug-In und einem Hardware-Ausgang durchläuft.

Wie wird es transportiert?

Digitales Audio kann über eine Vielzahl von Kabeln gesendet werden, darunter:

  • Glasfaser
  • Koaxial
  • Twisted Pair

Außerdem werden ein Leitungscode und ein Kommunikationsprotokoll angewendet, um ein digitales Signal für ein Übertragungsmedium wiederzugeben. Einige der beliebtesten digitalen Audiotransporte sind:

  • TRADITION
  • TDIF
  • TOSLINK
  • S / PDIF
  • AES3
  • MADI
  • Audio über Ethernet
  • Audio über IP

Also, was bedeutet das alles?

Einfach ausgedrückt ist digitales Audio eine Möglichkeit, Audiosignale über Kabel und durch die Luft zu senden. Es wird in allen Arten von Audio-Plug-Ins und DAW-Software (Digital Audio Workstation) verwendet. Wenn Sie also Musiker sind, Hersteller, oder Toningenieur, haben Sie wahrscheinlich irgendwann in Ihrer Karriere digitales Audio verwendet.

Manipulation von Audiosignalen

Was ist Signalverarbeitung?

Signalverarbeitung ist eine Möglichkeit, ein Audiosignal, wie einen Ton, zu nehmen und es auf irgendeine Weise zu verändern. Es ist, als würde man einen Sound nehmen, ihn an einen Computer anschließen und ihn dann mit einer Reihe von Knöpfen und Reglern anders klingen lassen.

Was kann man mit Signalverarbeitung machen?

Signalverarbeitung kann verwendet werden, um alle möglichen coolen Dinge mit Ton zu machen. Hier sind einige der Möglichkeiten:

  • Hohe oder niedrige Frequenzen können herausgefiltert werden.
  • Mit einem Equalizer können bestimmte Frequenzen betont oder minimiert werden.
  • Harmonische Obertöne können mit Verzerrung hinzugefügt werden.
  • Die Amplitude kann mit einem Kompressor gesteuert werden.
  • Musikalische Effekte wie Reverb, Chorus und Delay können hinzugefügt werden.
  • Der Gesamtpegel des Signals kann mit einem Fader oder Verstärker eingestellt werden.
  • Mehrere Signale können mit einem Mischer kombiniert werden.

Was bedeutet das alles?

Kurz gesagt, die Signalverarbeitung ist eine Möglichkeit, einen Ton zu nehmen und ihn völlig anders klingen zu lassen. Sie können es lauter oder leiser machen, Effekte hinzufügen oder sogar mehrere Sounds zu einem kombinieren. Es ist, als hätte man einen akustischen Spielplatz zum Spielen!

Was ist Transduktion?

Die Grundlagen

Transduktion ist der Prozess der Umwandlung von Schall in elektrische Signale. Mit anderen Worten, es ist der Prozess, Schallwellen in Nullen und Einsen umzuwandeln. Es ist wie eine magische Brücke zwischen der physischen und der digitalen Welt.

Die Spieler

Es gibt zwei Hauptakteure im Transduktionsspiel:

  • Mikrofone: Diese Wandler nehmen Schallwellen auf und wandeln sie in elektrische Signale um.
  • Lautsprecher: Diese Wandler nehmen elektrische Signale auf und wandeln sie in Schallwellen um.

Die Typen

Bei der Übertragung gibt es zwei Haupttypen von Audiosignalen: analog und digital. Analog ist die ursprüngliche Schallwelle, während digital die 0er- und 1er-Version ist.

Der Prozess

Der Prozess der Transduktion ist ziemlich einfach. Zuerst trifft eine Schallwelle auf eine Mikrofonkapsel. Diese Kapsel wandelt dann die mechanische Energie der Schwingung in elektrischen Strom um. Dieser Strom wird dann verstärkt und in ein digitales Signal umgewandelt. Schließlich wird dieses digitale Signal von einem Lautsprecher wieder in eine Schallwelle umgewandelt.

Die verrückte Wissenschaft

Auch unsere Ohren wandeln Schall in elektrische Signale um, aber das sind auditive Signale, keine Audiosignale. Hörsignale dienen dem Hören, Audiosignale der Technik.

Da haben Sie es also – eine schnelle und einfache Anleitung zur Transduktion. Jetzt können Sie Ihre Freunde mit Ihrem Wissen über den magischen Prozess der Umwandlung von Schallwellen in Nullen und Einsen beeindrucken!

Die Dezibel-Skala verstehen

Was ist ein Dezibel?

Wenn Sie auf einen Signalmesser schauen, sehen Sie sich Dezibel-Informationen an. Dezibel messen die Lautstärke oder Amplitude von Schall. Es ist eine logarithmische Skala, keine lineare, was bedeutet, dass ein großer Bereich von Schallleistungspegeln gemessen werden kann. Das menschliche Ohr ist ein erstaunliches Gerät, das das Geräusch einer in der Nähe fallenden Stecknadel sowie das Dröhnen eines Düsentriebwerks in der Ferne wahrnehmen kann.

Lärmmesseinheiten

Wenn Sie den Lärmpegel mit einem Schallpegelmesser messen, messen Sie die Intensität des Lärms in Dezibeleinheiten (dB). Ein Schallmesser verwendet eine Anzeige mit einem Dezibelbereich und einer Auflösung, die sich dem Dynamikbereich des Ohrs annähert. Es wäre schwierig, einen Schallpegelmesser mit linearer Leistung herzustellen, daher wird eine logarithmische Skala mit 10 als Basis verwendet.

Dezibelpegel gängiger Geräusche

Hier ist eine Liste der Dezibelpegel gängiger Geräusche:

  • Nahezu vollständige Stille – 0 dB
  • Ein Flüstern – 15 dB
  • Eine Bibliothek — 45 dB
  • Normales Gespräch – 60 dB
  • Toilettenspülung — 75–85 dB
  • Lautes Restaurant – 90 dB
  • Spitzenlärm auf einer Krankenstation – 100 dB
  • Baby weint – 110 dB
  • Strahltriebwerk — 120 dB
  • Porsche 911 Carrera RSR Turbo 2.1–138 dB
  • Ballonplatzen – 157 dB

Arten von Dezibel

Wenn es um Audio geht, gibt es mehrere Arten von Dezibel:

  • SPL (Schalldruckpegel): Misst reale (Nicht-Signal-) Geräusche, gemessen mit einem speziellen SPL-Messgerät.
  • dBFS (Dezibel Full Scale): wie digitale Signalpegel in der Welt der Nullen und Einsen gemessen werden, wo die maximale Signalstärke =0 auf dem Messgerät ist.
  • dBV (Dezibel Volt): Wird hauptsächlich in analogen Geräten oder digitaler Software verwendet, die analoge Geräte emulieren. VU-Meter registrieren durchschnittliche Audiopegel, im Gegensatz zu Peak-Metern, die nur die lautesten momentanen Spitzensignale anzeigen. In den frühen Tagen des analogen Audios konnte Magnetband im Vergleich zu Magnetbändern, die Jahrzehnte später hergestellt wurden, nicht so viele Audiosignale aufnehmen, daher wurde es akzeptabel, je nach verwendetem Band über 0 aufzuzeichnen, bis zu +3 oder +6 oder noch höher.

Audioformate verstehen

Was ist ein Audioformat?

Wenn Sie Audio aufnehmen, müssen Sie entscheiden, wie es gespeichert wird. Das bedeutet, das richtige Audioformat, die Bittiefe und die Abtastrate zu wählen. Es ist wie die Auswahl der richtigen Kameraeinstellungen für ein Foto. Sie können eine JPEG-Qualität (niedrig, mittel, hoch) wählen oder die maximale Detailgenauigkeit in einer RAW-Datei aufzeichnen.

Audioformate sind wie Bildformate – .png, .tif, .jpg, .bmp, .svg – aber für Ton. Ein Audioformat definiert, wie viele Daten verwendet werden, um das Audio darzustellen, ob es komprimiert ist oder nicht, und welche Art von Daten verwendet wird.

Unkomprimiertes Audio

Wenn es um die Audioproduktion geht, möchten Sie normalerweise bei unkomprimiertem Audio bleiben. Auf diese Weise können Sie steuern, wie das Audio verteilt wird. Selbst wenn Sie eine Plattform wie Vimeo, YouTube oder Spotify verwenden, sollten Sie das Audio zuerst in einem unkomprimierten Format mastern.

Komprimiertes Audio

Wenn Sie mit Musik arbeiten, müssen Sie die Audiodatei möglicherweise komprimieren, wenn sie für die Vertriebsplattform zu groß ist. Beispielsweise akzeptiert Distrokid nur Dateien bis zu 1 GB. Wenn Ihr Song also wirklich lang ist, müssen Sie ihn komprimieren.

Die gängigsten Dateiformate für die Musikproduktion sind WAV und FLAC. FLAC ist ein verlustfreies Komprimierungsformat, das besser ist als MP3s. Spotify empfiehlt die Verwendung des AAC-Formats.

Audio exportieren

Wenn Sie Audio als Teil eines Videos exportieren, stehen Ihnen normalerweise einige Voreinstellungen zur Auswahl (z. B. YouTube, Vimeo, Mobile, Web, Apple Pro Res.). Das Audio wird zusammen mit dem Video basierend auf Ihren Exporteinstellungen komprimiert.

Wenn Sie einen Anwendungsfall haben, der nicht zu den Voreinstellungen passt, können Sie online zusätzliche Nachforschungen anstellen, um die besten Einstellungen herauszufinden.

Vergleich der Dateigröße

Hier ist ein Vergleich der Dateigrößen verschiedener Audioformate:

  • WAV: Groß
  • FLAC: Mittel
  • MP3: Klein

Da haben Sie es also! Jetzt wissen Sie alles über Audioformate.

Was ist Bittiefe?

Bittiefe ist ein technischer Begriff, der verwendet wird, um die dynamische Auflösung der Wellenform eines Klangs zu beschreiben. Es ist ein bisschen wie die Anzahl der Dezimalstellen, die verwendet werden, um die gesamte Audiodatei darzustellen, und es ist ein Schlüsselfaktor bei der Bestimmung der Gesamtqualität und Auflösung eines Sounds.

Die Grundlagen der Bittiefe

Bei der Bittiefe dreht sich alles um den Wertebereich, der verwendet wird, um die lautesten und leisesten Signale darzustellen, die auf einem digitalen Medium aufgezeichnet werden können. Hier ist ein kurzer Überblick über die Grundlagen:

  • Bit-Tiefe-Werte repräsentieren die dynamische Auflösung einer Klangwellenform.
  • Die Bittiefe definiert auch die Gesamtzahl der Dezimalstellen für alle Nullen und Einsen, die verwendet werden, um die gesamte Audiodatei darzustellen.
  • Die gängigsten Bittiefenstandards sind 16-Bit und 24-Bit. Je mehr Bits verwendet werden, desto größer ist die Sounddatei und desto höher ist die Qualität oder Auflösung.
  • CD-Audio ist als 16-Bit-Medium definiert, während DVDs 16-, 20- oder 24-Bit-Audio wiedergeben können.

Bittiefe als Creative-Parameter

Bittiefe ist nicht nur ein Fachbegriff, sondern kann auch als gestalterischer Parameter verwendet werden. Zum Beispiel gibt es ein ganzes Genre elektronischer Musik namens Chiptune, das die Art und Weise emuliert, wie Audio klang, wenn es auf früheren Generationen von Computern mit 8-Bit-Prozessoren abgespielt wurde.

Wenn Sie also Ihrem Sound ein wenig Lo-Fi-Geschmack verleihen möchten, ist die Bittiefe definitiv etwas, das Sie berücksichtigen sollten. Denken Sie daran, dass je mehr Bits verwendet werden, desto größer die Sounddatei und desto höher die Qualität oder Auflösung.

Zusammenfassung

Jetzt wissen Sie alles über das Audiosignal als DARSTELLUNG von Schall als Signal in Form von elektrischen oder mechanischen Schwingungen. So hören wir Musik und wie nehmen wir sie auf. So teilen wir es mit anderen und genießen es auf unseren Geräten.

Scheuen Sie sich also nicht, damit anzufangen und Spaß zu haben!

Ich bin Joost Nusselder, der Gründer von Neaera und Content-Marketer, Papa, und liebe es, neues Equipment auszuprobieren, wobei die Gitarre das Herzstück meiner Leidenschaft ist, und zusammen mit meinem Team erstelle ich seit 2020 ausführliche Blogartikel um treuen Lesern mit Aufnahme- und Gitarrentipps zu helfen.

Schau mich auf Youtube an wo ich all diese Ausrüstung ausprobiere:

Mikrofonverstärkung gegen Lautstärke Abonnieren