Komputery - uniwersalny instrument?

Autor: Roger Morrison
Data Utworzenia: 20 Wrzesień 2021
Data Aktualizacji: 21 Czerwiec 2024
Anonim
ICON QCon Pro G2, uniwersalny kontroler DAW [TEST]
Wideo: ICON QCon Pro G2, uniwersalny kontroler DAW [TEST]

Zawartość


Źródło: Djmilic / Dreamstime.com

Na wynos:

Nowe postępy technologiczne zmniejszają opóźnienia w interakcji audio opartej na przeglądarce, ułatwiając usprawnioną syntezę dźwięku, planowanie i zdalną współpracę.

Dużo grałem na perkusji. Nigdy nie byłem tak dobry, mniej więcej w wieku 16 lat i kończąc w wieku około 30 lat. Ale lubię mówić, że tak naprawdę nigdy nie zacząłem ani nie przestałem, ponieważ starałem się tworzyć rytmy, waląc rękami na biurkach / stołach / cokolwiek non-stop, odkąd byłem małym dzieckiem. Teraz spędzam dużo czasu na pisaniu na klawiaturze. Możesz więc sobie wyobrazić, jak byłem podekscytowany, gdy dowiedziałem się, że nie tylko wirtualne bębny są dostępne, ale wiele z nich można uzyskać bezpośrednio za pośrednictwem najpopularniejszych przeglądarek internetowych.

Virtual Instruments on the Rise

Oprócz perkusji kocham także gitarę, fortepian i syntezator audio. Dźwięk składa się zasadniczo z fal (zauważalnych wahań ciśnienia atmosferycznego), które można łączyć ze sobą, tworząc bardziej bogate i złożone dźwięki. Synteza audio to proces znajdowania właściwych częstotliwości (poprzez oscylacje lub inne sztuczne środki) i kombinacji fal (a czasem filtrów) w celu stworzenia - lub syntezy - pożądanych nowych dźwięków. A zsyntetyzowana muzyka zawiera zsyntetyzowany dźwięk w systemach muzycznych; takie jak zachodnia skala chromatyczna, diatoniczna i pentatoniczna.


Muzyka - podobnie jak animacja, narracja i wiele innych dyscyplin - jest doczesną formą sztuki. Jest ogólnie przedstawiany jako sekwencja dźwięków, z pewnym wyczuciem regulowanego timingu (rytmu), a także przejścia (melodii) i współbieżności (harmonii) wysokości / częstotliwości. A ponieważ czas ma podstawowe znaczenie dla większości muzyki, opóźnienie jest kluczową kwestią dla każdego urządzenia muzycznego. Mówiąc ogólnie, im mniejsze opóźnienie, tym większa użyteczność instrumentu.

Pionier technologii muzycznej, Max Mathews, powiedział kiedyś, że „nie ma teoretycznych ograniczeń wydajności komputera jako źródła dźwięków muzycznych”. Przez całe swoje życie utrzymywał i utrzymywał, że komputer wkrótce stanie się uniwersalnym instrumentem muzycznym - zdolnym do emulować dowolne środowisko dźwiękowe lub audio, a jednocześnie móc tworzyć zupełnie nowe i oryginalne zdarzenia i doświadczenia audio.

Przyszłość produkcji muzycznej

Prymitywne podstawy dźwięku nazywane są falami sinusoidalnymi - czyste tony, które cyklicznie i fluktuują przy danej częstotliwości. Synteza audio może być addytywna lub odejmująca: pierwsza metoda łączy czyste tony, aby uzyskać unikalne dźwięki, a druga filtruje fale dźwiękowe źródła. Innymi słowy, dobrą analogią dla dodatku może być rzeźbienie w glinie, podczas gdy odejmowanie bardziej przypomina rzeźbienie w drewnie.


Znaczna część ewolucji muzyki komputerowej jest wspólna z ewolucją elektroniki i protokołu MIDI. Standard (będący akronimem interfejsu cyfrowego instrumentu muzycznego) początkowo ułatwiał muzykom środki do tworzenia danych cyfrowych reprezentujących podstawowe cechy danych fraz muzycznych, takich jak wysokość i czas. Pliki MIDI można zatem odtwarzać za pomocą różnych syntezatorów lub aplikacji zgodnych z MIDI, dostarczając podstawowe dane muzyczne poprzez różne wyjścia.

W swoim wczesnym okresie istnienia MIDI był dość ograniczony, ponieważ mógł wchodzić w interakcje tylko z ograniczoną liczbą urządzeń, a jego funkcja była wąska. Z czasem jednak wtyczki i rozszerzenia MIDI umożliwiły standardowi dostosowanie się do wielu różnych nowych sytuacji i środowisk. Dzięki temu standard stał się znacznie bardziej popularny niż kiedykolwiek wcześniej.

Ponieważ technologia audio migruje ze starzejących się interfejsów sprzętowych (takich jak miksery i analogowe mierniki VU) do naszych komputerów i urządzeń mobilnych, muzycy są zwolnieni z ciężkiej pracy związanej z nadmiernym sprzętem, ale coraz częściej są pozbawieni łatwości użytkowania, która tradycyjne instrumenty zapewniają. Spowodowało to pewne ruchy w kierunku nowych interfejsów sprzętowych, które można łatwo łączyć z cyfrowymi stacjami roboczymi, takimi jak laptopy i komputery stacjonarne. (Aby dowiedzieć się więcej na temat ewolucji przemysłu muzycznego w erze cyfrowej, zobacz Od płyt winylowych do nagrań cyfrowych).

Bez błędów, bez stresu - Twój przewodnik krok po kroku do tworzenia oprogramowania zmieniającego życie bez niszczenia życia

Nie możesz poprawić swoich umiejętności programistycznych, gdy nikt nie dba o jakość oprogramowania.

Oprócz łatwości użytkowania, łatwość współpracy jest kluczem do ewolucji muzyki cyfrowej. Jest to duża część tego, co sprawia, że ​​interfejs API Web Audio jest jedną z najważniejszych innowacji cyfrowych audio w niedawnej przeszłości. To oparte na Javie rozwiązanie audio zawiera interfejs o nazwie AudioCon, w którym procesy są skryptowane i tłumaczone na wyjście w postaci precyzyjnie zsynchronizowanego dźwięku.

Interfejs API jest wciąż młody, ale również bardzo obiecujący - nie tylko dla audiofilów, ale także dla programistów i programistów stron internetowych. W porównaniu ze starszymi, wbudowanymi formatami audio, Web Audio API zapewnia bardzo małe opóźnienia w interfejsie. Wiele różnych wirtualnych instrumentów muzycznych jest już opracowywanych i uważa się, że Web Audio API znajdzie szersze zastosowanie w grach online.

Chociaż muzyka akustyczna prawdopodobnie nigdy nie zniknie całkowicie, synteza dźwięku w przestrzeni cyfrowej będzie nadal odgrywać coraz większą rolę w nowoczesnym nagrywaniu, produkcji i dostarczaniu cyfrowego dźwięku. Interfejs API Web Audio przyspiesza postęp cyfrowego audio, ułatwiając nowe interfejsy, platformy i rozwiązania audio DAW poprzez lepszą użyteczność i dostępność.