fot. B. Seifert

Czy przyszłość już słychać?

Neofonia, ogólnopolska studencko-doktorancka konferencja naukowa organizowana przez Akademię Muzyczną w Poznaniu, odbyła się po raz dziewiąty 17 grudnia 2020. Przeniosła się do sieci, co zresztą współgrało z jej tematem.

Dźwięki cyborgiczne Hasłem przewodnim były nowe technologie i przyszłość muzyki. Szerokie perspektywy roztoczyła swoim wykładem inauguracyjnym dr Aleksandra Łukaszewicz Alcaraz z Akademii Sztuki w Szczecinie (absolwentka poznańskiej ASP). W wystąpieniu zatytułowanym „Pomiędzy generowaniem a tworzeniem: muzyka programów, robotów, cyborgów” problematyzowała kwestie twórczości i kreatywności w dobie zaawansowanych technologii.

Pojawił się przykład oprogramowania, w tym programów samouczących się – czy efekt ich działalności to twórczość w pełnym rozumieniu tego słowa? Przypomniała też, że koncept kreowania ex nihilo to mit, bo człowiek również zawsze z czegoś czerpie, jest uwarunkowany i ukształtowany w określony sposób.

 

fot. B. Seifert

fot. B. Seifert

Była też mowa o roli algorytmów służących do komponowania na podstawie wprowadzonych danych, którymi mogą być utwory w pamięci komputera.

Klasyfikując algorytmy, Łukaszewicz Alcaraz wyszczególniła takie rodzaje, jak genetyczny, seryjny, iteracyjny, oparty na fraktalach i stochastyczny.

Przywołała także liczne przykłady oprogramowania służącego tworzeniu muzyki: Aiva (Artificial Intelligence Virtual Artist), algorytm Google, Flow Machines czy Emily Howell. Ten ostatni to bot muzyczny z lat 90. XX wieku, którego imię jest skrótem od Experiments in Musical Intelligence. Program stworzony przez Davida Cope’a ma koncie setki utworów. Listę niezwykłych muzycznych przedsięwzięć uzupełniają robotyczni perkusiści, jak choćby Haile (2006) czy Shimon (2008).

Żeby dodatkowo skomplikować omawiane kwestie, teoretyczka opowiedziała także o osobach cyborgicznych z funkcjonalnymi implantami. Najwięcej miejsca poświęciła Neilowi Harbissonowi, który cierpi na achromatopsję, czyli całkowitą ślepotę barwną. Wszczepiona do mózgu antena przetwarza kolory na wibracje, które odczuwa dzięki przewodnictwu kostnemu – tak je słyszy. Także w szerszym zakresie, bo antena odbiera również ultrafiolet i podczerwień.

 

Harbisson, założyciel Cyborg Foundation, ukuł pojęcie sonochromatyzmu, który stał się jego metodą artystyczną.

Jedna z jego bardziej znanych kompozycji przeznaczona była dla Palau de la Musica Catalana, którego kolory zostały przełożone na dźwięki. Harbisson dyryguje, posługując się kolorami, w swoich utworach często buduje akordy na podstawie kolorów twarzy (oka, włosów, ust, policzka). Zajął się też translacją częstotliwości w drugą stronę – z utworów muzycznych na obrazy. Jego poszukiwania to kolejne, tym razem zasilane nowoczesną technologią, oblicze mającej długą tradycję synestezji w muzyce.

fot. B. Seifert

fot. B. Seifert

Tradycje i algorytmy

 

Następnie wykład „Muzyczny test Turinga” wygłosił Patryk Jędrzejczyk z Wydziału Psychologii i Kognitywistyki UAM. Prelegent wypowiadał się z perspektywy muzykologii kognitywnej, którą interesuje muzyka bardziej jako fenomen poznawczy niż jako dziedzina sztuki. Kładzie nacisk na to, jak przebiega jej percepcja. Tytułowy test to odległa analogia i raczej ćwiczenie myślowe niż eksperyment, który dałoby się skonstruować i przeprowadzić. Jędrzejczyk zastanawiał się, jak mógłby on przebiegać, skoro algorytmy kompozycyjne nie posiadają słuchu muzycznego, instynktu tonalnego, zdolności audiacji (wyobrażania sobie brzmienia).

 

Czy wobec tego mogą stworzyć muzykę, która będzie konkurencyjna wobec ludzkiej? Inny problem: czy miałby to być algorytm akustyczny, generujący dźwięki, czy symboliczny, który operowałby nutami?

Ciekawym zagadnieniem, korespondującym z wykładem inauguracyjnym, był tak zwanym antropocentryzm artystyczny, czyli uprzedzenia względem sztuki tworzonej przez sztuczną inteligencję czy wręcz kwestionowanie zasadności takich praktyk. Jako ciekawostkę Jędrzejczyk przytoczył, że profesjonalni muzycy oceniają muzykę algorytmiczną bardzo nisko, ale w testach odróżniania jej od tej stworzonej przez człowieka nie radzą sobie lepiej niż inni ludzie.

O online nieco inaczej

 

Miłosz Korpol z Akademii Muzycznej im. Karola Szymanowskiego w Katowicach postanowił przyjrzeć się zjawisku, które pandemia uczyniła popularnym. W wystąpieniu „Telematic performance – przyszłość muzycznego wykonawstwa?” przypomniał historię zdalnego wykonywania muzyki w czasie rzeczywistym i zastanawiał się nad perspektywami.

Przypomniał, że samo pojęcie powstało we Francji, jako zbitka słów telekomunikacja i informatyka. Pierwszy raz użyto go w 1978 roku do zdiagnozowania stanu społeczeństwa, w którym coraz większą rolę odgrywa technologia. Na gruncie artystycznym pierwsze próby podjęto w Stanach Zjednoczonych w latach 80.

 

fot. B. Seifert

fot. B. Seifert

Korpol wspominał między innymi eksperymenty Pauline Oliveros, która uczyniła opóźnienie sygnału, wtedy znaczące, częścią praktyki kompozytorskiej.

Współczesne rozwiązania datuje się od 2005 roku, jako przykłady pojawił się m.in. system LOLA czy Jack Audio Connection Kit. Inną aktualną inicjatywą jest Online Orchestra, która także wykorzystuje opóźnienie, obecnie znacznie mniejsze, ale wciąż obecne. Jego stabilizacja i regulacja  doprowadziła do czegoś, co roboczo można nazwać muzyką przesunięć.

Referując bieżącą sytuację, prelegent rozprawił się z kwestią, czy komunikatory sprawdzą się w roli platform do wykonawstwa. Odpowiedź jest zdecydowane negatywna. Nie tylko ze względu na opóźnienie, które wynika z samej ich konstrukcji. Komunikatory mają na przykład funkcje tłumienia echa i dźwiękowego tła, które bardzo źle wpływają na brzmienie. Są dostosowane do specyfiki mowy, powszechne jest także „bramkowanie” dźwięku, czyli łapanie sygnału dopiero od określonej głośności.

Korpol rozważał również, jakie są fizyczne granice w doskonaleniu zdalnych połączeń. Przypomniał, że nawet prędkość światła jest ograniczona.

 

Przykładowo pomiędzy Krakowem a Sydney sięga 53 milisekund, co już ma wpływ na synchronizację pomiędzy grającymi.

Na zakończenie dowiedzieliśmy się, na jakim etapie są najnowocześniejsze rozwiązania oraz czy jest szansa na powszechność i popularność telematycznego wykonawstwa z prawdziwego zdarzenia. Szczególny nacisk położono na możliwości, jakie daje sieć 5G, która zapewnia niskie opóźnienia i ogromną przepustowość. W perspektywie związane z tym powinno być upowszechnienie internetu rzeczy. Telematyczny tryb można wykorzystać do ćwiczeń, prób i kursów. 

I troszkę o teorii muzyki

Na część teoretyczną konferencji złożyło się także wystąpienie Olgi Demeter z Akademii Muzycznej w Krakowie „Interaktywność jako przejaw demokratyzacji muzyki”, w którym tę tendencję ilustrowały przykłady z twórczości związanych z tą uczelnią Moniki Szpyrki, Viacheslava Kyrylova i Piotra Peszata.

Z kolei Joanna Czarny z UAM ukazała dorobek japońskiego kompozytora Tōru Takemitsu, nawiązując do tematu konferencji – jako dialog między tradycją a innowacją. Na zakończenie Robert Prokopowicz z Uniwersytetu Muzycznego im. Fryderyka Chopina w Warszawie zaproponował syntetyczne spojrzenie na operę jako gatunek postmodernistyczny.

Zwieńczeniem konferencji był koncert, na którym pojawiły się utwory studentów z Łodzi, Warszawy, Krakowa oraz Poznania. Na szczególną uwagę zasługują kompozycje „Solaris” na kontrabas i perkusję Justyny Tobery (z klasy Artura Kroschla) oraz „Short abstraction” na fortepian i improwizowaną elektronikę Wiktorii Różyckiej (z klasy Katarzyny Taborowskiej-Kaszuby).

 

Ciekawym zabiegiem było także udostępnienie kompilacji muzyki elektronicznej. Pięć utworów to różne estetyczne światy i podejścia, od odwołującego się do tradycji studiów muzyki eksperymentalnej Macieja Waleszczyka, przez usterkowanie i nawiązania do muzyki klubowej u Dawida Dąbrowskiego, wyzyskiwanie walorów brzmieniowych głosu przez Dominika Dudka, po odgłosy niczym ze świata natury u Piotra Kamińskiego i pomysłowe wykorzystanie dźwięków otoczenia przez Tomasza Ciotuchę.