DEGEM Journal

Seit 2023 werden im DEGEM Journal Textbeiträge zu besonderen Anlässen veröffentlicht und archiviert.

Das DEGEM Journal war von 2015-2020 ein deutschsprachiges Internetmagazin zur elektroakustischen Musik und Klangkunst, das die DEGEM News und die DEGEM Discuss um redaktionell erstellte Texte im Sinne der früheren DEGEM Mitteilungen ergänzen sollte. Das DEGEM Journal erschien hier in Form eines Blogs und bot die Möglichkeit, Beiträge zu Hard- und Software, ästhetische Diskussionen, Kongressberichte und Ähnliches zu veröffentlichen. Die Redaktion lag von 2015-2020 bei Sebastian Berweck.

Sollten Sie sich für die Veröffentlichung eines Textes im DEGEM Journal interessieren, wenden Sie sich bitte an vorstand [at] degem.de.

 

 

[ 30. März 2016 ]

Kongressbericht Csound Conference Sankt Petersburg 2015 (Arsalan Abedian)

 

Vom 2. bis 4. Oktober 2015 fand an der Bonch-Bruevich St.Petersburg State University of Telecommunications in Sankt Petersburg die dritte internationale Csound Konferenz statt. Csound erlebte seine dritte internationale Konferenz knapp vor seinem 30-jährigen Jubiläum. Diese Audio-Programmierung Sprache wurde Mitte der 80er Jahre im Media Lab des MIT in Boston entwickelt und im Jahr 1986 veröffentlicht.

Initiative

Die Hauptziele dieser Konferenz waren die große Online Community hinter den Hyperlinks zusammen zu bringen, persönliche Begegnungen zu ermöglichen und gemeinsam mit den Nutzern, Komponisten und Musikern, die Potentiale des Gebiets entwickeln und verbesseren. Gleb Rogozinsky, der einer der Mitwirkenden der ersten (Hannover, 2011) und der zweiten (Boston, 2013) Konferenz war, nahm diesmal die Funktion ein als der Veranstalter und Kurator der dritten Konferenz in der Kultur-Hauptstadt von Russland, Sankt Petersburg, eine Stadt mit den tiefsten U-Bahn Haltestellen und breitesten Straßen.

 

1.Tag

Nach dem Registrierung und Begrüßung fängt der erste Tag der Konferenz an, mit einer Menge von Vorträgen, die live auf Youtube ausgestrahlt wurden. Ich habe fünf davon ausgewählt und stelle eine kurze Zusammenfassung vor.

 

Richard Boulanger begann seine Keynote mit der Präsentation eines Geräts, durch welches einige Fotos in Klänge übersetzt wurden und damit eine neue Musik komponierte. Fotos und Komposition in Echtzeit. Seiner Meinung nach ist es heute sehr wichtig und faszinierend, dass Csound überall Einzug gehalten hat, von den Großrechner am MIT bis zum Minicomputer Raspberry Pi und der Apple Watch. Neben der Vorstellung von Muse und csJam Apps, präsentierte er das neue Csound Buch (Csound Applied/Csound Inside), welches bei MIT-Press erscheinen soll. Viele Csounders aus der Community haben interessante Kapitel in diesem Buch geschrieben, u.a. über Sound-Design, Live Coding , Datenmapping, cross-Plattformen, Realtime -Techniken, physikalische Modelle und bauen Samrtphone Apps und Smart-Gadgets.

 

Steven Yi ging tief in die neue Csound-Syntax. Er sprach über die neuen Funktionen, die für Csound 7 geplant sind: Orchester-Sprache Änderungen, neue Programmierschnittstelle (API): UGen, neuer Score-Parser, Generische Kanäle, neue Datentypen (Set, Map), Arg-Bezeichner (optional, var-arg) und Überabtastung. Einige Änderungen der Orchester-Sprache unter anderem sind: explizite Typen und neue UDO-Syntax. Mit den expliziten Typen, können die Variablen mehrere Buchstaben haben, nicht nur eins. Mit der neuen UDO-Syntax ist es möglich dass wir die Variablennamen als Argumente definieren, es verbindet die Typen der Ein- und Ausgänge mit Variablennamen in einer einzigen Geste. Vorteile sind: vereinfachte Eingabeargument Spezifikation (weniger Fehler von Tippfehler ), arbeiten mit den expliziten Typen, Einrichtung von optional und var-arg Spezifikation durch die Nutzer. Die neue UGen API macht es möglich, die Opcodes von Csound außerhalb von Csound zu verwenden, ohne Verpflichtung sie im Rahmen der Csound-Engine laufen zu lassen.

 

Iain McCurdy’s Präsentation war besonders lebhaft im Sinne von Visualisierung der rein technischen Begriffen wie Function Tables und GEN-Routinen, und wie man sie auf der GUI darstellen kann. Er zeigt einige selbstgebaute Beispiele für Cabbage (ein Front-End für Csound) und stellte dem Publikum einige einzigartige Merkmale von ihnen vor. Es ist ganz merkwürdig dass man von solch üblicher Klangsynthese wie Additiv-Synthese, einfache Spiele bauen kann, welche man auf der Animation der Gadgets mit der Maus berühren könnten und damit tiefe kompositorische Gedanken triggern zu lassen.

 

Der Vortrag von Oeyvind Brandtsegg handelte über Audio-Prozesse in der artifiziellen Intelligenz. [self.] ist ein Kunstprojekt das in einem einfachen Roboter realisiert wurde. Es erforscht die artifizielle Intelligenz bzw. wie vergleichbar sie mit der menschlichen Intelligenz ist. Es modelliert einige Aspekte der menschlichen Wahrnehmung und des Lernens. Der Roboter hat Mikrofone um Töne aufzunehmen, einen Lautsprecher um Klänge abzuspielen, und außerdem eine Kamera um mit einem Projektor Bilder zu zeigen. Am Anfang einer Installation hat [self.] keine Kenntnis, keine Datenbank. Wenn jemand spricht, lernt er die Wörter, oder tatsächlich den Klang der Wörter, und lernt die Gesichter zu erkennen. Er verarbeitet die aufgenommenen Klänge, um die unerwünschten Geräusche aus der Umwelt zu entfernen und die Klänge der wichtigen Worte zu behalten. Sein Gehör ist von einem Modell des Innenohrs inspiriert und die Videoprojektionen sind keine Videoaufnahmen, sondern ein Zusammenhang zwischen Bild und Ton. Ein multidimensionales Netz der Assoziationen arbeitet zusammen um Sätze zu sprechen und Antworten zu gestalten: ähnliche Töne (Wörter) in verschiedenen Sätzen, die Position der Töne (Wörter) im Satz, Kontext in den längeren Zeiträumen (wahrgenommener Klang innerhalb von einigen Minuten), Dauer und Entfernung von den Klängen, Ähnlichkeiten zwischen alten und neuen Klängen und ihre Beziehungen zum Bild und usw.

 

Joachim Heintz stellte Knuth und Alma als seine Partner für Live-Elektronik mit gesprochener Sprache vor. Knuth und Alma sind nicht Personen sondern zwei Programms mit verschiedenen Funktionen und Aufgaben. Die Idee ist im Grunde ein kleiner Lautsprecher, ein Partner, für einen Dichter oder Performer zu haben, den man überall bringen kann und neben sich selbst auf der Bühne oder an jeden anderen Ort zu stellen. Knuth konzentriert sich auf den inneren Rhythmus der Sprache. Dann triggert er verschiedene vorher aufgenommene Klänge basiert auf den spektralen Spitzen der Klängen in einem bestimmten Zeitfenster. Was ein Komponist oder ein Künstler tut mit der resultierenden Analyse, wird dann eine breite Palette von Möglichkeiten bringen. Joachim Heintz versuchte, die Anwendung des Knuth in einer Live-Aufführung zu zeigen, indem er ein kurzes Gedicht von Kurt Schwitters („Zwölf“) mit Begleitung von Knuth las. — Im Gegensatz zu Knuth verarbeitet Alma den Live-Input und gibt ihn zurück in verschiedenen Modi. Alma konzentriert sich auf einzelne klingende Einheiten der Sprache und analysiert sie auf der Grundlage der Pausen dazwischen. Er las dann einen Text von Wittgenstein (philosophische Untersuchungen, 683) und zeigte die Anwendung in der Praxis. Heintz’ Paper war nicht nur ein Vortrag sondern auch eine interessante Performance und stieß auf große Resonanz.

 

 

2.Tag

Am zweiten Tag begannen die Vorträge nach dem Kaffee und Kuchen in zwei Slots parallel in verschiedenen Räumen. Das wichtigste Ereignis am zweiten Tag und am Schluss der parallelen Vorträge war der ‚Benutzer-Entwickler Round-Table‘, von dem ich hier eine Zusammenfassung geben möchte.

 

„Computing seit 1986“, es gibt nicht viele Computermusik-Software, die so lange Zeit wie Csound existieren. Das führt zu dem Problem, dass es verschiedene Generationen von Komponisten gibt, die über Csound’s Vergangenheit bescheid wissen, aber nicht über seine Gegenwart und neuen Eigenschaften. So war die erste Frage, wie auf der offiziellen Website, http://csound.github.io am besten informiert werden kann. Es wurde festgestellt, dass viel Beteiligung benötigt wird, um sie auf dem neuesten Stand zu halten. Feedbacks und weitere Beiträge in der Community sind notwendig.

Das „Pull Request“ wurde diskutiert und es wurde beschlossen, eine Anweisung zu schreiben, aus der hervorgeht, wie man das machen kann.

Es wurde beschlossen, die Download-Ausgaben und andere Themen in einer besseren Weise auf der Github-Seite zu integrieren. Sourceforge als Haupt-Download-Website soll verlassen werden.

Es wurde beschlossen, die alte Webseite zu behalten, http://www.csounds.com/, aber den Inhalt der Webseite zu ändern, um identische Themen auf den neuen und alten Webseite zu verhindern.

Es wurde vorgeschlagen, Demo-Videos vorzubereiten. Tutorial-Videos neben den Lehrbüchern. Um zu demonstrieren, was Csound ist, warum Csound, und wo Csound zu bekommen, einen schnelle und coolen Einstieg für Anfänger.

Einige Anfänger oder Studenten fühlen sich verängstigt Fragen in der Mailingliste oder im Forum zu stellen. Es wurde vorgeschlagen, einige Diskussionen und einfache Fragen im Forum zu öffnen, um die Teilnahme zu motivieren und den Beitritt der Mailingliste oder die Fehlermeldungen (Bug Reports) erleichtern.

Es wurde vorgeschlagen, eine schon bestehende Seite bei der Plattform „Stack Overflow“ zu beleben.

Es wurde diskutiert ob das meistbenutze Frontend CsoundQt im Download-Paket mit Csound gehalten werden sollte oder nicht. Es hilft den Menschen, die nicht die Befehlszeilen benutzen können, aber führt manchmal zu einigen Missverständnissen, weil CsoundQt für Csound gehalten wird. So wurde beschlossen, es im Paket zu behalten.

Es wurde vorgeschlagen, eine Web-Csound zu machen, so dass die Benutzer nichts installieren müssen, einfach auf die Website gehen und es benutzen.

Am Ende der Diskussion kam eine Einladung von Luis Jure für die nächste Csound Konferenz in Montevideo, Uruguay!

 

Am Spätnachmittag gab es ein Konzert im Rimsky-Korsakov Museum mit vielen Stereo Tonbandstücken und Live-Elektronik von Kita Toshihiro und dem Cosmo-Projekt. Im Toshihiro’s Stück war das Publikum mit Smartphones beteiligt und konnte die Musik live steuern. Das Cosmo- (Csound on stage musical operator) Projekt ist eine interessante Arbeit die von Alex Hofmann und Bernt Isak Waerstad vorgestellt wurde. Es bringt Csound auf ein tragbares, eigenständiges Musikgerät in einer Gitarren-Pedal-Format Stomp-Box. Weitere Informationen unter http://cosmoproject.github.io/

 

 

3.Tag

Letzter Tag war der Tag der Konzerte! Eins am Mittag und das andere am späten Nachmittag. Das erste Konzert enthielt sowohl Stücke für mehrere Lautsprecher als auch Live-Aufführungen. „Dancing Csound“ von Nikolay Rubanov und Salavat Safiullin, und „Photographic Memories for Cello, Radiobaton, Electronic and virtual Orchesra” von Richard Boulanger waren die beiden Live-Aufführungen.

Das Zweite Konzert begann mit großer Verspätung. Es gab nur Stücke für Elektronik und Instrumente im Programm, also Live-Aufführungen. „Allaxis“ von Alexey Glazkov für Geige, Violoncello Klavier und Tonband, „L’Incendiario“ von Massimo Bassan für Geige, Violoncello, Klavier, Schauspieler und Tonband, eine Version für Stimme von „Solo Nr.19“ von Karlheinz Stockhausen dass von Lauran Muncaciu gesungen wurde und „AB“ von Joachim Heintz für Flöte und Elektronik mit Tarmo Johannes als Flötist.

 

Insgesamt war die dritte internationale Csound Konferenz in Sankt Petersburg sehr spannend für mich. Ich konnte viele Mitglieder der Online Community überall der Welt, die normalerweise per email oder in Forum erreichbar sind, persönlich kennenlernen. Viele interessante Themen, viele Begegnungen, viel Musik, und vor allem wenn man sieht dass eine Open-Source Software nach 30 Jahre immer noch sich lebendig entwickelt und sich in verschiedenen Ländern ausbreitet. Ein großes Dankeschön an Gleb Rogozinsky, Eugene Cherny und die übrigen Helfer der Gastgeber.

0 Kommentare