poster/index.html.haml

346 lines
16 KiB
Plaintext
Raw Normal View History

2017-02-28 14:39:54 +01:00
- require "base64"
~ "\xEF\xBB\xBF"
- def quellen opts
- etc = opts.key? :etc
- if etc
- opts.delete :etc
- etc = "\n<etc/>"
- else
- etc = ''
- "<quellen>#{opts.map {|k, v| "<quelle jahr=#{v}>#{k}</quelle>" }.join "\n"}#{etc}</quellen>"
2018-03-09 18:25:11 +01:00
- def link link
- "<a href=\"#{link}\">#{link}</a>"
2017-02-28 14:39:54 +01:00
- def import_data file
- mime_type = IO.popen(["file", "--brief", "--mime-type", file], in: :close, err: :close) { |io| io.read.chomp }
- content = Base64.urlsafe_encode64 File.read( file)
- "data:#{mime_type};base64,#{content}"
!!! 5
2018-03-09 18:25:11 +01:00
%html(lang='de')
2017-02-28 14:39:54 +01:00
%head
-#%meta(charset="utf-8")
2018-03-09 18:25:11 +01:00
%title “Düsterkeit” in der Musik: Physikalische Entsprechungen und Vorhersagemodelle
-#%link(rel="stylesheet" href="fonts/Roboto.css")
-#%link(rel="stylesheet" href="fonts/RobotoSlab.css")
-#%link(rel="stylesheet" href="fonts/PT_Mono.css")
-#%link(rel="stylesheet" href="fonts/PT_Sans.css")
-#%link(rel="stylesheet" href="fonts/Vollkorn.css")
-#%link(rel="stylesheet" href="fonts/Asset.css")
2017-02-28 14:39:54 +01:00
-#%link(rel="stylesheet" href="fonts/WithinDestruction.css")
-#%link(rel="stylesheet" href="fonts/BlackDahlia.css")
2018-03-09 18:25:11 +01:00
-#%link(rel="stylesheet" href="fonts/ThroughStruggleDEMO.css")
2017-02-28 14:39:54 +01:00
-#%link(rel="stylesheet" href="fonts/TheDefiler.css")
2018-03-09 18:25:11 +01:00
%link(rel="stylesheet" href="fonts/Cardo.css")
%link(rel="stylesheet" href="fonts/Italianno.css")
-#%link(rel="stylesheet" href="fonts/CinzelDecorative.css")
2017-02-28 14:39:54 +01:00
%link(rel="stylesheet" href="style.css")
2017-09-06 23:13:13 +02:00
%meta(name="viewport" content="width=device-width, initial-scale=1.0, user-scalable=no")
2017-02-28 14:39:54 +01:00
%body
2018-03-09 18:25:11 +01:00
%header(style="")
2017-09-06 23:13:13 +02:00
%figure.logos<>
2018-03-09 18:25:11 +01:00
%img#uni-logo(src="files/Uni_Logo_2016_ausschnitt.gif")
%img#tagungs-logo(style="float:right" src="files/daga-2018-logo.png")
%div
DAGA
%br<>
Technische Universität München
%br<>
19. März 2018
%br<>
\..22. März 2018
-#.grabstein
.grabstein-was DAGA
.grabstein-wo Technische Universität München
.grabstein-von &#10022; 19. März 2018
.grabstein-bis &#10013; 22. März 2018
2018-03-09 20:04:40 +01:00
%img(style="height:7cm;float:right;margin-top:3.5cm" alt="Dunkle Nacht" src="files/Candle.png")
2017-02-28 14:39:54 +01:00
%h1
2018-03-09 18:25:11 +01:00
<q>Düsterkeit</q> in der Musik:
2018-03-09 20:04:40 +01:00
-#%br<>
2018-03-09 18:25:11 +01:00
Physikalische Entsprechungen und Vorhersagemodelle
2017-09-06 23:13:13 +02:00
%p#authors<>
2018-03-12 12:36:41 +01:00
%span.author(data-mark="1,2")<> Isabella Czedik-Eysenberg
2017-02-28 14:39:54 +01:00
%span.author(data-mark="1")<> Christoph Reuter
2018-03-09 18:25:11 +01:00
%span.author(data-mark="2")<> Denis Knauf
2017-02-28 14:39:54 +01:00
%p#institutions<>
%span.institution(data-mark="1")<> Institut für Musikwissenschaft, Universität Wien
%span.institution(data-mark="2")<> Informatik, Technische Universität Wien
%main
#column1
%section#hintergrund
2018-03-09 18:25:11 +01:00
%h1 1. Hintergrund
2017-02-28 14:39:54 +01:00
%p
2018-03-09 18:25:11 +01:00
Von Dowlands <q>Songs of Darkness</q> bis hin zu Genres wie Gothic oder
Doom Metal ist <q>Düsterkeit</q> eine Dimension von Musik, die sich auch
2018-03-09 23:17:25 +01:00
abseits melan-<jbr/>cholischer Texte im Klangbild niederschlagen kann.
2017-02-28 14:39:54 +01:00
%p
2018-03-09 18:25:11 +01:00
In musikalischen Adjektiv-Klassifikationen bildete der Begriff
<q>düster</q> (<q>dark</q>) einen gemeinsamen Cluster mit Trauer-bezogenen
Adjektiven (etwa <q>gloomy</q>, <q>sad</q>, <q>depressing</q>)
#{quellen Hevner: 1936}.
Jene Verknüpfung wurde auch in späteren Arbeiten zur automatisierten
musikalischen Affektdetektion aufgegriffen #{quellen 'Li & Ogihara'=>2003}.
Dies würde die Relevanz von Klangattributen,
welche mit dem Ausdruck von Trauer assoziiert sind etwa
Moll-Tonarten oder auch tiefere Grundtonhöhen,
geringe Melodiebewegungen und ein <q>düsteres</q> Timbre
#{quellen Huron: 2008} nahelegen.
2017-02-28 14:39:54 +01:00
%p
2018-03-09 18:25:11 +01:00
Von der Klangfarbenforschung ausgehend wird <q>Helligkeit</q> (messbar
an der spektralen Verteilung eines Klanges) häufig als eine zentrale
perzeptuelle Klangfarbendimension angesehen
#{quellen 'Wedin & Goude'=>1972, Bismarck: 1974, Grey: 1975, 'Siddiq et al.'=>2014}.
Dies wirft u.a. die Frage auf, ob es hierbei einen (umgekehrt
proportionalen) Zusammenhang gibt, bzw. welche anderen
zusätzlichen Faktoren zu einer klanglichen Düsterkeitsbewertung
beitragen.
2017-02-28 14:39:54 +01:00
%section#fragestellung
2018-03-09 18:25:11 +01:00
%h1 2. Fragestellungen und Ziele
2018-03-09 20:04:40 +01:00
%ol
%li
2018-03-12 12:36:41 +01:00
%p
Wie lässt sich das Wahrnehmungskonzept klanglicher <q>Düsterkeit</q>
anhand von Audiomerkmalen charakterisieren?
2018-03-09 20:04:40 +01:00
%li
2018-03-12 12:36:41 +01:00
%p
Korreliert die empfundene klangliche <q>Düsterkeit</q> umgekehrt
proportional mit klangfarblicher <q>Helligkeit</q>?
2018-03-09 20:04:40 +01:00
%li
2018-03-12 12:36:41 +01:00
%p
Ziel ist die Erstellung eines Modells zur automatischen Vorhersage
der wahrgenommenen <q>Düsterkeit</q> von Musikstücken.
2017-02-28 14:39:54 +01:00
%section#methoden
2018-03-09 18:25:11 +01:00
%h1 3. Methoden
2017-02-28 14:39:54 +01:00
%p
2018-03-09 18:25:11 +01:00
150 Musikbeispiele aus 10 unterschiedlichen Subgenres der Bereiche
Metal, Techno, Gothic und Pop wurden anhand von Hörerstatistiken
der Internetplattform LastFM selektiert. Die Refrains dieser
Stücke wurden 40 Versuchspersonen zur Bewertung dargeboten, um
eine Ground Truth für die Wahrnehmung der <q>Düsterkeit</q> von
Musikbeispielen zu erheben. Unter Einsatz von Essentia
#{quellen 'Bogdanov et al.'=> 2013}, MIRtoolbox
#{quellen 'Lartillot & Toiviainen'=> 2007},
Loudness Toolbox #{quellen Genesis: 2009} und TSM Toolbox
#{quellen 'Driedger & Müller'=>2014} wurden 230
Signaleigenschaften über die spektrale Verteilung, zeitliche und
dynamische Klangfaktoren gewonnen. Diese wurden mittels Machine
Learning-Verfahren unter Kreuzvalidierung ausgewertet und kombiniert,
um auf Basis der Hörversuchsdaten Vorhersagemodelle zu erstellen.
2017-02-28 14:39:54 +01:00
2018-03-09 18:25:11 +01:00
%section#schlussfolgerungen
-#(style="width:44.5%;display:inline-block;float:left")
%h1 5. Diskussion/Schlussfolgerungen
2017-02-28 14:39:54 +01:00
%p
2018-03-09 18:25:11 +01:00
Es konnte anhand von Audiomerkmalen ein Modell zur Vorhersage
einer Bewertung musikalischer Düsterkeit aufgestellt werden
<nobr>(Korrelation r = 0,80, p &lt; 0,01)</nobr>.
2017-02-28 14:39:54 +01:00
%p
2018-03-09 18:25:11 +01:00
Eine Antiproportionalität mit klangfarblicher Helligkeit ließ sich
mit gängigen Maßen hierfür nicht nachweisen.
2017-02-28 14:39:54 +01:00
%p
2018-03-09 18:25:11 +01:00
Eine Gleichsetzung mit <q>traurig</q> scheint nicht 1:1 möglich zu sein,
sehr wohl finden sich aber starke Zusammenhänge (etwa Moll-Harmonik).
%p
Das Konzept soll in folgenden Untersuchungen genauer in Hinblick
auf das Interrater-Agreement und den Zusammenhang zu anderen
Wahrnehmungskonzepten betrachtet werden.
2017-02-28 14:39:54 +01:00
#column2
2018-03-12 12:36:41 +01:00
%section#ergebnisse1(style="height:96.35cm")
2018-03-09 18:25:11 +01:00
%h1 4. Ergebnisse
%figure.right(style="width:70%")
%img(alt='Verwelkter Mohn' src='files/violin_genre_darkMean.svg')
2017-02-28 14:39:54 +01:00
%p
2018-03-09 18:25:11 +01:00
Es zeigt sich ein Bezug zwischen dem Genre und der
durchschnittlichen Düsterkeitsbewertung der jeweiligen Stimuli.
%figure.right(style="width:35%")
%img(alt='Ernstes Indigo' src='files/scatter_spectral_centroid_essentia_darkness.svg')
2017-02-28 14:39:54 +01:00
%p
2018-03-09 18:25:11 +01:00
Eine Antiproportionalität zu klangfarblicher <q>Helligkeit</q> lässt
sich (mit der vorliegenden Messmethode) nicht nachweisen. Es liegt
im Gegenteil sogar eine leicht positive Korrelation vor
womöglich u.a. bedingt durch erhöhte dissonante Klanganteile im
Hochfrequenzbereich (z.B. Schlagzeugvorkommen). Werden die
perkussiven Signalanteile zuvor ausgefiltert, verringert sich
dieser Effekt bereits deutlich.
2018-03-09 23:17:25 +01:00
%figure.nobrtd(style="width:24em")
2018-03-09 18:25:11 +01:00
:markdown
Merkmal|r|p
---|---|---
Spectral Centroid|0,3340|&lt; 0,0001
Hochfrequenzanteil (> 1500 Hz)|0,1526|0,0631
Spectral Centroid (harmonischer Teil)|0,2094|0,0101
Hochfrequenzanteil (harmonischer Teil)|0,1270|0,1215
{:.merkmale}
%figcaption
Korrelation der durchschnittlichen Düsterkeits<wbr/>bewertung mit Maßen
für klangfarbliche Helligkeit.
2017-02-28 14:39:54 +01:00
2018-03-09 23:17:25 +01:00
.clear
%figure.left(style="width:41.1%")
%img(alt='Trauriges Purpur' src='files/violin_keyEdma_darkMean_blaugelb.svg')
%figure
%figure.right(style="width:12em")
%img(alt="lilien grau" src="files/meanspectra_10khz_600dpi.png")
%figure.right
:markdown
Merkmal|r|p
---|---|---
RMS Gammatone 1|- 0,3989|&lt; 0,0001
RMS Gammatone 4|- 0,3427|&lt; 0,0001
RMS Gammatone 5|- 0,3126|0,0001
{:.merkmale}
%p(style="clear:right")
2018-03-09 20:04:40 +01:00
Zwischen den 30 am düstersten bzw. am wenigsten düster bewerteten
Klangbeispielen zeigen sich charakteristische Unterschiede in der spektralen
Verteilung (insbesondere im Bereich der Gammatone-Filterbank-Bänder 1, 4 und 5).
2018-03-09 18:25:11 +01:00
%p(style="clear:right")
Ein deutlicher Zusammenhang zeigt sich mit der Tonart der
jeweiligen Ausschnitte: Moll-Beispiele wurden im Durchschnitt als
düsterer bewertet als Stücke in Dur-Tonarten (<nobr>p &lt; 0.0001</nobr> laut t-Test).
%p(style="clear:right")
Teilweise eher statische Tonchroma-Veränderungen im Fall der als
düster bewerteten Beispiele könnten die Theorie geringere
Tonhöhenbewegungen in Zusammenhang mit einem Ausdruck von Trauer
bestätigen (siehe z.B. Chromagramm <q><nobr>Sunn 0)))</nobr></q>).
%figure.right(style="width:58.2%")
%img(style="width:49%" alt='Schrumpeliges Gelb' src='files/chromagramm_sunn.svg')
%img(style="width:49%" alt='Vergängliches Weiß' src='files/chromagramm_abba.svg')
%p(style="clear:left;max-width: 50%")
Der stärkste Zusammenhang lässt sich zur Spectral Complexity
feststellen, welche die Komplexität des Signals in Bezug auf seine
Frequenzkomponenten anhand der Anzahl spektraler Peaks im Bereich
zwischen 100 Hz und 5 kHz beschreibt. Dies ist interessant mit den
Ergebnissen von #{quellen 'Laurier et al.' => 2010} in Bezug zu setzen,
welche beobachteten, dass <q>entspannte</q> (<q>relaxed</q>) Stücke eine
niedrigere spektrale Komplexität aufweisen, <q>fröhliche</q> (<q>happy</q>)
Stücke jedoch eine leicht höhere spektrale Komplexität als
<q>nicht fröhliche</q>.
2018-03-09 20:04:40 +01:00
%figure.left(style="width:59.83%;position:relative")
2018-03-09 18:25:11 +01:00
%img(alt='Totes Grün' src='files/scatter_model8_mit_beschriftung_gross.svg')
2018-03-09 20:04:40 +01:00
%img(alt="Farbiges Beispiel" style="width:5cm;opacity:0.7;position:absolute;top:0;left:3cm" src="files/bat.png")
2018-03-09 18:25:11 +01:00
%p(style="clear:right")
Nach sequentieller Merkmalsauswahl wurden 8 Signaldeskriptoren zur
Bildung eines Modells zu Rate gezogen:
:markdown
Merkmal|r|p
----|----|----
Spectral Complexity (mean)| 0,6224| &lt; 0,0001
HPCP Entropy (mean)| 0,5355| &lt; 0,0001
Dynamic Complexity| - 0,4855| &lt; 0,0001
Onset Rate| - 0,4837| &lt; 0,0001
Pitch Salience| 0,4835| &lt; 0,0001
MFCC 3 (mean)| 0,4657| &lt; 0,0001
Spectral Centroid (mean)| 0,3340| &lt; 0,0001
RMS Energy Gammatone 4| - 0,3427| &lt; 0,0001
{:.merkmale}
2017-02-28 14:39:54 +01:00
%p
2018-03-09 18:25:11 +01:00
Anhand dieser wurde unter 5-facher Kreuzvalidierung ein lineares
Regressionsmodell zur Abschätzung der Düsterkeitsbewertung erstellt.
:markdown
Merkmal|Wert
----|----
Root-mean-squared error (RMSE)|0,81<span class="hidden">00</span>
Bestimmtheitsmaß (R<sup>2</sup>)|0,60<span class="hidden">00</span>
Mean Squared Error (MSE)|0,65<span class="hidden">00</span>
Mean Average Error (MAE)|0,64<span class="hidden">00</span>
Korrelation (insgesamt)|0,7978
{:.merkmale}
%div(style="clear:left")
.clear
2017-02-28 14:39:54 +01:00
2018-03-09 18:25:11 +01:00
%footer
%section#literatur
-#(style="width:44.5%;display:inline-block;float:right")
%h1 6. Literatur
%ul.literatur
%li
%span.author Bismarck, G. v.
%span.year 1974
%span.title Sharpness as an attribute of the timbre of steady sounds
2018-03-12 12:36:41 +01:00
%nobr
%span.book Acta Acustica united with Acustica 30.3
%span.pages 159172
2018-03-09 18:25:11 +01:00
%li
%span.author Bogdanov, D., Wack N., Gómez E., Gulati S., Herrera P., Mayor O., et al.
%span.year 2013
%span.title ESSENTIA: an Audio Analysis Library for Music Information Retrieval
2018-03-12 12:36:41 +01:00
%nobr
%span.herausgeber International Society for Music Information Retrieval Conference (ISMIR'13)
%span.pages 493-498
2018-03-09 18:25:11 +01:00
%li
%span.author Driedger, J. &amp; Müller, M.
%span.year 2014
%span.title TSM Toolbox: MATLAB Implementations of Time-Scale Modification Algorithms
%span.herausgeber Proc. of the International Conference on Digital Audio Effects
%li
%span.author Genesis
%span.year 2009
%span.title Loudness toolbox
%span.link
%a(href="http://www.genesis-acoustics.com/en/index.php?page=32")
http://www.genesis-acoustics.com/en/index.php?page=32
%li
%span.author Grey, J.M.
%span.year 1975
%span.title An Exploration of Musical Timbre
%span.herausgeber Stanford University, CCRMA Report No.STAN-M-2
%li
%span.author Hevner, K.
%span.year 1936
%span.title Experimental studies of the elements of expression in music
2018-03-12 12:36:41 +01:00
%nobr
%span.herausgeber The American Journal of Psychology, 48(2)
%span.pages 246-268
2018-03-09 18:25:11 +01:00
%li
%span.author Lartillot, O., &amp; Toiviainen, P.
%span.year 2007
%span.title A Matlab toolbox for musical feature extraction from audio
2018-03-12 12:36:41 +01:00
%nobr
%span.herausgeber International Conference on Digital Audio Effects, Bordeaux
%span.pages 237-244
2018-03-09 18:25:11 +01:00
%li
%span.author Laurier, C., Meyers, O., Serrà, J., Blech, M., Herrera, P., &amp; Serra, X.
%span.year 2010
%span.title Indexing music by mood: Design and integration of an automatic content-based annotator
2018-03-12 12:36:41 +01:00
%nobr
%span.herausgeber Multimedia Tools and Applications, 48(1)
%span.pages 161-184
2018-03-09 18:25:11 +01:00
%span.link
%a(href="http://dx.doi.org/10.1007/s11042-009-0360-2") http://dx.doi.org/10.1007/s11042-009-0360-2
%li
%span.author Li,T., Ogihara,M.
%span.year 2003
%span.title Detecting emotion in music
2018-03-12 12:36:41 +01:00
%nobr
%span.herausgeber 4th ISMIR Washington &amp; Baltimore
%span.pages 239-240
2018-03-09 18:25:11 +01:00
%li
%span.author Huron, D.
%span.year 2008
%span.title A comparison of average pitch height and interval size in major-and minor-key themes
2018-03-12 12:36:41 +01:00
%nobr
%span.herausgeber Empirical Musicology Review, 3
%span.pages 59-63
2018-03-09 18:25:11 +01:00
%li
%span.author Siddiq,S. et al.
%span.year 2014
%span.title Kein Raum für Klangfarben - Timbre Spaces im Vergleich
2018-03-12 12:36:41 +01:00
%nobr
%span.herausgeber 40. DAGA
%span.pages 56-57
2018-03-09 18:25:11 +01:00
%li
%span.author Wedin, L. &amp; Goude, G.
%span.year 1972
%span.title Dimension analysis of the perception of instrumental timbre
2018-03-12 12:36:41 +01:00
%nobr
%span.herausgeber Scandinavian Journal of Psychology 13.1
%span.pages 228240
2018-03-09 18:25:11 +01:00
.clear