SUONO E SIGNIFICATO di Roberto Zanata (musica)
MUSICA
Roberto Zanata
Suono e significato
In
questo articolo discuto il rapporto fra musica e linguaggio, nello specifico le
analogie e le differenze semantiche e sintattiche dei due sistemi. L’argomento
di questo lavoro è complesso, vasto e problematico. Sull’analogia fra sistema
linguistico e musicale, in particolare in riferimento alla sintassi è già stato
scritto molto. Ho scelto invece di adottare una prospettiva filosofica di tipo
analitico e di concentrarmi sul problema della semantica, dove ritengo che le
differenze fra musica e linguaggio siano più significative. Parto dunque da una
premessa forte, e cioè che linguaggio sia solo quello verbale con le sue
peculiari funzioni e che per analogia poi si parli di linguaggio musicale, ma
che le differenze fra i due sistemi siano sostanziali. Nello specifico la tesi
generale di questo lavoro è che la sintassi della musica debba essere
analizzata da una prospettiva storica e inserita in un contesto, ma che la
condivisione delle regole sintattiche non sia necessaria come invece per le
lingue naturali, e che, invece, la semantica musicale se pensiamo che esista
sia decisamente differente rispetto a quella linguistica.
Musica, suono, linguaggio, significato
In
linea di principio ciascuno di noi può decidere in maniera arbitraria di
riferirsi a un oggetto con un nome inventato o con un nome già utilizzato dagli
altri parlanti per denotare un altro oggetto. Allo stesso modo sempre in linea
di principio ognuno è potenzialmente libero di assegnare in maniera arbitraria
il senso che preferisce a un enunciato. Gli enunciati di identità formulali
sulla base delle mie decisioni arbitrarie, però, non hanno valore conoscitivo,
non veicolano informazioni utili o non hanno efficacia o conseguenze
intersoggettive; o meglio magari informano chi mi ascolta del mio uso di certe
parole, ma non hanno alcun valore conoscitivo in riferimento agli oggetti
nominati o ai pensieri espressi. Le nostre pratiche linguistiche non sono frutto
di decisioni arbitrarie personali ma sono immerse in una dimensione sociale.
Non decido io che nome dare a un oggetto; in una o più o meno fitta trama di
convenzioni esplicite, di usi linguistici sociali, condividiamo un linguaggio.
Senza entrare nel merito di profonde questioni di
filosofia del linguaggio sembra ragionevole affermare che esista un legame
stretto fra linguaggio, comunicazione, condivisione sociale e realtà. Forse
l’elemento più rilevante all’interno di questa relazione – la sua condizione di
possibilità – è la semantica. Il filosofo Donald Davidson sostiene che “il
linguaggio è uno strumento di comunicazione in virtù della sua dimensione
semantica, ossia della potenzialità di essere veri o falsi che caratterizza i suoi
enunciati o, meglio, i suoi proferimenti e le sue iscrizioni. Indagare quali
elementi siano veri è in generale il compito delle varie scienze, ma l’esame
delle condizioni di verità è il dominio della semantica. L’aspetto del
linguaggio su cui dobbiamo concentrarci, se vogliamo mettere in rilievo certi
aspetti generali del mondo, è il seguente: che cosa voglia dire, in generale,
che un enunciato del linguaggio è vero. L’idea è che, se le condizioni di
verità degli enunciati sono poste nel contesto di una teoria globale, la
struttura linguistica risultante rifletterà vasti aspetti del reale”[1].
Stiamo
dunque parlando di semantica, teorie del significato, filosofia analitica del
linguaggio, e ci troviamo all’interno di quella che è stata definita la svolta
linguistica del Novecento.
Ma che
valore ha quanto detto fino ad ora per la musica? Ritengo che spesso con troppa
leggerezza vengano tracciate analogie fra linguaggio e musica, che si consideri
la musica un linguaggio perché si parli di significato (o significati) della
musica. Le osservazioni che seguono vogliono essere dei tentativi di
chiarificazione della complessa questione musica/ suono – linguaggio –
significato e dei possibili fraintendimenti che possono nascere al suo interno.
Ci sono analogie tra musica e linguaggio? Certo,
ma forse queste sono sopravvalutate. Sicuramente hanno un importante elemento
in comune: la voce umana, che può essere usata per parlare e per cantare. Il
linguaggio parlato veicola informazioni mediante suoni (o sotto forma di
suoni). Qualsiasi tipo di linguaggio ha come funzione primaria quella di
comunicare; dal linguaggio naturale ordinario della comunicazione quotidiana al
linguaggio poetico. Possiamo capire un’immagine poetica proprio perché siamo all’interno
di un sistema di comunicazione condiviso. Condividiamo una logica, una
sintassi, una semantica e una pragmatica che, per quanto potenzialmente ambigue
e imperfette, ci permettono di comprenderci vicendevolmente. Non è importante
quale posizione filosofica si adotti, a seconda che si voglia dare preminenza
nella propria filosofia del linguaggio a sintassi, semantica, pragmatica, o
addirittura logica; in ogni caso ci saranno delle regole.
Anche
il canto veicola informazioni mediante suoni (o sotto forma di suoni). Ma, fino
a qui, non c’è nulla di strano: si tratta dello stesso linguaggio, cantato
invece che parlato. Ma già qui compaiono le prime differenze: ci poniamo
diversamente nei confronti di una glossolalia di Artaud inserita in un testo
(anche recitato) rispetto alla stessa cantata in una composizione di Varèse; o
di una stringa di caratteri in cui non riconosciamo regole sintattiche e
riferimenti semantici rispetto alla Sequenza
III per voce femminile di Luciano Berio, a un pezzo di Demetrio Stratos:
qui non ci chiediamo neppure che genere di informazione le voci ci stiano o non
ci stiamo comunicando.
Sicuramente, da una prospettiva evolutiva la
maggior parte di studiosi accetta l’ipotesi che linguaggio musica possono avere
un antenato comune. Ed è un fatto che i
primi linguaggi fossero cantati, o forse meglio intonati.
La musica, però, non si esaurisce nel canto, la
voce non è l’unico strumento sonoro e il forte legame fa musica-canto e
linguaggio-parlato si è progressivamente indebolito. Probabilmente ne portiamo
ancora le tracce genetiche – e sentiamo e giudichiamo come più naturale e più
giusta un’aria di Mozart o una canzone rispetto a una composizione di musica
elettroacustica. La musica, in special modo nella cultura occidentale, ha
sicuramente preso una propria strada evolutiva e ha subito mutamenti
significativi. Un elemento caratteristico è l’evoluzione tecnologica del mezzo
espressivo: nel linguaggio il mezzo che veicola la comunicazione è sempre la
voce. Abbiamo anche un linguaggio parlato e uno scritto; in musica, invece, i
media hanno subito profonde evoluzioni e hanno fatto salti qualitativi: dalla
voce agli strumenti acustici, a quelli elettronici, alla sintesi digitale del
suono.
Quali
sono, invece, le analogie fra musica e linguaggio da una prospettiva cognitiva?
Si possono proporre due criteri strutturali per definire la musica: il primo
criterio è costituito dal ritmo e dai rapporti temporali che delineano un brano
musicale attraverso la segmentazione formalizzata del tempo; il secondo è che
tutte le culture hanno diviso il continuum
sonoro in intervalli discreti che formano le scale musicali. Alcuni sostengono
che entrambi i criteri si applicano anche al linguaggio. E questo sembra
evidente. Non è però evidente che questi criteri costituiscano due tratti
specifici della musica, tanto da farne due criteri definitori, né che
rappresentino un importante punto di contatto fra musica e linguaggio. Quanto
al primo criterio non è facile trovare un’attività o anche un qualsiasi evento
che non segmenti il tempo. Quanto al secondo criterio, ritengo che se dal punto
di vista del linguaggio e della comunicazione umana dividere lo “speech
continuum” in fonemi discreti è una condizione necessaria fondamentale perché
possa darsi linguaggio e comunicazione e, banalmente, ci si possa comprendere,
in ambito sonoro-musicale il continuum
sonoro non deve essere necessariamente discretizzato. Il fatto che esistano
certi generi di musica elettronica e sperimentale dimostra che le note, le
scale, l’armonia – in generale qualsiasi tipo di regola combinatoria
(condivisa) di micro e macro-elementi – non costituiscono una condizione
necessaria per la musica.
L’organizzazione
dei suoni può seguire regole private come per esempio in Varèse[2],
oppure può, in casi estremi, anche non esserci per niente come in un certo
Cage. Le regole linguistiche e le regole musicali hanno natura profondamente
differente.
È
necessario prendere in esame un ultimo punto, forse il più complicato e
probabilmente il più rilevante in relazione al rapporto fra musica e
linguaggio: la questione del significato. Aniruddh D. Patel dedica un intero
capitolo del suo eccellente volume Music,
language, and the brain al significato[3] e
rileva immediatamente come la relazione fra significato musicale e linguistico
abbia un carattere paradossale, poiché la musica sembra essere al tempo stesso
essere intraducibile e universale. Patel ritiene che il significato musicale
sia molto differente rispetto al significato linguistico, ma vuole comunque
sostenere la tesi che sia possibile assegnare un qualche tipo di significato
alla musica. Dalle assunzioni/premesse che la musica non può essere tradotta
senza un mutamento di significato del materiale originale e che una funzione
caratteristica di differenti tipi di linguaggio è la trasmissione di certi tipi
basilari di significati fra individui, deriva la conclusione che è difficile se
non impossibile assegnare un insieme universale di significati alla musica. Per
questo motivo, lo studioso traccia un interessante tassonomia del significato
musicale concentrandosi poi sul ruolo e sulla funzione delle emozioni per una
teoria del significato musicale.
Patel
è in grado di allargare l’ambito di applicazione di una teoria del significato
anche alla musica con l’accettazione di due – pesanti, a mio parere –
assunzioni teoriche. Innanzitutto, è costretto ad allontanarsi della concezione
del significato prettamente semantica. Egli rileva come la maggior parte delle
discussioni comparative su linguaggio e musica si riferiscano alla semantica ma
suggerisce che possa essere più fruttuoso porre il focus sulla pragmatica.
Sottolinea comunque come non ci sia un consenso generale su una definizione di
cosa sia il significato musicale. Le varie posizioni teoriche in riferimento
alla definizione del significato musicale possono venire collocate lungo un
asse concettuale che va da un uso semantico del termine significato a
un’interpretazione più inclusiva. A un estremo troviamo la posizione del
filosofo Kivy, «who argues that “meaning”
should be reserve for the linguistic sense of reference and predication. In
this view, music does not have meaning».[4]
All’estremo opposto c’è la posizione di Nattiez che «considers meaning to be signification in the
broadest semiotic sense: Meaning exists when perception of an object/event
brings something to mind other than the object/event».[5] Senza
entrare più in profondità nell’analisi di Patel, una sua tesi è che adottando
una concezione ampia del significato è possibile condurre indagini trasversali
comparative tra diversi ambiti di ricerca e identificare così alcuni temi
rilevanti per il discorso su musica e linguaggio, fra i quali «the expression and appraisal of emotion as a key link
between spoken language and music».[6]
Se
consideriamo prioritaria la pragmatica rispetto alla semantica e adottiamo un
uso inclusivo del termine significato (come fa Nattiez), allora musica e
linguaggio sembrano effettivamente avere molto in comune e diventa lecito
parlare di significato della musica. Mi sembra però che in questo modo,
cercando di avvicinare la musica al linguaggio, allontaniamo il linguaggio
dalla musica.
Trovo
invece interessante la strada verso un tentativo di identificazione del
riferimento semantico del suono con le emozioni. Una domanda che mi sembra
stimolante per iniziare a trattare seriamente il problema è: in che misura la
musica può rientrare in una teoria dell’informazione?
Che
genere di informazioni veicola la musica attraverso i suoni? E se le
informazioni veicolate dai suoni – ampiezza, frequenza, timbro, durata, e poi,
salendo di livello, ritmo, organizzazione formale etc. – avessero davvero un
riferimento emozionale reale e oggettivo?
Questa
mi sembra una prospettiva interessante dalla quale iniziare ad affrontare la
questione del significato della musica, e forse soprattutto a livello neuro
scientifico. A patto però di non perdere di vista alcuni punti: cercare di
allontanarsi il meno possibile da una teoria semantica; prendere in
considerazione esempi musicali contemporanei, della musica sperimentale ed
elettronica (e non invece limitarsi alla musica classica tonale della
tradizione occidentale); non farsi sedurre dal fascino delle neuroimmagini.
La mia tesi, e
conclusione (problematica e non definitiva), è che la musica al livello atomico
dei suoni e dell’organizzazione dei suoni e dei suoi parametri non abbia un
riferimento (o un significato); a un livello macroscopico (non-atomico),
invece, in alcuni casi può avere un riferimento in concetti, idee o anche
emozioni – e che quindi si possa parlare di significato. L’analogia fra musica
e linguaggio, in riferimento al significato, ha dunque una natura particolare:
nel linguaggio parliamo di significato in relazione ai microelementi, nomi,
termini, enunciati; nella musica, in relazione a delle macrostrutture. In
alcuni casi, non sempre, abbiamo un’analogia a chiasmo.
[2] Varèse in riferimento alla propria musica conia addirittura nuovi termini per definire gli elementi melodici e armonici, ed elabora nuove tecniche per l’organizzazione dei suoni. [Anderson 1991: 35].
[4] Kivy, P. (2002). Introduction to a Philosophy of Music. Oxford, UK: Oxford University Press (citato in PATEL 2008: 304).
BIBLIOGRAFIA
John Anderson,
Varèse and the Lyricism of the New Physics”, The Musical Quartely, Vol. 75, No.
1 (Spring, 1991), pp. 31-49, Oxford University Press.
Vladimir Jankélévich, La musica e l'ineffabile, Bompiani, Milano: 1998.
Roberto Zanata
Articolo molto interessante che pone approfondimenti e riflessioni.
RispondiElimina