SUONO E SIGNIFICATO di Roberto Zanata (musica)

 

MUSICA

 

 

Roberto Zanata

 

Suono e significato

 


 

 Premessa

 

In questo articolo discuto il rapporto fra musica e linguaggio, nello specifico le analogie e le differenze semantiche e sintattiche dei due sistemi. L’argomento di questo lavoro è complesso, vasto e problematico. Sull’analogia fra sistema linguistico e musicale, in particolare in riferimento alla sintassi è già stato scritto molto. Ho scelto invece di adottare una prospettiva filosofica di tipo analitico e di concentrarmi sul problema della semantica, dove ritengo che le differenze fra musica e linguaggio siano più significative. Parto dunque da una premessa forte, e cioè che linguaggio sia solo quello verbale con le sue peculiari funzioni e che per analogia poi si parli di linguaggio musicale, ma che le differenze fra i due sistemi siano sostanziali. Nello specifico la tesi generale di questo lavoro è che la sintassi della musica debba essere analizzata da una prospettiva storica e inserita in un contesto, ma che la condivisione delle regole sintattiche non sia necessaria come invece per le lingue naturali, e che, invece, la semantica musicale se pensiamo che esista sia decisamente differente rispetto a quella linguistica.

 

Musica, suono, linguaggio, significato

 

In linea di principio ciascuno di noi può decidere in maniera arbitraria di riferirsi a un oggetto con un nome inventato o con un nome già utilizzato dagli altri parlanti per denotare un altro oggetto. Allo stesso modo sempre in linea di principio ognuno è potenzialmente libero di assegnare in maniera arbitraria il senso che preferisce a un enunciato. Gli enunciati di identità formulali sulla base delle mie decisioni arbitrarie, però, non hanno valore conoscitivo, non veicolano informazioni utili o non hanno efficacia o conseguenze intersoggettive; o meglio magari informano chi mi ascolta del mio uso di certe parole, ma non hanno alcun valore conoscitivo in riferimento agli oggetti nominati o ai pensieri espressi. Le nostre pratiche linguistiche non sono frutto di decisioni arbitrarie personali ma sono immerse in una dimensione sociale. Non decido io che nome dare a un oggetto; in una o più o meno fitta trama di convenzioni esplicite, di usi linguistici sociali, condividiamo un linguaggio.

Senza entrare nel merito di profonde questioni di filosofia del linguaggio sembra ragionevole affermare che esista un legame stretto fra linguaggio, comunicazione, condivisione sociale e realtà. Forse l’elemento più rilevante all’interno di questa relazione – la sua condizione di possibilità – è la semantica. Il filosofo Donald Davidson sostiene che “il linguaggio è uno strumento di comunicazione in virtù della sua dimensione semantica, ossia della potenzialità di essere veri o falsi che caratterizza i suoi enunciati o, meglio, i suoi proferimenti e le sue iscrizioni. Indagare quali elementi siano veri è in generale il compito delle varie scienze, ma l’esame delle condizioni di verità è il dominio della semantica. L’aspetto del linguaggio su cui dobbiamo concentrarci, se vogliamo mettere in rilievo certi aspetti generali del mondo, è il seguente: che cosa voglia dire, in generale, che un enunciato del linguaggio è vero. L’idea è che, se le condizioni di verità degli enunciati sono poste nel contesto di una teoria globale, la struttura linguistica risultante rifletterà vasti aspetti del reale”[1].

Stiamo dunque parlando di semantica, teorie del significato, filosofia analitica del linguaggio, e ci troviamo all’interno di quella che è stata definita la svolta linguistica del Novecento.

Ma che valore ha quanto detto fino ad ora per la musica? Ritengo che spesso con troppa leggerezza vengano tracciate analogie fra linguaggio e musica, che si consideri la musica un linguaggio perché si parli di significato (o significati) della musica. Le osservazioni che seguono vogliono essere dei tentativi di chiarificazione della complessa questione musica/ suono – linguaggio – significato e dei possibili fraintendimenti che possono nascere al suo interno.

Ci sono analogie tra musica e linguaggio? Certo, ma forse queste sono sopravvalutate. Sicuramente hanno un importante elemento in comune: la voce umana, che può essere usata per parlare e per cantare. Il linguaggio parlato veicola informazioni mediante suoni (o sotto forma di suoni). Qualsiasi tipo di linguaggio ha come funzione primaria quella di comunicare; dal linguaggio naturale ordinario della comunicazione quotidiana al linguaggio poetico. Possiamo capire un’immagine poetica proprio perché siamo all’interno di un sistema di comunicazione condiviso. Condividiamo una logica, una sintassi, una semantica e una pragmatica che, per quanto potenzialmente ambigue e imperfette, ci permettono di comprenderci vicendevolmente. Non è importante quale posizione filosofica si adotti, a seconda che si voglia dare preminenza nella propria filosofia del linguaggio a sintassi, semantica, pragmatica, o addirittura logica; in ogni caso ci saranno delle regole.

Anche il canto veicola informazioni mediante suoni (o sotto forma di suoni). Ma, fino a qui, non c’è nulla di strano: si tratta dello stesso linguaggio, cantato invece che parlato. Ma già qui compaiono le prime differenze: ci poniamo diversamente nei confronti di una glossolalia di Artaud inserita in un testo (anche recitato) rispetto alla stessa cantata in una composizione di Varèse; o di una stringa di caratteri in cui non riconosciamo regole sintattiche e riferimenti semantici rispetto alla Sequenza III per voce femminile di Luciano Berio, a un pezzo di Demetrio Stratos: qui non ci chiediamo neppure che genere di informazione le voci ci stiano o non ci stiamo comunicando.

Sicuramente, da una prospettiva evolutiva la maggior parte di studiosi accetta l’ipotesi che linguaggio musica possono avere un antenato comune.  Ed è un fatto che i primi linguaggi fossero cantati, o forse meglio intonati.

La musica, però, non si esaurisce nel canto, la voce non è l’unico strumento sonoro e il forte legame fa musica-canto e linguaggio-parlato si è progressivamente indebolito. Probabilmente ne portiamo ancora le tracce genetiche – e sentiamo e giudichiamo come più naturale e più giusta un’aria di Mozart o una canzone rispetto a una composizione di musica elettroacustica. La musica, in special modo nella cultura occidentale, ha sicuramente preso una propria strada evolutiva e ha subito mutamenti significativi. Un elemento caratteristico è l’evoluzione tecnologica del mezzo espressivo: nel linguaggio il mezzo che veicola la comunicazione è sempre la voce. Abbiamo anche un linguaggio parlato e uno scritto; in musica, invece, i media hanno subito profonde evoluzioni e hanno fatto salti qualitativi: dalla voce agli strumenti acustici, a quelli elettronici, alla sintesi digitale del suono.

Quali sono, invece, le analogie fra musica e linguaggio da una prospettiva cognitiva? Si possono proporre due criteri strutturali per definire la musica: il primo criterio è costituito dal ritmo e dai rapporti temporali che delineano un brano musicale attraverso la segmentazione formalizzata del tempo; il secondo è che tutte le culture hanno diviso il continuum sonoro in intervalli discreti che formano le scale musicali. Alcuni sostengono che entrambi i criteri si applicano anche al linguaggio. E questo sembra evidente. Non è però evidente che questi criteri costituiscano due tratti specifici della musica, tanto da farne due criteri definitori, né che rappresentino un importante punto di contatto fra musica e linguaggio. Quanto al primo criterio non è facile trovare un’attività o anche un qualsiasi evento che non segmenti il tempo. Quanto al secondo criterio, ritengo che se dal punto di vista del linguaggio e della comunicazione umana dividere lo “speech continuum” in fonemi discreti è una condizione necessaria fondamentale perché possa darsi linguaggio e comunicazione e, banalmente, ci si possa comprendere, in ambito sonoro-musicale il continuum sonoro non deve essere necessariamente discretizzato. Il fatto che esistano certi generi di musica elettronica e sperimentale dimostra che le note, le scale, l’armonia – in generale qualsiasi tipo di regola combinatoria (condivisa) di micro e macro-elementi – non costituiscono una condizione necessaria per la musica.

L’organizzazione dei suoni può seguire regole private come per esempio in Varèse[2], oppure può, in casi estremi, anche non esserci per niente come in un certo Cage. Le regole linguistiche e le regole musicali hanno natura profondamente differente.

È necessario prendere in esame un ultimo punto, forse il più complicato e probabilmente il più rilevante in relazione al rapporto fra musica e linguaggio: la questione del significato. Aniruddh D. Patel dedica un intero capitolo del suo eccellente volume Music, language, and the brain al significato[3] e rileva immediatamente come la relazione fra significato musicale e linguistico abbia un carattere paradossale, poiché la musica sembra essere al tempo stesso essere intraducibile e universale. Patel ritiene che il significato musicale sia molto differente rispetto al significato linguistico, ma vuole comunque sostenere la tesi che sia possibile assegnare un qualche tipo di significato alla musica. Dalle assunzioni/premesse che la musica non può essere tradotta senza un mutamento di significato del materiale originale e che una funzione caratteristica di differenti tipi di linguaggio è la trasmissione di certi tipi basilari di significati fra individui, deriva la conclusione che è difficile se non impossibile assegnare un insieme universale di significati alla musica. Per questo motivo, lo studioso traccia un interessante tassonomia del significato musicale concentrandosi poi sul ruolo e sulla funzione delle emozioni per una teoria del significato musicale.

Patel è in grado di allargare l’ambito di applicazione di una teoria del significato anche alla musica con l’accettazione di due – pesanti, a mio parere – assunzioni teoriche. Innanzitutto, è costretto ad allontanarsi della concezione del significato prettamente semantica. Egli rileva come la maggior parte delle discussioni comparative su linguaggio e musica si riferiscano alla semantica ma suggerisce che possa essere più fruttuoso porre il focus sulla pragmatica. Sottolinea comunque come non ci sia un consenso generale su una definizione di cosa sia il significato musicale. Le varie posizioni teoriche in riferimento alla definizione del significato musicale possono venire collocate lungo un asse concettuale che va da un uso semantico del termine significato a un’interpretazione più inclusiva. A un estremo troviamo la posizione del filosofo Kivy, «who argues that “meaning” should be reserve for the linguistic sense of reference and predication. In this view, music does not have meaning».[4] All’estremo opposto c’è la posizione di Nattiez che «considers meaning to be signification in the broadest semiotic sense: Meaning exists when perception of an object/event brings something to mind other than the object/event».[5] Senza entrare più in profondità nell’analisi di Patel, una sua tesi è che adottando una concezione ampia del significato è possibile condurre indagini trasversali comparative tra diversi ambiti di ricerca e identificare così alcuni temi rilevanti per il discorso su musica e linguaggio, fra i quali «the expression and appraisal of emotion as a key link between spoken language and music».[6]

Se consideriamo prioritaria la pragmatica rispetto alla semantica e adottiamo un uso inclusivo del termine significato (come fa Nattiez), allora musica e linguaggio sembrano effettivamente avere molto in comune e diventa lecito parlare di significato della musica. Mi sembra però che in questo modo, cercando di avvicinare la musica al linguaggio, allontaniamo il linguaggio dalla musica.

Trovo invece interessante la strada verso un tentativo di identificazione del riferimento semantico del suono con le emozioni. Una domanda che mi sembra stimolante per iniziare a trattare seriamente il problema è: in che misura la musica può rientrare in una teoria dell’informazione?

Che genere di informazioni veicola la musica attraverso i suoni? E se le informazioni veicolate dai suoni – ampiezza, frequenza, timbro, durata, e poi, salendo di livello, ritmo, organizzazione formale etc. – avessero davvero un riferimento emozionale reale e oggettivo?

Questa mi sembra una prospettiva interessante dalla quale iniziare ad affrontare la questione del significato della musica, e forse soprattutto a livello neuro scientifico. A patto però di non perdere di vista alcuni punti: cercare di allontanarsi il meno possibile da una teoria semantica; prendere in considerazione esempi musicali contemporanei, della musica sperimentale ed elettronica (e non invece limitarsi alla musica classica tonale della tradizione occidentale); non farsi sedurre dal fascino delle neuroimmagini.

 

 Conclusione

 

La mia tesi, e conclusione (problematica e non definitiva), è che la musica al livello atomico dei suoni e dell’organizzazione dei suoni e dei suoi parametri non abbia un riferimento (o un significato); a un livello macroscopico (non-atomico), invece, in alcuni casi può avere un riferimento in concetti, idee o anche emozioni – e che quindi si possa parlare di significato. L’analogia fra musica e linguaggio, in riferimento al significato, ha dunque una natura particolare: nel linguaggio parliamo di significato in relazione ai microelementi, nomi, termini, enunciati; nella musica, in relazione a delle macrostrutture. In alcuni casi, non sempre, abbiamo un’analogia a chiasmo.

 

                    [1]DAVIDSON, 1994286.

                    [2] Varèse in riferimento alla propria musica conia addirittura nuovi termini per definire gli elementi melodici e armonici, ed elabora nuove tecniche per l’organizzazione dei suoni.  [Anderson 1991: 35].

                    [3] Patel 2008, pp 299-351.

                    [4] Kivy, P. (2002). Introduction to a Philosophy of Music. Oxford, UK: Oxford University Press (citato in PATEL 2008: 304).

                    [5] Nattiez, J. J. (1990). Music and Discourse

                    [6] PATEL 2008, p.305 e cfr. pp. 344-351.

 

BIBLIOGRAFIA

 

John Anderson, Varèse and the Lyricism of the New Physics”, The Musical Quartely, Vol. 75, No. 1 (Spring, 1991), pp. 31-49, Oxford University Press.

 Donald Davidson, Verità e interpretazione, il Mulino, Bologna: 1994.

 Simon Emmerson La relazione tra linguaggio e materiali nella musica elettroacustica, in Agostino Di Scipio (a cura di) “Teoria e prassi nella musica dell'era dell'informatica”, Laterza, Roma-Bari: 1995.

Vladimir Jankélévich, La musica e l'ineffabile, Bompiani, Milano: 1998.

 Aniruddh Patel, Music, Language, and the brain, Oxford University Press, New York: 2008.

 Edgard Varèse, Il suono organizzato. Scritti sulla musica, Ricordi LIM, Milano-Lucca: 1989.

 

 Roberto Zanata


BIONOTA 

Nato a Cagliari, Roberto Zanata ha studiato Filosofia, Composizione e Musica Elettronica diplomandosi presso l’Università e il Conservatorio di Cagliari. 
Ha partecipato nel 1996 agli Internationale Ferienkurse fur Neue Musik di Darmstadt, È direttore organizzativo del Festival Spaziomusica (Cagliari). 
Le sue opere sono state eseguite nei più importanti Festival Internazionali di musica contemporanea e premiate in Francia, Germania, Messico e Polonia. Docente e coordinatore di dipartimento della Scuola di Musica Elettronica del Conservatorio di Cesena.

Commenti

  1. Articolo molto interessante che pone approfondimenti e riflessioni.

    RispondiElimina

Posta un commento

È gradita la firma in calce al commento. Grazie.