999 resultados para sistemi di numerazione storia della matematica matematica ricreativa, frattali


Relevância:

100.00% 100.00%

Publicador:

Resumo:

I primi studi su Orthogonal Frequency Division Multiplexing (OFDM) sono stati fatti fin dal 1960, ma negli ultimi anni la modulazione OFDM è emersa come una tecnica di modulazione chiave commerciale per i sistemi di comunicazione ad alta velocità. La ragione principale di questo crescente interesse è dovuto alla sua capacità di fornire dati ad alta velocità impiegando sistemi con complessità bassa e contrastando l'interferenza intersimbolo (ISI) e quella intercanale (ICI). Per questo motivo la modulazione OFDM è stata adottata da diversi sistemi digitali wireline e wireless standard, come Digital Audio Broadcasting (DAB), Asymmetric Digital Subscriber Line (ADSL), Wireless Local Area Network (IEEE 802.11 a,g,n) oppure per WiMAX e LTE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si pone come obiettivo quello di indagare le mostre di moda contemporanee come macchine testuali. Se consideriamo l’attuale panorama del fashion design come caratterizzato da una complessità costitutiva e da rapidi mutamenti che lo attraversano, e se partiamo dal presupposto che lo spettro di significati che uno stile di abbigliamento e i singoli capi possono assumere è estremamente sfuggente, probabilmente risulta più produttivo interrogarsi su come funziona la moda, su quali sono i suoi meccanismi di produzione di significato. L’analisi delle fashion exhibition si rivela quindi un modo utile per affrontare la questione, dato che gli allestimenti discorsivizzano questi meccanismi e rappresentano delle riflessioni tridimensionali attorno a temi specifici. La mostra di moda mette in scena delle eccezionalità che magnificano aspetti tipici del funzionamento del fashion system, sia se ci rivolgiamo alla moda dal punto di vista della produzione, sia se la consideriamo dal punto di vista della fruizione. L’indagine ha rintracciato nelle mostre curate da Diana Vreeland al Costume Institute del Metropolitan Museum di New York il modello di riferimento per le mostre di moda contemporanee. Vreeland, che dal 1936 al 1971 è stata prima fashion editor e poi editor-in-chief rispettivamente di “Harper’s Bazaar” e di “Vogue USA”, ha segnato un passaggio fondamentale quando nel 1972 ha deciso di accettare il ruolo di Special Consultant al Costume Institute. È ormai opinione diffusa fra critici e studiosi di moda che le mostre da lei organizzate nel corso di più di un decennio abbiano cambiato il modo di mettere in scena i vestiti nei musei. Al lavoro di Vreeland abbiamo poi accostato una recente mostra di moda che ha fatto molto parlare di sé: Spectres. When Fashion Turns Back, a cura di Judith Clark (2004). Nell’indagare i rapporti fra il fashion design contemporaneo e la storia della moda questa mostra ha utilizzato macchine allestitive abitate dai vestiti, per “costruire idee spaziali” e mettere in scena delle connessioni non immediate fra passato e presente. Questa mostra ci è sembrata centrale per evidenziare lo sguardo semiotico del curatore nel suo interrogarsi sul progetto complessivo dell’exhibition design e non semplicemente sullo studio degli abiti in mostra. In questo modo abbiamo delineato due posizioni: una rappresentata da un approccio object-based all’analisi del vestito, che si lega direttamente alla tradizione dei conservatori museali; l’altra rappresentata da quella che ormai si può considerare una disciplina, il fashion curation, che attribuisce molta importanza a tutti gli aspetti che concorrono a formare il progetto allestitivo di una mostra. Un lavoro comparativo fra alcune delle più importanti mostre di moda recentemente organizzate ci ha permesso di individuare elementi ricorrenti e specificità di questi dispositivi testuali. Utilizzando il contributo di Manar Hammad (2006) abbiamo preso in considerazione i diversi livelli di una mostra di moda: gli abiti e il loro rapporto con i manichini; l’exhibition design e lo spazio della mostra; il percorso e la sequenza, sia dal punto di vista della strategia di costruzione e dispiegamento testuale, sia dal punto di vista del fruitore modello. Abbiamo così individuato quattro gruppi di mostre di moda: mostre museali-archivistiche; retrospettive monografiche; mostre legate alla figura di un curatore; forme miste che si posizionano trasversalmente rispetto a questi primi tre modelli. Questa sistematizzazione ha evidenziato che una delle dimensione centrali per le mostre di moda contemporanee è proprio la questione della curatorship, che possiamo leggere in termini di autorialità ed enunciazione. Si sono ulteriormente chiariti anche gli orizzonti valoriali di riferimento: alla dimensione dell’accuratezza storica è associata una mostra che predilige il livello degli oggetti (gli abiti) e un coinvolgimento del visitatore puramente visivo; alla dimensione del piacere visivo possiamo invece associare un modello di mostra che assegna all’exhibition design un ruolo centrale e “chiede” al visitatore di giocare un ruolo pienamente interattivo. L’approccio curatoriale più compiuto ci sembra essere quello che cerca di conciliare queste due dimensioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro nasce principalmente da un legame affettivo e di parentela che mi lega alla figura di Mario Giacomelli e alla sua grande opera di fotografo che lo ha portato a raggiungere un ruolo fondamentale nella storia della fotografia contemporanea. Ricordo che sin da quando ero bambino rimanevo affascinato dalle sue opere, da quei paesaggi fotografati in bianco e nero, da quelle sagome dei pretini che sembrano danzare nel vuoto, il tutto però senza capire la vera importanza di quello che avevo davanti ai miei occhi e ignorando completamente tutto l’interesse, le critiche e i dibattiti che quegli scatti accendevano in quegli anni, al punto di venire addirittura esposti in quello che si può definire il museo di arte moderna per antonomasia, ovvero il MoMa, in fondo per me non era altro che uno zio. Il ricordo mi porta nella sua piccola e buia Tipografia Marchigiana, in pieno centro storico a Senigallia, proprio dietro il Municipio, dove lo trovavo sempre indaffarato con timbri, foto e oggetti di ogni tipo, sommerso in un caos primordiale. È incredibile pensare come in quel minuscolo negozio siano passati tutti i più grandi personaggi della fotografia italiana, quali Giuseppe Cavalli, Ferruccio Ferroni, Gianni Berengo Gardin, Ferdinando Scianna; dietro quella facciata di piccola bottega si nascondeva un universo parallelo che entrava in contatto con le più importanti gallerie e musei di arte contemporanea del mondo. Oggi al suo posto c’è una Parrucchieria. Molte cose sono cambiate, io ho capito, aimè in ritardo, l’importanza del personaggio che ho avuto la fortuna di conoscere e di avere come parente. La città stessa si è accorta solo dopo la morte, come spesso accade, di quale formidabile artista ha cresciuto, un artista che è sempre rimasto fedele alla sua terra di origine, che ha rappresentato una fonte inesauribile di spunti per la sua opera fotografica. A quel punto si è scatenato un turbinio di conferenze, mostre e pubblicazioni sul lavoro di Giacomelli, tanto che sarebbe rimasto impossibile a chiunque non capire il peso che questa figura ha ancora oggi per la città. Proprio lo scorso Novembre è ricorso il decennale della sua scomparsa e in questa occasione si è dato il via ad una infinita serie di iniziative, mostre, conferenze e pubblicazioni dedicate alla figura del fotografo senigalliese, ribadendo la necessità per la città di dotarsi di uno spazio idoneo ad ospitare questi eventi. In una recente intervista condotta dal quotidiano Il Resto del Carlino, Simone Giacomelli, figlio del fotografo, ha sottolineato l’urgenza della creazione di uno spazio dedicato alle fotografie del padre “Io lavoro molto con l'estero e sono in contatto con appassionati che arrivano da tutto il mondo per ammirare le foto di Giacomelli. C'è un gruppo di studenti che mi ha contattato dall'Australia. Ho dovuto dire di aspettare perché in città c'è una raccolta di foto al Museo mezzadria ed una parte al Museo dell'informazione. Manca un luogo dove si possa invece vedere tutta la produzione.”. Con queste premesse il progetto per un Centro Internazionale della Fotografia non poteva che essere a Senigallia, non tanto per il fatto di essere la mia città, alla quale sono molto legato, quanto per l’essere stata la culla di un grande artista quale Mario Giacomelli, dalla quale non si è mai voluto allontanare e che ha rappresentato per lui la fonte di ispirazione di quasi tutte le sue opere. Possiamo dire che grazie a questo personaggio, Senigallia è diventata la città della Fotografia, in quanto non passa settimana senza che non venga presentata una nuova iniziativa in ambito fotografico e non vengano organizzate mostre di fotografi di calibro internazionale quali Henri Cartier Bresson, Ara Guler, etc… Ecco quindi motivato il titolo di Internazionale attribuito al museo, in quanto da questo cuore pulsante si dovranno creare una serie di diramazioni che andranno a collegare tutti i principali centri di fotografia mondiali, favorendo lo scambio culturale e il dibattito. Senigallia è una città di modeste dimensioni sulla costa adriatica, una città dalle grandi potenzialità e che fa del turismo sia balneare che culturale i suoi punti di forza. La progettazione di questa sede museale mi ha permesso di affrontare e approfondire lo studio storico della città nella sua evoluzione. Da questa analisi è emerso un caso molto particolare ed interessante, quello di Piazza Simoncelli, un vuoto urbano che si presenta come una vera e propria lacerazione del tessuto cittadino. La piazza infatti è stata sede fino al 1894 di uno dei quattro lotti del ghetto ebraico. Cambia quindi il ruolo del sito. Ma la mancata capacità aggregativa di questo vuoto, data anche dal fatto della mancanza di un edificio rappresentativo, ne muta il ruolo in parcheggio. E’ la storia di molti ghetti italiani inseriti in piani di risanamento che vedevano la presenza del costruito antecedente, come anomalia da sanare. E’ la storia del ghetto di Roma o di quello di Firenze, che sorgeva nel luogo dell’attuale Piazza della Repubblica. Tutti sventrati senza motivazioni diverse che non la fatiscenza dell’aggregato. A Senigallia il risultato è stato una vera e propria lacerazione del tessuto urbano, giungendo alla produzione di un vuoto oppositivo al resto della città, che ha portato la perdita della continuità spaziale, se non si vuole poi far riferimento a quella culturale. Il mio intervento quindi vede nel legame con la storia e con l’identità del luogo un punto fondamentale di partenza. Da queste basi ho cercato di sviluppare un progetto che ha come presupposto il forte legame con la memoria del luogo e con le architetture locali. Un progetto che possa rappresentare un polo culturale, un cuore pulsante dove poter sviluppare e approfondire le conoscenze fotografiche, dal quale poter entrare in contatto con tutti i principali centri dedicati alla fotografia e nel quale poter tenere sempre vivo il ricordo di uno dei più importanti artisti che la città ha avuto la fortuna di crescere.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggigiorno si osserva a livello mondiale un continuo aumento dei consumi di acqua per uso domestico, agricolo ed industriale che dopo l’impiego viene scaricata nei corpi idrici (laghi, fiumi, torrenti, bacini, ecc) con caratteristiche chimico fisiche ed organolettiche completamente alterate, necessitando così di specifici trattamenti di depurazione. Ricerche relative a metodi di controllo della qualità dell’acqua e, soprattutto, a sistemi di purificazione rappresentano pertanto un problema di enorme importanza. I trattamenti tradizionali si sono dimostrati efficienti, ma sono metodi che operano normalmente trasferendo l’inquinante dalla fase acquosa contaminata ad un’altra fase, richiedendo perciò ulteriori processi di depurazione. Recentemente è stata dimostrata l’efficacia di sistemi nano strutturati come TiO2-Fe3O4 ottenuto via sol-gel, nella foto-catalisi di alcuni sistemi organici. Questo lavoro di tesi è rivolto alla sintesi e caratterizzazione di un catalizzatore nanostrutturato composito costituito da un core di Fe3O4 rivestito da un guscio di TiO2 separate da un interstrato inerte di SiO2, da utilizzare nella foto-catalisi di sistemi organici per la depurazione delle acque utilizzando un metodo di sintesi alternativo che prevede un “approccio” di tipo colloidale. Partendo da sospensioni colloidali dei diversi ossidi, presenti in commercio, si è condotta la fase di deposizione layer by layer via spray drying, sfruttando le diverse cariche superficiali dei reagenti. Questo nuovo procedimento permette di abbattere i costi, diminuire i tempi di lavoro ed evitare possibili alterazioni delle proprietà catalitiche della titania, risultando pertanto adatto ad una possibile applicazione su scala industriale. Tale sistema composito consente di coniugare le proprietà foto-catalitiche dell’ossido di titanio con le proprietà magnetiche degli ossidi di ferro permettendo il recupero del catalizzatore a fine processo. Il foto-catalizzatore è stato caratterizzato durante tutte la fasi di preparazione tramite microscopia SEM e TEM, XRF, Acusizer, spettroscopia Raman e misure magnetiche. L’attività foto-calitica è stata valutata con test preliminari utilizzando una molecola target tipo il rosso di metile in fase acquosa. I risultati ottenuti hanno dimostrato che il sistema core-shell presenta inalterate sia le proprietà magnetiche che quelle foto-catalitiche tipiche dei reagenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the whole of Europe the most important composer of concertos for two violins is indubitably Vivaldi (1678-1741), who produced almost thirty works of this type during almost the full length of his creative career. The dissertation examines this particular side of Vivaldi’s activity, starting with an examination of the concerto in Rome, Bologna, and Venice at the turn of the seventeenth and eighteenth centuries. The aspects investigated include the ‘conceptual’ origins of the double concerto for two violins in Vivaldi, the nature, distribution and interrelationship of their sources (particular attention being given to compositional revisions in the autograph manuscripts) and an analysis of the works themselves that takes in form, tonal structure, technical-instrumental character and performance practice. The concertos that have come down in particularly problematic non-autograph sources are discussed in detail and presented in critical editions. A reconstruction is offered of the two works (RV 520 and 526) that have survived only in incomplete form, lacking the part of the first soloist. The concertos for two violins composed in Germany by Telemann and J. S. Bach, the contemporaries of Vivaldi who paid greatest attention to the double concerto genre, are then described and analysed. The thesis ends with a complete list of modern editions of Vivaldi’s concertos for two violins and a select discography.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Siria interna settentrionale rappresenta un’area di grande interesse dal punto di vista degli studi storico – archeologici. Da decenni, infatti, in questa zona si susseguono molteplici campagne di scavi archeologici e numerosi progetti di ricerca finalizzati alla ricostruzione ed alla caratterizzazione del paesaggio antico della Siria interna settentrionale. E’ proprio all’interno di tale contesto che si inquadra il presente lavoro di tesi, che vuol essere uno strumento di supporto interdisciplinare per le attività e le ricerche sotto differenti e molteplici punti di vista: ingegneristico, archeologico, geologico ed agrario. L’obiettivo principale di questo elaborato riguarda l’analisi e l’inquadramento del territorio della Siria interna settentrionale, attraverso l’impiego delle immagini satellitari e con il supporto dei dati presenti in letteratura, al fine di produrre una classificazione dell’area di interesse. Per permettere una migliore caratterizzazione del territorio, i risultati ottenuti sono inoltre valutati e comparati utilizzando differenti scale temporali e spaziali. Tali analisi hanno per loro natura un carattere multitemporale, con l’obiettivo di valutare le principali trasformazioni del territorio, analizzando in particolar modo il processo di urbanizzazione ed il differente utilizzo del suolo verificatisi negli ultimi 20 anni. Le analisi sono inoltre condotte su scale territoriali differenti, permettendo così di creare un database georeferenziato multiscala, che sia di supporto allo studio di questo territorio. Il lavoro ha comportato la messa a punto di procedure specifiche e l’applicazione di numerosi e diversi metodi propri del Telerilevamento ottico. A completamento delle elaborazioni di inquadramento del territorio della Siria interna settentrionale, è stato anche realizzato un layer relativo alla sismicità dell’area, che come noto presenta storicamente una forte attività sismica, con la organizzazione in ambiente GIS dei dati relativi ai principali sistemi di faglia presenti nell’area.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il cervello è una rete di cellule nervose connesse da assoni e le cellule stesse sono reti di molecole connesse da reazioni biochimiche. Anche le società sono reti di persone collegate da rapporti di amicizia, parentela e legami professionali. Su più larga scala, catene alimentari ed ecosistemi possono essere rappresentati come reti di specie viventi. E le reti pervadono la tecnologia: Internet, reti elettriche e sistemi di trasporto non sono che pochi degli esempi possibili. Anche il linguaggio che si sta usando in questo momento per veicolare questi ragionamenti a chi legge è una rete, fatta di parole connesse da relazioni sintattiche. A dispetto dell'importanza e della pervasività delle reti, gli scienziati hanno sempre avuto poca comprensione delle loro strutture e proprietà. In che modo le interazioni di alcuni nodi non funzionanti in una complessa rete genetica possono generare il cancro? Come può avvenire così rapidamente la diffusione in taluni sistemi sociali e di comunicazioni, portando ad epidemie di malattie e a virus informatici? Come possono alcune reti continuare a funzionare anche dopo che la maggioranza dei loro nodi ha, invece, smesso di farlo? [...] Le reti reali sono realmente casuali?

Relevância:

100.00% 100.00%

Publicador:

Resumo:

PRESUPPOSTI: Le tachicardie atriali sono comuni nei GUCH sia dopo intervento correttivo o palliativo che in storia naturale, ma l’incidenza è significativamente più elevata nei pazienti sottoposti ad interventi che prevedono un’estesa manipolazione atriale (Mustard, Senning, Fontan). Il meccanismo più frequente delle tachicardie atriali nel paziente congenito adulto è il macrorientro atriale destro. L’ECG è poco utile nella previsione della localizzazione del circuito di rientro. Nei pazienti con cardiopatia congenita sottoposta a correzione biventricolare o in storia naturale il rientro peritricuspidale costituisce il circuito più frequente, invece nei pazienti con esiti di intervento di Fontan la sede più comune di macrorientro è la parete laterale dell’atrio destro. I farmaci antiaritmici sono poco efficaci nel trattamento di tali aritmie e comportano un’elevata incidenza di effetti avversi, soprattutto l’aggravamento della disfunzione sinusale preesistente ed il peggioramento della disfunzione ventricolare, e di effetti proaritmici. Vari studi hanno dimostrato la possibilità di trattare efficacemente le IART mediante l’ablazione transcatetere. I primi studi in cui le procedure venivano realizzate mediante fluoroscopia tradizionale, la documentazione di blocco di conduzione translesionale bidirezionale non era routinariamente eseguita e non tutti i circuiti di rientro venivano sottoposti ad ablazione, riportano un successo in acuto del 70% e una libertà da recidiva a 3 anni del 40%. I lavori più recenti riportano un successo in acuto del 94% ed un tasso di recidiva a 13 mesi del 6%. Questi ottimi risultati sono stati ottenuti con l’utilizzo delle moderne tecniche di mappaggio elettroanatomico e di cateteri muniti di sistemi di irrigazione per il raffreddamento della punta, inoltre la dimostrazione della presenza di blocco di conduzione translesionale bidirezionale, l’ablazione di tutti i circuiti indotti mediante stimolazione atriale programmata, nonché delle sedi potenziali di rientro identificate alla mappa di voltaggio sono stati considerati requisiti indispensabili per la definizione del successo della procedura. OBIETTIVI: riportare il tasso di efficia, le complicanze, ed il tasso di recidiva delle procedure di ablazione transcatetere eseguite con le moderne tecnologie e con una rigorosa strategia di programmazione degli obiettivi della procedura. Risultati: Questo studio riporta una buona percentuale di efficacia dell’ablazione transcatetere delle tachicardie atriali in una popolazione varia di pazienti con cardiopatia congenita operata ed in storia naturale: la percentuale di successo completo della procedura in acuto è del 71%, il tasso di recidiva ad un follow-up medio di 13 mesi è pari al 28%. Tuttavia se l’analisi viene limitata esclusivamente alle IART il successo della procedura è pari al 100%, i restanti casi in cui la procedura è stata definita inefficace o parzialmente efficace l’aritmia non eliminata ma cardiovertita elettricamente non è un’aritmia da rientro ma la fibrillazione atriale. Inoltre, sempre limitando l’analisi alle IART, anche il tasso di recidiva a 13 mesi si abbassa dal 28% al 3%. In un solo paziente è stato possibile documentare un episodio asintomatico e non sostenuto di IART al follow-up: in questo caso l’aspetto ECG era diverso dalla tachicardia clinica che aveva motivato la prima procedura. Sebbene la diversa morfologia dell’attivazione atriale all’ECG non escluda che si tratti di una recidiva, data la possibilità di un diverso exit point del medesimo circuito o di un diverso senso di rotazione dello stesso, è tuttavia più probabile l’emergenza di un nuovo circuito di macrorientro. CONCLUSIONI: L'ablazione trancatetere, pur non potendo essere considerata una procedura curativa, in quanto non in grado di modificare il substrato atriale che predispone all’insorgenza e mantenimento della fibrillazione atriale (ossia la fibrosi, l’ipertrofia, e la dilatazione atriale conseguenti alla patologia e condizione anatomica di base)è in grado di assicurare a tutti i pazienti un sostanziale beneficio clinico. È sempre stato possibile sospendere l’antiaritmico, tranne 2 casi, ed anche nei pazienti in cui è stata documentata una recidiva al follow-up la qualità di vita ed i sintomi sono decisamente migliorati ed è stato ottenuto un buon controllo della tachiaritmia con una bassa dose di beta-bloccante. Inoltre tutti i pazienti che avevano sviluppato disfunzione ventricolare secondaria alla tachiaritmia hanno presentato un miglioramento della funzione sistolica fino alla normalizzazione o al ritorno a valori precedenti la documentazione dell’aritmia. Alla base dei buoni risultati sia in acuto che al follow-up c’è una meticolosa programmazione della procedura e una rigorosa definizione degli endpoint. La dimostrazione del blocco di conduzione translesionale bidirezionale, requisito indispensabile per affermare di aver creato una linea continua e transmurale, l’ablazione di tutti i circuiti di rientro inducibili mediante stimolazione atriale programmata e sostenuti, e l’ablazione di alcune sedi critiche, in quanto corridoi protetti coinvolti nelle IART di più comune osservazione clinica, pur in assenza di una effettiva inducibilità periprocedurale, sono obiettivi necessari per una procedura efficace in acuto e a distanza. Anche la disponibilità di moderne tecnologie come i sistemi di irrigazione dei cateteri ablatori e le metodiche di mappaggio elettroanantomico sono requisiti tecnici molto importanti per il successo della procedura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La terra, nel corso della sua storia, ha subito molteplici cambiamenti con la comparsa e scomparsa di numerose specie animali e vegetali. Attualmente, l’estinzioni delle specie, la riduzione degli areali e il depauperamento degli ecosistemi è da ricollegare alle attività dell’uomo. Per tali motivi, in questi ultimi decenni si è iniziato a dare importanza alla conservazione della biodiversità, alla creazione di zone protette e a sviluppare interventi di reintroduzione e rafforzamento di specie rare e a rischio di estinzione. Questo lavoro di tesi si propone di analizzare la variabilità genetica delle popolazioni di Rhododendron ferrugineum L. lungo il suo areale, con particolare attenzione alle aree marginali dell’Appennino, dove la specie rappresenta un caso di pseudo rarità, al fine di valutare lo stato di salute della specie al limite del suo areale e valutare appropriati interventi di conservazione o reintroduzione. Per effettuare le analisi sono stati messi a punto dei marcatori molecolari discontinui, i microsatelliti, che, essendo dei marcatori co-dominati, permettono di valutare differenti parametri legati alla diversità genetica delle popolazioni inclusi i livelli di eterozigotà ed il flusso genico tra popolazioni limitrofe. I campionamenti sono stati effettuati nelle uniche 3 stazioni presenti sugli Appennini. Al fine di confrontare la struttura genetica di queste popolazioni sono state considerate anche popolazioni delle Alpi Marittime, delle Alpi centro-orientali e dei Pirenei. L’analisi della diversità genetica effettuata su questo pool di popolazioni analizzate con 7 marcatori microsatelliti, ha messo in evidenza che le popolazioni relitte dell’Appennino Tosco-Emiliano presentano un ridotto livello di eterozigosità che suggerisce quindi un elevato livello di inbreeding. Si ritiene che ciò sia dovuto alla loro dislocazione sul territorio, che le rende isolate sia tra di loro che dalle popolazioni delle vicine Alpi Marittime. La stima delle relazioni genetiche tra le popolazioni appenniniche e le vicine piante alpine evidenzia come non vi sia scambio genetico tra le popolazioni. Le analisi dei cluster suggeriscono che due delle popolazioni Appenniniche siano più simili alle popolazioni della Alpi Marittime, mentre la terza ha più affinità con le popolazioni delle Alpi centro-orientali. Le popolazioni dei Pirenei risultano essere geneticamente più simili alle popolazioni delle Alpi Marittime, in particolare alle tre popolazioni del versante francese. In questo lavoro abbiamo affrontato anche il problema delle specie ibride. Rhododendron x intermedium Tausch è un ibrido frutto dell’incrocio tra Rhododendron ferrugineum L. e Rhododendron hirsutum L., in grado di incrociarsi sia con altri ibridi, sia con i parentali (fenomeno dell’introgressione). L’origine di questo ibrido risiede nella simpatria delle due specie parentali, che tuttavia, presentano esigenze ecologiche differenti. Ad oggi la presenza di Rhododendron x intermedium è stata accertata in almeno tre stazioni sulle Alpi Italiane, ma la letteratura documenta la sua presenza anche in altre zone dell’Arco Alpino. L’obiettivo di questa ricerca è stato quello di verificare la reale natura ibrida di Rhododendron x intermedium in queste stazioni utilizzando un approccio integrato ossia sia attraverso un’analisi di tipo morfologico sia attraverso un analisi di tipo molecolare. In particolare l’approccio molecolare ha previsto prima un’analisi filogenetica attraverso l’utilizzo di marcatori molecolari filogenetici nucleari e plastidiali (ITS, At103, psbA-trnH e matK) e quindi un’analisi della struttura delle popolazioni della specie ibrida attraverso l’utilizzo di marcatori molecolari microsatelliti. Da un’analisi morfologica, risulta che gli esemplari ibridi possono essere molto differenti tra loro e ciò supporta la formazione di sciami ibridi. Al fine di verificare la natura di questa specie e la struttura delle popolazioni ibride e dei rispettivi parentali, sono state campionate differenti popolazioni in tutta l’area di interesse. I campioni ottenuti sono stati quindi analizzati geneticamente mediante marcatori molecolari del DNA. I risultati ottenuti hanno permesso innanzitutto di confermare l’origine ibrida degli individui di prima generazione della specie Rhododendron x intermedium e quindi di distinguere i parentali dagli ibridi ed evidenziare la struttura genetica delle popolazioni ibride.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of the present work is a historical survey on Gestalt trends in psychological research between late 19th and the first half of 20th century with privileged reference to sound and musical perception by means of a reconsideration of experimental and theoretical literature. Ernst Mach and Christian von Ehrenfels gave rise to the debate about Gestaltqualität which notably grew thanks to the ‘Graz School’ (Alexius Meinong, Stephan Witasek, Anton Faist, Vittorio Benussi), where the object theory and the production theory of perception were worked out. Stumpf’s research on Tonpsychologie and Franz Brentano’s tradition of ‘act psychology’ were directly involved in this debate, opposing to Wilhelm Wundt’s conception of the discipline; this clearly came to light in Stumpf’s controversy with Carl Lorenz and Wundt on Tondistanzen. Stumpf’s concept of Verschmelzung and his views about consonance and concordance led him to some disputes with Theodor Lipps and Felix Krueger, lasting more than two decades. Carl Stumpf was responsible for education of a new generation of scholars during his teaching at the Berlin University: his pupils Wolfgang Köhler, Kurt Koffka and Max Wertheimer established the so-called ‘Berlin School’ and promoted the official Gestalt theory since the 1910s. After 1922 until 1938 they gave life and led together with other distinguished scientists the «Psychologische Forschung», a scientific journal in which ‘Gestalt laws’ and many other acoustical studies on different themes (such as sound localization, successive comparison, phonetic phenomena) were exposed. During the 1920s Erich Moritz von Hornbostel gave important contributions towards the definition of an organic Tonsystem in which sound phenomena could find adequate arrangement. Last section of the work contains descriptions of Albert Wellek’s studies, Kurt Huber’s vowel researches and aspects of melody perception, apparent movement and phi-phenomenon in acoustical field. The work contains also some considerations on the relationships among tone psychology, musical psychology, Gestalt psychology, musical aesthetics and musical theory. Finally, the way Gestalt psychology changed earlier interpretations is exemplified by the decisive renewal of perception theory, the abandon of Konstanzannahme, some repercussions on theory of meaning as organization and on feelings in musical experience.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’oggetto del progetto di restauro è il Castello di Montebello, un’antica fortezza inserita all’interno del circuito di costruzioni militari della Valle del Marecchia, dunque un oggetto della storia e nella storia. Dunque un’attenta fase diagnostica-conoscitiva deve costituire la premessa indispensabile a qualsiasi intervento sulla preesistenza. Così a partire dai dati conoscitivi assunti si sono delineati gli obiettivi del progetto. L’obiettivo conservativo viene, in questo caso specifico, raggiunto non solo attraverso la conservazione vera e propria, ma anche attraverso la demolizione: una quasi paradossale demolizione per la conservazione. Le strutture introdotte con l’intervento di ricostruzione degli anni Sessanta del Novecento effettuato sul manufatto storico infatti, non solo, non introducono valore aggiuntivo all’opera,ma ne compromettono, per soluzioni, materiali ed incertezza costruttiva, la spazialità e la sicurezza, dunque la conservazione. Così, attraverso operazioni ora di conservazione, ora di demolizione e ricostruzione si è cercato di predisporre la fabbrica affinché, in modo sicuro possa accogliere una funzione, necessariamente compatibile e rispettosa del manufatto, che ne consenta il prolungamento della vita e la conservazione nel tempo. La funzione museale, finalizzata alla valorizzazione del complesso difensivo e all’esposizione della collezione epigrafica della famiglia proprietaria sembrano rispondere appieno alle domande del progetto di restauro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).