1000 resultados para cosmologia,costante di hubble,parametri cosmologici,modello lambda-cdm,equazioni di Friedmann


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Many efforts have been devoting since last years to reduce uncertainty in hydrological modeling predictions. The principal sources of uncertainty are provided by input errors, for inaccurate rainfall prediction, and model errors, given by the approximation with which the water flow processes in the soil and river discharges are described. The aim of the present work is to develop a bayesian model in order to reduce the uncertainty in the discharge predictions for the Reno river. The ’a priori’ distribution function is given by an autoregressive model, while the likelihood function is provided by a linear equation which relates observed values of discharge in the past and hydrological TOPKAPI model predictions obtained by the rainfall predictions of the limited-area model COSMO-LAMI. The ’a posteriori’ estimations are provided throw a H∞ filter, because the statistical properties of estimation errors are not known. In this work a stationary and a dual adaptive filter are implemented and compared. Statistical analysis of estimation errors and the description of three case studies of flood events occurred during the fall seasons from 2003 to 2005 are reported. Results have also revealed that errors can be described as a markovian process only at a first approximation. For the same period, an ensemble of ’a posteriori’ estimations is obtained throw the COSMO-LEPS rainfall predictions, but the spread of this ’a posteriori’ ensemble is not enable to encompass observation variability. This fact is related to the building of the meteorological ensemble, whose spread reaches its maximum after 5 days. In the future the use of a new ensemble, COSMO–SREPS, focused on the first 3 days, could be helpful to enlarge the meteorogical and, consequently, the hydrological variability.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo studio mira ad affinare modelli numerici a fibre che siano in grado di valutare il comportamento differito viscoso fessurato di elementi in conglomerato cementizio armato. Il modello numerico iterativo a fibre è stato calibrato e raffrontato con due campagne sperimentali che hanno studiato il fenomeno del creep in due travi in ca gettate in due fasi. E' in grado di valutare le deformzioni differite di sezioni e travi gettate e caricate in più fasi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Tesi si occupa dello studio della gestione delle piene al limite della prevedibilità nel tratto medio inferiore del Fiume Po attraverso una laminazione controllata in Fascia C, in linea con le linee strategiche dell'AdB-Po. A tal fine è stato realizzato un modello numerico idraulico quasi-bidimensionale del tratto studiato del Fiume con il software HEC-RAS, comprendente le Fasce A, B e C, calibrato per un tempo di ritorno di 500 anni. Sono state condotte delle simulazioni sotto l'ipotesi di argini erodibili con conseguente formazione di brecce nei punti soggetti a tracimazione (situazione attuale), e sotto l'ipotesi di argini inerodibili (teorico intervento di rivestimento e consolidamento dei tratti arginali interessati da sormonto); attraverso il confronto dei risultati si è dimostrata l'utilità della laminazione controllata in Fascia C e l'auspicabilità di nuovi studi volti all'individuazione di aree poco sensibili in cui convogliare i volumi idrici esondati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'oggetto della seguente tesi riguarda la valutazione di impatto ambientale del ciclo di vita di un concentratore solare, mediante l'applicazione della metodologia LCA – Life Cycle Assessment. Il lavoro di tesi presenta una breve introduzione su tematiche ambientali e sociali, quali lo Sviluppo sostenibile e le energie rinnovabili, che conducono verso l'importanza della misurazione del così detto impatto ambientale, e soprattutto dell'aspetto fondamentale di una valutazione di questo tipo, vale a dire l'analisi dell'intero ciclo di vita legato ad un prodotto. Nella tesi viene presentata inizialmente la metodologia utilizzata per la valutazione, la Life Cycle Assessment, descrivendone le caratteristiche, le potenzialità, la normalizzazione in base a regolamenti internazionali ed analizzando una ad una le 4 fasi principali che la caratterizzano: Definizione dell'obiettivo e del campo di applicazione, Analisi di inventario, Valutazione degli impatti e Interpretazione dei risultati. Il secondo capitolo presenta una descrizione dettagliata dello strumento applicativo utilizzato per l'analisi, il SimaPro nella versione 7.1, descrivendone le caratteristiche principali, l'interfaccia utente, le modalità di inserimento dei dati, le varie rappresentazioni possibili dei risultati ottenuti. Sono descritti inoltre i principali database di cui è fornito il software, che contengono una moltitudine di dati necessari per l'analisi di inventario, ed i così detti metodi utilizzati per la valutazione, che vengono adoperati per “focalizzare” la valutazione su determinate categorie di impatto ambientale. Il terzo capitolo fornisce una descrizione dell'impianto oggetto della valutazione, il CHEAPSE, un concentratore solare ad inseguimento per la produzione di energia elettrica e termica. La descrizione viene focalizzata sui componenti valutati per questa analisi, che sono la Base e la struttura di sostegno, il Pannello parabolico in materiale plastico per convogliare i raggi solari ed il Fuoco composto da celle fotovoltaiche. Dopo aver analizzato i materiali ed i processi di lavorazione necessari, vengono descritte le caratteristiche tecniche, le possibili applicazioni ed i vantaggi del sistema. Il quarto ed ultimo capitolo riguarda la descrizione dell'analisi LCA applicata al concentratore solare. In base alle varie fasi dell'analisi, vengono descritti i vari passaggi effettuati, dalla valutazione e studio del progetto al reperimento ed inserimento dei dati, passando per la costruzione del modello rappresentativo all'interno del software. Vengono presentati i risultati ottenuti, sia quelli relativi alla valutazione di impatto ambientale dell'assemblaggio del concentratore e del suo intero ciclo di vita, considerando anche lo scenario di fine vita, sia i risultati relativi ad analisi comparative per valutare, dal punto di vista ambientale, modifiche progettuali e processuali. Per esempio, sono state comparate due modalità di assemblaggio, tramite saldatura e tramite bulloni, con una preferenza dal punto di vista ambientale per la seconda ipotesi, ed è stato confrontato l'impatto relativo all'utilizzo di celle in silicio policristallino e celle in silicio monocristallino, la cui conclusione è stata che l'impatto delle celle in silicio policristallino risulta essere minore. Queste analisi comparative sono state possibili grazie alle caratteristiche di adattabilità del modello realizzato in SimaPro, ottenute sfruttando le potenzialità del software, come l'utilizzo di dati “parametrizzati”, che ha permesso la creazione di un modello intuitivo e flessibile che può essere facilmente adoperato, per ottenere valutazioni su scenari differenti, anche da analisti “alle prime armi”.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi tratta delle analisi di sicurezza delle intersezioni sia esistenti, sia di nuova progettazione. Nel primo capitolo vengono definite le intersezioni secondo il D.M. 19-04-06 “Norme funzionali e geometriche per la costruzione delle intersezioni stradali”. Sono descritte le manovre possibili, le problematiche ed i punti di conflitto che si vengono a creare durante l’attraversamento, definendo le varie tipologie. Successivamente si affronta una classificazione tipologica delle intersezioni rappresentando per mezzo di una matrice simbolica tutti i possibili nodi. Questi vengono suddivisi in base alla possibilità di connessione. Ampio spazio è dato alla descrizione dell’intersezione a raso dove vengono esaminate le caratteristiche geometriche tra cui le configurazioni delle corsie e le tipologie di isole divisionali. Vengono esaminate le particolarità dell’intersezione semaforizzata definendo il ciclo semaforico e gli elementi che lo compongono, la fasatura, il livello di servizio (LOS), il ritardo, definendo gli elementi che lo compongono per mezzo di formule empiriche. Nella seconda parte del capitolo viene descritta l’intersezione a rotatoria in base al D.M. 19-04-06. Inizialmente si introduce l’argomento con nozioni storiche a carattere informativo, quindi si da una classificazione generale degli elementi che la caratterizzano. Viene descritta l’isola divisionale spiegandone la tipologia costruttiva e rappresentando i parametri di classificazione geometrica. A titolo di esempio sono state inserite varie rappresentazioni di rotatorie suddivise per tipologie costruttive. Nell’ultima parte viene affrontato l’elemento rotatoria definendo la distanza di visibilità e i criteri per il calcolo della capacità. Il secondo capitolo parla delle analisi di sicurezza delle intersezioni. Inizialmente viene descritta la circolare 3699 “Linee guida per le analisi di sicurezza delle strade” definendo il concetto di analisi di sicurezza ed esaminando le differenze tra le due tipologie di analisi: Road safety review e Road safety audit. In seguito si descrivono gli obbiettivi dell’analisi di sicurezza, vantaggi e svantaggi e la valutazione dell’approccio concettuale. Viene descritta più approfonditamente la tipologia del Road safety review evidenziando l’utilità, gli elementi che la caratterizzano, le figure professionali che prendono parte a queste analisi con le azioni che devono seguire. Dopo si analizzano i criteri per affrontare gli studi sulla sicurezza e le fasi per le procedure di analisi. Si procede con la descrizione di una tipologia di ispezione, analizzando le problematiche e la stesura del rapporto di analisi con la descrizione dei tempi di attuazione. Nella parte centrale del capitolo viene descritta la direttiva del parlamento europeo e del consiglio sulla gestione della sicurezza delle infrastrutture stradali con i relativi obbiettivi che si prefigge. Vengono riportati i 13 articoli che si compone con i relativi 4 allegati inerenti a: - Valutazione di impatto sulla sicurezza; - Audit della sicurezza stradale; - Gestione dei tratti stradali ad alto rischio, gestione della sicurezza della rete e ispezione di sicurezza; - Dati che devono figurare nelle relazioni di incidenti. L’ultimo argomento preso in esame riguarda le norme per gli interventi di adeguamento delle strade esistenti. Vengono descritte le categorie di intervento e gli obbiettivi da raggiungere distinguendoli in obbiettivi prestazionali, di funzionalità operativa e sicurezza della circolazione. Vengono affrontate le caratteristiche e le differenze tra interventi strutturali e non strutturali con i relativi obbiettivi valutando gli effetti che si ottengono dall’adeguamento delle strade. Successivamente vengono descritte le campagne di monitoraggio con le relative procedure e tempistiche. Infine si valutano le responsabilità degli interventi. Nel capitolo 3 viene descritta l’analisi dello stato di fatto. Si è proceduto con la classificazione della infrastruttura descrivendo i tratti di strada interessati dall’intervento ed utilizzando delle foto per individuare alcune problematiche emerse nell’intersezione. Utilizzando l’elaborato “azzonamento del territorio comunale di Carpi” è stata descritta la zona oggetto di studio. Poi con la macroclassificazione del territorio con scala 1:10000 viene mostrato graficamente il territorio urbanizzato, in corso di urbanizzazione e a destinazione urbana. L’ultimo elaborato preso in esame riguarda la classificazione acustica del territorio. Infine si è proceduto con l’analisi del traffico e di incidentalità. Utilizzando i dati rilevati dalla polizia municipale del comune di Carpi sono stati costruiti i grafici e studiati gli andamenti nel periodo di tempo di riferimento dal 2000 al 2008. Utilizzando poi i dati dei flussi di traffico si sono analizzati le tipologie e i volumi di traffico nell’intersezione. Nell’ultimo capitolo viene studiato il Road safety review dell’intersezione. Si procede con una descrizione generale dell’intersezione, e si prosegue poi con l’individuazione delle problematiche lungo il tracciato. Inizialmente sono state scattate numerose foto nella zona interessata poi sono state divise per tipologia di problema. Per ogni problema si è cercato una soluzione descrivendo e motivando la scelta. Nelle conclusioni si sono descritti i risultati ottenuti nell’analisi di sicurezza elencando le principali raccomandazioni emerse dall’analisi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivo della tesi, oltre ad una descrizione della tecnica laser a scansione ed alla presentazione di alcune realizzazioni tipiche in ambito terrestre, è relazionare su una esperienza effettuata di recente su una applicazione particolare, il rilievo tridimensionale di campioni di pavimentazioni stradali in conglomerato bituminoso per documentarne la tessitura tramite parametri classici e nuovi indicatori resi possibili dal dato tridimensionale. L’attività di tesi si è concentrata soprattutto nei problemi della fase di acquisizione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

INTRODUZIONE. Presentazione della ricerca e del metedo seguito per realizzarla. CAPITOLO PRIMO. Il contesto storico, politico e sociale di riferimento. - Storia della Siria, - La Siria politica e il conflitto israelo-palestinese - La società siriana: multiculturalismo, tradizione, islam. - Teatro e letteratura in Siria, e nel Bilad AlSham. CAPITOLO SECONDO. I testi. Traduzione integrale di due opere teatrali di Sa’d Allah Wannus. Breve presentazione. - “ Riti di segni e trasformazioni.”, (tukus al-isharat wa-l-tahawwulat), 1994. Il dramma si svolge nella Damasco del XIX secolo, dove un affare di morale e buon costume è il punto di partenza per la metamorfosi dei suoi protagonisti, mettendo a nudo le riflessioni, i desideri più intimi, le contraddizioni e le angosce di una società in crisi. Interessante l’analisi delle figure femminili di questa piece, le loro scelte, il loro ruolo nella società e soprattutto la presa di coscienza delle loro posizioni. - “ I giorni ubriachi.” , (Alayyam Almakhmura), 1997. Il ritratto di una famiglia siriana degli anni trenta. Due genitori, quattro figli, e un nipote che a distanza di anni decide di ripercorrere e raccontarci le loro storie.Una madre che vive tormentata dal suo spettro e che decide di abbandonare la propria famiglia e i propri figli per seguire un altro uomo. Un padre che tiene con violenza le redini delle proprie relazioni, e che rifiuta l’occidente in tutte le sue forme per restare aggrappato alle proprie tradizioni. Un figlio che sceglie l’ordine e la carriera militare, e che, incapace di risolvere il suo rapporto di dipendenza dalla madre, e di risolvere il conflitto tra la legge e un affetto quasi morboso, sceglie di suicidarsi. Un figlio che sceglie la via della perdizione, delle droghe, del furto e degli affari illegali, e che va incontro al successo e alla ricchezza... CAPITOLO TERZO. Biografia di Sa’d Allah Wannus, presentazione delle sue opere principali. Sa’d Allah Wannus (1941 – 1997) è sicuramente uno dei principali protagonisti nell’ambito del teatro arabo contemporaneo. Scrittore, critico, drammaturgo, riformatore, uomo impegnato politicamente, e infine essere umano nella lotta tra la vita e la morte (muore a 56 anni per tumore, dopo un lungo periodo di degenza). Mio intento è quello di analizzare l’opera di quest’autore, attraverso i suoi numerosi scritti e piece teatrali (purtroppo al giorno d’oggi ancora quasi interamente non tradotte dall’arabo), fino ad arrivare, attraverso queste, ad una lettura della società araba contemporanea, e al ruolo che il teatro assume al suo interno. Vita e opere di Sa’ad Allah Wannus. Nasce in Siria nel 1941 in un piccolo villaggio vicino alla città di Tartous, sulla costa mediterranea. Dopo aver terminato gli studi superiori, nel 1959, parte per Il Cairo (Egitto), per studiare giornalismo e letteratura. Rientra a Damasco nel 1964, lavorando al tempo stesso come funzionario al ministero della cultura e come redattore o giornalista in alcune riviste e quotidiani siriani. Nel 1966 parte per Parigi, dove studierà con Jean-Louis Barrault, e dove farà la conoscenza delle tendenze del teatro contemporaneo. Ha l’occasione di incontrare scrittori e critici importanti come Jean Genet e Bernard Dort, nonché di conoscere le teorie sul teatro di Brech e di Piscator, dai quali sarà chiaramente influenzato. In questi anni, e soprattutto in seguito agli avvenimenti del Maggio 1968, si sviluppa in modo determinante la sua coscienza politica, e sono questi gli anni in cui compone alcune tra le sue piece più importanti, come: Serata di gala per il 5 giugno (haflat samar min ajl khamsa huzayran) nel 1968, L’elefante, oh re del tempo! (al-fil, ya malik al-zaman!) 1969, Le avventure della testa del Mamelucco Jaber (Meghamarat ra’s al-mamluk Jabiir) 1970, Una serata con Abu-Khalil al- Qabbani (Sahra ma’a Abi Khalil Al-Qabbani) 1972, Il re è il re (al-malik uwa al-malik) 1977. Parallelamente porta avanti una intensa attività artistica e intellettuale. Soggiorna di nuovo in Francia e a Weimar, per portare a termine la sua formazione teatrale, fonda il Festival di teatro di Damasco, traduce e mette in scena numerosi spettacoli, scrive e pubblica numerosi articoli e una importante serie di studi sul teatro, intitolata: Manifesto per un nuovo teatro arabo (bayanat limasrah ‘arabi jadid) (1970). Scrive in numerose riviste e giornali e fonda la rivista La vita teatrale (al-hayyat al-masrahiyya), del quale sarà capo redattore. La visita del presidente egiziano Anouar Sadat a Gerusalemme nel 1977 e gli accordi di Camp David l’anno seguente, lo gettano in una profonda depressione. E’ l’inizio di un lungo periodo di silenzio e di smarrimento. Ritornerà a scrivere solamente nel 1989, con l’inizio della prima Intifada palestinese, scrive allora una piece teatrale intitolata Lo stupro (al-ightisab), dove presenta un’analisi della struttura dell’elite al potere in Israele. Questo testo apre una nuova epoca creativa, durante la quale Wannus compone alcuni testi molto importanti, nonostante la malattia e il cancro che gli viene diagnosticato nel 1992. Tra questi le pieces Miniature storiche (munamnamat tarakhiyya), nel 1993, e Rituali per una metamorfosi (tukus al-isharat wa-l-tahawwulat), nel 1994 e A proposito della memoria e della morte (‘an al-dhakira wa-l-mawt) nel 1996, una sua ultima opera in cui sono raccolti dei racconti, drammi brevi e una lunga meditazione sulla malattia e la morte. Nel 1997 l’UNESCO gli chiede di redigere il messaggio per la Giornata Mondiale del Teatro, che si tiene ogni anno il 27 marzo. Nel 1997, poche settimane prima della sua scomparsa, realizza insieme ad Omar Almiralay il film documentario Il y a tant de choses a reconter, una intervista in cui Wannus parla della sua opera, e del conflitto Israelo-Palestinese. Muore a 56 anni, il 15 maggio 1997, per un’amara coincidenza proprio il giorno anniversario della creazione di Israele. Wannus drammaturgo engagè: l’importanza del conflitto israelo palestinese nella sua opera. Un’analisi dell’influenza e dell’importanza che le opere di Wannus hanno avuto nel seno della società araba, e soprattutto il suo impegno costante nell’uso del teatro come mezzo per la presa di coscienza del pubblico dei problemi della società contemporanea. Punto cardine dell’opera di Wannus, il conflitto israelo palestinese, e il tentativo costante in alcune sue opere di analizzarne le cause, le strutture, le parti, i giochi di potere. E’ il simbolo di tutta la generazione di Wannus, e delle successive. Analisi delle illusioni e dei miti che la società araba ripropone e che Wannus ha cercato più volte di mettere a nudo. La lotta contro le ipocrisie dei governi, e il tentativo di far prendere coscienza alla società araba del suo ruolo, e delle conseguenze delle sue azioni. L’individuo, la famiglia, la società ... il teatro. Distruggere le apparenze per mettere a nudo l’essere umano nella sua fragilità. CONCLUSIONI. APPENDICE: Intervista con Marie Elias BIBLIOGRAFIA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro svolto da Fabrizio Amici ha suscitato immediatamente il mio interesse in primo luogo perché quando si parla di virtualizzazione con vari fornitori e commerciali, questi la indicano come una soluzione che possa coprire a 360 gradi le esigenze di un Datacenter. Questo è vero nella misura in cui il progetto di virtualizzazione e consolidamento dei Server sia svolto sotto certi criteri progettuali. Per esperienza personale non ho trovato in letteratura lavori che potessero fornire indicazioni approfondite sui parametri da considerare per una corretta progettazione di sistemi di virtualizzazione, spesso ci si avvale di vari fornitori che accennano ad eventuali criticità. Un lavoro come quello proposto da Fabrizio va esattamente nella direzione di rispondere a quelle domande che nascono quando si affronta la tematica della virtualizzazione e soprattutto cerca di capire quali siano i limiti intrinseci della virtualizzazione. In particolare nei vari confronti che, con piacere, ho avuto con Fabrizio, il mio suggerimento è stato quello di esasperare il sistema che aveva assemblato, caricando i test sino ad osservarne i limiti. Dai vari test sono emerse sia conferme, sia inaspettati comportamenti del sistema che rendono ancora più chiaro che solo una prova sperimentale può essere il banco di prova di un sistema complesso. L'elemento che colpisce maggiormente analizzando i risultati è il diverso comportamento in funzione delle CPU utilizzate. I risultati indicano chiaramente che le prestazioni sono fortemente influenzate da come si distribuiscono i core nelle macchine virtuali. Dalla lettura dei risultati viene confermato che i sistemi virtualizzati devono essere progettati per non raggiungere il 70-80% della componente più critica (RAM, CPU) ma anche che sono fortemente sensibili alle disponibilità prestazionali dei sistemi al contorno (Rete, SAN/Dischi). L'approccio metodico sperimentale ed i risultati forniscono una serie di elementi che permettono di affrontare la tematica della virtualizzazione in un quadro generale più solido, offrendo fra l'altro spunti di ricerca ulteriori anche in previsione di nuove soluzioni che vari costruttori, sviluppatori e system integrator proporranno nei prossimi anni. Ing. Massimiliano Casali Esperto di Gestione ICT, Pubblica Amministrazione,Repubblica di San Marino

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nello sviluppo di sistemi informatici si sono affermate numerose tecnologie, che vanno utilizzate in modo combinato e, possibilmente sinergico. Da una parte, i sistemi di gestione di basi di dati relazionali consentono una gestione efficiente ed efficace di dati persistenti, condivisi e transazionali. Dall'altra, gli strumenti e i metodi orientati agli oggetti (linguaggi di programmazione, ma anche metodologie di analisi e progettazione) consentono uno sviluppo efficace della logica applicativa delle applicazioni. E’ utile in questo contesto spiegare che cosa s'intende per sistema informativo e sistema informatico. Sistema informativo: L'insieme di persone, risorse tecnologiche, procedure aziendali il cui compito è quello di produrre e conservare le informazioni che servono per operare nell'impresa e gestirla. Sistema informatico: L'insieme degli strumenti informatici utilizzati per il trattamento automatico delle informazioni, al fine di agevolare le funzioni del sistema informativo. Ovvero, il sistema informatico raccoglie, elabora, archivia, scambia informazione mediante l'uso delle tecnologie proprie dell'Informazione e della Comunicazione (ICT): calcolatori, periferiche, mezzi di comunicazione, programmi. Il sistema informatico è quindi un componente del sistema informativo. Le informazioni ottenute dall'elaborazione dei dati devono essere salvate da qualche parte, in modo tale da durare nel tempo dopo l'elaborazione. Per realizzare questo scopo viene in aiuto l'informatica. I dati sono materiale informativo grezzo, non (ancora) elaborato da chi lo riceve, e possono essere scoperti, ricercati, raccolti e prodotti. Sono la materia prima che abbiamo a disposizione o produciamo per costruire i nostri processi comunicativi. L'insieme dei dati è il tesoro di un'azienda e ne rappresenta la storia evolutiva. All'inizio di questa introduzione è stato accennato che nello sviluppo dei sistemi informatici si sono affermate diverse tecnologie e che, in particolare, l'uso di sistemi di gestione di basi di dati relazionali comporta una gestione efficace ed efficiente di dati persistenti. Per persistenza di dati in informatica si intende la caratteristica dei dati di sopravvivere all'esecuzione del programma che li ha creati. Se non fosse cosi, i dati verrebbero salvati solo in memoria RAM e sarebbero persi allo spegnimento del computer. Nella programmazione informatica, per persistenza si intende la possibilità di far sopravvivere strutture dati all'esecuzione di un programma singolo. Occorre il salvataggio in un dispositivo di memorizzazione non volatile, come per esempio su un file system o su un database. In questa tesi si è sviluppato un sistema che è in grado di gestire una base di dati gerarchica o relazionale consentendo l'importazione di dati descritti da una grammatica DTD. Nel capitolo 1 si vedranno più in dettaglio cosa di intende per Sistema Informativo, modello client-server e sicurezza dei dati. Nel capitolo 2 parleremo del linguaggio di programmazione Java, dei database e dei file XML. Nel capitolo 3 descriveremo un linguaggio di analisi e modellazione UML con esplicito riferimento al progetto sviluppato. Nel capitolo 4 descriveremo il progetto che è stato implementato e le tecnologie e tools utilizzati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi consiste nell’implementare un software in grado a predire la variazione della stabilità di una proteina sottoposta ad una mutazione. Il predittore implementato fa utilizzo di tecniche di Machine-Learning ed, in particolare, di SVM. In particolare, riguarda l’analisi delle prestazioni di un predittore, precedentemente implementato, sotto opportune variazioni dei parametri di input e relativamente all’utilizzo di nuova informazione rispetto a quella utilizzata dal predittore basilare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro svolto nella presente tesi di laurea si sviluppa all’interno del progetto di ricerca europeo SmooHs (Smart Monitoring of Historic Structures-Monitoraggio intelligente di edifici e strutture storiche) nell’ambito del 7 Programma Quadro della Commissione Europea. Gli edifici storici sono caratterizzati da elementi architettonici, materiali e soluzioni progettuali uniche e pertanto da valorizzare. Al fine si salvaguardare tali beni storici si richiede una conoscenza approfondita dei processi di deterioramento, legati spesso a fattori ambientali, e una loro rilevazione immediata. Il monitoraggio continuo dei possibili parametri che influenzano i suddetti processi può contribuire significativamente, ma un’applicazione estesa di questa tecnica è finora fallita a causa dei costi elevati di sistemi completi di monitoraggio; per questo sono stati osservati solitamente pochi parametri. L’obiettivo del progetto prevede lo sviluppo di strumenti di monitoraggio e diagnostica competitivi per gli specialisti nel settore che vada al di là del mero accumulo di dati. La normativa, in particolare le Linee Guida per l’applicazione al patrimonio culturale della normativa tecnica di cui all’Ordinanza PCM-3274 del 2005, evidenziano l’importanza di raggiungere un elevato livello di informazione dell’oggetto e del suo comportamento strutturale attraverso un percorso conoscitivo pluriramificato. “Si ha pertanto la necessità di affinare tecniche di analisi ed interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può infatti essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche e delle indagini sperimentali” (Linee guida per l’applicazione all patrimonio culturale della normativa tecnica di cui all’ordinanza PCM-3274, 2005). Per quanto riguarda la caratterizzazione meccanica dei materiali, la normativa cita “Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche ed ultrasoniche, consentono di valutare l’omogeneità dei parametri meccanici nelle diverse parti della costruzione, ma non forniscono stime quantitative attendibili dei loro valori, in quanto essi vengono desunti dalla misura di altre grandezze”. Non viene identificata una procedura univoca di prove non distruttive per ciascuna tipologia edilizia, pertanto ci domandiamo quale sia la procedura più idonea da utilizzare, considerando il tipo di risultato che si vuole ottenere. Si richiedono quindi degli studi di fattibilità di diverse tecniche non distruttive, soprattutto tecniche per immagini che diano un risultato più immediato da comprendere. Per questo scopo è stato impostato un programma di ricerca per valutare l’efficacia di una tecnica non distruttiva, la tomografia sonica, su provini in muratura costruiti nei laboratori del LaRM (Laboratorio di Resistenza dei Materiali del DISTART dell’Università di Bologna), reputando questa la strada da percorrere verso una diagnostica strutturale sempre più dettagliata. I provini in muratura di laterizio PNDE e PNDF, presentano al loro interno dei difetti (in polistirolo espanso) di geometria e posizione nota e diverse tessiture murarie (muratura di laterizio tradizionale e muratura a sacco). Nel capitolo 2 vengono descritte le caratteristiche e le basi teoriche delle prove soniche e di altre tecniche non distruttive, al fine di poterne fare un confronto. La tomografia sonica è definita e sono illustrate le sue peculiarità; vengono inoltre riportati alcuni esempi di applicazioni della stessa su strutture storiche lignee e murarie. Nel capitolo 3 sono presentati i provini oggetto di studio ed introdotto qualche accenno sulla natura delle murature di laterizio. Sono specificati i corsi e le sezioni verticali sui quali viene sperimentata la tomografia; essi hanno precise caratteristiche che permettono di eseguire una sperimentazione mirata all’individuazione di anomalie in una sezione e al riconoscimento di diverse tessiture murarie. Nel capitolo 4 è illustrata la procedura di acquisizione dei dati in laboratorio e di rielaborazione degli stessi nella fase di post-processing. Dopo aver scelto, in base alla risoluzione, la distanza che intercorre tra le stazioni di misura, sono stati progettati i vari percorsi uscenti da ogni stazione trasmittente, andando a definire i ray-paths delle sezioni sia orizzontali che verticali. I software per il calcolo dei tempi di volo (in ambiente LabView) e per l’inversione degli stessi (Geotom) sono presentati e vengono definite le istruzioni per l’utilizzo. Il capitolo 5 assieme al capitolo 6, mostra i risultati ottenuti dall’inversione dei tempi di volo. Per i diversi corsi orizzontali e sezioni verticali sono riportate le mappe di velocità ottenute al variare di diversi parametri di settaggio impostati nel software tomografico. Le immagini tomografiche evidenziano le caratteristiche interne delle sezioni studiate, in base alla risoluzione geometrica della tecnica. Nel capitolo 7 e 8 sono mostrati i risultati delle prove soniche dirette applicate sia sui corsi verticali sia sulle sezioni verticali. Le stazioni di misura considerate sono le stesse utilizzate per la tomografia. Il capitolo 9 riporta il confronto tra le mappe di velocità prodotte dalla tomografia sonica e gli istogrammi delle velocità registrate nelle prove soniche dirette. Si evidenziano le differenze nell’individuazione di difetti tra due metodologie differenti. Infine sono riportate le conclusioni sul lavoro svolto. I limiti e i vantaggi della tecnica tomografica vengono desunti dai risultati ottenuti per varie tipologie di sezioni, a confronto anche con risultati di prove soniche dirette. Ciò ci porta a definire la fattibilità di utilizzo della tomografia sonica nella diagnosi delle strutture in muratura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A far data dalla pubblicazione di un importante ed illustre contributo scientifico (GIORGIANNI, voce Causa (dir. priv.), in Enc. dir., VI, Milano, 1960), e dalla proposta, in esso contenuta, di restituire spazio a fattispecie attributive di diritti giustificate, sotto il profilo causale, dal solo riferimento espresso al rapporto fondamentale che ne costituisca fondamento (le c.d. ), un serrato dibattito ha visto contrapporsi nel tempo fautori di soluzioni possibiliste e sostenitori di una più uniforme descrizione del sistema della circolazione dei diritti e dei rimedi connessi alla mancanza di causa negli atti di disposizione, per quanto avulsi dal contratto cui essi intendano dare compiuta attuazione. La ricerca ha cercato di dimostrare, attraverso una compiuta analisi di ciò che la formula expressio causae davvero significhi, come la presenza o assenza di questa non sia in grado di giustificare un effetto tanto pregnante come la sottrazione della vicenda traslativa alle conseguenze derivanti dalla mancanza di causa, per tale intendendosi il rapporto fondamentale che ne costituisce l’antecedente logico. Allo scrivente è parso che il vero nodo teorico da sciogliere non sia costituito dal concetto di causa che questi Autori assumono a fondamento, quanto piuttosto da una impropria valutazione dell’expressio causae. Tale valutazione conduce ad attribuire al momento ricognitivo, di cui l’enunciazione della causa consiste, una valenza sostanzialmente astratta che non si rinviene nemmeno nelle più estreme ricostruzioni delle fattispecie contemplate all’art. 1988 c.c. e che, in materia di accertamento negoziale, è senza eccezioni rifiutata. Ciò che sembra decisivo, infatti, è che la natura dell'expressio causae, in primo luogo ricognitiva del rapporto cui si dà esecuzione, ben lungi dal rappresentare elemento sufficiente per una autonoma considerazione della causa dell'atto (sussistente) e della causa dell'attribuzione (la cui conservazione è decisa dalle sorti del Rechtsgrund), non pare idonea a suffragare – seppur in via provvisoria, ma con una divergente considerazione dell’avente causa rispetto ai terzi ulteriori acquirenti – una soluzione compiutamente esaustiva del problema della giustificazione dell'effetto, rimandando a modelli – quello della dichiarazione di scienza, innanzitutto – rispetto ai quali una astrazione più che processuale sembra del tutto preclusa, anche per considerazioni storiche che si è cercato di descrivere. Del resto, l’analisi delle ipotesi in cui la ricognizione di un rapporto fondamentale, o la promessa di quanto già dovuto in forza di un rapporto fondamentale (art. 1988 c.c.) mostra come, indipendentemente dalla soluzione che si ritenga pertinente circa la natura di tali figure (meramente dichiarativa del vincolo o addirittura costitutiva), un effetto di astrazione materiale, per quanto relativa, è da escludersi. Trasposta nell’ambito delle prestazioni isolate, questa consapevolezza significa impossibilità di rendere invece materialmente astratta l’attribuzione (efficace immediatamente, e solo soggetta ad essere da un atto di segno contrario dall’avente causa al dante causa, oggetto di una pretesa giudiziale personale). La dichiarazione del rapporto fondamentale, che è intimamente connessa ed insopprimibile in ogni fenomeno di imputazione soggettiva (si deve infatti enunciare ciò cui si dà esecuzione), appare sicuramente sussumibile nello schema della dichiarazione di scienza, nell’effetto in senso lato ricognitivo. Ritenere che essa possa di fatto rendere irrilevante, ai fini della conservazione dell’efficacia della prestazione isolata cui si collega, la reale situazione del rapporto fondamentale (in ipotesi mai esistito, o successivamente venuto meno) significa introdurre surrettiziamente una ipotesi di riconoscimento costitutivo e astratto. Ma tale ultima soluzione non può trovare spazio in alcuna delle opzioni interpretative proposte in materia di riconoscimento e, nemmeno, in quella più estrema che ravvisa nel riconoscimento del debito titolato una forma di accertamento unilaterale. In conclusione, la dottrina delle prestazioni isolate nel fare dell’expressio causae l’elemento capace di decidere in via definitiva del verificarsi dell’effetto traslativo – effetto che va, giova ripeterlo, solo rimosso con un atto uguale e contrario assolutamente diverso da quanto nel nostro sistema appare essere, oggi, la ripetizione di indebito – determina una supervalutazione del momento ricognitivo, insito in ogni fenomeno di imputazione/esecuzione. Detto esito costituisce non tanto la recezione del Trennungsprinzip vigente in Germania, ammissibile nella misura in cui si reputi dispositiva la norma di cui all’art. 1376 c.c., quanto piuttosto la silenziosa riproposizione del modello della Schuldanerkenntnis (§781 B.G.B.), la cui totale estraneità rispetto alla tradizione giuridica delle codificazioni franco-italiane (Code civil, c.c. del 1865, c.c. del 1942) si crede di avere sufficientemente dimostrato.