999 resultados para calcolo algebrico modellizzazione progetto ArAl


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi tratta delle analisi di sicurezza delle intersezioni sia esistenti, sia di nuova progettazione. Nel primo capitolo vengono definite le intersezioni secondo il D.M. 19-04-06 “Norme funzionali e geometriche per la costruzione delle intersezioni stradali”. Sono descritte le manovre possibili, le problematiche ed i punti di conflitto che si vengono a creare durante l’attraversamento, definendo le varie tipologie. Successivamente si affronta una classificazione tipologica delle intersezioni rappresentando per mezzo di una matrice simbolica tutti i possibili nodi. Questi vengono suddivisi in base alla possibilità di connessione. Ampio spazio è dato alla descrizione dell’intersezione a raso dove vengono esaminate le caratteristiche geometriche tra cui le configurazioni delle corsie e le tipologie di isole divisionali. Vengono esaminate le particolarità dell’intersezione semaforizzata definendo il ciclo semaforico e gli elementi che lo compongono, la fasatura, il livello di servizio (LOS), il ritardo, definendo gli elementi che lo compongono per mezzo di formule empiriche. Nella seconda parte del capitolo viene descritta l’intersezione a rotatoria in base al D.M. 19-04-06. Inizialmente si introduce l’argomento con nozioni storiche a carattere informativo, quindi si da una classificazione generale degli elementi che la caratterizzano. Viene descritta l’isola divisionale spiegandone la tipologia costruttiva e rappresentando i parametri di classificazione geometrica. A titolo di esempio sono state inserite varie rappresentazioni di rotatorie suddivise per tipologie costruttive. Nell’ultima parte viene affrontato l’elemento rotatoria definendo la distanza di visibilità e i criteri per il calcolo della capacità. Il secondo capitolo parla delle analisi di sicurezza delle intersezioni. Inizialmente viene descritta la circolare 3699 “Linee guida per le analisi di sicurezza delle strade” definendo il concetto di analisi di sicurezza ed esaminando le differenze tra le due tipologie di analisi: Road safety review e Road safety audit. In seguito si descrivono gli obbiettivi dell’analisi di sicurezza, vantaggi e svantaggi e la valutazione dell’approccio concettuale. Viene descritta più approfonditamente la tipologia del Road safety review evidenziando l’utilità, gli elementi che la caratterizzano, le figure professionali che prendono parte a queste analisi con le azioni che devono seguire. Dopo si analizzano i criteri per affrontare gli studi sulla sicurezza e le fasi per le procedure di analisi. Si procede con la descrizione di una tipologia di ispezione, analizzando le problematiche e la stesura del rapporto di analisi con la descrizione dei tempi di attuazione. Nella parte centrale del capitolo viene descritta la direttiva del parlamento europeo e del consiglio sulla gestione della sicurezza delle infrastrutture stradali con i relativi obbiettivi che si prefigge. Vengono riportati i 13 articoli che si compone con i relativi 4 allegati inerenti a: - Valutazione di impatto sulla sicurezza; - Audit della sicurezza stradale; - Gestione dei tratti stradali ad alto rischio, gestione della sicurezza della rete e ispezione di sicurezza; - Dati che devono figurare nelle relazioni di incidenti. L’ultimo argomento preso in esame riguarda le norme per gli interventi di adeguamento delle strade esistenti. Vengono descritte le categorie di intervento e gli obbiettivi da raggiungere distinguendoli in obbiettivi prestazionali, di funzionalità operativa e sicurezza della circolazione. Vengono affrontate le caratteristiche e le differenze tra interventi strutturali e non strutturali con i relativi obbiettivi valutando gli effetti che si ottengono dall’adeguamento delle strade. Successivamente vengono descritte le campagne di monitoraggio con le relative procedure e tempistiche. Infine si valutano le responsabilità degli interventi. Nel capitolo 3 viene descritta l’analisi dello stato di fatto. Si è proceduto con la classificazione della infrastruttura descrivendo i tratti di strada interessati dall’intervento ed utilizzando delle foto per individuare alcune problematiche emerse nell’intersezione. Utilizzando l’elaborato “azzonamento del territorio comunale di Carpi” è stata descritta la zona oggetto di studio. Poi con la macroclassificazione del territorio con scala 1:10000 viene mostrato graficamente il territorio urbanizzato, in corso di urbanizzazione e a destinazione urbana. L’ultimo elaborato preso in esame riguarda la classificazione acustica del territorio. Infine si è proceduto con l’analisi del traffico e di incidentalità. Utilizzando i dati rilevati dalla polizia municipale del comune di Carpi sono stati costruiti i grafici e studiati gli andamenti nel periodo di tempo di riferimento dal 2000 al 2008. Utilizzando poi i dati dei flussi di traffico si sono analizzati le tipologie e i volumi di traffico nell’intersezione. Nell’ultimo capitolo viene studiato il Road safety review dell’intersezione. Si procede con una descrizione generale dell’intersezione, e si prosegue poi con l’individuazione delle problematiche lungo il tracciato. Inizialmente sono state scattate numerose foto nella zona interessata poi sono state divise per tipologia di problema. Per ogni problema si è cercato una soluzione descrivendo e motivando la scelta. Nelle conclusioni si sono descritti i risultati ottenuti nell’analisi di sicurezza elencando le principali raccomandazioni emerse dall’analisi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo documento descrive gran parte del lavoro svolto durante un periodo di studio di sei mesi all’International Centre for Geohazards (ICG) di Oslo. Seguendo la linea guida dettata nel titolo, sono stati affrontati diversi aspetti riguardanti la modellazione numerica dei pendii quali l’influenza delle condizioni al contorno e delle proporzioni del modello, la back-analysis di eventi di scivolamento e l’applicazione delle analisi di stabilità monodimensionali. La realizzazione di semplici modelli con il programma agli elementi finiti PLAXIS (Brinkgreve et al., 2008) ha consentito di analizzare le prestazioni dei modelli numerici riguardo all’influenza delle condizioni al contorno confrontandoli con un calcolo teorico del fattore di amplificazione. Questa serie di test ha consentito di stabilire alcune linee guida per la realizzazione di test con un buon livello di affidabilità. Alcuni case-history, in particolare quello di Las Colinas (El Salvador), sono stati modellati allo scopo di applicare e verificare i risultati ottenuti con i semplici modelli sopracitati. Inoltre sono state svolte analisi di sensitività alla dimensione della mesh e ai parametri di smorzamento e di elasticità. I risultati hanno evidenziato una forte dipendenza dei risultati dai parametri di smorzamento, rilevando l’importanza di una corretta valutazione di questa grandezza. In ultima battuta ci si è occupati dell’accuratezza e dell’applicabilità dei modelli monodimensionali. I risultati di alcuni modelli monodimensionali realizzati con il software Quiver (Kaynia, 2009) sono stati confrontati con quelli ottenuti da modelli bidimensionali. Dal confronto è risultato un buon grado di approssimazione accompagnato da un margine di sicurezza costante. Le analisi monodimensionali sono poi state utilizzate per la verifica di sensitività. I risultati di questo lavoro sono qui presentati e accompagnati da suggerimenti qualitativi e quantitativi per la realizzazione di modelli bidimensionali affidabili. Inoltre si descrive la possibilità di utilizzare modelli monodimensionali in caso d’incertezze sui parametri. Dai risultati osservati emerge la possibilità di ottenere un risparmio di tempo nella realizzazione di importanti indagini di sensitività.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il proliferare di dispositivi di elaborazione e comunicazione mobili (telefoni cellulari, computer portatili, PDA, wearable devices, personal digital assistant) sta guidando un cambiamento rivoluzionario nella nostra società dell'informazione. Si sta migrando dall'era dei Personal Computer all'era dell'Ubiquitous Computing, in cui un utente utilizza, parallelamente, svariati dispositivi elettronici attraverso cui può accedere a tutte le informazioni, ovunque e quantunque queste gli si rivelino necessarie. In questo scenario, anche le mappe digitali stanno diventando sempre più parte delle nostre attività quotidiane; esse trasmettono informazioni vitali per una pletora di applicazioni che acquistano maggior valore grazie alla localizzazione, come Yelp, Flickr, Facebook, Google Maps o semplicemente le ricerche web geo-localizzate. Gli utenti di PDA e Smartphone dipendono sempre più dai GPS e dai Location Based Services (LBS) per la navigazione, sia automobilistica che a piedi. Gli stessi servizi di mappe stanno inoltre evolvendo la loro natura da uni-direzionale a bi-direzionale; la topologia stradale è arricchita da informazioni dinamiche, come traffico in tempo reale e contenuti creati dagli utenti. Le mappe digitali aggiornabili dinamicamente sono sul punto di diventare un saldo trampolino di lancio per i sistemi mobili ad alta dinamicità ed interattività, che poggiando su poche informazioni fornite dagli utenti, porteranno una moltitudine di applicazioni innovative ad un'enorme base di consumatori. I futuri sistemi di navigazione per esempio, potranno utilizzare informazioni estese su semafori, presenza di stop ed informazioni sul traffico per effettuare una ottimizzazione del percorso che valuti simultaneamente fattori come l'impronta al carbonio rilasciata, il tempo di viaggio effettivamente necessario e l'impatto della scelta sul traffico locale. In questo progetto si mostra come i dati GPS raccolti da dispositivi fissi e mobili possano essere usati per estendere le mappe digitali con la locazione dei segnali di stop, dei semafori e delle relative temporizzazioni. Queste informazioni sono infatti oggi rare e locali ad ogni singola municipalità, il che ne rende praticamente impossibile il pieno reperimento. Si presenta quindi un algoritmo che estrae utili informazioni topologiche da agglomerati di tracciati gps, mostrando inoltre che anche un esiguo numero di veicoli equipaggiati con la strumentazione necessaria sono sufficienti per abilitare l'estensione delle mappe digitali con nuovi attributi. Infine, si mostrerà come l'algoritmo sia in grado di lavorare anche con dati mancanti, ottenendo ottimi risultati e mostrandosi flessibile ed adatto all'integrazione in sistemi reali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La città di Ferrara può essere considerata un unicum che emerge rispetto ad altre realtà urbane, pur dotate di loro peculiarità storiche e morfologiche. La base per la formazione di questa unicità, fu gettata dagli Este, e da Biagio Rossetti, che, con l'addizione erculea, raddoppiarono la superficie della città medioevale. L'addizione, fu realizzata per una previsione di aumento della popolazione,che mai si concretizzò, se non, in parte, nel corso dell'ultimo secolo. Ciò, si tradusse in una notevole stabilità del rapporto pieni/vuoti, all'interno della città: vuoti che divennero spazi verdi urbani, e pieni che, nonostante le ristrutturazioni divenute necessarie nel corso dei secoli, mantennero prevalentemente le volumetrie e i sedimi storici. Infatti, il verde degli orti e dei giardini del tessuto storico, costituisce un sistema inscindibile con il costruito, e ne caratterizza la forma urbana dall'interno. Nel corso del Novecento, il centro storico, subì notevoli cambiamenti, anche se gli interventi riguardarono prevalentemente i vuoti urbani, mantenendo quasi intatto l'esistente. L'immobilismo dei secoli passati, ha mantenuto Ferrara una città a misura d'uomo, non tormentata dal caotico traffico automobilistico delle città attuali;per le sue peculiarità, storiche e morfologiche, Ferrara fu dichiarata "Patrimonio dell'Umanità" dall'Unesco, ponendo fine ad eventuali modifiche del centro storico, che avrebbero potuto intaccarne i caratteri. L'area della quale ci occupiamo, nonostante si trovi all'interno del tessuto medioevale consolidato, ha subito delle importanti trasformazioni nel secolo scorso; il duecentesco Convento agostiniano di San Vito, che occupava gran parte dell'isolato, assieme ai giardini di Palazzo Schifanoia, fu demolito per far posto ad una nuova caserma; probabilmente perché il convento stesso, dopo le conquiste napoleoniche e con vicende alterne, era già adibito a tale funzione. La nuova caserma mal si inserisce nel tessuto urbano, poiché rappresenta un "fuori scala", un evidente distacco dal rapporto verde/costruito della città medioevale circostante. Fin dalle analisi dei primi piani regolatori del secondo dopoguerra, la caserma fu considerata un elemento incongruo con il tessuto esistente, prevedendone quindi la possibilità di demolizione; dagli anni '90, inoltre, l'area militare è inutilizzata, e oggigiorno, versa in una condizione di avanzato degrado superficiale. L'area di progetto, ha una grande importanza storica, poiché rappresentava il terzo polo estense di amministrazione del potere, dopo il Castello Estense, e l'area del Palazzo dei Diamanti. I palazzi estensi che caratterizzavano l'area in epoca rinascimentale, Palazzo Schifanoia, Palazzo Bonacossi e Palazzina Marfisa d'Este, sono sopravissuti, anche se profondamente cambiati in particolar modo negli spazi verdi. Il progetto che ci proponiamo di realizzare, vuole stabilire, un nuovo rapporto tra pieni e vuoti, basandoci sulla lettura della città storica, delle sue tipologie e peculiarità. Impostando il progetto sulla realizzazione concreta del Polo dei Musei Civici di Arte Antica di Ferrara, oggi esistente solo a livello burocratico e amministrativo, ridefiniamo una parte di città, attribuendole quella centralità nel tessuto storico, che già la caratterizzava in passato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La città di Ferrara può essere considerata un unicum che emerge rispetto ad altre realtà urbane, pur dotate di loro peculiarità storiche e morfologiche. La base per la formazione di questa unicità, fu gettata dagli Este, e da Biagio Rossetti, che, con l'addizione erculea, raddoppiarono la superficie della città medioevale. L'addizione, fu realizzata per una previsione di aumento della popolazione,che mai si concretizzò, se non, in parte, nel corso dell'ultimo secolo. Ciò, si tradusse in una notevole stabilità del rapporto pieni/vuoti, all'interno della città: vuoti che divennero spazi verdi urbani, e pieni che, nonostante le ristrutturazioni divenute necessarie nel corso dei secoli, mantennero prevalentemente le volumetrie e i sedimi storici. Infatti, il verde degli orti e dei giardini del tessuto storico, costituisce un sistema inscindibile con il costruito, e ne caratterizza la forma urbana dall'interno. Nel corso del Novecento, il centro storico, subì notevoli cambiamenti, anche se gli interventi riguardarono prevalentemente i vuoti urbani, mantenendo quasi intatto l'esistente. L'immobilismo dei secoli passati, ha mantenuto Ferrara una città a misura d'uomo, non tormentata dal caotico traffico automobilistico delle città attuali; per le sue peculiarità, storiche e morfologiche, Ferrara fu dichiarata "Patrimonio dell'Umanità" dall'Unesco, ponendo fine ad eventuali modifiche del centro storico, che avrebbero potuto intaccarne i caratteri. L'area della quale ci occupiamo, nonostante si trovi all'interno del tessuto medioevale consolidato, ha subito delle importanti trasformazioni nel secolo scorso; il duecentesco Convento agostiniano di San Vito, che occupava gran parte dell'isolato, assieme ai giardini di Palazzo Schifanoia, fu demolito per far posto ad una nuova caserma; probabilmente perché il convento stesso, dopo le conquiste napoleoniche e con vicende alterne, era già adibito a tale funzione. La nuova caserma mal si inserisce nel tessuto urbano, poiché rappresenta un "fuori scala", un evidente distacco dal rapporto verde/costruito della città medioevale circostante. Fin dalle analisi dei primi piani regolatori del secondo dopoguerra, la caserma fu considerata un elemento incongruo con il tessuto esistente, prevedendone quindi la possibilità di demolizione; dagli anni '90, inoltre, l'area militare è inutilizzata, e oggigiorno, versa in una condizione di avanzato degrado superficiale. L'area di progetto, ha una grande importanza storica, poiché rappresentava il terzo polo estense di amministrazione del potere, dopo il Castello Estense, e l'area del Palazzo dei Diamanti. I palazzi estensi che caratterizzavano l'area in epoca rinascimentale, Palazzo Schifanoia, Palazzo Bonacossi e Palazzina Marfisa d'Este, sono sopravissuti, anche se profondamente cambiati in particolar modo negli spazi verdi. Il progetto che ci proponiamo di realizzare, vuole stabilire, un nuovo rapporto tra pieni e vuoti, basandoci sulla lettura della città storica, delle sue tipologie e peculiarità. Impostando il progetto sulla realizzazione concreta del Polo dei Musei Civici di Arte Antica di Ferrara, oggi esistente solo a livello burocratico e amministrativo, ridefiniamo una parte di città, attribuendole quella centralità nel tessuto storico, che già la caratterizzava in passato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si pone come finalità quella di analizzare un comprensorio territoriale dal punto di vista insediativo, cercando di coglierne le peculiarità e i mutamenti nel lungo periodo attraverso un uso incrociato di fonti scritte e archeologiche. La ricerca ha preso avvio dall’analisi del Saltopiano, uno dei distretti di ambito rurale che si ritrova nelle fonti tra IX-XII secolo, in passato già affrontato dalla storiografia specialmente in relazione all’organizzazione istituzionale delle aree rurali tra Longobardia e Romania durante i secoli altomedievali. Attraverso l’esame delle fonti scritte edite si è cercato di ricostruire il quadro dell’organizzazione territoriale, partendo dalla disamina dei centri di potere laici ed ecclesiastici che a questa area avevano rivolto il proprio interesse patrimoniale e politico, ma proponendo in modo analitico i dati che forniscono indicazioni dirette in relazione all’organizzazione insediativa e quindi alla gestione del territorio dal punto di vista socioeconomico. E’ stato posto in risalto il carattere di un insediamento rurale a maglie larghe, secondo la scansione in fundi e la presenza di poli di accentramento importanti come pievi, castra, vici e con una compresenza, per quanto ristretta a pochi esempi significativi, di altre forme di organizzazione come la curtis e la massa. Con la prosecuzione dello studio del territorio in senso diacronico, prima la scomparsa del riferimento al Saltopiano, poi la progressiva conquista del contado da parte del Comune di Bologna ha determinato un vero e proprio mutamento nell’approccio di analisi. E’ stato dato spazio all’analisi di fondi inediti (conservati principalmente all’Archivio di Stato di Bologna) e specificamente legati alla realtà territoriale studiata. In primo luogo, sono stati esaminati gli estimi del contado (Galliera e Massumatico), una fonte già frequentata in passato da altri studiosi, soprattutto con un interesse dal punto di vista demografico e economico. Nel caso specifico, sono stati estrapolati dalle prime rilevazioni fiscali del 1235 e del 1245 e poi da quelle di primo Trecento i dati che restituiscono l’organizzazione del territorio in modo concreto. Partendo dalle riflessioni di studi svolti in passato, che avevano considerato il fondamentale inserimento di importanti famiglie cittadine nella gestione sempre più ampia dei beni agricoli nel contado è stata avviata l’analisi di un altro fondo inedito, quello dei registri del Vicariato di Galliera (in particolare quelli concernenti la denuncia dei “danni dati” sulle proprietà agricole), da cui emerge in modo evidente la presenza di famiglie come i Guastavillani, i Caccianemici, i Lambertini. Tali dati, in associazione a quelli tratti dagli estimi, hanno fornito elementi essenziali per la comprensione del territorio rurale nel suo complesso e nei rapporti di interdipendenza tra le diverse componenti sociali. Una terza parte della tesi è dedicata nella sua totalità all’analisi delle fonti materiali che forniscono dati per lo studio dell’insediamento medievale nel territorio compreso tra gli attuali comuni di S. Pietro in Casale e Galliera. Partendo da alcune ricerche preliminari compiute negli anni ’90 del secolo scorso, è stato impostato un progetto di ricerca archeologica articolatosi in due campagne di ricognizione di superficie e in una prima campagna di scavo tramite sondaggio presso la torre di Galliera, al fine di ricavare dati di prima mano in un’area pressoché inesplorata dal punto di vista archeologico. Nonostante i limiti riscontrati dal punto di vista pratico, a causa del terreno fortemente alluvionato, si sono raccolti dati specifici che aiutano a inquadrare questo comprensorio e a confrontarlo con altre aree della regione e in particolare del comitato bolognese studiate in ricerche analoghe, mettendone in evidenza le specificità e le caratterizzazioni. Inoltre, alcune importanti persistenze materiali (un sistema di torri di cui rimangono alcuni esempi ancora conservati in alzato) hanno permesso di gettare luce sul valore commerciale e quindi strategico dell’area, soprattutto in funzione del passaggio delle merci lungo una via fluviale fondamentale tra XIII-XIV secolo nel collegare Ferrara a Bologna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto da Fabrizio Amici ha suscitato immediatamente il mio interesse in primo luogo perché quando si parla di virtualizzazione con vari fornitori e commerciali, questi la indicano come una soluzione che possa coprire a 360 gradi le esigenze di un Datacenter. Questo è vero nella misura in cui il progetto di virtualizzazione e consolidamento dei Server sia svolto sotto certi criteri progettuali. Per esperienza personale non ho trovato in letteratura lavori che potessero fornire indicazioni approfondite sui parametri da considerare per una corretta progettazione di sistemi di virtualizzazione, spesso ci si avvale di vari fornitori che accennano ad eventuali criticità. Un lavoro come quello proposto da Fabrizio va esattamente nella direzione di rispondere a quelle domande che nascono quando si affronta la tematica della virtualizzazione e soprattutto cerca di capire quali siano i limiti intrinseci della virtualizzazione. In particolare nei vari confronti che, con piacere, ho avuto con Fabrizio, il mio suggerimento è stato quello di esasperare il sistema che aveva assemblato, caricando i test sino ad osservarne i limiti. Dai vari test sono emerse sia conferme, sia inaspettati comportamenti del sistema che rendono ancora più chiaro che solo una prova sperimentale può essere il banco di prova di un sistema complesso. L'elemento che colpisce maggiormente analizzando i risultati è il diverso comportamento in funzione delle CPU utilizzate. I risultati indicano chiaramente che le prestazioni sono fortemente influenzate da come si distribuiscono i core nelle macchine virtuali. Dalla lettura dei risultati viene confermato che i sistemi virtualizzati devono essere progettati per non raggiungere il 70-80% della componente più critica (RAM, CPU) ma anche che sono fortemente sensibili alle disponibilità prestazionali dei sistemi al contorno (Rete, SAN/Dischi). L'approccio metodico sperimentale ed i risultati forniscono una serie di elementi che permettono di affrontare la tematica della virtualizzazione in un quadro generale più solido, offrendo fra l'altro spunti di ricerca ulteriori anche in previsione di nuove soluzioni che vari costruttori, sviluppatori e system integrator proporranno nei prossimi anni. Ing. Massimiliano Casali Esperto di Gestione ICT, Pubblica Amministrazione,Repubblica di San Marino

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nello sviluppo di sistemi informatici si sono affermate numerose tecnologie, che vanno utilizzate in modo combinato e, possibilmente sinergico. Da una parte, i sistemi di gestione di basi di dati relazionali consentono una gestione efficiente ed efficace di dati persistenti, condivisi e transazionali. Dall'altra, gli strumenti e i metodi orientati agli oggetti (linguaggi di programmazione, ma anche metodologie di analisi e progettazione) consentono uno sviluppo efficace della logica applicativa delle applicazioni. E’ utile in questo contesto spiegare che cosa s'intende per sistema informativo e sistema informatico. Sistema informativo: L'insieme di persone, risorse tecnologiche, procedure aziendali il cui compito è quello di produrre e conservare le informazioni che servono per operare nell'impresa e gestirla. Sistema informatico: L'insieme degli strumenti informatici utilizzati per il trattamento automatico delle informazioni, al fine di agevolare le funzioni del sistema informativo. Ovvero, il sistema informatico raccoglie, elabora, archivia, scambia informazione mediante l'uso delle tecnologie proprie dell'Informazione e della Comunicazione (ICT): calcolatori, periferiche, mezzi di comunicazione, programmi. Il sistema informatico è quindi un componente del sistema informativo. Le informazioni ottenute dall'elaborazione dei dati devono essere salvate da qualche parte, in modo tale da durare nel tempo dopo l'elaborazione. Per realizzare questo scopo viene in aiuto l'informatica. I dati sono materiale informativo grezzo, non (ancora) elaborato da chi lo riceve, e possono essere scoperti, ricercati, raccolti e prodotti. Sono la materia prima che abbiamo a disposizione o produciamo per costruire i nostri processi comunicativi. L'insieme dei dati è il tesoro di un'azienda e ne rappresenta la storia evolutiva. All'inizio di questa introduzione è stato accennato che nello sviluppo dei sistemi informatici si sono affermate diverse tecnologie e che, in particolare, l'uso di sistemi di gestione di basi di dati relazionali comporta una gestione efficace ed efficiente di dati persistenti. Per persistenza di dati in informatica si intende la caratteristica dei dati di sopravvivere all'esecuzione del programma che li ha creati. Se non fosse cosi, i dati verrebbero salvati solo in memoria RAM e sarebbero persi allo spegnimento del computer. Nella programmazione informatica, per persistenza si intende la possibilità di far sopravvivere strutture dati all'esecuzione di un programma singolo. Occorre il salvataggio in un dispositivo di memorizzazione non volatile, come per esempio su un file system o su un database. In questa tesi si è sviluppato un sistema che è in grado di gestire una base di dati gerarchica o relazionale consentendo l'importazione di dati descritti da una grammatica DTD. Nel capitolo 1 si vedranno più in dettaglio cosa di intende per Sistema Informativo, modello client-server e sicurezza dei dati. Nel capitolo 2 parleremo del linguaggio di programmazione Java, dei database e dei file XML. Nel capitolo 3 descriveremo un linguaggio di analisi e modellazione UML con esplicito riferimento al progetto sviluppato. Nel capitolo 4 descriveremo il progetto che è stato implementato e le tecnologie e tools utilizzati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modern management of crop protection should be based on integrated control programmes, including the use of environmentally safe products. Antagonistic/beneficial bacteria and resistance inducers may have a great potential in the prophylaxis of diseases caused by common and quarantine pathogens. This work was carried out to confirm the ability of the known strain IPV-BO G19 (Pseudomonas fluorescens) against fire blight (Erwinia amylovora), as well as to evaluate their efficacy against southern bacterial wilt of tomato (Ralstonia solanacearum) and grapevine crown gall (Agrobacterium vitis). A virulent strain of R. solanacearum race 3 was inhibited by the antagonist on plate. When the pathogen was inoculated 48 h after their application to the root apparatus of tomato plants grown in a climatic chamber, bacterial wilt progression rate was clearly reduced. Moreover the defence response evoked by IPV-BO G19 was studied in tomato plants by monitoring the transcription of genes codifying for three PRs as PR-1a, PR-4, PR-5 and for an intracellular chitinase using multiplex RT-PCR and Real Time RT-PCR. In two field trials during 2005 and 2006, the strain IPV-BO G19 was compared with biofungicides and some abiotic elicitors to protect actively growing shoots of pear scions against fire blight. In both trials, IPV-BO G19 plus Na-alginate gave a high level of protection, three weeks after wound inoculation with E. amylovora. In pear leaf tissues treated with the antagonistic strain IPV-BO G19, catalase, superoxyde dismutase and peroxidise activity was evaluated as markers of induced resistance. The IPV-BO G19 strain was compared with other bioagents and resistance inducers to prevent grapevine crown gall under glasshouse and vineyard conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il trasporto intermodale ha acquisito un ruolo sempre più importante nello scenario dei trasporti comunitari merci durante gli ultimi quindici anni. La sfida che si era posta a inizi anni novanta in Europa consisteva nello sviluppo di una rete europea di trasporto combinato strada-ferrovia. A questo fine è stata fondamentale la cooperazione tra gli operatori del settore e le istituzioni (comunitarie e nazionali), nonché l’impulso dato dalla liberalizzazione del trasporto ferroviario, che fortemente influenza il trasporto combinato. Questa tesi, in particolare, intende studiare il ruolo del Sistema Gateway come strumento innovativo e di nuovo impulso per lo sviluppo della rete di trasporto combinato strada-rotaia in ambito europeo. Grazie a questo sistema, le unità di carico, dirette in una determinata regione, giungono ad un "Terminal Gateway", dove secondo un sistema di tipo “hub-and-spoke” vengono trasbordate a mezzo gru su treni “Shuttle” verso la destinazione finale. Tutto ciò avviene con operazioni fortemente automatizzate e veloci con sensibile vantaggio in termini di tempo e costi. La tesi parte da una descrizione del trasporto intermodale, facendo un focus sugli aspetti strutturali, tecnici e organizzativi del trasporto combinato strada – rotaia e del suo funzionamento. Passando attraverso l’analisi delle reti di trasporto merci in Europa, nel secondo capitolo. Il terzo capitolo entra nel vivo della Tesi introducendo l’oggetto dell’indagine: il Sistema Gateway nell’ambito dello sviluppo della rete europea del traffico combinato strada-ferrovia. Nella seconda parte della tesi è voluto studiare il Sistema Gateway con l’ausilio dei metodi d’analisi che vengono applicati per la scelta fra progetti alternativi nel campo della pianificazione dei trasporti, pertanto sono stati presi in rassegna e descritti i metodi più utilizzati: l’Analisi Benefici-Costi e l’Analisi Multicriteria. Nel caso applicativo è stata utilizzata l’Analisi Benefici-Costi. Infine nel capitolo sesto è stato presentato dettagliatamente il caso reale di studio che riguarda il progetto per la trasformazione del terminal di Verona Quadrante Europa in un terminal gateway.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

VILLA “CAPELLO - MORA”: PROGETTO DI RESTAURO E RIFUNZIONALIZZAZIONE Il restauro è da intendere come un intervento diretto sull’opera, e anche come sua eventuale modifica, condotta sempre sotto un rigoroso controllo tecnico-scientifico e storico-critico, se parliamo di conservazione, intendiamo l’operare in un intento di salvaguardia e di prevenzione, da attuare proprio per evitare che si debba poi intervenire con il restauro, che comprende un evento traumatico per il manufatto. Un seconda parola chiave in questo discorso è la “materia” il restauro interviene sulla materia di un monumento e questa costituisce il tramite dei valori culturali antichi, la sua conservazione e il suo restauro garantisce la trasmissione anche dei significati estetici, storici simbolici del costruito. Ma certamente influisce il tempo sulle cose per cui il progetto di restauro non può astenersi dall’intervenire, in una logica di minimo intervento, di reversibilità, di facile lettura. Il concetto di nuovo in un opera antica, concetto che a parere personale, pare centrare in pieno il problema. Il nuovo infatti “deve avere carattere di autonomia e di chiara leggibilità: come l’<> di Boito deve essere inequivocabilmente opera nuova, come prodotto figurativo e materiale autonomo, chiara ed inequivocabile espressione <>”. Ne deriva riassumendo che oggi l’obbiettivo deve essere quello di conservare da un lato senza non sotrarre altra materia alla fabbrica e di valorizzare, ossia aggiungere, nuove “presenze” di cultura contemporanea. Per questo si parlerà di progetto di restauro e rifunzionalizzazione. La fabbrica ha subito nel corso dell’ultimo decennio una serie di “rovinose” manomissioni, che a differenza di quelle operate in tempi più antichi (coincidenti con esigenze funzionali corrispondenti alla logica dell’adattare) appaiano ben più gravi, e contribuiscono a peggiorare la lettura del fabbricato. Il Veneto e soprattutto la zona intorno a Bassano del Grappa presenta una infinità di dimore padronali casini di caccia, resti di antiche residenze (colombare, oratori, ecc.) risalenti al periodo di maggior fioritura della residenza di “Villa” della Serenissima. Nel caso specifico di studio , quindi della rifunzionalizzazione dell’edificio, la domanda sorge spontanea; Come ristabilire un senso a questi spazi? E nell’ipotesi di poter realmente intervenire che cosa farne di questi oggetti?. E ultimo ma non ultimo in che modo poter ristabilire un “dialogo” con l’edificio in una lettura corretta del suo significato non solo per quel che riguarda la materia ma anche per ciò che ci trasmette nel “viverlo”, nell’usufruirne nel fatto stesso di poterlo vedere, passandoci davanti. tà. Lidea si forma prima ancora da un esigenza del territorio, il comune di Cassola dove ha sede la Villa,pur avendo un discreto numero di abitanti e collocandosi in posizione nevralgica in quanto molto vicino al centro diBasssano (ne è quasi la promulgazione), non possiede uno spazio espositivo /rappresentativo, un edificio a carattere pubblico, sede di “eventi” culturali locali e non. Villa Capello –Mora, potrebbe rispondere bene a questo tipo di utilizzo. Si è deciso di pensare ad un luogo a carattere espositivo che possa funzionare durante tutto l’anno e nei periodi etsivi includa anche il giardino esterno. Il progetto muove da due principi il principio di “reversibilità” e quello del “minimo intervento” sottolinenando volutamente che siano gli ogetti esposti e lo spazio dei locali a fare da protagonisti, Punti chiave nell’interpretazione degli spazi sono stati i percorsi, la “narrazione” degli oggetti esposti avviene per momenti e viene rimarcata nell’allestimento tramite i materiali i colori e le superfici espositive, perché nel momento in cui visito una mostra o un museo, è come se stessi vivendo la narrazione di un qualcosa, oggetto semplice od opera complessa che sia inteso nell’ambito museale-espositivo esso assume una capacità di trasmissione maggiore rispetto a qundo lo stesso ogetto si trova in un contesto differente, la luce e la sua disposizione nello spazio, fanno sì che il racconto sia narrato, bene o male, ancora più importante è lo sfondo su cui si staglia l’opera, che può essere chiuso, come una serie di scatole dentro la scatola (edificio) oppure aperto, con singole e indipendenti pannellature dove l’edificio riveste il carattere proprio di sfondo. Scelta la seconda delle due ipotesi, si è voluto rimarcare nella composizione degli interni i momenti della narrazione, così ad esempio accedendo dall’ingresso secondario (lato nord-ovest) al quale si è dato l’ingresso alla mostra, -superata la prima Hall- si viene, catapultati in uno spazio porticato in origine aperto e che prevediamo chiuso da una vetrata continua, portata a debita distanza dal colonnato. Questo spazio diventa la prima pagina del testo, una prima pagina bianca, uno spazio libero, di esposizione e non di relax e di presentazione dell’evento, uno spazio distributivo non votato solo a questo scopo, ma passibile di trasformazione. A rimarcare il percorso una pavimentazione in cemento lisciato, che invita l’accesso alle due sale espositive a sinista e a destra dell’edificio. Nell’ala a sinistra (rispetto al nord) si apre la stanza con camino seicentesco forse un tempo ad uso cucina? Sala che ospita dei pannelli a sospesi a muro e delle teche espositive appese a soffitto. L’ala di destra, diametralmente opposta, l’unica che al piano terra mantiene la pavimentazione originale, stabiliva il vero atrio d’entrata, nel XVII sec. riconoscibile da quattro colonne tuscaniche centrali a reggere un solaio ligneo, in questa stanza il percorso segnato a terra torna nella disposizione dei pannelli espositivi che si dispongono in un a formare un vero corridoio, tra uno e l’atro di questi pannelli degli spazi sufficienti a intravedere le colonne centrali, i due lati dello stretto percorso non sono paralleli e aprono in senso opposto a due restanti spazi dell’intero salone, La sala suddivisa così in queste tre parti - una di percorrenza due di esposizione - , risulta modificata nella lettura che ne annulla l’originale funzione. Questa nuova “forma”, non vuole essere permanente infatti i pannelli non sono fissi. la narrazione avviene così per momenti, per parti, , che non devono necessariamente far comprendere il “tutto”, ma suggerirlo. Così come per il percorso che non è obbligato ma suggerito. A terminare il piano altre due sale di minore dimensione e di modesto carattere, nelle quali sono presenti pannellature a parete come nella prima sala. L’allestimento prosegue al piano primo a cui si accede tramite due rampe, trattate nel progetto difformemente, in base al loro stato e al loro significato, la rampa più recente (XIX sec) rompe lo spazio al piano nobile stravolgendo l’ingresso a questo salone, che originariamente avveniva salendo dalla scala principale e oltrepassando un disimpegno. La scala ottocentesca introduce direttamente all’ambiente che ora risulta liberato dalle superfetazioni dello scorso secolo, mostrandosi come era stato previsto in origine. Questa rottura dello spazio viene marcata nel progetto da un volume che “imprigiona” la rampa e segna l’inizio della sala espositiva, la sala delle architetture. Al centro della sala in un gioco di pieni e vuoti i pannelli, espositivi, distaccati di poco gli uni dagli altri questa volta non a incorniciare delle colonne ma a richiamo delle pitture murali che raffiguranti una loggia alludono ad una lettura per “parti” e scandiscono lo spazio in una “processione” di eventi. A seguito del “gioco” sono presenti in senso ortogonale ai pannelli sopradescritti ulteriori pannellature appese ad una struttura metallica indipendente dalle capriate lignee. Tale struttura assume ad una duplice funzione, funge sia da irrigidimento della struttura (edificio) che da supporto alla pannellatura, ad essa infatti è collegata una fune, che entrerà in tensione, quando il pannello verrà ad appendersi. Infine questa fune passante da due puleggie permetterà al pannello di traslare da un lato all’altro dell’edificio, bloccandosi nella posizione desiderata tramite freno interno, azionato manualmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il 6 aprile 2009 una scossa sismica del sesto grado della scala Richter ha colpito la città dell'Aquila e i centri urbani limitrofi, provocando ingenti danni e la quasi totale distruzione del centro storico aquilano. Il sisma ha provocato più di 300 vittime e 65000 sfollati sistemati in tendopoli, alberghi e moduli abitativi provvisori. Risolta l'emergenza dei primi mesi ci si trova ad affrontare il problema della ricostruzione vera e propria della città, la quale non può prescindere dalle decisioni sul futuro del centro storico. La parte "intra moenia" dell'Aquila è il centro nevralgico della città, qui si trovano i caratteri identitari di essa, i quali si perdono appena oltrepassata la cinta muraria. Il tessuto che parte dalle porte urbiche e prosegue verso la periferia è infatti frammentario e disorganizzato. Scopo principale del progetto è quello di fornire un'idea concreta per la ricostruzione del quartiere di Santa croce, una parte di centro storico ad oggi priva di identità e quasi interamente distrutta dal sisma. Accanto alle necessità di ricostruire alloggi e servizi, si pone l'obiettivo di fondare un nuovo quartiere che riprenda i tracciati storici e completi questa parte della città con una nuova identità legata al passato della stessa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di percorso urbano ‘S’intende per restauro qualsiasi intervento volto a conservare e a trasmettere al futuro, facilitandone la lettura e senza cancellarne le tracce del passaggio nel tempo, le opere d’interesse storico, artistico e ambientale; esso si fonda sul rispetto della sostanza antica e delle documentazioni autentiche costituite da tali opere, proponendosi, inoltre, come atto d’interpretazione critica non verbale ma espressa nel concreto operare’ (G.Carbonara) Celate all’interno di edifici privati, ritrovate quasi sempre fortuitamente, ai più sconosciute, le pitture murali del Trecento riminese necessitano un processo di valorizzazione. Si tratta di portarle alla luce una seconda volta creando un percorso di riscoperta di queste opere nascoste, di cui raramente si è più sentito parlare dopo il clamore sollevato dalla mostra del 1935 organizzata da Brandi. Si parla quindi di un percorso conoscitivo. Un percorso urbano che tocchi i luoghi dove queste sono ancora conservate: l’antica chiesa di San Michelino in foro (oggi divisa tra più proprietari privati), la chiesa di Sant’Agostino, la cappella del campanile della chiesa di Santa Maria in Corte, la cappella del Crocifisso in San Nicolò al porto. Le chiese costituiranno le tappe di un percorso che si articolerà attraverso le strade medievali della città. Si verrà a creare quindi un percorso non solo alla scoperta delle pitture murali del XIII e XIV secolo, ma alla scoperta della Rimini del Trecento, delle sue vie, del suo sviluppo urbano. Si affronterà il problema del restauro delle pitture murali, ma sempre preoccupandosi della buona conservazione e del mantenimento del monumento nel suo insieme. Pittura murale e architettura sono, come sostiene Philippot, inscindibili: trattando una pittura murale, il restauratore tratta sempre e solo una parte di un insieme più vasto, che costituisce il tutto al quale egli si dovrà riferire, tanto dal punto di vista estetico e storico, quanto dal punto di vista tecnico . Per ogni chiesa si prevederà quindi, oltre al progetto di restauro della pittura, anche un progetto di fruizione dello spazio architettonico e di riconfigurazione dello stesso, quando necessario, ragionando caso per caso. Si è deciso di porre come origine del percorso l’antica chiesa di San Michelino. La motivazione di questa scelta risiede nel fatto che in questo edificio si è individuato il luogo adatto ad ospitare uno spazio espositivo dove raccontare la Rimini del Trecento. Uno spazio espositivo al servizio della città, con la progettazione del quale si cercherà di restituire unità agli ambienti dell’antica chiesa, oggi così frazionati tra troppi proprietari. Da San Michelino si continuerà verso la chiesa di Sant’Agostino, dove si trovano affreschi del Trecento riminese già molto noti e studiati. Ciò che si rende necessario in questo caso è la riconfigurazione architettonica e spaziale degli affreschi della parte bassa della cappella del campanile, staccati e trasferiti su pannelli negli anni ’70, oltre alla previsione di un sistema di monitoraggio degli affreschi stessi. La terza tappa del percorso sarà la chiesa di Santa Maria in Corte. Il ciclo di affreschi si trova all’interno della cappella del campanile, oggi chiusa al pubblico ed esclusa dallo spazio della chiesa dopo gli interventi barocchi. Abbiamo quindi pensato di proporre una soluzione che permetta una più agevole fruizione della cappella, progettando un’illuminazione e un percorso d’accesso adeguati. Più complesso è il caso di San Nicolò al porto, individuata come ultima tappa del percorso. Si tratta in questo caso della riconfigurazione di un intero isolato, che nel tempo ha perso totalmente il suo significato urbano riducendosi ad una sorta di spartitraffico. Qui si rendeva necessaria inoltre la progettazione di una nuova chiesa, presentando quella attuale seri problemi statici.