960 resultados para Modelli, MyJourney, Analisi, Collaudo, Controller
Resumo:
Prima di parlare di lotto zero, credo sia opportuno inquadrare in modo più preciso il significato che riveste la Secante per Cesena. La Secante è senza dubbio l’opera più rilevante e strategica in assoluto degli ultimi decenni ed è destinata a incidere in modo profondo (almeno così ci auguriamo) sulla vita della città, contribuendo a migliorarla sensibilmente. A questa arteria è affidato il compito di raccogliere tutto il traffico di attraversamento di Cesena, e specialmente quello rappresentato dai mezzi pesanti, che gravita principalmente sulla via Emilia, creando da tempo una situazione difficile, ma che negli ultimi anni è divenuta pressoché insostenibile: sono molte migliaia i veicoli che ogni giorno percorrono questa strada che già dalla fine degli anni Sessanta ha cessato di essere periferica e che ai giorni nostri fa ormai parte del centro urbano. La Secante, una volta completata, porrà un rimedio definitivo a questa situazione: secondo le previsioni, sarà in grado di smaltire in modo efficiente circa 40mila veicoli al giorno e, quindi, di rispondere alle necessità di circolazione della città per almeno i prossimi 20-30 anni. Proprio per l’importanza che il nuovo asse di collegamento riveste, diventa fondamentale garantirne la massima fruibilità, dedicando estrema attenzione non solo alla funzionalità della struttura in sé ( per altro progettata con criteri d’avanguardia, soprattutto per la parte in galleria, che si configura come il primo eco-tunnel italiano ), ma anche al complesso delle opere di collegamento con la viabilità preesistente: svincoli, nodi stradali, nuove connessioni. È in questo quadro che si inserisce il cosiddetto “lotto zero”, cioè quel tratto stradale che prolungherà il primo lotto della Secante verso Forlì e avrà una lunghezza pari a circa 1 chilometro. Entrando nel dettaglio, questo lotto dovrà portare il traffico in uscita dalla Secante dalla via comunale San Cristoforo alla via Provinciale San Giuseppe, sicuramente più idonea a sopportare l’importante mole di traffico veicolare e meglio collegata alla viabilità principale. Il lotto zero si congiungerà con la via Emilia attraverso la già esistente rotatoria davanti al cimitero di Diegaro. Naturalmente, il nuovo tratto sarà dotato di barriere acustiche: si è pensato a strutture in lamiera di acciaio, con funzioni fonoassorbenti e fonoisolanti, per una lunghezza totale di circa 310 metri. Il costo complessivo dell’opera si aggira intorno ai 25 milioni di euro. Il Comune di Cesena considera questo intervento irrinunciabile, e per questo si stanno valutando le soluzioni più opportune per una sua realizzazione in tempi ragionevolmente brevi. Non a caso, per accelerare le procedure già nel 2004 l’Amministrazione Comunale di Cesena e l’Amministrazione Provinciale di Forlì – Cesena hanno deciso di finanziare direttamente il progetto, e sono stati avviati contatti con i ministeri delle Infrastrutture e dell’Ambiente per sollecitarne l’approvazione e la conseguente disponibilità di fondi. D’altro canto, non si può dimenticare che il lotto zero s’inserisce nella necessità più complessiva di un nuovo assetto della viabilità del territorio, che troverà una risposta definitiva con il progetto della cosiddetta via Emilia bis. Si tratta di un intervento prioritario non solo per Cesena, ma per tutta la Romagna, e che acquisisce un significato ancor più rilevante alla luce del recente progetto relativo alla Civitavecchia-Orte-Cesena-Ravenna-Mestre. In quest’ottica, il lotto zero assume una funzione indispensabile per armonizzare la grande circolazione che gravita sul nodo cesenate, destinato a diventare ancora più rilevante nel momento in cui si svilupperà la dorsale autostradale appenninica, la futura E45/E55.
Resumo:
Negli ultimi anni la longevità è divenuto un argomento di notevole interesse in diversi settori scientifici. Le ricerche volte ad indagare i meccanismi che regolano i fattori della longevità si sono moltiplicate nell’ultimo periodo interessando, in maniera diversa, alcune regioni del territorio italiano. Lo studio presentato nella tesi ha l’obiettivo di identificare eventuali aggregazioni territoriali caratterizzate da una significativa propensione alla longevità nella regione Emilia-Romagna mediante l’impiego di metodologie di clustering spaziale, alcune delle quali di recente implementazione. La popolazione in esame è costituita dagli individui residenti in Emilia- Romagna nel quinquennio 2000-2004 suddivisa in classi di età, sesso e comune. L’analisi è di tipo puramente spaziale, in cui l’unità geografica elementare è identificata dal comune, ed è stata condotta separatamente per i due sessi. L’identificazione delle aree regionali ad elevata longevità è avvenuta utilizzando quattro metodologie di clustering spaziale, basate sulla teoria della massima verosimiglianza, che si differenziano tra loro per la modalità di ricerca dei potenziali clusters. La differenza consiste nella capacità di identificare aggregazioni territoriali di forma regolare (spatial scan statistic, Kulldorff e Nagarwalla,1995; Kulldorff,1997, 1999) o dall’andamento geometrico “libero” (flexible scan statistic, Tango e Takahashi,2005; algoritmo genetico, Duczmal et al.,2007; greedy growth search, Yiannakoulias et al.,2007). Le caratteristiche di ciascuna metodologia consentono, in tal modo, di “catturare” le possibili conformazioni geografiche delle aggregazioni presenti sul territorio e la teoria statistica di base, comune ad esse, consente di effettuare agevolmente un confronto tra i risultati ottenuti. La persistenza di un’area caratterizzata da un’elevata propensione alla longevità consente, infatti, di ritenere il cluster identificato di notevole interesse per approfondimenti successivi. Il criterio utilizzato per la valutazione della persistenza di un cluster è stato derivato dalla teoria dei grafi, con particolare riferimento ai multigrafi. L’idea è confrontare, a parità di parametri di ricerca, i grafi associati alle aggregazioni spaziali identificate con le diverse metodologie attraverso una valutazione delle occorrenze dei collegamenti esistenti tra le coppie di vertici. Alcune valutazioni di carattere demografico ed un esame della letteratura esistente sugli studi di longevità, hanno indotto alla definizione di una classe (aperta) di età per rappresentare il fenomeno nella nostra ricerca: sono stati considerati gli individui con età superiore o uguale a 95 anni (indicata con 95+). La misura di sintesi utilizzata per descrivere il fenomeno è un indicatore specifico di longevità, mutuato dalla demografia, indicato con Centenarian Rate (CR) (Robine e Caselli, 2005). Esso è definito dal rapporto tra la popolazione 95+ e la popolazione residente, nello stesso comune, al censimento del 1961. L’idea alla base del CR è confrontare gli individui longevi di un istante temporale con quelli presenti, nella stessa area, circa 40 anni prima dell’osservazione, ipotizzando che l’effetto migratorio di una popolazione possa ritenersi trascurabile oltre i 60 anni di età. La propensione alla longevità coinvolge in maniera diversa le aree del territorio dell’Emilia-Romagna. Le province della regione caratterizzate da una maggiore longevità sono Bologna, Ravenna e parte di Forlì-Cesena mentre la provincia di Ferrara si distingue per un livello ridotto del fenomeno. La distinzione per sesso non appare netta: gli uomini con età 95+, numericamente inferiori alle donne, risiedono principalmente nei comuni delle province di Bologna e Ravenna, con qualche estensione nel territorio forlivese, analogamente a quanto accade per la popolazione femminile che mostra, tuttavia, una maggiore prevalenza nei territori di Bologna e Forlì-Cesena, includendo alcune aree del riminese. Le province occidentali della regione, invece, non risultano interessate significativamente da questo fenomeno. Le metodologie di cluster detection utilizzate nello studio hanno prodotto risultati pressoché simili seppur con criteri di ricerca differenti. La spatial scan statistic si conferma una metodologia efficace e veloce ma il vincolo geometrico regolare imposto al cluster condiziona il suo utilizzo, rivelando una scarsa adattabilità nell’identificazione di aggregazioni irregolari. La metodologia FSC ha evidenziato buone capacità di ricerca e velocità di esecuzione, completata da una descrizione chiara e dettagliata dei risultati e dalla possibilità di poter visualizzare graficamente i clusters finali, anche se con un livello minimo di dettaglio. Il limite principale della metodologia è la dimensione ridotta del cluster finale: l’eccessivo impegno computazionale richiesto dalla procedura induce a fissare il limite massimo al di sotto delle 30 aree, rendendola così utilizzabile solo nelle indagini in cui si ipotizza un’estensione limitata del fenomeno sul territorio. L’algoritmo genetico GA si rivela efficace nell’identificazione di clusters di qualsiasi forma ed estensione, seppur con una velocità di esecuzione inferiore rispetto alle procedure finora descritte. Senza un’adeguata selezione dei parametri di ricerca,la procedura può individuare clusters molto irregolari ed estesi, consigliando l’uso di penalizzazione non nulla in fase di ricerca. La scelta dei parametri di ricerca non è comunque agevole ed immediata e, spesso, è lasciata all’esperienza del ricercatore. Questo modo di procedere, in aggiunta alla mancanza di informazioni a priori sul fenomeno, aumenta il grado di soggettività introdotto nella selezione dei parametri influenzando i risultati finali. Infine, la metodologia GGS richiede un carico computazionale nettamente superiore rispetto a quello necessario per le altre metodologie utilizzate e l’introduzione di due parametri di controllo favorisce una maggiore arbitrarietà nella selezione dei valori di ricerca adeguati; inoltre, la recente implementazione della procedura e la mancanza di studi su dati reali inducono ad effettuare un numero maggiore di prove durante la fase di ricerca dei clusters.
Resumo:
The biological complexity of NGF action is achieved by binding two distinct Neurotrophin receptors, TrkA and p75NTR. While several reports have provided lines of evidence on the interaction between TrkA and p75NTR at the plasma membrane, much fewer data are available on the consequence of such an interaction in terms of intracellular signaling. In this study, we have focused on how p75NTR may affect TrkA downstream signaling with respect to neuronal differentiation. Here, we have shown that cooperation between p75NTR and TrkA results in an increased NGF-mediated TrkA autophosphorylation, leads to a sustained activation of ERK1/2 and accelerates neurite outgrowth. Interestingly, neurite outgrowth is concomitant with a selective enhancement of the AP-1 activity and the transcriptional activation of genes such as GAP-43 and p21(CIP/WAF), known to be involved in the differentiation process. Collectively, our results unveil a functional link between the specific expression profile of neurotrophin receptors in neuronal cells and the NGF-mediated regulation of the differentiation process possibly through a persistent ERKs activation and the selective control of the AP-1 activity. In our studies we discuss the functional role of the neurotrophin receptor p75NTR and TrkA in a ligand-dependent signal transduction. It is known that p75NTR is also involved in the mediation of cell death ligand dependent. Here we show for the first time that the membrane receptor p75NTR, upon binding to b- Amyloid (Ab) peptide, is able to transduce a cytotoxic signal through a mechanism very similar to the one adopted by Tumor Necrosis Factor Receptor 1 (TNFR1), when activated by TNFa. We define that in neuroblastoma cell line Ab cytotoxicity signals through a pathway depending on p75NTR death domain (DD), mostly through some specific conserved residues. We identified that TRADD is the first interactor recruiting to the membrane and activates JNK and NF-kB transcription factors. Since Ab is defined as the most important aetiologic element associated with the Alzheimer’s Disease (AD), characterization of the mechanism involved in the mediation of the neurodegeneration can suggest also new therapeutic approaches.
Resumo:
This research investigated someone of the main problems connected to the application of Tissue Engineering in the prosthetic field, in particular about the characterization of the scaffolding materials and biomimetic strategies adopted in order to promote the implant integration. The spectroscopic and thermal analysis techniques were usefully applied to characterize the chemico-physical properties of the materials such as – crystallinity; – relative composition in case of composite materials; – Structure and conformation of polymeric and peptidic chains; – mechanism and degradation rate; – Intramolecular and intermolecular interactions (hydrogen bonds, aliphatic interactions). This kind of information are of great importance in the comprehension of the interactions that scaffold undergoes when it is in contact with biological tissues; this information are fundamental to predict biodegradation mechanisms and to understand how chemico-physical properties change during the degradation process. In order to fully characterize biomaterials, this findings must be integrated by information relative to mechanical aspects and in vitro and in vivo behavior thanks to collaborations with biomedical engineers and biologists. This study was focussed on three different systems that correspond to three different strategies adopted in Tissue Engineering: biomimetic replica of fibrous 3-D structure of extracellular matrix (PCL-PLLA), incorporation of an apatitic phase similar to bone inorganic phase to promote biomineralization (PCL-HA), surface modification with synthetic oligopeptides that elicit the interaction with osteoblasts. The characterization of the PCL-PLLA composite underlined that the degradation started along PLLA fibres, which are more hydrophylic, and they serve as a guide for tissue regeneration. Moreover it was found that some cellular lines are more active in the colonization of the scaffold. In the PCL-HA composite, the weight ratio between the polymeric and the inorganic phase plays an essential role both in the degradation process and in the biomineralization of the material. The study of self-assembling peptides allowed to clarify the influence of primary structure on intermolecular and intermolecular interactions, that lead to the formation of the secondary structure and it was possible to find a new class of oligopeptides useful to functionalize materials surface. Among the analytical techniques used in this study, Raman vibrational spectroscopy played a major role, being non-destructive and non-invasive, two properties that make it suitable to degradation studies and to morphological characterization. Also micro-IR spectroscopy was useful in the comprehension of peptide structure on oxidized titanium: up to date this study was one of the first to employ this relatively new technique in the biomedical field.
Resumo:
Oggetto di questa tesi è lo studio della qualità del servizio di trasporto erogato che condiziona la qualità percepita dall’utente, poiché spesso proprio a causa di un errato processo di pianificazione e gestione della rete, molte aziende non sono in grado di consolidare un alto livello di efficienza che permetta loro di attrarre e servire la crescente domanda. Per questo motivo, si è deciso di indagare sugli aspetti che determinano la qualità erogata e sui fattori che la influenzano, anche attraverso la definizione di alcuni indicatori rappresentativi del servizio erogato. L’area di studio considerata è stata quella urbana di Bologna, e sono state prese in esame due linee di ATC, la 19 e la 27, caratterizzate entrambe da una domanda di trasporto molto elevata. L’interesse è ricaduto in modo particolare sugli aspetti legati alla regolarità del servizio, ovvero al rispetto della cadenza programmata delle corse e alla puntualità, ossia il rispetto dell’orario programmato delle stesse. Proprio da questi due aspetti, infatti, dipende in larga misura la percezione della qualità che gli utenti hanno del servizio di trasporto collettivo. Lo studio è stato condotto sulla base di dati raccolti attraverso due campagne di rilevamento, una effettuata nel mese di maggio dell’anno 2008 e l’altra nel mese di settembre dello stesso anno. La scelta del periodo, della zona e delle modalità di rilevamento è strettamente connessa all’obiettivo prefissato. Il servizio è influenzato dalle caratteristiche del sistema di trasporto: sia da quelle legate alla domanda che da quelle legate all’offerta. Nel caso della domanda di trasporto si considera l’influenza sul servizio del numero di passeggeri saliti e del tempo di sosta alle fermate. Nel caso dell’offerta di trasporto si osservano soprattutto gli aspetti legati alla rete di trasporto su cui si muovono gli autobus, analizzando quindi i tempi di movimento e le velocità dei mezzi, per vedere come le caratteristiche dell’infrastruttura possano condizionare il servizio. A tale proposito è opportuno dire che, mentre i dati della prima analisi ci sono utili per lo studio dell’influenza del tempo di sosta sull’intertempo, nella seconda analisi si vuole cercare di effettuare ulteriori osservazioni sull’influenza del tempo di movimento sulla cadenza, prendendo in esame altri elementi, come ad esempio tratti di linea differenti rispetto al caso precedente. Un’attenzione particolare, inoltre, verrà riservata alla verifica del rispetto della cadenza, dalla quale scaturisce la definizione del livello di servizio per ciò che riguarda la regolarità. Per quest’ultima verrà, inoltre, determinato anche il LOS relativo alla puntualità. Collegato al problema del rispetto della cadenza è il fenomeno dell’accodamento: questo si verifica quando i mezzi di una stessa linea arrivano contemporaneamente ad una fermata uno dietro l’altro. L’accodamento ha, infatti, origine dal mancato rispetto della cadenza programmata tra i mezzi ed è un’evidente manifestazione del mal funzionamento di un servizio di trasporto. Verrà infine condotta un’analisi dei fattori che possono influenzare le prestazioni del servizio di trasporto pubblico, così da collocare i dati ottenuti dalle operazioni di rilevamento in un quadro più preciso, capace di sottolineare alcuni elementi di criticità e possibili rapporti di causalità.
Resumo:
Le reti di distribuzione idrica conservano un ruolo importante ed irrinunciabile nella sicurezza antincendio, ma diversi fattori sul piano normativo e strutturale limitano la loro potenzialità nelle fasi di estinzione dell'incendio. Ma in che modo si è evoluta in Italia negli ultimi anni la lotta all'incendio? E' ormai noto che non esistono incendi standard, quelli per i quali è possibile definire procedure d'intervento e modalità di estinzione; non è quindi banale identificare le portate antincendio necessarie (Needed Fire Flow) e il tempo per il quale esse devono essere garantite. In certi contesti è possibile ipotizzare un certo standard d'incendio ma ciò presuppone che edifici, strutture e tutto ciò che è sottoposto ad incendio, possano essere considerati fabbricati a "regola d'arte", ovvero realizzati attraverso procedure esecutive aventi standard di qualità certificata. Ciò è stato affrontato nei criteri di realizzazione delle nuove costruzioni, ma le vecchie costruzioni, soprattutto gli edifici presenti nei centri storici, sono evidentemente più vulnerabili e sfuggono alla possibilità di identificare affidabili valori del NFF. Il quadro che si presenta coinvolge quindi carenze normative, contesti urbani con differente vulnerabilità e una sostanziale disomogeneità prestazionale delle reti di distribuzione idrica presenti nel territorio nazionale, legata non solo alla disponibilità idrica ma, anche e soprattutto, alla conformazione della rete, ai livelli di pressione ed alla specifica capacità della rete nel sostenere incrementi di flusso dovuto al prelievo dagli idranti stradali. La scarsa conoscenza di questi aspetti, piuttosto che tradursi in miglioramenti della rete idrica e della sua efficienza ai fini antincendio, ha portato nel tempo ad adottare soluzioni alternative che agiscono principalmente sulle modalità operative di utilizzo dei mezzi dei VV.F. e sul fronte dei dispositivi antincendio privati, quali una migliore protezione passiva, legata all'uso di materiali la cui risposta all'incendio fosse la minore possibile, e protezioni attive alternative, quali impianti sprinkler, di tipo aerosol o misti. Rimangono tutte le problematiche legate alla caratterizzazione nell'area urbanizzata in termini di risposta al prelievo per incendio dagli idranti pubblici sui quali la normativa vigente non impone regole circa le prestazioni e la loro dislocazione sul territorio. Questa incertezza spesso si traduce in un maggiore dispiego di mezzi rispetto all'entità dell'incendio ed ad una scarsa possibilità di ottimizzare l'allocazione delle unità operative dei VV.F., con un evidente incremento del rischio nel caso in cui si verifichino più eventi di incendio contemporaneamente. La simulazione numerica avanzata, su modelli opportunamente calibrati delle reti di distribuzione, può consentire una maggiore comprensione quantitativa del livello di sicurezza antincendio offerto da una rete di distribuzione idrica.