801 resultados para Bioingegneria, Modelli matematici, Volume del liquido interstiziale
Resumo:
L’esigenza di affrontare la questione della tutela del mare dalle diverse fonti di inquinamento si è posta con forza soprattutto a partire al 1970, in parallelo con l’affinamento della sensibilità ambientale a fronte del crescente processo di industrializzazione in atto in tutto il mondo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle convenzioni e dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per tutti i comparti ambientali ed anche per il mare e, conseguentemente, anche l’assenza di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque marine ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa.
Resumo:
L’oggetto della nostra ricerca è l’opinione pubblica e il comportamento dell’elettore in una prospettiva comparata. L’obiettivo della ricerca è stato analizzare la relevanza degli approcci psicologici per una migliore comprensiore della partecipazione politica, delle opinioni e delle scelte elettorali degli studenti Italiani e Bielorussi. Nella parte teorica, noi discutiamo i modelli dell'approccio cognitivo al comportamento di voto. Discutiamo inoltre il concetto dello stile cognitivo e le sue cinque categorie: stile sintetico, idealistico, pragmatico, analitico o realistico, come descritti da A.Harrison and R.M. Branson e adattati da A. Alexeev and L. Gromova. Nonostante il fatto che la ricerca tratta il caso degli studenti, noi crediamo che i risultati siano pertinenti per un’ulteriore ricerca dell’auditorio più vasto e variegato.
Resumo:
L'obiettivo della ricerca è di compiere un'analisi dell'impatto della cosiddetta cultura "open" alla luce dell'attuale condizione del World Wide Web. Si prenderà in considerazione, in particolare, la genesi del movimento a partire dalle basi di cultura hacker e la relativa evoluzione nella filosofia del software libero, con il fine ultimo di identificare il ruolo attuale del modello open source nello scenario esistente. L'introduzione al concetto di Open Access completerà la ricerca anche considerando la recente riaffermazione della conoscenza come bene comune all'interno della Società dell'Informazione
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
Obiettivo: Il nostro obiettivo è stato quello di confrontare la tomoterapia (HT) e la protonterapia ad intensità modulata (IMPT) nel trattamento del tumore prostatico, seguendo un protocollo di boost simultaneo (SIB) e moderatamente ipofrazionato. Materiali e metodi: Abbiamo selezionato 8 pazienti, trattati con HT e abbiamo rielaborato i piani con 2 campi IMPT. La dose prescritta è stata di 74 Gy sul PTV1 (prostata e vescicole seminali prossimali), 65.8 Gy sul PTV2 (vescicole seminali distali) e 54 Gy sul PTV3 (linfonodi pelvici). Risultati: Sia con IMPT che con HT abbiamo ottenuto una copertura e una omogeneità di dose del target sovrapponibile. Oltre i 65 Gy, HT e IMPT erano equivalenti per il retto, mentre con l’IMPT c’era maggior risparmio della vescica e del bulbo penieno da 0 a 70 Gy. Da 0 fino a 60 Gy, i valori dosimetrici dell’IMPT erano molto più bassi per tutti gli organi a rischio (OARs), eccetto che per le teste femorali, dove la HT aveva un vantaggio dosimetrico rispetto all’IMPT nel range di dose 25-35 Gy. La dose media agli OARs era ridotta del 30-50% con l’IMPT. Conclusioni: Con le due tecniche di trattamento (HT e IMPT) si ottiene una simile distribuzione di dose nel target. Un chiaro vantaggio dosimetrico dell’IMPT sul HT è ottenuto dalle medie e basse dosi. Le attuali conoscenze sulle relazioni dose-effetto e sul risparmio delle madie e basse dosi con l’IMPT non sono ancora state quantificate dal punto di vista clinico.
Resumo:
This thesis investigates two distinct research topics. The main topic (Part I) is the computational modelling of cardiomyocytes derived from human stem cells, both embryonic (hESC-CM) and induced-pluripotent (hiPSC-CM). The aim of this research line lies in developing models of the electrophysiology of hESC-CM and hiPSC-CM in order to integrate the available experimental data and getting in-silico models to be used for studying/making new hypotheses/planning experiments on aspects not fully understood yet, such as the maturation process, the functionality of the Ca2+ hangling or why the hESC-CM/hiPSC-CM action potentials (APs) show some differences with respect to APs from adult cardiomyocytes. Chapter I.1 introduces the main concepts about hESC-CMs/hiPSC-CMs, the cardiac AP, and computational modelling. Chapter I.2 presents the hESC-CM AP model, able to simulate the maturation process through two developmental stages, Early and Late, based on experimental and literature data. Chapter I.3 describes the hiPSC-CM AP model, able to simulate the ventricular-like and atrial-like phenotypes. This model was used to assess which currents are responsible for the differences between the ventricular-like AP and the adult ventricular AP. The secondary topic (Part II) consists in the study of texture descriptors for biological image processing. Chapter II.1 provides an overview on important texture descriptors such as Local Binary Pattern or Local Phase Quantization. Moreover the non-binary coding and the multi-threshold approach are here introduced. Chapter II.2 shows that the non-binary coding and the multi-threshold approach improve the classification performance of cellular/sub-cellular part images, taken from six datasets. Chapter II.3 describes the case study of the classification of indirect immunofluorescence images of HEp2 cells, used for the antinuclear antibody clinical test. Finally the general conclusions are reported.
Resumo:
Le scelte di asset allocation costituiscono un problema ricorrente per ogni investitore. Quest’ultimo è continuamente impegnato a combinare diverse asset class per giungere ad un investimento coerente con le proprie preferenze. L’esigenza di supportare gli asset manager nello svolgimento delle proprie mansioni ha alimentato nel tempo una vasta letteratura che ha proposto numerose strategie e modelli di portfolio construction. Questa tesi tenta di fornire una rassegna di alcuni modelli innovativi di previsione e di alcune strategie nell’ambito dell’asset allocation tattica, per poi valutarne i risvolti pratici. In primis verificheremo la sussistenza di eventuali relazioni tra la dinamica di alcune variabili macroeconomiche ed i mercati finanziari. Lo scopo è quello di individuare un modello econometrico capace di orientare le strategie dei gestori nella costruzione dei propri portafogli di investimento. L’analisi prende in considerazione il mercato americano, durante un periodo caratterizzato da rapide trasformazioni economiche e da un’elevata volatilità dei prezzi azionari. In secondo luogo verrà esaminata la validità delle strategie di trading momentum e contrarian nei mercati futures, in particolare quelli dell’Eurozona, che ben si prestano all’implementazione delle stesse, grazie all’assenza di vincoli sulle operazioni di shorting ed ai ridotti costi di transazione. Dall’indagine emerge che entrambe le anomalie si presentano con carattere di stabilità. I rendimenti anomali permangono anche qualora vengano utilizzati i tradizionali modelli di asset pricing, quali il CAPM, il modello di Fama e French e quello di Carhart. Infine, utilizzando l’approccio EGARCH-M, verranno formulate previsioni sulla volatilità dei rendimenti dei titoli appartenenti al Dow Jones. Quest’ultime saranno poi utilizzate come input per determinare le views da inserire nel modello di Black e Litterman. I risultati ottenuti, evidenziano, per diversi valori dello scalare tau, extra rendimenti medi del new combined vector superiori al vettore degli extra rendimenti di equilibrio di mercato, seppur con livelli più elevati di rischio.
Resumo:
Il presente lavoro analizza il ruolo ricoperto dal legislatore e dalla pubblica amministrazione rispettivamente nel delineare e attuare politiche pubbliche volte alla promozione di modelli di sviluppo economico caratterizzati da un elevato tasso di sostenibilità ambientale. A tal fine, il lavoro è suddiviso in quattro capitoli. Nel primo capitolo vengono presi in considerazione i principali elementi della teoria generale che costituiscono i piani di lettura del tema trattato. Questa prima fase della ricerca è incentrata, da un lato, sull’analisi (storico-evolutiva) del concetto di ambiente alla luce della prevalente elaborazione giuridica e, dall’altro, sulla formazione del concetto di sviluppo sostenibile, con particolare riguardo alla sua declinazione in chiave ambientale. Nella parte centrale del lavoro, costituita dal secondo e dal terzo capitolo, l’analisi è rivolta a tre settori d’indagine determinanti per l’inquadramento sistematico delle politiche pubbliche del settore: il sistema di rapporti che esiste tra i molteplici soggetti (internazionali, nazionali e locali) coinvolti nella ricerca di soluzioni alla crisi sistemica ambientale; l’individuazione e la definizione dell’insieme dei principi sostanziali che governano il sistema di tutela ambientale e che indirizzano le scelte di policy nel settore; i principali strumenti (giuridici ed economici) di protezione attualmente in vigore. Il quarto ed ultimo capitolo prende in considerazione le politiche relative alle procedure di autorizzazione alla costruzione e all’esercizio degli impianti per la produzione di energia alimentati da fonti energetiche rinnovabili, analizzate quale caso specifico che può essere assunto a paradigma del ruolo ricoperto dal legislatore e dalla pubblica amministrazione nel settore delle politiche di sviluppo sostenibile. L’analisi condotta mostra un elevato tasso di complessità del sistema istituzionale e organizzativo, a cui si aggiungono evidenti limiti di efficienza per quanto riguarda il regime amministrativo delle autorizzazioni introdotto dal legislatore nazionale.
Resumo:
La tesi affronta il tema degli istituti e degli strumenti di tutela della condizione di disoccupazione. In mancanza d’una nozione giuridica generale di disoccupazione, l’obiettivo è quello di ricercare gli elementi comuni ai differenti istituti in grado di definire l’ambito della protezione garantita alla persona priva d’impiego. Lo studio fornisce, dapprima, una complessiva ricognizione storico-critica degli strumenti per il sostegno del reddito nelle ipotesi di mancanza di lavoro. L’esame dei modelli d’intervento legislativo evidenzia finalità, caratteristiche e criticità dei singoli istituti, sia di quelli più consolidati, che degli interventi più recenti. La seconda parte della tesi si propone d’integrare la ricognizione delle forme di tutela economica con l’analisi delle politiche attive nel mercato del lavoro e degli interventi a sostegno all’occupabilità. L’intento è di verificare le modalità attraverso le quali l’ordinamento tenta di collegare tutela del reddito e promozione dell’occupazione. La ricerca affronta anche la questione dei limiti alla libertà di circolazione nell’Unione Europea dei cittadini non lavoratori, nonché il condizionamento determinato dalle misure che riducono o scoraggiano l’esportabilità delle prestazioni previdenziali negli altri Paesi europei. La parte finale si propone d’individuare gli elementi che caratterizzano il complesso degli istituti analizzati, al fine di verificare a quale evento giuridico l’ordinamento offra protezione. Lo studio identifica due elementi rilevanti: la condizione di “mancanza di lavoro”, che accomuna l’intervento per la disoccupazione e quello a favore dei rapporti di lavoro sospesi, nonché l’attualità dello stato di disoccupazione, parametro generale per gli interventi protettivi. L’analisi svolta sottolinea, però, che i meccanismi di c.d. condizionalità per l’accesso alle prestazioni economiche e ai servizi per l’impiego non consentono un’adeguata promozione della qualità del lavoro e della professionalità del lavoratore. La tesi individua un possibile terreno di sviluppo della protezione della condizione del disoccupato nell’integrazione tra strumenti di sostegno all’impiego e interventi a base universalistica.
Resumo:
I vegetali appartenenti alla famiglia delle Brassicaceae, sono ricchi di molecole biologicamente attive note per le numerose proprietà salutari. L’effetto di un estratto di germogli di cavolo nero toscano (TBCSE) è stato investigato, in termini chemiopreventivi, sugli enzimi epatici del metabolismo degli xenobiotici e antiossidanti, in ratti trattati con TBCSE. I risultati hanno mostrato un complesso pattern di modulazione, con una prevalente inibizione, del sistema citocromo P450-dipendente, e induzioni significative degli enzimi di fase II (glutatione transferasi e glucuronosiltransferasi) e antiossidanti (catalasi, NAD(P)H:chinone reduttasi, glutatione reduttasi e perossidasi). Successivamente, l’effetto di TBCSE è stato studiato nei confronti delle alterazioni provocate da un’alimentazione iperlipidica nel ratto. Il trattamento si è dimostrato efficace nel contrastare gli effetti deleteri dei grassi presenti nella dieta, come l’iperlipidemia, l’aumento del peso corporeo e del fegato, l’indebolimento delle attività degli enzimi antiossidanti e del potenziale detossificante a livello epatico. Complessivamente, TBCSE emerge essere un promettente prodotto nutraceutico con potenziali effetti chemiopreventivi, e da impiegare come strategia alimentare per contrastare gli effetti correlati ad una dieta iperlipidica. Il consumo di dosi sovralimentari di molecole isolate dalle Brassicaceae, tramite per esempio integratori dietetici, come strategia alimentare preventiva, potrebbe tuttavia rappresentare un rischio per la salute. La potenziale tossicità del sulforafane, glucorafanina, indolo-3-carbinolo, e 3,3'-diindolimetano, è stata valutata in epatociti primari di ratto. La citotossicità e l’induzione di stress ossidativo, osservate a concentrazioni non lontane da quelle che potrebbero essere raggiunte in vivo, insieme ad una forte modulazione dell’espressione genica, riguardante principalmente il metabolismo degli xenobiotici, risposte ad alterazioni dello stato ossidoredutivo, eventi di riparazione del DNA e di proteine, induzione dell’apoptosi, e meccanismi (co)cancerogeni, sottolineano la potenzialità di queste molecole di determinare un rischio tossicologico, in seguito ad un’assunzione prolungata e ad alte dosi.
Resumo:
Il presente lavoro, senza alcuna pretesa di esaustività, ha inteso ricostruire il quadro normativo relativo alla disciplina dell’autotrasporto merci su strada. In primis, ci si è soffermata sugli aspetti generali del settore, approfondendo, in seguito, la normativa europea e nazionale. Tale excursus, ha permesso di riscontrare i molteplici interventi legislativi susseguitisi in ambito di regolamentazione dell’autotrasporto merci su strada, evidenziando i passaggi più significativi in tema di riordino della disciplina. Si è pertanto proceduto all’analisi del primo importante intervento legislativo del settore, intercorso ad opera della Legge n. 298/1974, disciplinante gli aspetti di natura pubblicistica del settore. Tale provvedimento, ha un apposito Albo Nazionale per gli autotrasportatori di merci per conto terzi, identificando i requisiti necessari per l’accesso al mercato e l’esercizio della professione di autotrasportatore di cose in conto terzi. Importati novità vengono introdotte con il D.lgs. 286/2005, provvedimento che ha portato al raggiungimento del processo di liberalizzazione del mercato. Successivamente si è proceduto a riscontrare l’intensa produzione normativa, posta a regolamentazione del settore, che nella ricerca di un equilibrio tra esigenze di mercato e corretto esercizio dell’attività di autotrasporto, si propone di addivenire al raggiungimento degli obiettivi comunitari di armonizzazione della disciplina e qualificazione del settore dell’autotrasporto. Significativi, in tal senso, i recenti interventi di riforma posti in essere con il “Pacchetto comunitario del 21 ottobre 2009” ( Regolamento (CE) 1071/2009 e Regolamento (CE) 1072/2009. Da ultimo, al fine di verificare le eventuali debolezze del sistema normativo vigente, in relazione al raggiungimento degli obiettivi comunitari suesposti, si è ritenuto di indirizzare la ricerca verso un’attenta valutazione dell’efficienza dei modelli di trasporto merci su strada, verificandone l’impatto in termini di maggior incidenza sui costi esterni derivanti dal trasporto. A tal proposito, particolare attenzione è stata rivolta anche alla disciplina del trasporto in conto proprio.
Resumo:
I test clinici e i questionari generalmente non sono in grado di fornire una valutazione predittiva e quantitativa della stabilità motoria. Permettono al clinico di esaminare la forza muscolare del paziente, il grado di spasticità, la funzionalità motoria e l'autonomia nello svolgimento delle normali attività, ma non di capire quanto il soggetto sia stabile. Sono stati esaminati diciotto pazienti con esiti di stroke in fase post acuta ed il 38% ha affermato di essere caduto almeno una volta nell'arco degli ultimi dodici mesi. Adottando una politica di prevenzione delle cadute si potrebbero limitare questi eventi che vanno ad aggravare un quadro clinico già compromesso. Per tale motivo sono attualmente oggetto di studio misure biomeccaniche, eseguite in laboratorio, atte a definire metodi con alta sensibilità e specificità per la valutazione della stabilità del cammino. Nel presente lavoro le misure strumentali sono state ottenute partendo dal segnale di accelerazione del centro di massa corporeo. Servendosi di un'unità inerziale munita di accelerometro triassiale è stato possibile, durante il cammino, ricavare l'andamento delle accelerazioni antero-posteriore, medio-laterale e verticale. Grazie ad un algoritmo, messo a punto nel Laboratorio di Bioingegneria della Facoltà di Cesena dall'Ing. Federico Riva, sono stati estrapolati gli indici strumentali. Il corpo centrale di questa tesi consiste nell'analisi statistica condotta tramite modelli di regressione lineare che mettono in correlazione parametri clinici (acquisiti per mezzo di test e questionari) abitualmente usati in ospedale e indici strumentali.
Resumo:
I crescenti volumi di traffico che interessano le pavimentazioni stradali causano sollecitazioni tensionali di notevole entità che provocano danni permanenti alla sovrastruttura. Tali danni ne riducono la vita utile e comportano elevati costi di manutenzione. Il conglomerato bituminoso è un materiale multifase composto da inerti, bitume e vuoti d'aria. Le proprietà fisiche e le prestazioni della miscela dipendono dalle caratteristiche dell'aggregato, del legante e dalla loro interazione. L’approccio tradizionalmente utilizzato per la modellazione numerica del conglomerato bituminoso si basa su uno studio macroscopico della sua risposta meccanica attraverso modelli costitutivi al continuo che, per loro natura, non considerano la mutua interazione tra le fasi eterogenee che lo compongono ed utilizzano schematizzazioni omogenee equivalenti. Nell’ottica di un’evoluzione di tali metodologie è necessario superare questa semplificazione, considerando il carattere discreto del sistema ed adottando un approccio di tipo microscopico, che consenta di rappresentare i reali processi fisico-meccanici dai quali dipende la risposta macroscopica d’insieme. Nel presente lavoro, dopo una rassegna generale dei principali metodi numerici tradizionalmente impiegati per lo studio del conglomerato bituminoso, viene approfondita la teoria degli Elementi Discreti Particellari (DEM-P), che schematizza il materiale granulare come un insieme di particelle indipendenti che interagiscono tra loro nei punti di reciproco contatto secondo appropriate leggi costitutive. Viene valutata l’influenza della forma e delle dimensioni dell’aggregato sulle caratteristiche macroscopiche (tensione deviatorica massima) e microscopiche (forze di contatto normali e tangenziali, numero di contatti, indice dei vuoti, porosità, addensamento, angolo di attrito interno) della miscela. Ciò è reso possibile dal confronto tra risultati numerici e sperimentali di test triassiali condotti su provini costituiti da tre diverse miscele formate da sfere ed elementi di forma generica.
Resumo:
Obiettivo della tesi è quello di effettuare una panoramica sull'evoluzione del modello Windkessel fino al modello a quattro elementi. In seguito si ha un analisi del comportamento dei modelli WK alternativi relativamente ad un campione di soggetti in età pediatrica confrontati con altri in età adulta.
Resumo:
Utilizzo di un modello matematico monocompartimentale per simulare la cinetica del sodio in sedute di dialisi (HD e HDF on-line) che prevedono l'utilizzo del sistema Hemocontrol, quindi quantificare le prestazioni di tale modello per evidenziarne limiti ed adeguatezza in alternativa all'utilizzo di modelli bicompartimentali più complessi.