938 resultados para Strutture di rete lobbying Stati Uniti


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi sono stati affrontati argomenti relativi ai due principali sistemi di allevamento avicolo nel territorio nazionale; l’allevamento effettuato con sistema intensivo e quello attuato con sistema alternativo. Questi due tipi di sistemi sono stati messi a confronto. Inizialmente sono state riportate informazioni sulle attuali normative comunitarie che regolano il commercio e la produzione della carne avicola; di seguito sono stati riportati dati statistici riguardanti la produzione e la commercializzazione di questo prodotto sia a livello nazionale, che a livello globale. Per ognuno dei due tipi di allevamento sono stati approfonditi aspetti riguardanti le caratteristiche qualitative della carne avicola, in particolare riferimenti sulla composizione chimica, sul valore nutritivo e sugli indici di qualità. Sono state prese in esame anche le caratteristiche proprie di ogni tipo di allevamento, come la tecnica e la gestione d’allevamento, e per ognuno di essi sono state riportate le principali differenze che caratterizzano questi due diversi sistemi di allevamento. Successivamente per ognuno dei due sistemi, sono state riportate le principali problematiche igienico-sanitarie, fra cui diverse patologie, tecnopatie, e parassitosi riscontrate sia in fase di allevamento, che in fase di macellazione e commercializzazione. Infine è stata fatta un’analisi comparativa nella quale sono stati messi a confronto i due sistemi di allevamento e nella quale sono stati riportati i metodi e i suggerimenti di riduzione del rischio microbiologico e sanitario in fase di allevamento e di macellazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’incendio raramente è un fatto naturale, nasce pertanto dalla volontà o dalla negligenza dell’uomo: opera di mani quasi sempre sconosciute, per cui le comunicazioni di reato restano spesso correlate contro ignoti. Questo fa si che la diagnosi sulle cause, dolose e colpose, relative al singolo evento fornisca indicazioni utili sull’origine dell’incendio, tuttavia questo non incide sui comportamenti futuri, se non in termini di repressione e dissuasione, e soprattutto non mette a ‘fuoco’ le cause sociali interne ai sistemi locali e di contesto. Chiunque appicchi un fuoco può essere definibile come incendiario. I maggiori studi, nonché i più completi, nel campo del crimine collegato al fuoco sono stati svolti negli Stati Uniti, da unità speciali dell’FBI appositamente predisposte. Le osservazioni effettuate sulle attività criminali degli incendiari hanno evidenziato che quanto più è organizzata la scena dell’incendio e studiata la tecnica dell’innesco del fuoco, tanto più l’autore è razionale e finalizzato da propri interessi materiali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I mondi di Smart City e Internet-of-Things si stanno ampliando notevolmente grazie all'evoluzione continua delle tecnologie. Tuttavia risultano escluse dall'ambito di interesse le zone rurali e decentralizzate perché spesso prive di un'infrastruttura di rete ben definita. A fronte di questo problema, i dispositivi che si trovano in queste zone potrebbero auto-organizzarsi per comunicare instaurando collegmenti di tipo peer-to-peer e utilizzando protocolli di disseminazione di informazioni basati su gossip. In questa tesi sono trattate le seguenti questioni e mediante alcune simulazioni al calcolatore sono riprodotti alcuni scenari per valutare le prestazioni degli algoritmi di Gossip with Fixed Probability e Conditional Broadcast e la diffusione delle informazioni tra i nodi all'interno di una rete creata in maniera opportunistica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un problema fondamentale nello studio delle particelle elementari è disporre di misure più accurate possibile delle traiettorie che queste seguono all'interno dei rivelatori. La precisione di misura dei parametri di traccia è importante per poter descrivere accuratamente gli eventi e le interazioni che avvengono all'interno dei rivelatori. LHCb è un esempio di esperimento progettato con lo scopo di ottenere misure di precisione dei parametri della cinematica delle particelle per poter studiare la violazione delle simmetrie. Rivelatori come quello dell'esperimento LHCb utilizzano avanzate tecniche di tracciamento per individuare le traiettorie. Queste sono influenzate da fattori di rumore dovuti all'interazione tra le particelle e il materiale del rivelatore stesso. Nell'analisi delle misure effettuate quindi occorre tenere conto che sia la sensibilità del rivelatore che i fattori di rumore contribuiscono nella determinazione dell'incertezza sulla misura. Uno strumento matematico usato per ottenere precise stime dei parametri di traccia è il filtro di Kalman, che implementato su un campione di misure di una determinata grandezza, consente di minimizzare gli effetti dovuti a rumori statistici. In questo lavoro di tesi sono stati studiati la struttura e il funzionamento del rivelatore dell'esperimento LHCb e dei sistemi di tracciamento che lo caratterizzano e che ne costituiranno il futuro aggiornamento. Inoltre è stata analizzata l'azione del filtro di Kalman, implementandolo in una simulazione di tracciamento al calcolatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi in oggetto è stata svolta presso la Galletti spa. L'obiettivo iniziale era quello di studiare un percorso all'interno dello stabilimento produttivo al fine di enfatizzare le peculiarità della produzione tenendo conto dei fattori riguardanti la sicurezza. E' stata inoltre realizzata, con l'aiuto di una agenzia di comunicazione, una piattaforma di comunicazione. Analizzando il processo produttivo è emersa un'ulteriore problematica: l'elevata quantità di work in progress stoccati a bordo linea. In particolare, in questa tesi è stata fatta un'analisi preliminare circa una linea di produzione. Sono stati analizzati, in termini di quantità, i prodotti che vengono assemblati in essa, e i codici dei semilavorati utili. In seguito sono state studiate le operazioni che vengono svolte in ogni postazione di lavoro e, in funzione del ciclo di lavoro gli sono stati assegnati i codici dei semilavorati. L'analisi si è conclusa studiando i consumi medi. Le prossime fasi dell'analisi prevedono lo studio dei volumi dei codici e di conseguenza la definizione delle aree di stoccaggio e lo studio dei lotti di produzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi verranno trattati sia il problema della creazione di un ambiente di simulazione a domini fisici misti per dispositivi RF-MEMS, che la definizione di un processo di fabbricazione ad-hoc per il packaging e l’integrazione degli stessi. Riguardo al primo argomento, sarà mostrato nel dettaglio lo sviluppo di una libreria di modelli MEMS all’interno dell’ambiente di simulazione per circuiti integrati Cadence c . L’approccio scelto per la definizione del comportamento elettromeccanico dei MEMS è basato sul concetto di modellazione compatta (compact modeling). Questo significa che il comportamento fisico di ogni componente elementare della libreria è descritto per mezzo di un insieme limitato di punti (nodi) di interconnessione verso il mondo esterno. La libreria comprende componenti elementari, come travi flessibili, piatti rigidi sospesi e punti di ancoraggio, la cui opportuna interconnessione porta alla realizzazione di interi dispositivi (come interruttori e capacità variabili) da simulare in Cadence c . Tutti i modelli MEMS sono implementati per mezzo del linguaggio VerilogA c di tipo HDL (Hardware Description Language) che è supportato dal simulatore circuitale Spectre c . Sia il linguaggio VerilogA c che il simulatore Spectre c sono disponibili in ambiente Cadence c . L’ambiente di simulazione multidominio (ovvero elettromeccanico) così ottenuto permette di interfacciare i dispositivi MEMS con le librerie di componenti CMOS standard e di conseguenza la simulazione di blocchi funzionali misti RF-MEMS/CMOS. Come esempio, un VCO (Voltage Controlled Oscillator) in cui l’LC-tank è realizzato in tecnologia MEMS mentre la parte attiva con transistor MOS di libreria sarà simulato in Spectre c . Inoltre, nelle pagine successive verrà mostrata una soluzione tecnologica per la fabbricazione di un substrato protettivo (package) da applicare a dispositivi RF-MEMS basata su vie di interconnessione elettrica attraverso un wafer di Silicio. La soluzione di packaging prescelta rende possibili alcune tecniche per l’integrazione ibrida delle parti RF-MEMS e CMOS (hybrid packaging). Verranno inoltre messe in luce questioni riguardanti gli effetti parassiti (accoppiamenti capacitivi ed induttivi) introdotti dal package che influenzano le prestazioni RF dei dispositivi MEMS incapsulati. Nel dettaglio, tutti i gradi di libertà del processo tecnologico per l’ottenimento del package saranno ottimizzati per mezzo di un simulatore elettromagnetico (Ansoft HFSSTM) al fine di ridurre gli effetti parassiti introdotti dal substrato protettivo. Inoltre, risultati sperimentali raccolti da misure di strutture di test incapsulate verranno mostrati per validare, da un lato, il simulatore Ansoft HFSSTM e per dimostrate, dall’altro, la fattibilit`a della soluzione di packaging proposta. Aldilà dell’apparente debole legame tra i due argomenti sopra menzionati è possibile identificare un unico obiettivo. Da un lato questo è da ricercarsi nello sviluppo di un ambiente di simulazione unificato all’interno del quale il comportamento elettromeccanico dei dispositivi RF-MEMS possa essere studiato ed analizzato. All’interno di tale ambiente, l’influenza del package sul comportamento elettromagnetico degli RF-MEMS può essere tenuta in conto per mezzo di modelli a parametri concentrati (lumped elements) estratti da misure sperimentali e simulazioni agli Elementi Finiti (FEM) della parte di package. Infine, la possibilità offerta dall’ambiente Cadence c relativamente alla simulazione di dipositivi RF-MEMS interfacciati alla parte CMOS rende possibile l’analisi di blocchi funzionali ibridi RF-MEMS/CMOS completi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

SCOPO DELLA RICERCA Aedes albopictus è diventata in pochi anni dalla sua introduzione in Italia la specie di zanzara più nociva e più importante sotto il profilo sanitario. Essendo una zanzara tipicamente urbana e ad attività diurna, limita fortemente la fruizione degli spazi aperti ed incide negativamente su alcune attività economiche. Il recente episodio epidemico di Chikungunya, che ha colpito il nostro Paese, ha allarmato le autorità sanitarie nazionali ed europee che stanno attivando misure di prevenzione e contrasto per fronteggiare il rischio che il virus diventi endemico o che altri virus possano essere introdotti nelle nostre aree. Le misure di lotta contro Aedes albopictus attualmente in essere (lotta larvicida, rimozione dei microfocolai, informazione e coinvolgimento dei cittadini) non danno risultati sufficienti in termini di capacità di contenimento delle densità del vettore. Per questo è stato avviato un progetto di ricerca centrato sull'applicazione del metodo dell'autocidio a questa specie. L’attività di ricerca svolta ha avuto come scopo la messa a punto delle metodiche di allevamento massale e di sterilizzazione in grado di permettere la produzione di maschi di qualità sufficiente a garantire una buona fitness nelle condizioni di campo e competitività coi maschi selvatici nella fase di accoppiamento. Le prove condotte possono essere raggruppate sotto tre principali campi di indagine: Prove di allevamento, Prove di Irraggiamento e Prove di Competizione. 1. Prove di allevamento In questo ambito sono state esaminate nuove diete larvali al fine di ottenere una più elevata produttività in termini di pupe con tempi di impupamento e dimensioni delle pupe più omogenei. È stata inoltre valutata la possibile reazione fagostimolante dell’ATP addizionato al pasto di sangue delle femmine adulte con lo scopo di incrementare la produttività di uova prodotte dai ceppi di Ae.albopictus in allevamento. 2. Prove di irraggiamento Attraverso prove di laboratorio sono stati investigati in gabbia gli effetti sterilizzanti di diverse dosi radianti (20 - 85 Gy) sulle pupe maschio di Ae. albopictus per la valutazione dei livelli di sterilità, fertilità e fecondità indotti sulle femmine. Si sono compiute inoltre indagini per valutare eventuali alterazioni dello stato fisiologico dei maschi irraggiati e dei livelli di sterilità indotti su femmine, in funzione dell’età pupale alla quale venivano sottoposti a radiazioni. Analisi degli effetti delle radiazioni sui tempi di rotazione genitale, sulla velocità ed efficacia degli accoppiamenti e sui tempi di sfarfallamento degli adulti sono state condotte su maschi irraggiati a diverse dosi. Infine su femmine di Ae. albopictus si sono realizzate prove in gabbia per lo studio dei tempi di recettività all'accoppiamento. Prove di competizione L'effetto negativo della colonizzazione in condizioni artificiali e l'irraggiamento sono riconosciuti come i fattori principali che incidono sulla competitività dei maschi sterilizzati nei confronti di quelli fertili. Per la verifica della variazione di fitness dovuta a imbreeding ed eterosi, prove di competizione in serra (7,5 x 5 x 2,80 m) sono state realizzate impiegando ceppi allevati in laboratorio, ceppi selvatici raccolti in campo e ceppi ibridi ottenuti incrociando diversi ceppi di laboratorio. RISULTATI 1. Prove di allevamento Sono state confrontate la dieta standard (DS = 2,5 mg/larva Friskies Adult ® + 0,5 mg/larva lievito di birra) e la nuova dieta integrata addizionata di Tetramin ® (DI = DS + 0,2 mg/larva Tetramin ®) per l’alimentazione delle larve in allevamento. Le prove condotte hanno evidenziato una buona risposta nelle percentuali di impupamento e di produttività in termini di pupe per la nuova dieta senza però evidenziare miglioramenti significativi con la DS. Con la dieta integrata si ottiene un impupamento a 7 giorni del 66,6% delle larve allevate (65% con la DS) e il setacciamento a 1400 μm delle pupe ottenute produce in media il 98,3% di maschi nel setacciato (98,5% con la DS). Con la dieta standard la percentuale di maschi ottenuti sulle larve iniziali è pari a 27,2% (20-25% con la DS). Come riportato da Timmermann e Briegel (1999) la dieta delle larve va strutturata con l’obiettivo di garantire un ampio range di elementi nutritivi evitando così il rischio di carenze o sub-carenze che possano influire negativamente sulla produttività dell’allevamento e sulle condizioni di vigore dei maschi. Secondo Reisen (1980, 1982), l’influenza negativa dell’allevamento sulla competitività dei maschi nella fase di accoppiamento potrebbe essere di maggiore peso rispetto all’influenza dell’irraggiamento dei maschi. Infine le prove di laboratorio condotte per la verifica dell’efficacia fagostimolante di ATP nel pasto di sangue offerto alle femmine dell’allevamento non hanno evidenziato differenze significative in nessuno dei parametri considerati tra il campione nutrito con ATP e il testimone. Nella realizzazione di allevamenti massali per la produzione di maschi da irraggiare, si ritiene quindi opportuno mantenere la nuova dieta testata che garantisce una spettro nutritivo più ampio e completo alle larve in allevamento. L’aggiunta di ATP nel pasto di sangue delle femmine adulte non sarà impiegato in quanto troppo costoso e significativamente poco produttivo nel garantire un aumento del numero di uova prodotte. 2. Prove di irraggiamento Oltre alla sopravvivenza e alla sterilità, la scelta dello stadio di sviluppo più conveniente da irraggiare in un programma SIT dipende dalla possibilità di maneggiare in sicurezza grandi quantità di insetti senza danneggiarli durante tutte le fasi che intercorrono tra l’allevamento massale, l’irraggiamento e il lancio in campo. La fase pupale risulta sicuramente più vantaggiosa per il maggior numero di pupe irraggiabili per unità di volume e per il minimo danneggiamento arrecabile all'insetto che viene mantenuto in acqua durante tutte le procedure. La possibilità di lavorare con la minima dose radiante efficace, significa ridurre lo stress provocato inevitabilmente alle pupe maschio, che si manifesta nell’adulto con una ridotta longevità, una diminuita capacità di accoppiamento o di ricerca del partner e attraverso possibili alterazioni comportamentali che possono rendere il maschio inattivo o inefficace una volta introdotto in campo. I risultati ottenuti sottoponendo pupe maschili a irraggiamento a differenti ore dall’impupamento evidenziano come la maturità del campione influisca sia sulla mortalità delle pupe che sull’efficacia sterilizzante dell’irraggiamento. Come riportato anche da Wijeyaratne (1977) le pupe più vecchie mostrano una minore mortalità e una maggiore sensibilità alle radiazioni rispetto a quelle più giovani. In particolare si è osservato come pupe maschili di età superiore 24h fossero maggiormente sensibili all’irraggiamento riportando minore perdita di competitività rispetto alle pupe irraggiate precocemente. La minore dose impiegata per il raggiungimento della sterilità con minimi effetti sulla longevità dei maschi trattati e con livelli di fecondità e fertilità indotti sulle femmine non differenti dal testimone, corrisponde a 40Gy (Cs 137 - 2,3 Gy/min). Analizzando la sopravvivenza dei maschi, si osserva una tendenza all'aumento della mortalità in funzione dell’aumento della dose fornita per tutte le età pupali di irraggiamento testate. Per trattamenti condotti su pupe di età > 30h la longevità dei maschi non risente dell’irraggiamento fino a dosi di 40Gy. La fecondità delle femmine accoppiatesi con maschi irraggiati con dosi superiori a 40Gy mostra una tendenza alla riduzione del numero di uova prodotte con l’aumentare della dose ricevuta dal maschio. L’irraggiamento delle pupe non determina variazioni significative nei tempi di sfarfallamento degli adulti per le diverse dosi radianti fornite e per le differenti età pupali testate in rapporto al testimone. L’irraggiamento influenza al contrario i tempi di rotazione dei genitali esterni dei maschi evidenziando un ritardo proporzionale alla dose ricevuta. Resta da definire sui maschi irraggiati l’effetto combinato dei due effetti sui tempi di sfarfallamento degli adulti anche se appare chiara l’assenza di variazioni significative per la dose di irraggiamento 40Gy scelta come radiazione utile per la sterilizzazione dei maschi da lanciare in campo. Per quanto riguarda l’analisi dei tempi di accoppiamento dei maschi irraggiati si osserva in generale una minore reattività rispetto ai maschi fertili particolarmente marcata nei maschi irraggiati a dosi superiori i 40 Gy. Gli studi condotti sui tempi di accoppiamento delle femmine evidenziano una buona recettività (>80%) all’accoppiamento solo per femmine di età superiore a 42 - 48 h femmine. Prima di tale periodo la femmina realizza accoppiamenti con normale appaiamento dei due sessi ma non riceve il trasferimento degli spermi. 3. Prove di competizione Prove preliminari di competizione in tunnel svolte nel 2006 su ceppi selvatici e di allevamento avevano mostrato risultati di competitività dei maschi sterili (50 Gy) segnati da forte variabilità. Nel 2007 dopo aver condotto analisi per la verifica dei tempi di sfarfallamento, di accoppiamento e di rotazione genitale nei maschi sterilizzati, e di recettività nelle femmine, sono state realizzate nuove prove. In queste prove maschi adulti di Ae. albopictus irraggiati a 40Gy sono stati posizionati in campo, in ambiente naturale ombreggiato ed isolato, all’interno di serre (8x5x2,8 m) insieme a maschi adulti fertili e femmine vergini di Ae. albopictus con rapporto 1:1:1. Le prove preliminari 2006 erano condotte con le medesime condizioni sperimentali del 2007 ad eccezione dei tempi di inserimento delle femmine vergini passati da 1 giorno nel 2006, a 3 giorni nel 2007 dall’immissione dei maschi in tunnel. Sono state effettuate prove testando la competizione tra esemplari provenienti da ceppi di allevamento (cicli di allevamento in gabbia > 15), ceppi selvatici (da materiale raccolto in campo e con cicli di allevamento in gabbia < 5) e ceppi ibridi (ottenuti dall’incrocio di ceppi italiani di diversa provenienza geografica). I risultati ottenuti mostrano indici di competizioni medi accettabili senza evidenziare differenza fra i ceppi impiegati. L’allevamento massale quindi non deprime i ceppi allevati e gli ibridi realizzati non mostrano una vigoria superiore ne rispetto ai ceppi selvatici ne rispetto agli allevati in laboratorio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ha per obiettivo di quantificare gli effetti che la variabilità spaziale del mezzo poroso ha sull'evoluzione di un sistema geochimico. Le reazioni di dissoluzione o precipiazione di minerali modificano la struttura microscopica del mezzo, e con essa le proprietà idrodinamiche del sistema, la permeabilità in modo particolare. La variabilità spaziale iniziale del mezzo può essere causa della formazione di digitazioni o canalizzazioni? La prima parte della tesi tratta il cambiamento di scala, necessario per passare da una simulazione geostatistica su griglia fine al calcolo di trasporto su una tessellazione più grossolana. Nel caso del codice di calcolo Hytec, che implementa uno schema ai volumi finiti basato su discretizzazione in poligoni di Voronoï, sono stati confrontati diversi metodi di calcolo della permeabilità equivalente, seguendo differenti criteri. La seconda parte riguarda i calcoli di trasporto reattivo condotti su famiglie di simulazioni geostatistiche del mezzo; l'influenza della variabilità spaziale iniziale sull'evoluzione dei sistemi viene quantificata grazie ad opportune grandezze osservabili. Sono state studiate due reazioni distinte: un caso di dissoluzione, in maniera più approfondita, e più rapidamente un caso di precipitazione, il cui effetto complessivo è quello di riequilibrare il sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In un periodo di tre anni è stato svolto un lavoro mirato alla valutazione delle complicanze correlate all’utilizzo dello stenting carotideo. Dopo la preparazione di un protocollo con definizione di tutti i fattori di rischio sono stati individuati i criteri di inclusione ed esclusione attraverso i quali arruolare i pazienti. Da Luglio 2004 a Marzo 2007 sono stati inclusi 298 pazienti e sono state valutate le caratteristiche della placca carotidea, con particolare riferimento alla presenza di ulcerazione e/o di stenosi serrata, la tortuosità dei vasi e il tipo di arco aortico oltre a tutti i fattori di rischio demografici e metabolici. E’ stato valutato quanto e se questi fattori di rischio incrementino la percentuale di complicanze della procedura di stenting carotideo. I pazienti arruolati sono stati suddivisi in due gruppi a seconda della morfologia della placca: placca complicata (placca con ulcera del diametro > di 2 mm e placca con stenosi sub occlusiva 99%) e placca non complicata. I due gruppi sono stati comparati in termini di epidemiologia, sintomatologia neurologica preoperatoria, tipo di arco, presenza di stenosi o ostruzione della carotide controlaterale, tipo di stent e di protezione cerebrale utilizzati, evoluzione clinica e risultati tecnici. I dati sono stati valutati mediante analisi statistica di regressione logistica multipla per evidenziare le variabili correlate con l’insuccesso. Dei 298 pazienti consecutivi sottoposti a stenting, 77 hanno mostrato una placca complicata (25,8%) e 221 una placca non complicata (74,2%). I due gruppi non hanno avuto sostanziali differenze epidemiologiche o di sintomatologia preoperatoria. Il successo tecnico si è avuto in 272 casi (91,2%) e sintomi neurologici post-operatosi si sono verificati in 23 casi (23.3%). Tutti i sintomi sono stati temporanei. Non si sono avute differenze statisticamente significative tra i due gruppi in relazione alle complicanze neurologiche e ai fallimenti tecnici. L’età avanzata è correlata ad un incremento dei fallimenti tecnici. I risultati dello studio portano alla conclusione che la morfologia della placca non porta ad un incremento significativo dei rischi correlati alla procedura di stenting carotideo e che l’indicazione alla CAS può essere posta indipendentemente dalla caratteristica della placca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta l’identificazione delle proprietà dissipative del sistema di collegamento fra nuclei in c.a. e telai metallici, disposto all’interno di una struttura specifica, il corpo ‘D’ dell’Ospedale Maggiore di Bologna. Sviluppa anche la calibrazione delle caratteristiche meccaniche di un sistema sostitutivo del precedente, al fine di ottenere selezionate prestazioni sismiche, sviluppando nel complesso un’innovativa soluzione strutturale che vede il posizionamento di dispositivi dissipativi isteretici tra telai pendolari e strutture di controventamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract. This thesis presents a discussion on a few specific topics regarding the low velocity impact behaviour of laminated composites. These topics were chosen because of their significance as well as the relatively limited attention received so far by the scientific community. The first issue considered is the comparison between the effects induced by a low velocity impact and by a quasi-static indentation experimental test. An analysis of both test conditions is presented, based on the results of experiments carried out on carbon fibre laminates and on numerical computations by a finite element model. It is shown that both quasi-static and dynamic tests led to qualitatively similar failure patterns; three characteristic contact force thresholds, corresponding to the main steps of damage progression, were identified and found to be equal for impact and indentation. On the other hand, an equal energy absorption resulted in a larger delaminated area in quasi-static than in dynamic tests, while the maximum displacement of the impactor (or indentor) was higher in the case of impact, suggesting a probably more severe fibre damage than in indentation. Secondly, the effect of different specimen dimensions and boundary conditions on its impact response was examined. Experimental testing showed that the relationships of delaminated area with two significant impact parameters, the absorbed energy and the maximum contact force, did not depend on the in-plane dimensions and on the support condition of the coupons. The possibility of predicting, by means of a simplified numerical computation, the occurrence of delaminations during a specific impact event is also discussed. A study about the compressive behaviour of impact damaged laminates is also presented. Unlike most of the contributions available about this subject, the results of compression after impact tests on thin laminates are described in which the global specimen buckling was not prevented. Two different quasi-isotropic stacking sequences, as well as two specimen geometries, were considered. It is shown that in the case of rectangular coupons the lay-up can significantly affect the damage induced by impact. Different buckling shapes were observed in laminates with different stacking sequences, in agreement with the results of numerical analysis. In addition, the experiments showed that impact damage can alter the buckling mode of the laminates in certain situations, whereas it did not affect the compressive strength in every case, depending on the buckling shape. Some considerations about the significance of the test method employed are also proposed. Finally, a comprehensive study is presented regarding the influence of pre-existing in-plane loads on the impact response of laminates. Impact events in several conditions, including both tensile and compressive preloads, both uniaxial and biaxial, were analysed by means of numerical finite element simulations; the case of laminates impacted in postbuckling conditions was also considered. The study focused on how the effect of preload varies with the span-to-thickness ratio of the specimen, which was found to be a key parameter. It is shown that a tensile preload has the strongest effect on the peak stresses at low span-to-thickness ratios, leading to a reduction of the minimum impact energy required to initiate damage, whereas this effect tends to disappear as the span-to-thickness ratio increases. On the other hand, a compression preload exhibits the most detrimental effects at medium span-to-thickness ratios, at which the laminate compressive strength and the critical instability load are close to each other, while the influence of preload can be negligible for thin plates or even beneficial for very thick plates. The possibility to obtain a better explanation of the experimental results described in the literature, in view of the present findings, is highlighted. Throughout the thesis the capabilities and limitations of the finite element model, which was implemented in an in-house program, are discussed. The program did not include any damage model of the material. It is shown that, although this kind of analysis can yield accurate results as long as damage has little effect on the overall mechanical properties of a laminate, it can be helpful in explaining some phenomena and also in distinguishing between what can be modelled without taking into account the material degradation and what requires an appropriate simulation of damage. Sommario. Questa tesi presenta una discussione su alcune tematiche specifiche riguardanti il comportamento dei compositi laminati soggetti ad impatto a bassa velocità. Tali tematiche sono state scelte per la loro importanza, oltre che per l’attenzione relativamente limitata ricevuta finora dalla comunità scientifica. La prima delle problematiche considerate è il confronto fra gli effetti prodotti da una prova sperimentale di impatto a bassa velocità e da una prova di indentazione quasi statica. Viene presentata un’analisi di entrambe le condizioni di prova, basata sui risultati di esperimenti condotti su laminati in fibra di carbonio e su calcoli numerici svolti con un modello ad elementi finiti. È mostrato che sia le prove quasi statiche sia quelle dinamiche portano a un danneggiamento con caratteristiche qualitativamente simili; tre valori di soglia caratteristici della forza di contatto, corrispondenti alle fasi principali di progressione del danno, sono stati individuati e stimati uguali per impatto e indentazione. D’altro canto lo stesso assorbimento di energia ha portato ad un’area delaminata maggiore nelle prove statiche rispetto a quelle dinamiche, mentre il massimo spostamento dell’impattatore (o indentatore) è risultato maggiore nel caso dell’impatto, indicando la probabilità di un danneggiamento delle fibre più severo rispetto al caso dell’indentazione. In secondo luogo è stato esaminato l’effetto di diverse dimensioni del provino e diverse condizioni al contorno sulla sua risposta all’impatto. Le prove sperimentali hanno mostrato che le relazioni fra l’area delaminata e due parametri di impatto significativi, l’energia assorbita e la massima forza di contatto, non dipendono dalle dimensioni nel piano dei provini e dalle loro condizioni di supporto. Viene anche discussa la possibilità di prevedere, per mezzo di un calcolo numerico semplificato, il verificarsi di delaminazioni durante un determinato caso di impatto. È presentato anche uno studio sul comportamento a compressione di laminati danneggiati da impatto. Diversamente della maggior parte della letteratura disponibile su questo argomento, vengono qui descritti i risultati di prove di compressione dopo impatto su laminati sottili durante le quali l’instabilità elastica globale dei provini non è stata impedita. Sono state considerate due differenti sequenze di laminazione quasi isotrope, oltre a due geometrie per i provini. Viene mostrato come nel caso di provini rettangolari la sequenza di laminazione possa influenzare sensibilmente il danno prodotto dall’impatto. Due diversi tipi di deformate in condizioni di instabilità sono stati osservati per laminati con diversa laminazione, in accordo con i risultati dell’analisi numerica. Gli esperimenti hanno mostrato inoltre che in certe situazioni il danno da impatto può alterare la deformata che il laminato assume in seguito ad instabilità; d’altra parte tale danno non ha sempre influenzato la resistenza a compressione, a seconda della deformata. Vengono proposte anche alcune considerazioni sulla significatività del metodo di prova utilizzato. Infine viene presentato uno studio esaustivo riguardo all’influenza di carichi membranali preesistenti sulla risposta all’impatto dei laminati. Sono stati analizzati con simulazioni numeriche ad elementi finiti casi di impatto in diverse condizioni di precarico, sia di trazione sia di compressione, sia monoassiali sia biassiali; è stato preso in considerazione anche il caso di laminati impattati in condizioni di postbuckling. Lo studio si è concentrato in particolare sulla dipendenza degli effetti del precarico dal rapporto larghezza-spessore del provino, che si è rivelato un parametro fondamentale. Viene illustrato che un precarico di trazione ha l’effetto più marcato sulle massime tensioni per bassi rapporti larghezza-spessore, portando ad una riduzione della minima energia di impatto necessaria per innescare il danneggiamento, mentre questo effetto tende a scomparire all’aumentare di tale rapporto. Il precarico di compressione evidenzia invece gli effetti più deleteri a rapporti larghezza-spessore intermedi, ai quali la resistenza a compressione del laminato e il suo carico critico di instabilità sono paragonabili, mentre l’influenza del precarico può essere trascurabile per piastre sottili o addirittura benefica per piastre molto spesse. Viene evidenziata la possibilità di trovare una spiegazione più soddisfacente dei risultati sperimentali riportati in letteratura, alla luce del presente contributo. Nel corso della tesi vengono anche discussi le potenzialità ed i limiti del modello ad elementi finiti utilizzato, che è stato implementato in un programma scritto in proprio. Il programma non comprende alcuna modellazione del danneggiamento del materiale. Viene però spiegato come, nonostante questo tipo di analisi possa portare a risultati accurati soltanto finché il danno ha scarsi effetti sulle proprietà meccaniche d’insieme del laminato, esso possa essere utile per spiegare alcuni fenomeni, oltre che per distinguere fra ciò che si può riprodurre senza tenere conto del degrado del materiale e ciò che invece richiede una simulazione adeguata del danneggiamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La trattazione inizia con l’analisi del concetto di “servizio” per focalizzarsi quindi sulla categoria dei “servizi pubblici”, nell’evoluzione dell’interpretazione dottrinale, fra concezione soggettiva e oggettiva, e sulle tipologie di servizio, con specifico riguardo a quelli aventi rilevanza nazionale. L’esposizione si suddivide dunque in due sezioni, rispettando la ripartizione del titolo. La prima parte è dedicata all’esame dei “ruoli”, ovvero delle parti coinvolte, a diverso titolo, in un rapporto di pubblico servizio: il “ruolo contrattuale”, rispetto al quale è stata esaminata la posizione dell’erogatore del servizio, da un lato, e dell’utente, dall’altro lato; il “ruolo di controllo”, esercitato dalle autorità amministrative indipendenti (Authorities); infine il “ruolo giurisdizionale”, dedicato alla complessa questione del riparto di giurisdizione in materia di servizi pubblici, fra giudice ordinario e giudice amministrativo, alla luce della nota sentenza della Corte Costituzionale, n. 204/2004. La seconda parte della tesi riguarda, invece, l’analisi dei “modelli contrattuali”, ovvero delle tipologie di contratto che vengono in rilievo in materia di servizi pubblici, astrattamente ascrivibili a tre distinti “gradi”. Il primo grado è rappresentato dal “contratto di servizio”, stipulato fra l’autorità pubblica che affida in gestione il servizio ed il soggetto, pubblico o privato, che se ne fa carico; l’affidamento può avere forma “diretta”, cioè prescindere da una procedura di gara (ipotesi della cd. “gestione diretta in economia” o del cd. “affidamento in house providing”) o “indiretta” (nel qual caso trova applicazione la normativa sugli appalti pubblici e le concessioni). Al secondo grado vi è il “codice di rete”, figura contrattuale che presuppone un la presenza di un servizio “a rete”. Il servizio a rete implica la presenza di una struttura o infrastruttura, concreta o astratta, ed una relazione reciproca fra gli elementi della stessa che convergono in vista della realizzazione di uno scopo e coinvolge tradizionalmente i servizi rispetto ai quali sussiste una situazione di monopolio naturale (trasporti, energia elettrica, gas, telecomunicazioni), caratterizzati dall’inopportunità pratica ed economica di creare una nuova rete. Di conseguenza, la possibilità di erogare il servizio, per gli operatori non titolari della rete, è rimessa alla stipulazione di un contratto (cd. “codice di rete) con il titolare della stessa, avente per oggetto la regolazione dello sfruttamento della rete, dietro pagamento di un corrispettivo economico. Il terzo grado è rappresentato dal “contratto di utenza”, le cui parti sono erogatore del servizio ed utente e la cui analisi è stata necessariamente preceduta dall’analisi del “rapporto di utenza”: quest’ultimo ha subito infatti una radicale trasformazione, nel corso degli ultimi decenni, soprattutto in seguito ai processi di liberalizzazione e privatizzazione che hanno coinvolto il settore de quo e condotto alla ricerca di nuovi strumenti di tutela dell’interesse generale, sotteso ad ogni pubblico servizio, contribuendo a conferire nuovo e preponderante interesse per l’utente, anche attraverso l’introduzione e l’applicazione di normative specifiche (in primis, quella in tema di clausole vessatorie e quella relativa alle azioni a tutela del consumatore-utente, oggi confluite nel codice del consumo). Per l’esame di ciascun argomento si è fatto costante riferimento alla normativa ed agli orientamenti comunitari; inoltre, si è scelto di prendere in considerazione, dopo l’esame generale delle principali tematiche sopramenzionate, il caso specifico del servizio radiotelevisivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro riguarda il recupero di una ferrovia dismessa per la realizzazione di una "greenway", ovvero un percorso per la mobilità lenta. Per mobilità lenta si intende mobilità alternativa al traffico veicolare motorizzato e riguarda il muoversi su un territorio a piedi in bicicletta o con altro mezzo di trasporto senza l’ausilio di un motore. La lentezza è una caratteristica che permette una visione nuova dei paesaggi che si attraversano, siano essi naturali o urbani. In alcuni casi si parla anche di circolazione dolce. Questo tipo di circolazione necessita di infrastrutture con caratteristiche adatte a questa funzione, attrezzate in modo da consentire il più alto grado di fruibilità e comodità d’uso. Esse devono servire a muoversi nel territorio in maniera comoda e sicura. Una ferrovia dismessa si presta ad essere riconvertita in un percorso per la mobilità lenta in quanto presenta caratteristiche compatibili con questo nuovo utilizzo. In primo luogo le caratteristiche geometriche come ad esempio le pendenze ridotte, la larghezza e la regolarità del tracciato e la pubblica proprietà. Una ferrovia dismessa rappresenta una opportunità per l’intero territorio attraversato in quanto può rappresentare un importante elemento di connessione fra le popolazioni e le risorse del territorio. La connessione richiama il concetto di rete che è formata da punti e da linee che li collegano fra di loro. Questo concetto è importante per capire come questo percorso possa interagire con le altre risorse territoriali. Ad esempio in alcuni casi una greenway può costituire un corridoio ecologico ed entrare a far parte di una rete ecologica, diventando così una importante risorsa per la diffusione della biodiversità. Nell’affrontare un argomento complesso come la riconversione di una ferrovia dismessa è stata fondamentale l’esperienza fatta sul campo visitando casi di greenway già realizzate in Italia, dalla quale è stato possibile estrapolare una serie di soluzioni da adottare per analogia al caso in esame. E’ stato importante inoltre tutto il lavoro di conoscenza riguardante la storia della ferrovia e le tecniche realizzative dei fabbricati e manufatti, che ha permesso di studiare soluzioni progettuali adatte ad un nuovo utilizzo compatibile alla funzione originaria degli stessi. Le analisi territoriali hanno permesso poi di ricavare importanti informazioni riguardanti il tipo di utenza potenziale, le risorse del territorio attraversate dal tracciato storico, nonché le previsioni future ricavate dagli strumenti urbanistici vigenti. Tutte queste informazioni sono state sintetizzate in una analisi criticità/potenzialità che ha permesso di individuare le azioni progettuali necessarie. Mentre l’analisi territoriale è svolta a tavolino, la successiva analisi del percorso invece è stata portata a termine con un rilievo diretto sul campo al fine di verificare le informazioni raccolte in precedenza. Dividendo il percorso in tratti omogenei è stato possibile assegnare ad ogni tratto un corrispondente tipo di intervento. La verifica di criticità e potenzialità ha permesso poi di programmare corrispondenti azioni progettuali al fine di risolvere le prime ed assecondare le seconde. Le tipologie di intervento individuate sono tre: gli Interventi sul percorso che riguardano la sistemazione del fondo stradale per renderlo adatto ad un utilizzo ciclopedonale e la sistemazione a verde di alcuni tratti urbani; gli interventi di nuova realizzazione che riguardano la realizzazione di nuove infrastrutture per la risoluzione di criticità oppure la realizzazione di padiglioni per assecondare le potenzialità; ed infine gli interventi sul patrimonio storico che riguardano il riutilizzo degli edifici e manufatti della ex ferrovia. Vi è infine un caso applicativo che riassume tutte queste tipologie di intervento: la ex area ferroviaria di Rimini Marina, che è ritenuta un’area dalle alte potenzialità per la sua propensione a diventare punto di partenza dell’intero sistema lineare, ma anche luogo accentratore di servizi per l’intero quartiere che risulta a carattere prevalentemente turistico-residenziale. In questo modo si ritiene possibile fare rivivere la ex ferrovia facendola diventare cioè un insieme di luoghi connessi a servizio della comunità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La storia naturale dell’epatopatia HCV-relata passa dall’epatite cronica alla cirrosi ed eventualmente all’epatocarcinoma fino ad arrivare alla possibile necessità del trapianto di fegato. HCV non esercita citolisi diretta, pertanto i fattori immunologici giocano il duplice ruolo di determinare l’evoluzione dell’infezione e il danno epatico. All’interno del sistema immunitario esistono linfociti in grado di inibire l’attivazione delle cellule effettrici modulando la risposta immunitaria; la popolazione regolatoria meglio conosciuta è costituita dai cosiddetti T-reg caratterizzati dal fenotipo CD4+CD35hiFoxp3+. Scopo di questo studio è stato determinare fenotipo e funzione dei T-reg, valutandone le correlazioni con caratteristiche cliniche e parametri biochimici e virologici, nelle diverse fasi della malattia epatica da HCV, a partire dall’epatite cronica, passando per la cirrosi, l’epatocarcinoma e terminando con il follow-up post-trapianto di fegato. Sono stati reclutati 80 pazienti con infezione cronica da HCV non in trattamento antivirale, di cui 52 con epatite cronica, 12 con cirrosi e 16 con epatocarcinoma. Di questi, 11 sono andati incontro a trapianto di fegato e sono stati poi seguiti fino a 36 mesi di follow up. Ventinove soggetti avevano transaminasi persistentemente nella norma e 28 mostravano ALT costantemente oltre 2.5x i valori normali. Quaranta donatori di sangue sono stati utilizzati come controlli sani. Marcatori di superficie (CD4, CD25) ed intracellulari (Foxp3) sono stati valutati in citofluorimetria su sangue intero periferico per tutti i soggetti al basale ed ogni 2-4 settimane dopo trapianto. In una quota di pazienti i T-reg sono stati estratti dai linfociti del sangue periferico con metodi immunomagnetici e la loro funzione valutata come percentuale di inibizione di proliferazione e produzione di IFN-γ da parte delle cellule bersaglio CD4+CD25- in esperimenti di co-coltura effettuati al basale e dopo 24-36 settimane dal trapianto. La percentuale di T-reg e l’espressione del Foxp3 sono risultate aumentate nei soggetti con HCV rispetto ai controlli sani, in particolare in coloro con cirrosi, HCC e nei pazienti con transaminasi normali indipendentemente dallo stadio di malattia, correlando inversamente con i livelli di transaminasi e direttamente con il punteggio MELD. La produzione di IFN-γ è incrementata in tutti i pazienti HCV ma efficacemente controllata solamente dai T-reg dei pazienti con transaminasi normali. Dopo il trapianto di fegato, si verifica una precoce e reversibile riduzione delle T-reg circolanti. Alla 24ma e 36ma settimana dal trapianto la percentuale dei T-reg circolanti è sovrapponibile al basale e i loro effetti, sia in termini di proliferazione che di produzione di IFN-γ, sulle cellule bersaglio, già dotate di una ridotta attività intrinseca, appaiono particolarmente incisivi. In conclusione, l’epatopatia cronica da HCV è caratterizzata da una popolazione di T-reg espansa che però, con l’eccezione dei soggetti con transaminasi normali, non appare in grado di limitare il danno epatico immuno-mediato e potrebbe favorire lo sviluppo e la crescita di lesioni tumorali nei pazienti con malattia avanzata. Il trapianto di fegato, probabilmente a causa della terapia immunosoppressiva, si associa ad un marcato e transitorio declino dei T-reg le cui numerosità e funzione vengono completamente recuperate a sei mesi dall’intervento. La migliore conoscenza dei meccanismi alla base delle cinetica e della funzione delle cellule regolatorie potrà fornire utili strumenti per il loro utilizzo come adiuvanti nella terapia dell’epatopatia cronica HCV relata.