987 resultados para Interfaccia, Risultati elettorali, Accessibile


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’attuale contesto di aumento degli impatti antropici e di “Global Climate Change” emerge la necessità di comprenderne i possibili effetti di questi sugli ecosistemi inquadrati come fruitori di servizi e funzioni imprescindibili sui quali si basano intere tessiture economiche e sociali. Lo studio previsionale degli ecosistemi si scontra con l’elevata complessità di questi ultimi in luogo di una altrettanto elevata scarsità di osservazioni integrate. L’approccio modellistico appare il più adatto all’analisi delle dinamiche complesse degli ecosistemi ed alla contestualizzazione complessa di risultati sperimentali ed osservazioni empiriche. L’approccio riduzionista-deterministico solitamente utilizzato nell’implementazione di modelli non si è però sin qui dimostrato in grado di raggiungere i livelli di complessità più elevati all’interno della struttura eco sistemica. La componente che meglio descrive la complessità ecosistemica è quella biotica in virtù dell’elevata dipendenza dalle altre componenti e dalle loro interazioni. In questo lavoro di tesi viene proposto un approccio modellistico stocastico basato sull’utilizzo di un compilatore naive Bayes operante in ambiente fuzzy. L’utilizzo congiunto di logica fuzzy e approccio naive Bayes è utile al processa mento del livello di complessità e conseguentemente incertezza insito negli ecosistemi. I modelli generativi ottenuti, chiamati Fuzzy Bayesian Ecological Model(FBEM) appaiono in grado di modellizare gli stati eco sistemici in funzione dell’ elevato numero di interazioni che entrano in gioco nella determinazione degli stati degli ecosistemi. Modelli FBEM sono stati utilizzati per comprendere il rischio ambientale per habitat intertidale di spiagge sabbiose in caso di eventi di flooding costiero previsti nell’arco di tempo 2010-2100. L’applicazione è stata effettuata all’interno del progetto EU “Theseus” per il quale i modelli FBEM sono stati utilizzati anche per una simulazione a lungo termine e per il calcolo dei tipping point specifici dell’habitat secondo eventi di flooding di diversa intensità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Life Cycle Assessment (LCA) is a chain-oriented tool to evaluate the environment performance of products focussing on the entire life cycle of these products: from the extraction of resources, via manufacturing and use, to the final processing of the disposed products. Through all these stages consumption of resources and pollutant releases to air, water, soil are identified and quantified in Life Cycle Inventory (LCI) analysis. Subsequently to the LCI phase follows the Life Cycle Impact Assessment (LCIA) phase; that has the purpose to convert resource consumptions and pollutant releases in environmental impacts. The LCIA aims to model and to evaluate environmental issues, called impact categories. Several reports emphasises the importance of LCA in the field of ENMs. The ENMs offer enormous potential for the development of new products and application. There are however unanswered questions about the impacts of ENMs on human health and the environment. In the last decade the increasing production, use and consumption of nanoproducts, with a consequent release into the environment, has accentuated the obligation to ensure that potential risks are adequately understood to protect both human health and environment. Due to its holistic and comprehensive assessment, LCA is an essential tool evaluate, understand and manage the environmental and health effects of nanotechnology. The evaluation of health and environmental impacts of nanotechnologies, throughout the whole of their life-cycle by using LCA methodology. This is due to the lack of knowledge in relation to risk assessment. In fact, to date, the knowledge on human and environmental exposure to nanomaterials, such ENPs is limited. This bottleneck is reflected into LCA where characterisation models and consequently characterisation factors for ENPs are missed. The PhD project aims to assess limitations and challenges of the freshwater aquatic ecotoxicity potential evaluation in LCIA phase for ENPs and in particular nanoparticles as n-TiO2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il ruolo dell’Ospedale Psichiatrico Giudiziaro è un problema crescente in entrambi i paesi sviluppati e in via di sviluppo. Gli esperti della psichiatria di comunità e dei gruppi di auto aiuto vedono l'empowerment come un fattore chiave per il successo di queste istituzioni. Uno studio quantitativo esplorativo è stato condotto in un ospedale Psichiatrico Giudiziario a Tirana. Questo studio ha misurato l'empowerment del paziente e il personale con l'obiettivo di comprendere la situazione attuale presso l'O. P. G. di Tirana. Questo consentirà alle parti interessate di effettuare un intervento di successo per servire al meglio le esigenze di tutte le parti. Empowerment in psichiatria può essere definito come un progetto attentamente progettata che contribuirà a consentire al personale di aiutare al meglio a soddisfare le esigenze dei pazienti e dei operatori. Pertanto, l’empowerment scale e altri questionari sono stati utilizzati sia per il paziente e gli operatori del personale dell'O. P. G. di Tirana. I risultati mostrano una differenza significativa tra il personale e i pazienti in materia di empowerment. Correlazioni interessanti sono state trovate tra l’empowerment e dati demografici dei pazienti e il personale dell'Ospedale Psichiatrico Giudiziario di Tirana. Una correlazione positiva tra empowerment e alcuni elementi della qualità di vita dei pazienti. Si è anche trovato che l’empowerment dipendeva dalla gravità dei sintomi. E' molto importante avere un intervento concreto che prevede di aumentare il livello dell’empowerment nel personale e nei pazienti presso l'Ospedale Psichiatrico Giudiziario di Tirana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sommario Il progetto descritto in questo documento consiste nella realizzazione di una prima applicazione pratica di uno specifico studio di ricerca rivolto al ripristino di reti wireless in scenari post-calamità naturali. In principio è stata descritta un’ampia analisi delle problematiche di rete che si vengono a creare in seguito ad eventi catastrofici. Successivamente, analizzando le varie tecniche e tecnologie oggetto di studio di diversi gruppi di ricerca, si è scelto di collaborare con il progetto STEM-Mesh, essendo ancora in fase sperimentale, il quale affronta il problema di ristabilire la connettività di rete in questi particolari scenari, attraverso l’utilizzo di tecnologie Cognitive Radio (CR), mobilità controllata e principi di reti auto-organizzanti. Di questo primo approccio pratico sono state poi descritte le fasi di progettazione, implementazione e testing. Nella fase di progettazione sono state studiate le componenti hardware e software che rispettassero il più possibile i requisiti e le caratteristiche dei dispositivi “staminali” STEM-Node cuore del progetto STEM-Mesh, ovvero dei dispositivi wireless altamente auto-riconfiguranti ed auto-organizzanti che possono diventare dispositivi sostituivi ai nodi compromessi in una rete, riconfigurandosi appunto in base alle funzionalità interrotte. Nella fase di implementazione si è passati alla stesura del codice, in Python e Wiring, abilitante il dispositivo STEM-Node. Infine nella fase di testing si è verificato che i risultati fossero quelli desiderati e che il sistema realizzato funzionasse come previsto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La chirurgia con ultrasuoni focalizzati guidati da MRI (MR-g-FUS) è un trattamento di minima invasività, guidato dal più sofisticato strumento di imaging a disposizione, che utilizza a scopo diagnostico e terapeutico forme di energia non ionizzante. Le sue caratteristiche portano a pensare un suo possibile e promettente utilizzo in numerose aree della patologia umana, in particolare scheletrica. L'osteoma osteoide affligge frequentemente pazienti di giovane età, è una patologia benigna, con origine ed evoluzione non chiare, e trova nella termoablazione con radiofrequenza continua sotto guida CT (CT-g-RFA) il suo trattamento di elezione. Questo lavoro ha valutato l’efficacia, gli effetti e la sicurezza del trattamento dell’osteoma osteoide con MR-g-FUS. Sono stati presi in considerazione pazienti arruolati per MR-g-FUS e, come gruppo di controllo, pazienti sottoposti a CT-g-RFA, che hanno raggiunto un follow-up minimo di 18 mesi (rispettivamente 6 e 24 pazienti). Due pazienti erano stati esclusi dal trattamento MR-g-FUS per claustrofobia (2/8). Tutti i trattamenti sono stati portati a termine con successo tecnico e clinico. Non sono state registrate complicanze o eventi avversi correlati all’anestesia o alle procedure di trattamento, e tutti i pazienti sono stati dimessi regolarmente dopo 12-24 ore. La durata media dei trattamenti di MR-g-FUS è stata di 40±21 min. Da valori di score VAS pre-trattamento oscillanti tra 6 e 10 (su scala 0-10), i trattamenti hanno condotto tutti i pazienti a VAS 0 (senza integrazioni farmacologiche). Nessun paziente ha manifestato segni di persistenza di malattia o di recidiva al follow-up. Nonostante la neurolisi e la risoluzione dei sintomi, la perfusione del nidus è stata ritrovata ancora presente in oltre il 70% dei casi sottoposti a MR-g-FUS (4/6 pazienti). I risultati derivati da un'analisi estesa a pazienti più recentemente arruolati confermano questi dati. Il trattamento con MR-g-FUS sembra essere efficace e sicuro nel risolvere la sintomatologia dell'osteoma osteoide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dissertazione, basandosi su un confronto sistematico dei testi, analizza i rapporti fra i carmina docta di Catullo e le Argonautiche di Apollonio Rodio con particolare attenzione al carme 64. Il lavoro è suddiviso in dieci capitoli più un'introduzione e una conclusione. Nell'introduzione si illustra la metodologia applicata e si discutono alcune questioni teoriche relative all'intertestualità. Nel I capitolo si delinea una storia della critica moderna che mette in evidenza come negli studi catulliani sul carme 64, nel corso dell'ultimo secolo e mezzo, Apollonio tenda ad assumere un ruolo sempre più importante. Nei capitoli II-IX viene fatto uno studio molto approfondito del carme 64. Tale studio analizza il testo catulliano mettendo in luce le somiglianze contenutistiche, strutturali e stilistiche con le Argonautiche. Il X capitolo è invece dedicato agli altri carmina docta. Poiché questi ultimi carmi hanno scarsi punti di contatto con il poema di Apollonio, ci si limita a mettere in evidenza una serie di motivi e tratti comuni. Nella parte conclusiva si espone un quadro sommario dei risultati raggiunti. Il lavoro dimostra in particolare come nel complesso le somiglianze fra Catullo e Apollonio riguardino elementi superficiali o luoghi comuni e come non vi sia alcuna prova certa di una dipendenza diretta di Catullo da Apollonio (nonostante una tale dipendenza sia da ritenersi probabile per ragioni storiche). In contrasto con buona parte della critica più recente, si esprime di conseguenza la convinzione che sia poco opportuno utilizzare le Argonautiche per spiegare il carme 64 o per instaurare un dialogo di natura intertestuale fra Catullo e Apollonio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduzione: le Coliti Microscopiche, altrimenti note come Colite Collagena e Colite Linfocitica, sono disordini infiammatori cronici del colon che causano diarrea e colpiscono più frequentemente donne in età avanzata e soggetti in terapia farmacologica. Negli ultimi anni la loro incidenza sembra aumentata in diversi paesi occidentali ma la prevalenza in Italia è ancora incerta. Scopo: il presente studio prospettico e multicentrico è stato disegnato per valutare la prevalenza delle CM in pazienti sottoposti a colonscopia per diarrea cronica non ematica. Pazienti e metodi: dal Maggio 2010 al Settembre 2010 sono stati arruolati consecutivamente tutti i soggetti adulti afferenti in due strutture dell’area metropolitana milanese per eseguire una pancolonscopia. Nei soggetti con diarrea cronica non ematica sono state eseguite biopsie multiple nel colon ascendente, sigma e retto nonché in presenza di lesioni macroscopiche. Risultati: delle 8008 colonscopie esaminate 265 sono state eseguite per diarrea cronica; tra queste, 8 presentavano informazioni incomplete, 52 riscontri endoscopici consistenti con altri disordini intestinali (i.e. IBD, tumori, diverticoliti). 205 colonscopie sono risultate sostanzialmente negative, 175 dotate di adeguato campionamento microscopico (M:F=70:105; età mediana 61 anni). L’analisi istologica ha permesso di documentare 38 nuovi casi di CM (M:F=14:24; età mediana 67.5 anni): 27 CC (M:F=10:17; età mediana 69 anni) e 11 CL (M:F=4:7; età mediana 66 anni). In altri 25 casi sono state osservate alterazioni microscopiche prive dei sufficienti requisiti per la diagnosi di CM. Conclusioni: nel presente studio l’analisi microscopica del colon ha identificato la presenza di CM nel 21,7% dei soggetti con diarrea cronica non ematica ed indagine pancolonscopica negativa. Lo studio microscopico del colon è pertanto un passo diagnostico fondamentale per il corretto inquadramento diagnostico delle diarree croniche, specialmente dopo i 60 anni di età. Ampi studi prospettici e multicentrici dovranno chiarire ruolo e peso dei fattori di rischio associati a questi disordini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduzione: La sindrome delle gambe senza riposo (RLS) è un disturbo caratterizzato da sensazione spiacevole disestesica generalmente agli arti inferiori, che si presenta o peggiora nelle ore serali-notturne e che migliora con il movimento. Studi clinici hanno mostrato una maggiore prevalenza di RLS negli emicranici, mentre mancano studi condotti su popolazione generale non selezionata. Lo scopo di questo studio era quello di valutare la associazione tra emicrania e RLS in una popolazione italiana adulta. Inoltre è stata valutata l’associazione tra RLS e cefalea fenotipizzata attraverso metodica di principal components analysis (PCA). Materiali e metodi: la presenza di RLS e di emicrania è stata determinata attraverso questionari basati sui criteri diagnostici correnti in un campione di 1567 partecipanti di un fase preliminare di uno studio in corso sulla popolazione adulta della Val Venosta (BZ). Risultati: gli emicranici hanno presentato un significativo maggior rischio di soffrire di RLS rispetto ai non emicranici, anche dopo aggiustamento per fattori confondenti come età, sesso, depressione, ansia e qualità del sonno (p = 0.049). Questa associazione non era modificata dalla presenza di aura emicranica, di cause possibili di RLS secondaria e dalla frequenza di attacchi emicranici. Inoltre la RLS non era risultata significativamente associata alla cefalea di tipo tensivo (TTH). Dall’analisi di associazione tra RLS e cefalea fenotipizzata attraverso PCA era emerso che la componente 1, caratterizzata da sintomi di sensitivizzazione del sistema nervoso centrale (SNC), correlava significativamente con la presenza di RLS (p = 0.021). Conclusioni: RLS ed emicrania sono risultate associate nel nostro campione di popolazione adulta; inoltre la RLS ha mostrato una correlazione significativa con i sintomi di sensitivizzazione del SNC legati agli attacchi di cefalea. Questa associazione potrebbe risiedere in una possibile base patogenetica comune.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Infantile hemangiomas (IHs) are the most common benign neoplastic pathology of childhood; their natural history generally involves three phases: after the onset, which usually occurs in the first weeks of life, there is the proliferation phase where the IH reaches its maximum development and it is followed by the spontaneous involution which leads to the IH regression. The duration and the extent of these phases may vary widely even though in most of the cases the involution process begins around twelve months of life and the regression, complete or partial, is completed around seventh-ninth year of life. The majority of the IHs does not require any treatment. However, 10%-20% is likely to develop serious complications, functional impairments or aesthetic alterations and entail a timely treatment. Although there is no treatment protocol currently shared, therapies usually used in cases with a complication risk consist in: systemic or intralesional steroids as a first choice; interferon α, vincristine and/or bleomicin as second or third choice and/or surgical treatment. Propranolol, a non-selective beta-blocker, has been used for cardiovascular diseases even in childhood for decades. Since 2008 it has been widely used in the IHs treatment, although it is still "off-label". In literature there are hundreds of cases and some clinical studies that show the effectiveness and safety of this drug for this indication. Thanks to a multidisciplinary team (Dermatologists, Cardiologists, Paediatricians, and Radiologists) of S. Orsola-Malpighi Hospital, a clinical study, which has been previously approved by the ethics committee, is carried out in order to evaluate the efficacy and safety of systemic propranolol in the treatment of IHs in paediatric age. At the end of 2012, 78 patients underwent this treatment: the results we have obtained so far show a good efficacy and safety profile in agreement with the data provided by the literature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo del presente progetto di ricerca era determinare se l’utilizzo non clinico del simulatore d’alba (un dispositivo che emette luce in graduale aumento prima del risveglio), basato su specifiche conoscenze cronobiologiche, potesse ridurre alcune delle conseguenze del social jetlag, in studenti di scuola secondaria di secondo grado. A tal fine, sono stati valutati gli effetti del simulatore d’alba su tono dell’umore (valutato soggettivamente tramite la Global and Vigor Affect Scale-GVA), livelli di attivazione (valutati soggettivamente tramite la GVA), qualità/quantità di sonno (valutate oggettivamente e soggettivamente tramite attigrafia e Mini Sleep Questionnaire-MSQ), architettura del sonno (valutata oggettivamente tramite Zeo®) ed efficienza dei tre network attentivi (alerting, orienting ed executive), valutata oggettivamente tramite l’Attention Network Test (ANT). In totale, hanno preso parte alla ricerca 56 adolescenti (24 femmine e 32 maschi), frequentanti due istituti di scuola secondaria di secondo grado nella città di Cesena, la cui età media era di 17.68 anni (range d’età 15-20 anni). Ad ogni studente è stata richiesta una partecipazione di 5 settimane consecutive ed il disegno di ricerca prevedeva 3 condizioni sperimentali: baseline, simulatore d’alba e controllo. All’MSQ, in seguito all’utilizzo del simulatore d’alba, sono state osservate una minore percezione di sonnolenza diurna, una frequenza inferiore di risvegli notturni ed una riduzione del numero di partecipanti che presentavano una cattiva qualità della veglia. All’ANT, è stato documentato un significativo miglioramento dell’efficienza del network attentivo dell’alerting, successivo all’impiego del simulatore d’alba, dovuto ad una maggiore reattività dei partecipanti in seguito alla comparsa del double cue, che anticipava la presentazione del target (freccia centrale di cui i partecipanti dovevano giudicare la direzione). Tali risultati convergono nell’evidenziare la capacità del simulatore d’alba di esercitare un effetto attivante/stimolante, mostrando dunque come esso possa essere considerato uno strumento potenzialmente utilizzabile quale contromisura al social jetlag in adolescenza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esposizione dell’attività di laboratorio basata sullo svolgimento di prove sperimentali di resistenza a fatica su accoppiamenti albero-mozzo realizzati mediante calettamento forzato con riscaldamento in forno del mozzo, con l’obiettivo di determinare l’influenza di tale tipo di accoppiamento sulla vita a fatica del componente. Gli accoppiamenti albero – mozzo, anche detti collegamenti forzati, sono collegamenti fissi o semi–permanenti utilizzati per unire due organi tra loro che permettono di trasmettere elevate forze tangenziali anche con interferenze non elevate, realizzando un’unione sicura, quanto quella ottenibile con linguetta o chiavetta. Inoltre l’assenza di masse esterne non genera squilibri dinamici. Il lavoro di sperimentazione in laboratorio è stato preceduto da uno studio mediante modellatore FEM. I risultati ottenuti dallo studio per mezzo di Ansys Workbench 12.0 sono stati il punto di partenza della sperimentazione, la quale è stata effettuata con l’obiettivo di verificare la validità dei risultati ottenuti mediante modellatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis provides an experimental analysis of the effectiveness of oriented DBD plasma actuators over a NACA 0015 airfoil at low Reynolds numbers. Tests were performed in partnership with the Department of Electrical Engineering of Bologna University, in the wind tunnel of the Applied Aerodynamics Laboratory of Aerospace Engineering faculty. Lift coefficient measurements were carried out in order to verify how an oriented plasma jet succeeds in prevent boundary layer separation. Both actuators’ chord wise position and plasma jet orientation angle have been investigated to examine which configurations lead to the best results. A particular attention has been paid also to the analysis of results in steady and unsteady plasma actuation. Questa tesi offre un’analisi sperimentale sull’efficacia di attuatori al plasma orientabili, basati su una tecnologia DBD, installati su un profilo alare NACA 0015, a bassi numeri di Reynolds. Le prove sono state condotte in collaborazione con il Dipartimento di Ingegneria Elettrica dell’Università di Bologna, nella galleria del vento del Laboratorio di Aerodinamica Applicata della Facoltà di Ingegneria Aerospaziale di Forlì. Per verificare come un getto orientabile di plasma riesca a prevenire la separazione dello strato limite, sono state eseguite misure sul coefficiente di portanza. Sono state indagate sia la posizione degli attuatori lungo la corda che l’angolo con cui è orientato il getto di plasma, per vedere quali configurazioni conducono ai migliori risultati. Una particolare attenzione è stata riservata all’analisi dei risultati ottenuti con plasma continuo e pulsato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo: Il nostro obiettivo è stato quello di confrontare la tomoterapia (HT) e la protonterapia ad intensità modulata (IMPT) nel trattamento del tumore prostatico, seguendo un protocollo di boost simultaneo (SIB) e moderatamente ipofrazionato. Materiali e metodi: Abbiamo selezionato 8 pazienti, trattati con HT e abbiamo rielaborato i piani con 2 campi IMPT. La dose prescritta è stata di 74 Gy sul PTV1 (prostata e vescicole seminali prossimali), 65.8 Gy sul PTV2 (vescicole seminali distali) e 54 Gy sul PTV3 (linfonodi pelvici). Risultati: Sia con IMPT che con HT abbiamo ottenuto una copertura e una omogeneità di dose del target sovrapponibile. Oltre i 65 Gy, HT e IMPT erano equivalenti per il retto, mentre con l’IMPT c’era maggior risparmio della vescica e del bulbo penieno da 0 a 70 Gy. Da 0 fino a 60 Gy, i valori dosimetrici dell’IMPT erano molto più bassi per tutti gli organi a rischio (OARs), eccetto che per le teste femorali, dove la HT aveva un vantaggio dosimetrico rispetto all’IMPT nel range di dose 25-35 Gy. La dose media agli OARs era ridotta del 30-50% con l’IMPT. Conclusioni: Con le due tecniche di trattamento (HT e IMPT) si ottiene una simile distribuzione di dose nel target. Un chiaro vantaggio dosimetrico dell’IMPT sul HT è ottenuto dalle medie e basse dosi. Le attuali conoscenze sulle relazioni dose-effetto e sul risparmio delle madie e basse dosi con l’IMPT non sono ancora state quantificate dal punto di vista clinico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene presentata un’analisi dettagliata sulla struttura di profili recettori di neuroni coinvolti nell’elaborazione visiva, con particolare attenzione per le cellule appartenenti alla corteccia visiva primaria (V1). Dopo aver illustrato brevemente il percorso effettuato dall’informazione visiva, costituito da retina, nucleo genicolato laterale e V1, vengono descritte la struttura e le principali caratteristiche di profili recettori dei neuroni appartenenti ad ognuno di questi livelli di elaborazione. Per modellare i profili recettori di cellule corticali in V1 si è deciso di utilizzare filtri bidimensionali realizzati mediante funzioni di Gabor nel dominio spaziale. Questo modello ha, infatti, il grande vantaggio di possedere alcune tra le maggiori proprietà dei profili recettori di neuroni appartenenti a V1: struttura del profilo recettore nello spazio (x,y), selettività in orientazione e in frequenza spaziale, indipendenza dalla fase dello stimolo. Viene successivamente presentato il concetto di campo di associazione visivo, mediante il quale sono determinate le caratteristiche principali (posizione spaziale ed orientazione) che diversi oggetti devono possedere per essere percepiti non come unità singole, ma come un unico elemento. I campi di associazione possono essere modellati mediante l’utilizzo del sistema di equazioni differenziali proposto da Citti-Sarti, le cui soluzioni sono curve integrali adatte a ricostruire la struttura dei campi di associazione, come proposti da Field, Hayes ed Hess. Diverse ipotesi sono state presentate su come cellule appartenenti a V1 siano in grado di realizzare simili campi di associazione, ed in particolare, da dove queste possano prendere le informazioni necessarie per farlo. Una di queste è quella sostenuta dai dati di Bosking et al., secondo i quali le connessioni intracorticali più fitte sono quelle tra neuroni non adiacenti tra loro, i cui profili recettori sono co-orientati (con la stessa orientazione preferenziale) e co-assiali (disposti lungo un asse del campo visivo che corrisponde all’orientazione preferenziale). L’analisi effettuata in questa tesi ha come obbiettivo proprio quello di ottenere informazioni utili su come cellule corticali siano legate alla fenomenologia dei campi di associazione. Come già detto, un filtro di Gabor bidimensionale può essere considerato un buon modello per profili recettori di questo tipo di cellule e quindi è possibile definirlo in maniera astratta come l’unità fondamentale nel processo di elaborazione visiva. Per questo motivo viene effettuata un’analisi di cross-correlazione tra un filtro di Gabor con una determinata orientazione e una famiglia di filtri di Gabor aventi n orientazioni. I risultati ottenuti sono stati trattati utilizzando la tecnica di soppressione dei non massimi, in modo da estrarre per ogni punto dell’immagine l’orientazione per la quale si ottiene la risposta massima. Successivamente, dai dati è stato possibile calcolare delle curve integrali simili a quelle ottenute dal modello differenziale proposto da Citti-Sarti. I risultati ottenuti da questa analisi si sono rivelati utili per comprendere più nel dettaglio i processi di elaborazione dei neuroni corticali, ed in particolare, per capire in che modo le informazioni necessarie per la realizzazione di strutture complesse ed articolate come quelle dei campi di associazione, siano già contenute intrinsecamente all’interno di ogni cellula corticale, unità fondamentale dell’elaborazione visiva.