931 resultados para acidificazione, Isola di Ischia, effetto vento, serie temporali, analisi dati
Resumo:
Critical lower limb ischemia is a severe disease. A common approach is infrainguinal bypass. Synthetic vascular prosthesis, are good conduits in high-flow low-resistance conditions but have difficulty in their performance as small diameter vessel grafts. A new approach is the use of native decellularized vascular tissues. Cell-free vessels are expected to have improved biocompatibility when compared to synthetic and are optimal natural 3D matrix templates for driving stem cell growth and tissue assembly in vivo. Decellularization of tissues represent a promising field for regenerative medicine, with the aim to develop a methodology to obtain small-diameter allografts to be used as a natural scaffold suited for in vivo cell growth and pseudo-tissue assembly, eliminating failure caused from immune response activation. Material and methods. Umbilical cord-derived mesenchymal cells isolated from human umbilical cord tissue were expanded in advanced DMEM. Immunofluorescence and molecular characterization revealed a stem cell profile. A non-enzymatic protocol, that associate hypotonic shock and low-concentration ionic detergent, was used to decellularize vessel segments. Cells were seeded cell-free scaffolds using a compound of fibrin and thrombin and incubated in DMEM, after 4 days of static culture they were placed for 2 weeks in a flow-bioreactor, mimicking the cardiovascular pulsatile flow. After dynamic culture, samples were processed for histological, biochemical and ultrastructural analysis. Discussion. Histology showed that the dynamic culture cells initiate to penetrate the extracellular matrix scaffold and to produce components of the ECM, as collagen fibres. Sirius Red staining showed layers of immature collagen type III and ultrastructural analysis revealed 30 nm thick collagen fibres, presumably corresponding to the immature collagen. These data confirm the ability of cord-derived cells to adhere and penetrate a natural decellularized tissue and to start to assembly into new tissue. This achievement makes natural 3D matrix templates prospectively valuable candidates for clinical bypass procedures
Resumo:
Le malattie trasmesse da zecche sono un importante problema sia per la salute animale che per quella umana e negli ultimi decenni hanno aumentato notevolmente la loro diffusione, in seguito ai cambiamenti climatici, che hanno permesso la distribuzione delle zecche in aree prima non interessate. Per tale motivo si è deciso di effettuare un’indagine sulla diffusione delle zecche e sui patogeni da loro trasmessi, mediante campionamenti sia a livello ambientale, sia su animali e umani infestati in quattro siti di tre parchi dell’Emilia Romagna, dove non risultavano precedenti segnalazioni, nelle province di Bologna e Ravenna, da Aprile a Ottobre 2010. In totale sono state raccolte 8212 zecche. Dall’ambiente sono state campionate 6734 larve, 1344 ninfe, 61 adulti; dagli animali e da persone sono stati raccolti 68 adulti e 5 ninfe appartenenti a diverse specie di Ixodidae. Sono state condotte analisi sull’abbondanza delle zecche nelle diverse aree di raccolta, in funzione del periodo di campionamento, della temperatura e dell’umidità relativa misurata a 5 cm dal suolo al momento del campionamento e della vegetazione. Su tutti gli individui adulti e su pool di ninfe e di larve, per un totale di 393 campioni, sono state condotte analisi di tipo molecolare per la ricerca di piroplasmi, Anaplasma phagocytophilum e Borrelia burgdorferi s.l. Attraverso la PCR e il sequenziamento, è emerso che il 7,6% dei campioni era positivo per piroplasmi, tra i quali è stata riscontrata anche la presenza delle specie zoonosiche Babesia EU1 e B. divergens. La real-time PCR eseguita solo sui campioni costituiti da ninfe e adulti ha evidenziato una prevalenza del 9,2% per A. phagocytophilum e del 21,6% per B. burgdorferi s.l. Su questi patogeni sono state quindi condotte analisi di tipo filogenetico. In alcuni campioni sono state riscontrate coinfezioni con combinazioni di due patogeni contemporaneamente.
Resumo:
Questo elaborato ha l'obiettivo di analizzare due testi di legge spagnoli, la "Ley de amnistía" del 1977 e la "Ley para la memoria histórica" del 2007 e la loro ricezione nelle politiche educative della Spagna. Il lavoro di ricerca, svolto nella città di Madrid, si è focalizzato soprattutto sull'analisi descrittiva di dieci manuali di storia utilizzati in due "Institutos de enseñanza secundaria" e sul commento delle interviste fatte a cinque docenti operanti in questi istituti.
Resumo:
L’obiettivo di questo lavoro di tesi è di ottenere un’analisi climatica giornaliera ad alta risoluzione della precipitazione sul territorio del nord Italia realizzata con tecniche di controllo statistico, di analisi e di strumenti di descrizione dei risultati presentati nella recente letteratura. A tal fine, sono stati utilizzati i dati dell’Archivio ARCIS. In seguito alle fasi di controllo qualità, omogeneità e sincronicità i dati sono stati utilizzati per realizzare un’analisi giornaliera su grigliato regolare a 10 km di risoluzione utile alla rappresentazione della variabilità spazio-temporale della precipitazione sul Nord Italia per il periodo 1961-2005. I risultati di tale analisi mettono in evidenza dei valori medi di precipitazione annuale abbastanza intensi sulla parte centrale dell’arco Alpino, con massimi (oltre 2000 mm) sull’estremità orientale e sull’Appennino Ligure. Valori minimi (500 – 600 mm) sono osservati lungo le aree prospicienti il fiume Po, in Val d’Aosta ed in Alto Adige. La corrispondente analisi del trend temporale indica la presenza di lievi cali statisticamente significativi solo in aree limitate del territorio. In coerenza con questi risultati, la variazione nel tempo della precipitazione annuale mediata su tutto il territorio mette in evidenza un’intensa variabilità decennale, ma solo una lieve flessione lineare sull’intero periodo. Il numero annuo di giorni piovosi ed il 90° percentile della precipitazione giornaliera presentano invece trend lineari un po’ più pronunciati. In particolare, sul periodo considerato si nota un calo del numero di giorni piovosi su gran parte del territorio e solo su alcune aree del territorio un aumento dell’intensità del 90° percentile, sia a scala annuale che stagionale. Nell’ultima parte di questo lavoro è stato realizzato uno studio della relazione fra la forzante climatica e l’evoluzione della morfologia dell’Appennino Emiliano-Romagnolo. I risultati mostrano che a parità di quota, di pendenza e di litologia, la franosità è influenzata dalle precipitazioni.
Resumo:
La ricerca, negli ultimi anni, si è concentrata sullo studio di materiali con energy gap più ampio del silicio amorfo a-Si per ridurre gli assorbimenti parassiti all'interno di celle fotovoltaiche ad eterogiunzione. In questo ambito, presso l'Università di Costanza, sono stati depositati layers di silicon oxynitride amorfo a-SiOxNy. Le promettenti aspettative di questo materiale legate all'elevato optical gap, superiore ai 2.0 eV, sono tuttavia ridimensionate dai problemi intrinseci alla struttura amorfa. Infatti la presenza di una grande quantit a di difetti limita fortemente la conducibilita e aumenta gli effetti di degradazione legati alla luce. In quest'ottica, nella presente tesi, sono stati riportati i risultati di analisi spettroscopiche eseguite presso il Dipartimento di Fisica e Astronomia di Bologna su campioni di silicon oxynitride nanocristallino nc-SiOxNy, analisi che hanno lo scopo di osservare come la struttura nanocristallina influisca sulle principali proprieta ottiche e sulla loro dipendenza da alcuni parametri di deposizione.
Resumo:
Analisi sulle principali novità di utilizzo del nuovo linguaggio Html5
Resumo:
Pistoia rientra a buon diritto, nel quadro della Toscana medievale, in quella rete di centri urbani di antica origine e tradizione diocesana che riuscirono a costruire, nella dialettica fra città e territorio, un organismo politico autonomo, il comune cittadino. La ricerca prende in considerazione i resti materiali delle strutture conservate nel tessuto urbano attuale, in particolare l'edilizia civile, prediligendo la cosiddetta “edilizia minore”, ovvero gli edifici residenziali non monumentali che, proprio per questo motivo, sono generalmente poco conosciuti. Le strutture, censite ed inserite in una piattaforma GIS (Arpenteur), sono analizzate con metodo archeologico al fine di distinguere le diverse fasi costruttive, medievali e post-medievali, con cui sono giunte fino ad oggi. L'analisi stratigrafica, effettuata su rilievi realizzati mediante modellazione 3D (Photomodeler), ha permesso di costruire un primo “atlante” delle tipologie murarie medievali della città: i tipi murari assumono quindi la funzione di indicatori cronologici degli edifici analizzati. I dati stratigrafici, uniti al dato topologico dei complessi architettonici (localizzati prevalentemente nel centro storico, all'interno del circuito murario della metà del XII secolo), hanno fornito informazioni sia per quanto riguarda l'aspetto materiale degli edifici di abitazione (forma, dimensioni, materiali) sia per quanto riguarda temi di topografia storica (viabilità maggiore e minore, formazione dei borghi, orizzonte sociale degli abitanti, distribuzione della proprietà), nel periodo della “parabola” della Pistoia comunale (XII-XIII secolo). In conclusione, la ricerca vuole essere sia uno strumento di analisi per la storia delle trasformazioni delle città nel periodo comunale, sia uno strumento di conoscenza e tutela di un patrimonio storico-archeologico che, per la sua natura non-monumentale spesso sfugge all'attenzione di amministratori ed urbanisti.
Resumo:
Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.
Resumo:
L’obiettivo di questa tesi di laurea è lo sviluppo dell’automazione delle tecniche per il trattamento di radiofarmaci, in particolare riguardo alle pratiche di trasferimento di dati sulla superficie del contenitore includente il radiofarmaco. Lo scopo è passare dall’applicazione manuale di etichette, ad una scrittura automatizzata dei dati direttamente sulla superficie del contenitore. Lo sviluppo del progetto sarà realizzato con l’ausilio del programma di modellazione 3D PTC Creo Elements, ritenuto il sistema CAD più idoneo per la realizzazione di progetti ex novo come quello in oggetto. La modellazione verrà effettuata per tentativi, valutando caso per caso varie opzioni, fino al raggiungimento del risultato ottimale. Dopo aver descritto i processi produttivi attuali e l’integrazione del dispositivo all’interno di essi, viene illustrato il funzionamento passo passo del dispositivo, partendo dalla fase di entrata, proseguendo con la fase di centraggio e stampa, terminando con la fase di scarico. Viene successivamente illustrato il prodotto finito e le relative problematiche riscontrate durante le fasi di prova del prototipo, in particolare, difetti nella trascrizione dei dati sulla superficie del contenitore e difetti progettuali dell’intero sistema. Vengono infine illustrate le possibili soluzioni, in particolare un nuovo sistema di fissaggio del contenitore.
Resumo:
La rottura del Legamento Crociato Craniale (LCCr) rappresenta una delle patologie ortopediche di maggiore riscontro clinico nella specie canina. In seguito a rottura del LCCr si presenta un continuo slittamento craniale della tibia il quale esita in un processo osteoartrosico. La risoluzione chirurgica rappresenta la migliore soluzione terapeutica. Le tecniche chirurgiche extra-articolari con sfruttamento dei punti isometrici del ginocchio si presentano come delle procedure molto diffuse e utilizzate. Questa tesi propone di validare l’uso di un nuovo sistema di navigazione computerizzato-assistito per la valutazione cinematica durante la ricostruzione del LCCr nel cane, ma soprattutto di studiare e confrontare il comportamento e l’efficacia dopo ricostruzione TightRope (TR) in due diverse coppie di punti isometrici. Abbiamo effettuato due analisi in parallelo. La prima eseguendo interventi chirurgici con tecnica TR su 18 casi clinici e sfruttando il punto isometrico del femore (F2) e due diversi punti isometrici della tibia (T2 o T3). L’analisi prevedeva dei controlli postoperatori a 1, 3 e 6 mesi. Ad ogni controllo veniva effettuata una visita ortopedica, esami radiografici, un questionario di valutazione clinico e di soddisfazione del proprietario. Mentre nella ricerca Ex-Vivo abbiamo eseguito dei test su 14 preparati anatomici con l’utilizzo di un sistema di navigazione computerizzato per la rilevazione dei dati. L’analisi prevedeva la valutazione dell’articolazione in diversi stadi: LCCr intatto; LCCr rotto; dopo ricostruzione con TR in F2-T2 e tensionato a 22N, 44N e 99N; dopo ricostruzione con TR in F2-T3 e tensionato a 22N, 44N e 99N. Ad ogni stadio si eseguivano cinque test di valutazione, tra cui: Test del Cassetto, Test di compressione tibiale (TCT), Rotazione Interna/Esterna, Flesso/Estensione e Varo/Valgo. Lo scopo di tale studio è quello di confrontare tra loro i punti isometrici del ginocchio e di analizzare l’efficacia della tecnica TR nelle due differenti condizioni di isometria (F2-T2 e F2-T3).
Resumo:
OBIETTIVO: sintetizzare le evidenze disponibili sulla relazione tra i fattori di rischio (personali e lavorativi) e l’insorgenza della Sindrome del Tunnel Carpale (STC). METODI: è stata condotta una revisione sistematica della letteratura su database elettronici considerando gli studi caso-controllo e di coorte. Abbiamo valutato la qualità del reporting degli studi con la checklist STROBE. Le stime studio-specifiche sono state espresse come OR (IC95%) e combinate con una meta-analisi condotta con un modello a effetti casuali. La presenza di eventuali bias di pubblicazione è stata valutata osservando l’asimmetria del funnel plot e con il test di Egger. RISULTATI: Sono stati selezionati 29 studi di cui 19 inseriti nella meta-analisi: 13 studi caso-controllo e 6 di coorte. La meta-analisi ha mostrato un aumento significativo di casi di STC tra i soggetti obesi sia negli studi caso-controllo [OR 2,4 (1,9-3,1); I(2)=70,7%] che in quelli di coorte [OR 2,0 (1,6-2,7); I(2)=0%]. L'eterogeneità totale era significativa (I(2)=59,6%). Risultati simili si sono ottenuti per i diabetici e soggetti affetti da malattie della tiroide. L’esposizione al fumo non era associata alla STC sia negli studi caso-controllo [OR 0,7 (0,4-1,1); I(2)=83,2%] che di coorte [OR 0,8 (0,6-1,2); I(2)=45,8%]. A causa delle molteplici modalità di valutazione non è stato possibile calcolare una stima combinata delle esposizioni professionali con tecniche meta-analitiche. Dalla revisione, è risultato che STC è associata con: esposizione a vibrazioni, movimenti ripetitivi e posture incongrue di mano-polso. CONCLUSIONI: I risultati della revisione sistematica confermano le evidenze dell'esistenza di un'associazione tra fattori di rischio personali e STC. Nonostante la diversa qualità dei dati sull'esposizione e le differenze degli effetti dei disegni di studio, i nostri risultati indicano elementi di prova sufficienti di un legame tra fattori di rischio professionali e STC. La misurazione dell'esposizione soprattutto per i fattori di rischio professionali, è un obiettivo necessario per studi futuri.
Resumo:
La tesi è una rassegna storica e tecnica del Sistema Operativo Android, che parte da eventi del 1999 fino ad arrivare ai giorni nostri. É presente un'analisi della sua struttura del sistema e dell'anatomia di un'applicazione e si sviluppa fino agli usi alternativi di questo sistema operativo.
Resumo:
La firma grafometrica è la sottoscrizione autografa eseguita con uno stilo elettronico su un dispositivo di acquisizione digitale e rappresenta ad oggi nel panorama delle tipologie di firma elettroniche una realtà a tutti gli effetti realizzabile. Questa tipologia di firma elettronica fonda il proprio valore sulle caratteristiche di universalità, unicità, permanenza e collezionabilità dei dati biometrici. Il successo della firma grafometrica è da ricercare invece nella sua stessa natura di firma, in quanto l'uomo da sempre è stato abituato ad eseguire il gesto dell'apposizione della propria firma autografa a dichiarazione della propria volontà. La profonda informatizzazione degli ultimi anni e la recente normativa hanno quindi permesso di trasferire la semplicità di questo gesto dal contesto analogico a quello digitale. I vantaggi derivanti dall'utilizzo della firma grafomentrica sono molteplici: innanzitutto il suo utilizzo comporta la completa dematerializzazione della gestione documentale aziendale con considerevoli risparmi dati dall'annullamento dei costi di stampa ed archiviazione dei documenti stessi, comporta inoltre una maggiore velocità di esecuzione dei processi documentali (dalla realizzazione dei documenti alla ricerca degli stessi) ed infine rende possibile l’ottenimento di documenti già predisposti per la conservazione a norma (con conseguente mantenimento della validità legale nel tempo). Come conseguenza di questa trasposizione dall'analogico al digitale si sono presentate tuttavia problematiche derivanti dalla natura stessa del nuovo contesto; la realizzazione di soluzioni di firma grafometrica richiede quindi una forte attenzione, al fine di evitare che i dati biometrici possano essere utilizzati impropriamente. Questa tesi è quindi volta a descrivere sia a livello normativo che tecnologico questa tipologia di firma elettronica avanzata. Nel corso della trattazione verranno inoltre fornite delle linee guida per la realizzazione di un corretto processo di apposizione della firma grafometrica a tutela della sicurezza dei dati biometrici dell'individuo.
Resumo:
The aim of this work is to present various aspects of numerical simulation of particle and radiation transport for industrial and environmental protection applications, to enable the analysis of complex physical processes in a fast, reliable, and efficient way. In the first part we deal with speed-up of numerical simulation of neutron transport for nuclear reactor core analysis. The convergence properties of the source iteration scheme of the Method of Characteristics applied to be heterogeneous structured geometries has been enhanced by means of Boundary Projection Acceleration, enabling the study of 2D and 3D geometries with transport theory without spatial homogenization. The computational performances have been verified with the C5G7 2D and 3D benchmarks, showing a sensible reduction of iterations and CPU time. The second part is devoted to the study of temperature-dependent elastic scattering of neutrons for heavy isotopes near to the thermal zone. A numerical computation of the Doppler convolution of the elastic scattering kernel based on the gas model is presented, for a general energy dependent cross section and scattering law in the center of mass system. The range of integration has been optimized employing a numerical cutoff, allowing a faster numerical evaluation of the convolution integral. Legendre moments of the transfer kernel are subsequently obtained by direct quadrature and a numerical analysis of the convergence is presented. In the third part we focus our attention to remote sensing applications of radiative transfer employed to investigate the Earth's cryosphere. The photon transport equation is applied to simulate reflectivity of glaciers varying the age of the layer of snow or ice, its thickness, the presence or not other underlying layers, the degree of dust included in the snow, creating a framework able to decipher spectral signals collected by orbiting detectors.
Resumo:
Il presente lavoro è motivato dal problema della constituzione di unità percettive a livello della corteccia visiva primaria V1. Si studia dettagliatamente il modello geometrico di Citti-Sarti con particolare attenzione alla modellazione di fenomeni di associazione visiva. Viene studiato nel dettaglio un modello di connettività. Il contributo originale risiede nell'adattamento del metodo delle diffusion maps, recentemente introdotto da Coifman e Lafon, alla geometria subriemanniana della corteccia visiva. Vengono utilizzati strumenti di teoria del potenziale, teoria spettrale, analisi armonica in gruppi di Lie per l'approssimazione delle autofunzioni dell'operatore del calore sul gruppo dei moti rigidi del piano. Le autofunzioni sono utilizzate per l'estrazione di unità percettive nello stimolo visivo. Sono presentate prove sperimentali e originali delle capacità performanti del metodo.