998 resultados para funzioni a variazione totale limitata sviluppabilità funzione di Vitali assoluta continuità
Resumo:
Down syndrome (DS) or Trisomy 21, occurring in 1/700 and 1/1000 livebirths, is the most common genetic disorder, characterized by a third copy of the human chromosome 21 (Hsa21). DS is associated with various defects, including congenital heart diseases, craniofacial abnormalities, immune system dysfunction, mental retardation (MR), learning and memory deficiency. The phenotypic features in DS are a direct consequence of overexpression of genes located within the triplicated region on Hsa21. In addition to developmental brain abnormalities and disabilities, people with DS by the age of 30-40 have a greatly increased risk of early-onset of Alzheimer’s disease (AD) and an apparent tendency toward premature aging. Many of the immunological anomalies in DS can be enclosed in the spectrum of multiple signs of early senescence. People with DS have an increased vulnerability to oxidative damage and many factors, including amyloid beta protein (Abeta), genotype ApoE4, oxidative stress, mutations in mitochondrial DNA (mtDNA), impairment of antioxidant enzymes, accelerated neuronal cell apoptosis, are related to neuronal degeneration and early aging in DS. SUBJECTS and METHODS: Since 2007 a population of 50 adolescents and adults with DS, 26 males and 24 females (sex-ratio: M/F = 1.08), has been evaluated for the presence of neurological features, biomarkers and genetic factors correlated with neuronal degeneration and premature aging. The control group was determined by the mother and the siblings of the patients. A neuropsychiatric evaluation was obtained from all patients. The levels of thyroid antibodies (antiTg and antiTPO) and of some biochemical markers of oxidative stress, including homocysteine (tHcy), uric acid, cobalamin, folate were measured. All patients, the mother and the siblings were genotyped for ApoE gene. RESULTS: 40% of patients, with a mild prevalence of females aged between 19 and 30 years, showed increased levels of antiTg and antiTPO. The levels of tHcy were normal in 52% patients and mildly increased in 40%; hyperomocysteinemia was associated with normal levels of thyroid antibodies in 75% of patients (p<0.005). The levels of uric acid were elevated in 26%. Our study showed a prevalence of severe MR in patients aged between 1-18 years and over 30 years. Only 3 patients, 2 females and one male, over 30 years of age, showed dementia. According to the literature, the rate of Down left-handers was high (25%) compared to the rest of population and the laterality was associated with increased levels of thyroid antibodies (70%). 21.5% of patients were ApoE4 positive (ApoE4+) with a mean/severe MR. CONCLUSIONS: Until now no biochemical evidence of oxidative damage and no deficiency or alteration of antioxidant function in our patients with DS were found. mtDNA sequencing could show some mutations age-related and associated with oxidative damage and neurocognitive decline in the early aging of DS. The final aim is found predictive markers of early-onset dementia and a target strategy for the prevention and the treatment of diseases caused by oxidative stress. REFERENCES: 1) Rachidi M, Lopes C: “Mental retardation and associated neurological dysfunctions in Down syndrome: a consequence of dysregulation in critical chromosome 21 genes and associated molecular pathways.” - Eur J Paediatr Neurol. May;12(3):168-82 (2008). 2) Lott IT, Head E: “Down syndrome and Alzheimer's disease: a link between development and aging.” - Ment Retard Dev Disabil Res Rev, 7(3):172-8 (2001). 3) Lee HC, Wei YH: “Oxidative Stress, Mitochondrial DNA Mutation, and Apoptosis in Aging.” - Exp Biol Med (Maywood), May;232(5):592-606 (2007).
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
Lo scopo dello studio è un'analisi comparativa degli impatti ambientali, calcolati utilizzando la metodologia del Life Cycle Assessment, della fase agricola di 9 colture dedicate (lignocellulosiche, oleaginose e cereali) da biomassa, con diifferenti destinazioni energetiche (biocarburanti di I e II generazione ed energia elettrica). E' infine stata eseguita un'analisi "from cradle to grave" considerando anche le diverse tecnice di trasformazione possibili, con dati bibliografici. Sotto tutti i profili (impatto per ettaro, impatto per unità energetica generata, e impatto totale della filiera, risulta un netto vantaggio delle coltrue lignocellulosiche, e fra queste specialmente le poliennali.
Resumo:
La crescita normale di un individuo è il risultato dell’azione coordinata di molteplici ormoni e recettori codificati da geni e a tal proposito, discreto interesse è stato dato ai geni tipici dell’asse del GH. Tuttavia altri geni, più a monte di questi e responsabili dello sviluppo dell’ipofisi contribuiscono alla crescita normale o patologica. Alcuni geni studiati sono POU1F1, PROP1, LHX3, LHX4, HESX1, SOX3 e svariate loro mutazioni sono state identificate come causa di panipopituarismo (CPHD=Combined Pituitary Hormone Deficiency). In realtà la ricerca genetica non spiega ancora molte anomalie ipofisarie e molte mutazioni devono ancora essere identificate. Uno degli scopi del dottorato, svoltosi nel laboratorio di Genetica molecolare di Pediatria, è stata l’identificazione di mutazioni geniche da un gruppo di pazienti CPHD considerando in particolare i geni POU1F1, LHX3, SOX3, non ancora messi a punto presso il laboratorio. L’approccio sperimentale si è basato sulle seguenti fasi: prelievo delle informazioni di sequenza da GeneBank, progettazione di primers per amplificare le porzioni esoniche, messa a punto delle fasi della PCR e del sequenziamento, analisi della sequenza e confronto con le informazioni di sequenza depositate allo scopo di rintracciare eventuali mutazioni o varianti. La bassa percentuale di mutazioni in questi geni non ha permesso finora di rintracciare mutazioni nelle porzioni esoniche salvo che in un soggetto, nell’esone 6 di LHX3b (nuova mutazione, recessiva eterozigote, c.1248A>G implicata nella mutazione p.T377A della sequenza proteica). Un metodo di screening di questa mutazione impiegando l’enzima di restrizione SacII è stato usato, senza rilevare nessun altra occorrenza dell’allele mutato in 53 soggetti di controllo. Oltre alla messa a punto del sequenziamento e di alcune tecniche di analisi di singoli SNP o piccoli INDELs per i 3 geni, la ricerca svolta è stata orientata all’impiego di metodi di rilevamento di riarrangiamenti genetici comportanti ampie delezioni e/o variazioni del copy-number di esoni/interi geni detto MLPA (Multiplex Ligation-dependent Probe Amplification) e progettato da MRC-Holland. Il sequenziamento infatti non permette di rilevare tali alterazioni quando sono ampie ed in eterozigosi. Per esempio, in un’ampia delezione in eterozigosi, l’intervallo delimitato dai primers usati per la PCR può non includere totalmente la porzione interessata da delezione su un cromosoma cosicché la PCR ed il sequnziamento si basano solo sulle informazioni dell’altro cromosoma non deleto. Un vantaggio della tecnica MLPA, è l’analisi contemporanea di una quarantina di siti posti su svariati geni. Questa metodo tuttavia può essere affetto da un certo margine di errore spesso dipendente dalla qualità del DNA e dovrebbe essere affiancato e validato da altre tecniche più impegnativa dal punto di vista sperimentale ma più solide, per esempio la Real Time PCR detta anche PCR quantitativa (qPCR). In laboratorio, grazie all’MLPA si è verificata la condizione di delezione eterozigote di un paziente “storico” per il gene GH1 e la stessa mutazione è stata rilevata anche con la qPCR usando lo strumento Corbett Rotor Gene 6000 (Explera). Invece un’analisi solo con la qPCR di variazioni del copy-number (CNV) per SOX3 in pazienti maschili non ha ancora evidenziato anomalie. Entrambe le tecniche hanno aspetti interessanti, il miglior approccio al momento sembra un’analisi iniziale di pazienti con l’MLPA, seguita dalla verifica di un eventuale esito anomalo impiegando la real-time PCR.
Resumo:
Nella mia tesi di dottorato mi propongo di indagare la metamorfosi del romanzo nella letteratura italiana contemporanea attraverso il lavoro di Paolo Volponi, che può essere descritto come un’«opera mondo», in accordo con la formula critica coniata da Franco Moretti. Volponi intende superare il divario fra l’io e il mondo e ricomporre il corpo come una mediazione umanistica di ragione e sensi. La sua opera può essere definita ‘epica’ perché recupera la tradizione del romanzo cavalleresco e la parodia esercitata su questa tradizione letteraria da Cervantes nel Don Chisciotte. Ma, come l’Ulysses di Joyce, è un’epica «moderna» perché fondata su una totalità disgiunta e sul conflitto dialogico, in una linea che accomuna la moltiplicazione dei punti di vista, propria del romanzo polifonico secondo Bachtin, alla pluralità di prospettive del discorso scientifico. Dopo un primo capitolo teorico, nel secondo e nel terzo capitolo della tesi i romanzi di Volponi vengono studiati in rapporto al filone dell’«epica moderna» e al genere satirico, che ha un suo modello fondativo nell’opera di Giacomo Leopardi. Il quarto capitolo si focalizza sulle ultime raccolte poetiche, che mostrano la tendenza a recuperare il linguaggio formulare e la matrice orale della poesia delle origini, servendosene per rappresentare in funzione contrappuntistica l’universo globale dell’età contemporanea.
Resumo:
Il presente documento affronta l’impiego dell’effetto Coanda come metodo di sostentamento per velivoli UAV/UAS. A tal proposito è stato valutato il dimostratore costruito presso la facoltà mediante l’ottimizzazione del sistema propulsivo impiegato e la variazione di configurazioni atte a ricercare l’influenza sulla trazione, di alcuni parametri individuati dalla bibliografia. I dati raccolti sono stati posti a confronto con quelli pubblicati e in parte stimati, con alcuni dimostratori attualmente volanti. Dalle conclusioni elaborate dalla sperimentazione con il dimostratore, si è analizzato l’effetto Coanda su un semi-modello a profilo ellittico, variando la collocazione e la portata della sorgente, dandone una prima descrizione analitica.
Resumo:
Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale. In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute. L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni. Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione. Per quanto attiene il confronto fra i diversi software si è verificato che: • le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo; • le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici; • il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software. E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete. Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy).
Resumo:
La mia tesi analizza il modo in cui è costruito il rapporto tra università e politica, con particolare sguardo sulle Università di Bucarest e di Bologna. E una ricerca empirica che si propone da una parte di fare una radiografia esatta della formulazione delle politiche dello stato in materia d’istruzione superiore, e dall’altro lato, di vedere la maniera in cui si sviluppa l’organizzazione interna delle università romene, prendendo come caso concreto l’Università di Bucarest. L’interesse per questo argomento è stato determinato dal fatto che la politica dell’educazione rappresenta una politica chiave nella ricostruzione dello stato democratico romeno dopo dicembre 1989. In secondo luogo l’intento di approfondire questo tema parte dal fatto che in Romania mancano degli studi consistenti sul percorso dell’università durante la transizione post communista, studi fatti nella prospettiva della scienza politica. In terzo luogo l’educazione è da sempre un argomento con portata politica. La tesi è articolata in tre parti, fondamentali per la comprehensione del rapporto tra politica è università: Università, Elites politiche e università, Stato e università. L’ipotesi è che l’educazione rappresenta un mezzo di legitimazzione per la politica, oppure, la carriera universitaria è un mezzo di legitimazzione per la carriera politica. Da qui deriva il fatto che l’università si constituisce in una fonte di reclutamento per i partiti politici e che in Romania le università private sono create per facilitare uno scambio di capitale, con lo scopo di facilitare il passaggio dal mondo politico verso il mondo accademico. Dal punto di vista metodologico, sono state utilizzate le fonti seguenti: archivio dell’università di Bucarest, fondo senato, periodo 1989-2004; archivio della Camera dei Deputati della Romania; l’archivio della Commisione per l’Insegnamento, la scienza e la gioventù della Camera dei Deputati e interviste semi-direttive con ex ministri dell’istruzione, consiglieri della Commisione per l’Insegnamento della Camera dei Deputati e altri politici. Inoltre, per il caso romeno è stata realizzata una banca dati con i membri del Parlamento romeno 1989-2008, per un totale di 2737 parlamentari, con lo scopo di realizzare il profilo educazionale dell’elite parlamentare nel post communismo. Nel periodo che abbiamo investigato, l’università si definisce attraverso il suo posizionamento verso il passato, da una parte perchè non esiste una politica dell’università romena che abbiamo incluso nello studio di caso, ma ci sono dei tentativi di conquistare i dirittti degli universitari, e dall’altra perchè il cambiamento dell’università è blocatto da routines di tipo burocratico. La relazione tra il mondo accademico e il mondo politico si costruisce a livello di cariera in un senso doppio: dal mondo accademico verso il mondo politico nello spirito della tradizione interbellica romena e dal mondo politico verso il mondo accademico, la cui comprensione è facilitata dal paragone con il caso italiano. Per la terza parte dello studio, possiamo osservare che lo stato è molto presente nello spazio educativo, fatto che rende difficile la negociazzione di una pertinente definizione dell’autonomia universitaria.
Resumo:
A causa della limitata estensione del campo di vista del sistema, con un microscopio ottico tradizionale non è possibile acquisire una singola immagine completamente a fuoco se l’oggetto è caratterizzato da una profondità non trascurabile. Fin dagli anni ’70, il problema dell’estensione della profondità di fuoco è stato ampiamente trattato in letteratura e molti metodi sono stati proposti per superare questo limite. Tuttavia, è molto difficile riuscire a decretare quale metodo risulti essere il migliore in una specifica applicazione, a causa della mancanza di una metrica validata e adatta ad essere utilizzata anche in casi reali, dove generalmente non si ha a disposizione un’immagine di riferimento da considerare come “la verità” (ground truth). L’Universal Quality Index (UQI) è ampiamente utilizzato in letteratura per valutare la qualità dei risultati in processi di elaborazione di immagini. Tuttavia, per poter calcolare questo indice è necessaria una ground truth. In effetti, sono state proposte in letteratura alcune estensioni dell’UQI per valutare il risultato dei metodi di fusione anche senza immagine di riferimento, ma nessuna analisi esaustiva è stata proposta per dimostrare la loro equivalenza con l’UQI standard nel valutare la qualità di un’immagine. In questo lavoro di Tesi, partendo dai limiti dei metodi attualmente utilizzati per l'estensione della profondità di campo di un microscopio, ed esposti in letteratura, per prima cosa è stato proposto un nuovo metodo, basato su approccio spaziale e fondato su analisi locale del segnale appositamente filtrato. Attraverso l’uso di sequenze di immagini sintetiche, delle quali si conosce la ground truth, è stato dimostrato, utilizzando metriche comuni in image processing, che il metodo proposto è in grado di superare le performance dei metodi allo stato dell'arte. In seguito, attraverso una serie di esperimenti dedicati, è stato provato che metriche proposte e ampiamente utilizzate in letteratura come estensione dell'UQI per valutare la qualità delle immagini prodotte da processi di fusione, sebbene dichiarate essere sue estensioni, non sono in grado di effettuare una valutazione quale quella che farebbe l'UQI standard. E’ quindi stato proposto e validato un nuovo approccio di valutazione che si è dimostrato in grado di classificare i metodi di fusione testati così come farebbe l’UQI standard, ma senza richiedere un’immagine di riferimento. Infine, utilizzando sequenze di immagini reali acquisite a differenti profondità di fuoco e l’approccio di valutazione validato, è stato dimostrato che il metodo proposto per l’estensione della profondità di campo risulta sempre migliore, o almeno equivalente, ai metodi allo stato dell’arte.
Resumo:
La tesi tratta alcuni dei principali filtri di diffusione non lineari per il problema di denoising di immagini. In particolare pertendo dalla formulazione del problema come minimizzazione di un funzionale introduce modelli allo stato dell'arte come il filtro Lineare, di Perona Malik, alle Variazioni Totali e per Curvatura; infine un nuovo modello diffusivo sviluppato dal prof.Antonio Marquina è per la prima volta applicato al problema di denoising. Seguono numerosi schemi numerici alle differenze finite per risolverli, che generano procedimenti iterativi espliciti, impliciti e AOS. Verrà analizzato per la prima volta per il problema di denoising uno schema conservativo al prim'ordine e di ordine superiore, dopo evere proposto una modifica per rendere idoneo la funzione diffusività. Infine vi è un ampio capitolo con considerazioni numeriche e visive sui risultati sperimentali ottenuti.
Resumo:
Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.
Resumo:
Nonostante l’oggettiva constatazione dei risultati positivi riscontrati a seguito dei trattamenti radioterapici a cui sono sottoposti i pazienti a cui è stato diagnosticato un tumore, al giorno d’oggi i processi biologici responsabili di tali effetti non sono ancora perfettamente compresi. Inseguendo l’obbiettivo di riuscire a definire tali processi è nata la branca delle scienze biomediche denominata radiobiologia, la quale appunto ha lo scopo di studiare gli effetti provocati dalle radiazioni quando esse interagiscono con un sistema biologico. Di particolare interesse risulta essere lo studio degli effetti dei trattamenti radioterapici nei pazienti con tumore del polmone che rappresentano la principale causa di morte dei paesi industrializzati. Purtroppo per via della scarsa reperibilità di materiale, non è stato finora possibile studiare nel dettaglio gli effetti delle cure radioterapiche nel caso di questo specifico tumore. Grazie alle ricerche di alcuni biologi dell’IRST sono stati creati in-vitro sferoidi composti da cellule staminali e tumorali di polmone, chiamate broncosfere, permettendo così di avere ottimi modelli tridimensionali di tessuto umano allo stato solido su cui eseguire esperimenti al fine di regolare i parametri dei trattamenti radioterapici, al fine di massimizzarne l’effetto di cura. In questo lavoro di Tesi sono state acquisite sequenze di immagini relative a broncosfere sottoposte a differenti tipologie di trattamenti radioterapici. Le immagini acquisite forniscono importanti indicazioni densitomorfometriche che correlate a dati clinoco-biologico potrebbero fornire importanti indicazioni per regolare parametri fondamentali dei trattamenti di cura. Risulta però difficile riuscire a confrontare immagini cellulari di pre e post-trattamento, e poter quindi effettuare delle correlazioni fra modalità di irraggiamento delle cellule e relative caratteristiche morfometriche, in particolare se le immagini non vengono acquisite con medesimi parametri e condizioni di cattura. Inoltre, le dimensioni degli sferoidi cellulari da acquisire risultano essere tipicamente maggiori del parametro depth of focus del sistema e questo implica che non è possibile acquisire una singola immagine completamente a fuoco di essi. Per ovviare a queste problematiche sono state acquisite sequenze di immagini relative allo stesso oggetto ma a diversi piani focali e sono state ricostruite le immagini completamente a fuoco utilizzando algoritmi per l’estensione della profondità di campo. Sono stati quindi formulati due protocolli operativi per fissare i procedimenti legati all’acquisizione di immagini di sferoidi cellulari e renderli ripetibili da più operatori. Il primo prende in esame le metodiche seguite per l’acquisizione di immagini microscopiche di broncosfere per permettere di comparare le immagini ottenute in diverse acquisizioni, con particolare attenzione agli aspetti critici di tale operazione. Il secondo è relativo alla metodica seguita nella archiviazione di tali immagini, seguendo una logica di classificazione basata sul numero di trattamenti subiti dal singolo sferoide. In questo lavoro di Tesi sono stati acquisiti e opportunamente archiviati complessivamente circa 6500 immagini di broncosfere riguardanti un totale di 85 sferoidi. I protocolli elaborati permetteranno di espandere il database contenente le immagini di broncosfere con futuri esperimenti, in modo da disporre di informazioni relative anche ai cambiamenti morfologici subiti dagli sferoidi in seguito a varie tipologie di radiotrattamenti e poter quindi studiare come parametri di frazionamento di dose influenzano la cura. Infine, grazie alle tecniche di elaborazioni delle immagini che stiamo sviluppando sarà inoltre possibile disporre di una ricostruzione della superficie degli sferoidi in tempo reale durante l’acquisizione.
Resumo:
Le Leucemie Acute Mieloidi di sottotipo FAB M4 e M5, le Leucemie Acute Linfoblastiche e le Leucemie Bifenotipiche sono frequentemente caratterizzate da traslocazioni del gene 11q23/MLL con formazione di oncogeni di fusione e produzione di oncoproteine che inducono la trasformazione neoplastica. Tali leucemie con riarrangiamenti di 11q23/MLL sono caratterizzate da prognosi infausta e scarsa responsività alle terapie convenzionali. Data la necessità di trovare terapie efficaci per le leucemie con traslocazione di MLL, in questo lavoro di ricerca sono stati progettati, caratterizzati e validati siRNA per il silenziamento genico degli oncogeni di fusione di MLL, con lo scopo di valutare il ripristino delle normali funzionalità di differenziamento cellulare e l’arresto della proliferazione neoplastica. Sono stati progettati siRNA specifici per gli oncogeni di fusione di MLL, sia per le regioni conservate nei diversi oncogeni di fusione, sia a livello del punto di fusione (breakpoint), sia per le regioni sui geni partner. I siRNA sono stati valutati su linee cellulari contenenti diverse traslocazioni del gene MLL. Il silenziamento è stato valutato sia a livello cellulare in termini di riduzione della capacità proliferativa e del numero delle cellule leucemiche, sia a livello molecolare tramite l’analisi della diminuzione dell’mRNA degli oncogeni di fusione di MLL. E’ stata valutata la diminuzione delle oncoproteine di fusione di MLL in seguito a trattamento con siRNA. E’ stata analizzata la variazione dell’espressione di geni dipendenti da MLL in seguito a trattamento con siRNA. Sono stati messi a punto modelli murini bioluminescenti di leucemie acute con traslocazioni di MLL innanzitutto per studiare il trafficking in vivo e la progressione leucemica delle leucemie acute con traslocazione di MLL. Successivamente sono stati utilizzati i modelli murini per lo studio in vivo dell’efficienza e della tossicità dei siRNA progettati e validati in vitro, valutando diversi sistemi di delivery per i siRNA in vivo.
Resumo:
Città natale del famoso compositore Gioacchino Rossini, Pesaro ospita e celebra le tracce della sua vita e della sua opera. L’appellativo di Pesaro “Città rossiniana”richiede alla città stessa la presenza di molte sedi tecniche e amministrative per tutti gli enti che si occupano della celebrazione e del mantenimento in vita della tradizione rossiniana. Questo è il motivo per cui si propone l’idea di un Centro Rossiniano che possa racchiudere in sé tutte le funzioni che stanno “dietro le quinte” delle manifestazioni, delle rappresentazioni, dello studio, della conservazione del materiale e della didattica riguardanti Gioacchino Rossini. Attualmente le consistenze storiche e artistiche che lo riguardano hanno diversi proprietari e altrettante numerose sedi, senza appartenere ad una collezione unica con univoca ed ordinata collocazione. Alla funzione museale si propone di affiancare quella di studio e approfondimento sulla vita del compositore e sul materiale conservato, prevedendo un Centro Studi con laboratori, aule studio e per la didattica. Ulteriormente, si propone di dare sede amministrativa al Rossini Opera Festival e alla Fondazione Rossini, liberando così il Teatro ed il Conservatorio dalle funzioni che non sono loro prettamente coerenti. Il progetto prevede inoltre di dotare il Centro Rossiniano di un auditorium-sala conferenze, che possa alleggerire il carico di attività del Teatro Rossini e della Sala Pedrotti. L’area di cui il progetto si interessa è racchiusa all’interno di un bastione che apparteneva alla cinta muraria cinquecentesca e che attualmente ospita l’Istituto Ospedaliero San Salvatore. In accordo con gli uffici competenti dell’amministrazione comunale, si prevede il decentramento della sede dell’Ospedale e la liberazione dell’area del bastione dalle preesistenze che oggi ne opprimono il valore storico ed il carattere esclusivo. Lo scopo di tale disimpegno dell’area è inoltre quello di destinarla a verde pubblico, nel rispetto della preesistenza storica e di collegare la zona di interesse al sistema dei percorsi ciclopedonali che si diramano in tutta la città di Pesaro. Il progetto propone ancora, l’inserimento nell’area di una quota di residenze e prevede l’alleggerimento del carico di traffico all’interno del centro storico, dirottandone gran parte lungo i viali alberati che ne percorrono il perimetro.