903 resultados para macchine di Schönhage, term graph rewriting, riduzione su grafi
Resumo:
Con l'obiettivo di fornire una dimostrazione della regola di Litlewood-Richardson, si forniscono nozioni su: composizioni e partizioni, funzioni quasisimmetriche, funzioni simmetriche, funzioni di Schur, e rappresentazioni lineari. Al termine sono inseriti un paio di ritratti dei due uomini che sono stati storicamente fondamentali per la trattazione degli argomenti della tesi.
Resumo:
Il presente lavoro è uno studio sulle diverse proposte in letteratura per ovviare alle problematiche di interoperabilità tra piattaforme di virtualizzazione eterogenee, ovvero di diversi produttori. Al giorno d'oggi non sono stati definiti con successo degli standard opportuni per cui le soluzioni presentate sono molto diverse tra di loro. Lo scopo del lavoro è quello di analizzare le proposte e, in base ad uno studio approfondito, stabilire qual è quella migliore. Successivamente si vuole presentare il caso di studio di una piattaforma che si basa su uno strato virtuale che può essere eterogeneo. Si vuole evidenziare come nei sistemi complessi garantire interoperabilità comporta garantire anche una vasta serie di altri servizi necessari alla consistenza del sistema.
Resumo:
La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.
Resumo:
La termografia è un metodo d’indagine ampiamente utilizzato nei test diagnostici non distruttivi, in quanto risulta una tecnica d’indagine completamente non invasiva, ripetibile nel tempo e applicabile in diversi settori. Attraverso tale tecnica è possibile individuare difetti superficiali e sub–superficiali, o possibili anomalie, mediante la rappresentazione della distribuzione superficiale di temperatura dell’oggetto o dell’impianto indagato. Vengono presentati i risultati di una campagna sperimentale di rilevamenti termici, volta a stabilire i miglioramenti introdotti da tecniche innovative di acquisizione termografica, quali ad esempio la super-risoluzione, valutando un caso di studio di tipo industriale. Si è effettuato un confronto tra gli scatti registrati, per riuscire a individuare e apprezzare le eventuali differenze tra le diverse modalità di acquisizione adottate. L’analisi dei risultati mostra inoltre come l’utilizzo dei dispositivi di acquisizione termografica in modalità super-resolution sia possibile anche su cavalletto.
Resumo:
Il documento contiene la traduzione di alcuni racconti brevi del libro per bambini "Antes, cuando Venecia no existía" della scrittrice e illustratrice Victoria Pérez Escrivá. La proposta di traduzione è preceduta da una panoramica su genere letterario, struttura, stile e temi presenti nei testi. I sei racconti tradotti sono poi seguiti da un commento con analisi degli elementi più significativi che si presentano al traduttore nell'ambito della traduzione di letteratura per l'infanzia; rapporto con le illustrazioni e con il font, musicalità, aspetti inerenti alla cultura e difficoltà traduttive affrontate con relative soluzioni. Ognuno di essi è stato analizzato in un’ottica sia generale che rapportata specificamente ai racconti tradotti. Vi è infine una riflessione sul ruolo del traduttore di narrativa per bambini e ragazzi.
Resumo:
Pochi studi hanno indagato il profilo dei sintomi non-motori nella malattia di Parkinson associata al gene glucocerebrosidasi (GBA). Questo studio è mirato alla caratterizzazione dei sintomi non-motori, con particolare attenzione alla valutazione delle funzioni neurovegetativa, cognitiva e comportamentale, nel parkinsonismo associato a mutazione del gene GBA con la finalità di verificare se tali sintomi non-motori siano parte dello spettro clinico di questi pazienti. E’ stato condotto su una coorte di pazienti affetti da malattia di Parkinson che erano stati tutti sottoposti ad una analisi genetica per la ricerca di mutazioni in uno dei geni finora associati alla malattia di Parkinson. All’interno di questa coorte omogenea sono stati identificati due gruppi diversi in relazione al genotipo (pazienti portatori della mutazione GBA e pazienti non portatori di nessuna mutazione) e le caratteristiche non-motorie sono state confrontate nei due gruppi. Sono state pertanto indagati il sistema nervoso autonomo, mediante studio dei riflessi cardiovascolari e analisi dei sintomi disautonomici, e le funzioni cognitivo-comportamentali in pazienti affetti da malattia di Parkinson associata a mutazione del gene GBA. I risultati sono stati messi a confronto con il gruppo di controllo. Lo studio ha mostrato che i pazienti affetti da malattia di Parkinson associata a mutazione del gene GBA presentavano maggiore frequenza di disfunzioni ortosimpatiche, depressione, ansia, apatia, impulsività, oltre che di disturbi del controllo degli impulsi rispetto ai pazienti non portatori. In conclusione, i pazienti GBA positivi possono esprimere una sintomatologia non-motoria multidominio con sintomi autonomici, cognitivi e comportamentali in primo piano. Pertanto l’impostazione terapeutica in questi pazienti dovrebbe includere una accurata valutazione dei sintomi non-motori e un loro monitoraggio nel follow up clinico, allo scopo di ottimizzare i risultati e ridurre i rischi di complicazioni.
Resumo:
L’oggetto principale delle attività di tesi è la caratterizzazione numerico-sperimentale di processi di colata in sabbia di ghisa sferoidale. Inizialmente è stata effettuata un’approfondita indagine bibliografica per comprendere appieno le problematiche relative all’influenza dei parametri del processo fusorio (composizione chimica, trattamento del bagno, velocità di raffreddamento) sulle proprietà microstrutturali e meccaniche di getti ottenuti e per valutare lo stato dell’arte degli strumenti numerici di simulazione delle dinamiche di solidificazione e di previsione delle microstrutture. Sono state definite, realizzate ed impiegate attrezzature sperimentali di colata per la caratterizzazione di leghe rivolte alla misura ed alla differenziazione delle condizioni di processo, in particolare le velocità di raffreddamento, ed atte a validare strumenti di simulazione numerica e modelli previsionali. Inoltre sono stati progettati ed impiegati diversi sistemi per l’acquisizione ed analisi delle temperature all’interno di getti anche di grandi dimensioni. Lo studio, mediante analisi metallografica, di campioni di materiale ottenuto in condizioni differenziate ha confermato l’effetto dei parametri di processo considerati sulle proprietà microstrutturali quali dimensioni dei noduli di grafite e contenuto di ferrite e perlite. In getti di grandi dimensioni si è riscontrata anche una forte influenza dei fenomeni di macrosegregazione e convezione della lega su microstrutture e difettologie dei getti. Le attività si sono concentrate principalmente nella simulazione numerica FEM dei processi fusori studiati e nell’impiego di modelli empirico-analitici per la previsione delle microstrutture. I dati misurati di temperature di processo e di microstrutture sono stati impiegati per la validazione ed ottimizzazione degli strumenti numerici previsionali impiegati su un ampio intervallo di condizioni di processo. L’impiego di strumenti affidabili di simulazione del processo fusorio, attraverso l’implementazione di correlazioni sperimentali microstrutture-proprietà meccaniche, permette la valutazione di proprietà e difettologie dei getti, fornendo un valido aiuto nell’ottimizzazione del prodotto finito e del relativo processo produttivo.
Resumo:
L'obiettivo di questo lavoro è quello di fornire una metodologia operativa, esposta sotto forma di modello organizzativo strutturato per casi, che le aziende possono utilizzare per definire le azioni immediate di risposta da intraprendere al verificarsi di un evento informatico di sicurezza, che potrebbe trasformarsi, come vedremo, in incidente informatico di sicurezza. La strutturazione di questo modello si basa principalmente su due standard prodotti dall'ISO/IEC ed appartenenti alla famiglia 27000, che delinea il sistema di gestione della sicurezza delle informazioni in azienda e che ha come scopo principale la protezione di riservatezza, integrità e disponibilità dei dati in azienda. Il contenuto di tali standard non può però prescindere dagli ordinamenti giuridici di ogni paese in cui vengono applicati, motivo per cui all'interno del lavoro sono stati integrati i riferimenti alle normative di rilevante interesse, soprattutto quelle collegate alla privacy e ai casi presi in esame all'interno del modello sviluppato. In prima battuta vengono quindi introdotti gli standard di riferimento, illustrati all'interno del Capitolo 1, proseguendo poi con la descrizione di concetti fondamentali per la strutturazione del modello organizzativo, come sicurezza informatica, incident response e informatica forense, che vengono esposti nel Capitolo 2. Nel Capitolo 3 vengono invece descritti gli aspetti normativi in merito alla privacy dei dati aziendali, dettagliando anche le motivazioni che portano alla creazione del modello organizzativo obiettivo di questo lavoro. Nel Capitolo 4 viene illustrato il modello organizzativo proposto, che presenta una struttra per casi e contiene una analisi dei casi più rilevanti dal punto di vista del business aziendale. Infine, nel Capitolo 5 vengono descritte le caratteristiche e le funzionalità di un software sviluppato sotto forma di Windows Service, nato in seguito a delle considerazioni basate sulle analisi di rischio svolte nel Capitolo 4.
Resumo:
La presente tesi tratta delle attività riproduttive e delle prime fasi di crescita dello squalo Chiloscyllium punctatum. Da Dicembre 2013 a Giugno 2014, all’Acquario di Cattolica, sono state effettuate osservazioni su una coppia di adulti riproduttori e sui relativi neonati mantenuti in ambiente controllato. Il Chiloscyllium punctatum è una specie ovipara che rilascia uova di forma rettangolare, ha un ciclo riproduttivo relativamente rapido ed è molto sfruttata come specie ornamentale dagli acquari di tutto il mondo. Per ottenere una corretta gestione in ambiente controllato, la riproduzione ed estrapolare il maggior numero d’informazioni certe su gli stadi di vita, sulla dieta di divezzamento dei neonati dal sacco vitellino, sull’illuminazione più consona da adottare, sulle dimensioni medie di uova, nascituri e adulti, sulla crescita dei nascituri, sui tempi di sviluppo embrionale, sulla frequenza di deposizione delle uova e sui tempi di schiusa è stato necessario sviluppare un corretta procedura di gestione ordinaria. In 7 mesi, gli adulti di C. punctatum, in condizioni ambientali ottimali e costanti, hanno dato vita a 33 neonati. Questi sono stati sottoposti a misurazioni di lunghezza (LT, cm) e peso corporeo (PC, g) per valutare l’influenza dell’illuminamento e della dieta sulla crescita. Inoltre, sono stati confrontati dati sperimentali (e.g. tempistiche di sviluppo embrionale) con dati bibliografici (Haraush et al., 2007) che hanno evidenziato alcune similitudini e differenze.
Resumo:
La presente tesi affronta il tema del disegno costruttivo e della specificazione geometrica dei componenti, tema molto importante per il settore aerospaziale in cui il costo dei componenti è tipicamente alto, la produzione è delocalizzata, la precisione di lavorazione richiesta è elevata e gli elementi di un velivolo vengono assemblati in luoghi diversi da quelli di produzione. Dopo un attento esame delle normative che vengono commentate in modo ragionato, si passa ad un caso di studio rappresentato dalla quotatura della testa del rotore di un elicottero. Essa è stata modellata in un sistema CAD e sono stati realizzati i disegni costruttivi. Nell'ultima parte del lavoro si passa ad una valutazione di come i sistemi CAD attuali siano in grado di assicurare la corretta gestione di quote e tolleranze. Si può infine dire che la conoscenza e corretta applicazione delle norme di specificazione geometrica dei prodotti è fondamentale nel settore aeronautico e può aiutare a risolvere problemi come: difficoltà di controllo di componenti realizzati, scarto di componenti in realtà funzionali, riduzione di problematiche di assemblaggio di componenti.
Resumo:
“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.
Resumo:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
Resumo:
Lavoro svolto per la creazione di una rete citazionale a partire da articoli scientifici codificati in XML JATS. Viene effettuata un'introduzione sul semantic publishing, le ontologie di riferimento e i principali dataset su pubblicazioni scientifiche. Infine viene presentato il prototipo CiNeX che si occupa di estrarre da un dataset in XML JATS un grafo RDF utilizzando l'ontologia SPAR.
Resumo:
Gli spazi di Teichmuller nacquero come risposta ad un problema posto diversi anni prima da Bernhard Riemann, che si domandò in che modo poter parametrizzare le strutture complesse supportate da una superficie fissata; in questo lavoro di tesi ci proponiamo di studiarli in maniera approfondita. Una superficie connessa, orientata e dotata di struttura complessa, prende il nome di superficie di Riemann e costituisce l’oggetto principe su cui si basa l’intero studio affrontato nelle pagine a seguire. Il teorema di uniformizzazione per le superfici di Riemann permette di fare prima distinzione netta tra esse, classificandole in superfici ellittiche, piatte o iperboliche. Due superfici di Riemann R ed S si dicono equivalenti se esiste un biolomorfismo f da R in S, e si dice che hanno la stessa struttura complessa. Certamente se le due superfici hanno genere diverso non possono essere equivalenti. Tuttavia, se R ed S sono superfci con lo stesso genere g ma non equivalenti, è comunque possibile dotare R di una struttura complessa, diversa dalla precedente, che la renda equivalente ad S. Questo permette di osservare che R è in grado di supportare diverse strutture complesse non equivalenti tra loro. Lo spazio di Teichmuller Tg di R è definito come lo spazio che parametrizza tutte le strutture complesse su R a meno di biolomorfismo. D’altra parte ogni superficie connessa, compatta e orientata di genere maggiore o uguale a 2 è in grado di supportare una struttura iperbolica. Il collegamento tra il mondo delle superfici di Riemann con quello delle superfici iperboliche è stato dato da Gauss, il quale provò che per ogni fissata superficie R le metriche iperboliche sono in corrispondenza biunivoca con le strutture complesse supportate da R stessa. Questo teorema permette di fornire una versione della definizione di Tg per superfici iperboliche; precisamente due metriche h1, h2 su R sono equivalenti se e soltanto se esiste un’isometria φ : (R, h1 ) −→ (R, h2 ) isotopa all’identità. Pertanto, grazie al risultato di Gauss, gli spazi di Teichmuller possono essere studiati sia dal punto di vista complesso, che da quello iperbolico.
Resumo:
Questa tesi compilativa prende in esame la cartilagine, partendo dalla composizione dei suoi diversi tipi rappresentati nel corpo umano e delle funzioni qui svolte, per descrivere i metodi utilizzati per riprodurla artificialmente mediante cellule staminali, fattori di crescita e scaffold dedicati coltivati in ambiente controllato. La cartilagine è un tessuto molto particolare perché, diversamente dagli altri tessuti, non possiede una rete di capillari e quindi riceve un limitati apporto di ossigeno e sostanze nutritive, che spiega la sua poverissima capacità intrinseca di riparazione. La cartilagine è però un tessuto soggetto a numerosi stress di vario tipo e quindi è soggetta a traumi che possono essere di natura sportiva o accidentale (soprattutto la cartilagine di tipo articolare) ed è anche colpita da malattie degenerative. Questo ha stimolato gli studi che intendono ingegnerizzare un tessuto artificiale in grado di aumentare la capacità di riparare la zona colpita. In quest’ottica, vengono attivamente condotti esperimenti in grado di definire protocolli che inducano cellule staminali al differenziamento in cellule di tipo cartilagineo. Tali cellule, seminate su supporti (scaffolds) 3D biocompatibili di diversa natura, naturali o sintetici, eventualmente bioattivi, possono essere coltivate in ambienti dedicati, detti bioreattori, che utilizzino stimoli fisici (p. es. vibrazionali, microgravità, ultrasonici, regolazione della tensione di ossigeno, sforzi di taglio, compressione dinamica e compressione idrostatica ciclica) che si sono dimostrati utili per indurre l’appropriato fenotipo cellulare, valutabile attraverso una batteria di approcci di misura morfologica e funzionale.