731 resultados para biolomorfismi semplicemente connesso analisi complessa applicazioni conformi
Resumo:
Negli ultimi anni i dati, la loro gestione e gli strumenti per la loro analisi hanno subito una trasformazione. Si è visto un notevole aumento dei dati raccolti dagli utenti, che si aggira tra il 40 e il 60 percento annuo, grazie ad applicazioni web, sensori, ecc.. Ciò ha fatto nascere il termine Big Data, con il quale ci si riferisce a dataset talmente grandi che non sono gestibili da sistemi tradizionali, come DBMS relazionali in esecuzione su una singola macchina. Infatti, quando la dimensione di un dataset supera pochi terabyte, si è obbligati ad utilizzare un sistema distribuito, in cui i dati sono partizionati su più macchine. Per gestire i Big Data sono state create tecnologie che riescono ad usare la potenza computazionale e la capacità di memorizzazione di un cluster, con un incremento prestazionale proporzionale al numero di macchine presenti sullo stesso. Il più utilizzato di questi sistemi è Hadoop, che offre un sistema per la memorizzazione e l’analisi distribuita dei dati. Grazie alla ridondanza dei dati ed a sofisticati algoritmi, Hadoop riesce a funzionare anche in caso di fallimento di uno o più macchine del cluster, in modo trasparente all’utente. Su Hadoop si possono eseguire diverse applicazioni, tra cui MapReduce, Hive e Apache Spark. É su quest’ultima applicazione, nata per il data processing, che è maggiormente incentrato il progetto di tesi. Un modulo di Spark, chiamato Spark SQL, verrà posto in confronto ad Hive nella velocità e nella flessibilità nell’eseguire interrogazioni su database memorizzati sul filesystem distribuito di Hadoop.
Resumo:
La tesi si pone il duplice obiettivo, da un lato, di seguire e approfondire i lavori di restauro e messa in sicurezza delle facciate di palazzo del Podestà, dall'altro, contemporaneamente, di proporre, sviluppare e sperimentare strumenti digitali da utilizzare durante la progettazione e l'esecuzione degli interventi di Restauro. Il settore del restauro architettonico si presenta, più di tanti altri, caratterizzato dalla molteplicità delle figure che intervengono nel corso del processso produttivo e dalla grandissima varietà e quantità di informazioni che entrano in gioco, partendo dalla fase di rilievo dello stato di fatto, fino all'indispensabile documentazione di fine lavori. Prendendo avvio, dunque, dal tirocinio svolto presso la Leonardo S.r.l. di Bologna, si è svolta una riflessione sui processi gestionali ed operativi legati alle operazioni di restauro e ci si è proposti di sviluppare e proporre alcuni strumenti digitali che, senza stravolgere l'attuale processo produttivo, potessero portare benefici operativi all'attività aziendale, facilitare il controllo ed il feedback da parte del committente e migliorare ed alleggerire l'onere della rendicontazione dei lavori. L'orizzonte di questi strumenti è multiplo: per l'attualità è stata sviluppata, in collaborazione con l'ENEA di Bologna, un'applicazione mobile su piattaforma FileMaker per la gestione delle operazioni di restauro attraverso la creazione di un database per la gestione delle analisi e del cantiere; mentre, per uno sviluppo "a regime" fra qualche anno, si è valutata l'efficacia di tecnologie SfM (Structure from Motion) per il rilievo speditivo e la documentazione. Nell'ottica di sviluppi ancora più lontani, infine, le due fasi saranno riunite nella proposta di tecnologie di realtà aumentata con l'obiettivo futuribile di poter passare direttamente dalla realtà e dal rilievo tridimensionale speditivo al progetto ed alla documentazione, senza dovere necessariamente passare da elaborati grafici bidimensionali. Durante tutte queste fasi lo sviluppo delle tecnologie è proceduto di pari passo con il cantiere di palazzo del Podestà, tanto nelle fasi di approfondita ricerca storica, quanto nella produzione delle schede di intervento. L'occasione della ricerca storica ha anche permesso di stilare un semplice regesto, corredato da immagini e bibliografia che raduna ed integra con materiali inediti i numerosi contributi sul tema che si sono succeduti dalla fine del XIX ai giorni nostri.
Resumo:
L'obiettivo di questa tesi è quello di fornire le informazioni di base che, un aspirante programmatore Android, deve sapere per scrivere applicazioni che facciano uso dei sensori presenti nei moderni telefoni cellulari (accelerometro, giroscopio, sensore di prossimità, ecc...). La tesi si apre citando qualche aneddoto storico sulla nascita del sistema operativo più famoso al mondo ed elencando tutte le releases ufficiali e le novità che hanno portato dalla 1.0 all'attuale 5.1.1 Lollipop. Verranno analizzate le componenti fondamentali per costruire un applicazione Android: Activities, Services, Content Providers e Broadcast Receivers. Verrà introdotto e approfondito il concetto di sensore, sia punto di vista fisico sia dal punto di vista informatico/logico, evidenziando le tre dimensioni più importanti ovvero struttura, interazione e comportamento. Si analizzeranno tutte i tipi di errori e problematiche reali che potrebbero influire negativamente sui valori delle misurazioni (disturbi, rumori, ecc...) e si propone la moderna soluzione del Sensor Fusion come caso particolare di studio, prendendo spunto dal lavoro di grandi aziende come la Invensense e la Kionix Inc. Infine, si conclude l'elaborato passando dalle parole al codice: verranno affrontate le fasi di analisi e d'implementazione di un'applicazione esemplificativa capace di determinare l'orientamento del dispositivo nello spazio, sfruttando diverse tecniche Sensor Fusion.
Resumo:
L’avvento delle tecniche di imaging volumetrico, quali la CT (Computed Tomography) e la MRI (Magnetic Resonance Investigation), ha portato ad un crescente interesse verso applicazioni di guida chirurgica che utilizzano processi di allineamento delle immagini diagnostiche provenienti da diverse modalità e di tecniche che ne permettono la visualizzazione in sala operatoria, in modo da fornire al chirurgo il maggior numero di informazioni cliniche possibili durante un intervento. Il crescente interesse verso questo tipo di applicazioni è dovuto anche allo sviluppo di dispositivi di imaging intra-operatorio quali archi a C-mobili radiologici, PC ad alte prestazioni e convertitori A/D 3D con precisione clinicamente accettabile. Questi ultimi due hanno conseguentemente portato a sviluppare ed implementare software dedicati alla pianificazione di un intervento chirurgico, permettendo quindi di elaborare digitalmente le immagini diagnostiche e ricostruire un modello che rappresenta l’effettiva anatomia del paziente. Questo processo nel suo complesso ha portato allo sviluppo di quelli che oggi vengono chiamati sistemi di navigazione chirurgica, abbreviati talvolta in IGSS (Imaging-Guided Surgery Systems), sistemi ovvero che permettono di utilizzare immagini pre-operatorie come guida durante la pratica chirurgica, caratterizzando quindi nuovi metodi di approccio alla chirurgia, le IGS (Image-Guided Surgery) appunto.
Resumo:
Coniato negli anni‘90 il termine indica lo scavare tra i dati con chiara metafora del gold mining, ossia la ricerca dell’oro. Oggi è sinonimo di ricerca di informazione in vasti database, ed enfatizza il processo di analisi all’interno dei dati in alternativa all’uso di specifici metodi di analisi. Il data mining è una serie di metodi e tecniche usate per esplorare e analizzare grandi set di dati, in modo da trovare alcune regole sconosciute o nascoste, associazioni o tendenze.
Resumo:
Lo scopo del seguente elaborato è porre le basi per il dimensionamento, e la successiva realizzazione, di molle a disco conico costruite con materiali compositi per applicazioni automotive, che costituiscano una possibile alternativa alle comuni molle elicoidali in materiali metallici. I vantaggi principali riguardano un risparmio in termini di peso ed un miglioramento del comportamento a fatica. Successivamente ad una introduzione sulle teorie analitiche e numeriche applicabili a tali tipologie di molle, è stata effettuata un'analisi volta all'individuazione dei parametri geometrici principali che regolano il comportamento delle molle a tazza, a cui fa seguito la stesura di una procedura per il dimensionamento preliminare. Sono, in seguito, stati riportati i cenni teorici relativi alle configurazioni di montaggio, alla definizione degli attriti, delle tensioni, alla valutazione dei carichi affaticanti e delle tipologie di carico. I risultati ottenuti nel dimensionamento sono stati infine utilizzati per realizzare alcuni prototipi funzionali di elementi di molle a tazza in carbonio con tecnologia di laminazione manuale e successiva fase di polimerizzazione in forno. Tali provini sono stati analizzati per valutare le problematiche sorte durante la produzione, quali mancata compattazione delle lamine, eccessi di resina e formazione di vuoti, proponendo infine possibili soluzioni e miglioramenti.
Resumo:
La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la validità di una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.
Resumo:
All’interno di questa tesi è stata affrontata la tematica della realizzazione di comuni- cazioni sicure, in modo da ottenere l'indipendenza di queste ultime dal canale utilizzato, con l'ausilio di strumenti in grado di fornire supporto per la creazione di applicativi orientati allo scambio di dati e messaggi, quali i linguaggi di programmazione Java e Jolie, il quale è basato sul precedente. Sono state inizialmente analizzate le principali caratteristiche e le problematiche più importanti che è necessario dover risolvere in modo da poter arrivare al risultato desiderato. Successivamente, è stato dato un ampio sguardo ad una delle scienze più applicate per risolvere i problemi tipici che affliggono questo tipo di comunicazioni, la crittografia. Sono stati elencati gli strumenti messi a disposizione ed il loro funzionamento. La crittografia viene poi applicata al protocollo SSL, il quale rappresenta la soluzione maggiormente diffusa, sia sul Web che in altri ambiti, per proteggere le informazioni personali che transitano tra gli end-point di una comunicazione. Sono state elencate le principali caratteristiche, alcuni cenni riguardanti la nascita e lo sviluppo ed è stato descritto il funzionamento di questo protocollo, soprattutto per quanto riguarda la sua fase preliminare, che è una delle parti che lo caratterizzano maggiormente. In seguito, è stata analizzata la soluzione fornita all’interno delle librerie del linguaggio Java per realizzare comunicazioni indipendenti dal mezzo di comunicazione che soddisfino le politiche dettate dal protocollo SSL. Questa soluzione è rappresentata dalla classe SSLEngine, che è quindi stata esaminata, a partire dal ciclo di vita e dall'inizializzazione, fino ad arrivare all'interazione all'interno di un applicazione. Quanto esplorato in precedenza viene poi applicato a Jolie, un linguaggio di programmazione basato sulle comunicazioni e sviluppato in Java, all'interno dell'Università di Bologna. Dopo uno sguardo generale alle sue caratteristiche è stata approfondita la gestione dei protocolli, e di conseguenza, l'introduzione di SSL all'interno di essi, realizzata tramite la classe SSLProtocol. Questa classe contiene ed implementa i concetti analizzati nel capitolo riguardante Java, adattandoli all'architettura ed alla progettazione pensata appositamente per Jolie; è stata quindi effettuata un'analisi del codice e della gestione della classe SSLEngine per realizzare comunicazioni sicure. Infine, per verificare l’effettivo funzionamento, sono stati creati due semplici casi d’uso per poter sfruttare i vantaggi offerti da Jolie, il quale è particolarmente indicato per la creazione di applicazioni orientate ai servizi.
Resumo:
In adroterapia vengono usati fasci di ioni (protoni e ioni carbonio) per il trattamento di tumori profondi; queste particelle possiedono molti vantaggi rispetto ai fotoni utilizzati nella radioterapia convenzionale. Il profilo dose-profondità di questi ioni è caratterizzato da una bassa dose nel canale di entrata e da un massimo molto pronunciato (picco di Bragg) nei pressi della fine del loro percorso: poiché l’ascissa di tale massimo dipende dall’energia del fascio, essa può essere cambiata semplicemente variando tale parametro. Inoltre, grazie alla carica elettrica posseduta da queste particelle, è possibile controllare sempre meglio anche le restanti due dimensioni riuscendo ad indirizzare il fascio sul target con precisione notevole riuscendo così a risparmiare i tessuti sani e le strutture critiche del nostro organismo. Mentre la protonterapia, grazie ai quasi cinquanta centri attualmente in funzione, sta diventando uno dei trattamenti standard per la cura dei tumori più difficili, la terapia con ioni carbonio è ancora ristretta a meno di dieci strutture, una delle quali è il CNAO con sede a Pavia. L’utilizzo di ioni carbonio presenta ulteriori vantaggi rispetto ai protoni, tra i quali un picco di Bragg con una larghezza minore e un diverso effetto radiobiologico: ciò rende gli ioni carbonio l’unica opzione praticabile nel trattamento di tumori radioresistenti. Questo lavoro è una rassegna dei sistemi e dei metodi utilizzati in adroterapia e del loro sviluppo: se ne evince che l’ostacolo maggiore alla diffusione di questa pratica è rappresentato dall’elevato costo del trattamento. La Sezione di Bologna dell’INFN e il Dipartimento di Fisica e Astronomia dell’Università di Bologna possiedono competenze relativamente a diverse tecnologie avanzate, tra cui il progetto per acceleratori "tascabili", che potrebbero ridurre drasticamente il costo della terapia. In tale ambito, la presente tesi costituisce uno studio preliminare alla costituzione di un gruppo di ricerca sull’adroterapia a Bologna in piena collaborazione con altre Sezioni dell’INFN, con le Divisioni di Radioterapia ospedaliere e con altre realtà nazionali ed internazionali.
Resumo:
In questa tesi è stato esposto il lavoro, svolto in laboratorio, di fabbricazione degli OECTs, seguito dalle misure raccolte durante le prove effettuate, con le relative analisi e discussioni dei risultati ottenuti. É stato dimostrato che gli OECTs basati sul PEDOT:PSS sono in grado di fornire una misura della concentrazione di sostanze ossidanti.
Resumo:
La statistica è un ramo della matematica che studia i metodi per raccogliere, organizzare e analizzare un insieme di dati numerici, la cui variazione è influenzata da cause diverse, con lo scopo sia di descrivere le caratteristiche del fenomeno a cui i dati si riferiscono, sia di dedurre, ove possibile, le leggi generali che lo regolano. La statistica si suddivide in statistica descrittiva o deduttiva e in statistica induttiva o inferenza statistica. Noi ci occuperemo di approfondire la seconda, nella quale si studiano le condizioni per cui le conclusioni dedotte dall'analisi statistica di un campione sono valide in casi più generali. In particolare l'inferenza statistica si pone l'obiettivo di indurre o inferire le proprietà di una popolazione (parametri) sulla base dei dati conosciuti relativi ad un campione. Lo scopo principale di questa tesi è analizzare il Teorema di Cochran e illustrarne le possibili applicazioni nei problemi di stima in un campione Gaussiano. In particolare il Teorema di Cochran riguarda un'importante proprietà delle distribuzioni normali multivariate, che risulta fondamentale nella determinazione di intervalli di fiducia per i parametri incogniti.
Resumo:
L'obiettivo della tesi è quello di sviluppare una piattaforma software a supporto della programmazione di applicazioni mobile per la rilevazione di parametri vitali. Questo caso di studio offre una ampia discussione su wearable computing, healthcare e prototipazione del wearable. La tesi va a descrivere tutte le fasi di analisi, modellazione e progettazione del sistema, evidenziando problematiche e soluzioni adottate.
Resumo:
I materiali fotocatalitici, se opportunamente irradiati con luce di una opportuna lunghezza d'onda, consentono un maggior abbattimento delle sostanze organiche e inorganiche nocive con le quali vengono a contatto. Essi sono in grado inoltre grazie alla loro spiccata idrofilia di conservare inalterato nel tempo il loro aspetto estetico. Il connubio ingegneria e chimica ha creato dunque materiali fotocatalitici contenenti al loro interno particelle di TiO2, il principale fotocatalizzatore in commercio, che, applicati in ambiti urbani ed edilizi come rivestimenti, pitture, rimescolato in pasta di malte o masselli autobloccanti, pitture o piastrelle antisettiche e vetri autopulenti, possono generare effetti positivi in termini sia di antinquinamento che di antibattericità. La tesi parte dalla descrizione delle reazioni chimiche che stanno alla base della fotocatalisi e prosegue descrivendo il fotocatalizzatore più attivo ed efficace fino ad ora scoperto, il TiO2. Nella seconda parte della tesi si citano le principali aziende italiane e mondiali che si sono impegnate nella produzione di materiali fotocatalitici, riportando le loro opere e i loro prodotti. Nella parte terza si vogliono invece fornire le informazioni generali attualmente conosciute sulla minaccia alla salute che può costituire l'utilizzo di materiali nanometrici come il TiO2. Nella parte quarta invece si risponde alle ancora frequenti domande riguardanti l'efficacia del TiO2 nelle applicazioni reali al variare del materiale di supporto, la sua efficacia nel lungo termine, il reale effetto autopulente nell'ambiente reale e nel suo impatto sull'ambiente. Si riportano i risultati di laboratorio riguardanti l'efficacia fotocatalitica in termini di degradazione di tinte e di angolo di contatto, direttamente applicati alla realtà delle costruzioni: su supporti diversi in termini di permeabilità e idrorepellenza, è stata applicata una sospensione acquosa fotocatalitica applicata sia a pennello che tramite getto spray HVLP. Alcuni campioni sono poi stati dilavati simulando l'azione atmosferica di weathering dell'area bolognese.
Resumo:
Il software Smart-M3, ereditato dal progetto europeo SOFIA, conclusosi nel 2011, permette di creare una piattaforma d'interoperabilità indipendente dal tipo di dispositivi e dal loro dominio di utilizzo e che miri a fornire un Web Semantico di informazioni condivisibili fra entità software e dispositivi, creando ambienti intelligenti e collegamenti tra il mondo reale e virtuale. Questo è un campo in continua ascesa grazie al progressivo e regolare sviluppo sia della tecnologia, nell'ambito della miniaturizzazione dei dispositivi, che delle potenzialità dei sistemi embedded. Questi sistemi permettono, tramite l'uso sempre maggiore di sensori e attuatori, l'elaborazione delle informazioni provenienti dall’esterno. È evidente, come un software di tale portata, possa avere una molteplicità di applicazioni, alcune delle quali, nell’ambito della Biomedica, può esprimersi nella telemedicina e nei sistemi e-Heath. Per e-Health si intende infatti l’utilizzo di strumenti basati sulle tecnologie dell'informazione e della comunicazione, per sostenere e promuovere la prevenzione, la diagnosi, il trattamento e il monitoraggio delle malattie e la gestione della salute e dello stile di vita. Obiettivo di questa tesi è fornire un set di dati che mirino ad ottimizzare e perfezionare i criteri nella scelta applicativa di tali strutture. Misureremo prestazioni e capacità di svolgere più o meno velocemente, precisamente ed accuratamente, un particolare compito per cui tale software è stato progettato. Ciò si costruisce sull’esecuzione di un benchmark su diverse implementazioni di Smart-M3 ed in particolare sul componente centrale denominato SIB (Semantic Information Broker).
Resumo:
Questa tesi ha studiato a fondo le modalità di funzionamento del convertitore ZETA. Si è visto che la presenza dei due magnetici determina una condizione di funzionamento non convenzionale (lo stesso accade nel SEPIC) poco studiata in letteratura. Questa condizione, corrispondente al modo discontinuo nei più elementari convertitori, in cui la corrente si annulla sia nel transistor che nel diodo, dà invece luogo ad un ricircolo di corrente pressochè costante in una maglia che comprende entrambe le induttanze. Questa corrente testimonia un intrappolamento di energia magnetica con relativa perdita per dissipazione che presumibilmente degrada l’efficienza del convertitore. Questo è potuto avvenire perchè non vi è nulla che impedisca il flusso di una corrente negativa sui singoli induttori quando la somma algebrica dei due risulti comunque positiva o nulla (diodo in conduzione). Questo problema si può riscontrare sia nel funzionamento in continua (sempre almeno uno fra transistor e diodo in conduzione) che in discontinua (con un intervallo di tempo in cui non conducono nessuno dei due). Per ovviare a questo problema le soluzioni proposte in questa tesi sono quelle di aggiungere un ulteriore diodo rettificatore in serie agli avvolgimenti e/o di gestire il rapporto di induttanze dei due avvolgimenti in modo che nella condizione nominale di funzionamento raggiungano contemporaneamente la condizione di inversione della corrente. Queste possibilità sono state esplorate con successo nell’utilizzo del convertitore ZETA per applicazioni di correzione del fattore di potenza PFC in cui si è proposto un insieme di equazioni di dimensionamento che portano al progetto del convertitore al fine di ottenere le forme d’onda desiderate.