271 resultados para Macchine di Schönhage, Complessità Computazionale Implicita, Macchine Astratte, Simulazione
Resumo:
La tesi è suddivisa in tre parti. Nella prima parte si descrive il sistema dei canali bolognesi che derivano acqua dal bacino montano del Fiume Reno e dal Torrente Savena, e il sistema di gestione e di monitoraggio utilizzato dal Consorzio dei canali di Reno e Savena. Nella seconda parte si illustra una proposta di sistema di visualizzazione dei dati idro-pluviometrici che si sta valutando, assieme al Presidente del Consorzio e ad Arpa, per il monitor che il Consorzio intende installare al fine di illustrare al pubblico il monitoraggio e l’evoluzione degli eventi di piena e di scarsità idrica/siccità. Nella terza parte, infine, si effettuano la stima e un’analisi della correlazione tra due diversi indici di siccità, meteorologica ed idrologica, per il bacino del Reno chiuso a Casalecchio. Il sistema dell’intero bacino del Reno e della rete dei canali cittadini risulta molto complesso. Vista tale complessità del sistema, si è proposto di distinguere uno scenario di piena e uno scenario di magra. Tra le diverse informazioni da visualizzare nel monitor si intendono anche visualizzare informazioni relative alla disponibilità idrica alla scala del bacino in esame. Per questo è stata svolta l’analisi sugli indici di siccità Standard Precipitation Index (SPI) e Streamflow Drought Index per il bacino del Reno chiuso a Casalecchio . Tali indici hanno portato a dei risultati consistenti con le condizioni idro-metereologiche e con le informazioni sugli impatti al suolo disponibili per alcuni degli eventi più significativi presi in esame. In base ai risultati ottenuti è possibile affermare che gli indici SPI e SDI a scala di bacino hanno una buona correlazione che permette di poter considerare anche la sola caratterizzazione pluviometrica per identificare la situazione della disponibilità idrica del fiume a monte dell’opera di presa del Canale di Reno.
Resumo:
Il presente lavoro si propone di sviluppare una analogia formale tra sistemi dinamici e teoria della computazione in relazione all’emergenza di proprietà biologiche da tali sistemi. Il primo capitolo sarà dedicato all’estensione della teoria delle macchine di Turing ad un più ampio contesto di funzioni computabili e debolmente computabili. Mostreremo quindi come un sistema dinamico continuo possa essere elaborato da una macchina computante, e come proprietà informative quali l’universalità possano essere naturalmente estese alla fisica attraverso questo ponte formale. Nel secondo capitolo applicheremo i risultati teorici derivati nel primo allo sviluppo di un sistema chimico che mostri tali proprietà di universalità, ponendo particolare attenzione alla plausibilità fisica di tale sistema.
Resumo:
L'obiettivo della tesi è dimostrare l'utilità e i vantaggi che può fornire il Self-Management del diabete mellito di tipo 1 in un sistema di mobile Health a partire da un modello computazionale Agent-Based. Viene quindi affrontata in maniera approfondita la tematica del mobile Health ed il suo sviluppo nei paesi a basso/medio reddito, illustrando i risultati ottenuti dalla ricerca scientifica fino ad oggi, ed il concetto di Self-Management di malattie croniche, un processo di cura caratterizzato dalla partecipazione autonoma del paziente stesso, fornendo una panoramica degli approcci computazionali sviluppati. Viene quindi studiato il diabete mellito in ogni sua caratteristica, seguito dall'illustrazione di diverse applicazioni per la gestione autonoma della suddetta patologia tutt'ora in commercio. Nel caso di studio vengono effettuate diverse simulazioni, tramite la piattaforma di simulazione MASON, per realizzare varie dinamiche della rete fisiologica di un paziente al fine di stabilire feedback qualitativi per il Self-Management della patologia.
Resumo:
La complessità dei provvedimenti di affido necessita di una risposta mirata per fornire miglior intervento possibile. Il ruolo del mediatore diventa quindi essenziale per evitare conflitti di ordine culturale in una situazione così complessa e delicata, e per poter portare a termine lo scopo riabilitativo di questo progetto.
Resumo:
Questa Tesi si occupa di una derivazione di un meccanismo con amplificazione inerziale per lo smorzamento delle vibrazioni, il quale è stato usato come un meccanismo costituente di un oscillatore semplice, ovvero di un modello matematico fondamentale su cui è basata la dinamica strutturale, aumentandogli notevolmente la sua complessità geometrica. Viene studiata la risposta dinamica ottenuta dall’analisi armonica, in quanto lo stesso è soggetto alla forzante passiva. Lo studio del comportamento dinamico ingloba un percorso, il quale parte dalla descrizione matematica dell’equilibrio dinamico, nonché delle condizioni al contorno, tramite l’uso di analisi matriciale delle strutture e del calcolo complesso, e si conclude, derivando le grandezze cinematiche e dinamiche, necessarie affinché si possa determinare, in un modo chiaro e privo di ambiguità, lo stato del sistema dinamico. Il passo successivo risiede nell’analisi analitica e numerica dei risultati ottenuti e anche della visualizzazione grafica ed interpretazione degli stessi. Affinché i risultati possano essere considerati validi, occorre che gli stessi passino la procedura di validazione tramite l’uso degli esempi numerici. Successivamente, i risultati validati vengono confrontati con la stessa tipologia dei risultati derivati per gli oscillatori classici o gli oscillatori di riferimento, il quale comportamento è già noto nell’ambito della dinamica strutturale. La Tesi procede con l’applicazione pratica degli oscillatori per lo smorzamento delle vibrazioni. In particolare si studia la loro capacità di alterare la risposta dinamica complessiva del sistema di cui fanno parte, rispetto al caso in cui la stessa struttura è priva di essi. In fine la Tesi si conclude, mettendo in evidenza i vantaggi e gli svantaggi dell’oscillatore dotato di un meccanismo con amplificazione inerziale rispetto agli altri oscillatori classici.
Resumo:
L'elaborato è il risultato del progetto di tesi svolto presso l’azienda Lift Truck Equipment L.T.E. di Ostellato (Ferrara) che opera nell’ambito della progettazione e produzione di gruppi di sollevamento ed attrezzature per carrelli elevatori all’interno del gruppo Toyota Material Handling. Il progetto è stato svolto nel periodo da gennaio a marzo 2016 in collaborazione con l’ufficio di Ingegneria di processo di L.T.E. e riguarda l’applicazione del metodo MAGEC (Modi e Analisi dei Guasti e delle Criticità) per l’analisi dei guasti di una linea produttiva dell’azienda, la Rail Line. Nel primo capitolo viene inquadrato il sistema produttivo dell’azienda in aderenza con la filosofia del TPS (Toyota Production System) per chiarire l’ambito in cui è nato il progetto, le motivazioni che hanno portato al suo sviluppo e l’ottica secondo cui è stato svolto. Nel secondo capitolo è fornita una descrizione dell’approccio utilizzato, che consiste in una variante della FMECA, il metodo più utilizzato per le analisi in ambito affidabilistico. Inoltre sono riportate le attività di pianificazione che sono state svolte preliminarmente all’inizio del progetto. Successivamente nel terzo capitolo sono illustrati in modo dettagliato i vari step dell’implementazione del metodo, dalla raccolta dati, effettuata presso l’azienda, all’elaborazione. L’ultimo capitolo è dedicato ai risultati dell’analisi e a una breve descrizione di come tali risultati sono stati utilizzati nelle attività di manutenzione preventiva.
Resumo:
Nell'ambito dell'elaborazione delle immagini, si definisce segmentazione il processo atto a scomporre un'immagine nelle sue regioni costituenti o negli oggetti che la compongono. Ciò avviene sulla base di determinati criteri di appartenenza dei pixel ad una regione. Si tratta di uno degli obiettivi più difficili da perseguire, anche perché l'accuratezza del risultato dipende dal tipo di informazione che si vuole ricavare dall'immagine. Questa tesi analizza, sperimenta e raffronta alcune tecniche di elaborazione e segmentazione applicate ad immagini digitali di tipo medico. In particolare l'obiettivo di questo studio è stato quello di proporre dei possibili miglioramenti alle tecniche di segmentazione comunemente utilizzate in questo ambito, all'interno di uno specifico set di immagini: tomografie assiali computerizzate (TAC) frontali e laterali aventi per soggetto ginocchia, con ivi impiantate protesi superiore e inferiore. L’analisi sperimentale ha portato allo sviluppo di due algoritmi in grado di estrarre correttamente i contorni delle sole protesi senza rilevare falsi punti di edge, chiudere eventuali gap, il tutto a un basso costo computazionale.
Resumo:
Con questa tesi verrà spiegata l'intrinseca connessione tra la matematica della teoria dei numeri e l'affidabilità e sicurezza dei crittosistemi asimmetrici moderni. I principali argomenti trattati saranno la crittografia a chiave pubblica ed il problema della verifica della primalità. Nei primi capitoli si capirà cosa vuol dire crittografia e qual è la differenza tra asimmetria e simmetria delle chiavi. Successivamente verrà fatta maggiore luce sugli utilizzi della crittografia asimmetrica, mostrando tecniche per: comunicare in modo confidenziale, scambiare in modo sicuro chiavi private su un canale insicuro, firmare messaggi, certificare identità e chiavi pubbliche. La tesi proseguirà con la spiegazione di quale sia la natura dei problemi alla base della sicurezza dei crittosistemi asimmetrici oggigiorno più diffusi, illustrando brevemente le novità introdotte dall'avvento dei calcolatori quantistici e dimostrando l'importanza che riveste in questo contesto il problema della verifica della primalità. Per concludere verrà fatta una panoramica di quali sono i test di primalità più efficienti ed efficaci allo stato dell'arte, presentando una nuova tecnica per migliorare l'affidabilità del test di Fermat mediante un nuovo algoritmo deterministico per fattorizzare gli pseudoprimi di Carmichael, euristicamente in tempo O~( log^3{n}), poi modificato sfruttando alcune proprietà del test di Miller per ottenere un nuovo test di primalità deterministico ed euristico con complessità O~( log^2{n} ) e la cui probabilità di errore tende a 0 con n che tende ad infinito.
Resumo:
L’acqua è uno dei principali fattori per la crescita socio-economica e lo sviluppo del continente africano. Il continente africano dispone di ingenti risorse idriche, ma le complessità naturali caratteristiche di alcune regioni del continente e la frequente assenza di una corretta pianificazione della loro gestione ne riduce ad oggi il potenziale in maniera significativa. L’utilizzo delle risorse idriche in Africa è destinato ad incrementare sensibilmente nel corso dei prossimi decenni, come risultato della crescita demografica e dei fabbisogni nell’agricoltura. Le risorse idriche sotterranee giocano un importante ruolo in tale scenario in quanto molti paesi africani caratterizzati da scarsità d’acqua dispongono di sostanziali riserve idriche sotterranee e l’accesso a tali risorse, ancorché limitate, è largamente diffuso nel continente. Si stima che il totale delle risorse idriche sotterranee sia di 0,66 milioni di km cubi. Le risorse sotterranee sono largamente distribuite: i maggiori volumi sono localizzati nei larghi acquiferi sedimentari nelle regioni del nord Africa. Per molti paesi africani pozzi appropriatamente ubicati sono in grado di sostenere le comunità con l’estrazione manuale mediante pompe con una portata di 0,1-0,3 l/s. Grandi impianti di produzione da acquifero (>5 l/s), che siano adatti per lo sviluppo urbano o produzioni agricole intensive, non sono ancora diffusi e sono limitati ad aree particolari. La disponibilità ed accessibilità delle acque sotterranee in gran parte dell’Africa è favorevole ad uno sviluppo rurale piuttosto che urbano. Il maggiore fattore limitante per una gestione sostenibile delle risorse sotterranee è dato dalla necessità di identificare se le acque sotterranee sono rinnovabili (ed in quale misura) o meno, al fine di programmare le corrette politiche gestionali nel tempo.
Resumo:
Il presente elaborato ha come obiettivo l’analisi della traduzione di alcuni estratti del libro di George Carlin "When will Jesus bring the pork chops?" L’opera si presenta come una raccolta di testi satirici, tutti dello stesso autore, che trattano temi ritenuti spesso tabù, quali, tra gli altri, l’handicap fisico e mentale, la morte e l’abuso. L’autore, conosciuto per la sua grande capacità oratoria, il suo humor dark e per l’uso di un linguaggio spesso scurrile e molto vario in tal sen-so, è uno tra i comici americani più conosciuti e stimati in tutto il mondo. La traduzione di un autore come Carlin è un esercizio importante proprio per la complessità del linguaggio che il comico utilizzava e per le tematiche che trattava, ma non solo; può infatti portare a una mag-giore consapevolezza sul ruolo del traduttore e sulle considerazioni, oltre che di tipo tecnico e pratico, teoriche ed etiche che questo lavoro richiede. Nei capitoli iniziali verranno presentate alcune teorie molto utili ed interessanti sia dal punto di vista pratico sia da quello dell’inquadramento teorico. Nel capitolo sul verbally expressed humour si presenteranno alcuni studi sui problemi principali nella traduzione delle opere umoristiche mentre, nel capitolo finale, si tratterà l'analisi della proposta di traduzione di alcuni frammenti dell’opera di Carlin con un commento sulle scelte applicate.
Resumo:
Nel corso degli ultimi decenni si è assistito a un aumento di malattie e disturbi che colpiscono il sistema nervoso,specialmente il cervello. Si è dunque resa necessaria la ricerca e l'analisi di tecniche di stimolazione transcranica a fini sperimentali, clinici e di diagnosi. Tra queste spiccano per la loro versatilità la TMS e la tDCS, le quali hanno già trovato e possono ancora trovare la loro applicazione in numerosi ambiti anche molto differenti tra loro, tra cui quello motorio, verbale, della memoria o per disturbi neurodegenerativi. L'analisi approfondita delle loro applicazioni può non solo portare a meglio comprendere i limiti che le due tecniche hanno al giorno d'oggi e quindi portare a un miglioramento delle stesse, ma anche ad una comprensione più accurata del funzionamento del sistema nervoso, tutt'ora ancora alquanto oscuro nella sua complessità. Infine, confrontando le due tecniche si può meglio definire anche quali possano essere gli ambiti in cui l'una e l'altra sono più vantaggiose o possano dare contributi più incisivi.
Resumo:
Le prestazioni dei motori a combustione interna sono fortemente influenzate dalla formazione di un film fluido, a seguito dell'impatto di uno spray con una parete. Nell'ottica di favorire la formazione della miscela e di ridurre le emissioni, lo studio approfondito di tale fenomeno deve essere supportato da un processo di simulazione assistita dal calcolatore. Pertanto, la Fluidodinamica Computazionale (Computational Fluid Dynamics, CFD) ed i modelli ad essa associati rappresentano al giorno d'oggi uno strumento vantaggioso e sempre più utilizzato. In questo ambito si colloca il presente lavoro di tesi, che si propone di validare il modello di film fluido implementato nel software OpenFOAM-2.3.0, confrontando i risultati ottenuti, in termini di altezza del film fluido, con quelli del caso sperimentale di Le Coz et al.
Resumo:
Nella seguente tesi è descritto il principio di sviluppo di una macchina industriale di alimentazione. Il suddetto sistema dovrà essere installato fra due macchine industriali. L’apparato dovrà mettere al passo e sincronizzare con la macchina a valle i prodotti che arriveranno in input. La macchina ordina gli oggetti usando una serie di nastri trasportatori a velocità regolabile. Lo sviluppo è stato effettuato al Laboratorio Liam dopo la richiesta dell’azienda Sitma. Sitma produceva già un tipo di sistema come quello descritto in questa tesi. Il deisderio di Sitma è quindi quello di modernizzare la precedente applicazione poiché il dispositivo che le permetteva di effettuare la messa al passo di prodotti era un PLC Siemens che non è più commercializzato. La tesi verterà sullo studio dell’applicazione e la modellazione tramite Matlab-Simulink per poi proseguire ad una applicazione, seppure non risolutiva, in TwinCAT 3.
Resumo:
Questo lavoro è incentrato sull'analisi e la simulazione di un ciclo Rankine a fluido organico (ORC) per la produzione di energia da calore a bassa entalpia. Il lavoro è stato svolto in collaborazione con l'università di Gent, in Belgio, in particolare grazie al Prof. De Peape e all' Ing. Steven Lecompte; il lavoro in Italia è stato coordinato dal Prof. De Pascale. L'obiettivo principale della tesi è stata la creazione un modello computazionale in grado di descrivere le prestazioni dell'impianto a carico parziale. Ogni elemento dell'impianto è stato analizzato e modellizzato secondo un approccio di simulazione originale in Matlab. I componenti ottenuti sono stati poi combinati a formare la simulazione dell'intero sistema; questa è in grado di prevedere la potenza prodotta ed il rendimento del ciclo al variare delle condizioni esterne. I risultati ottenuti dalle simulazioni sono stati poi confrontati con i dati sperimentali raccolti sull'impianto di prova dell'Università. Questo confronto dimostra un buon accordo dei risultati previsti con quelli misurati. L'errore relativo massimo ottenuto per la potenza elettrica è sotto il 7%, così come quello sul rendimento; Gli errori relativi a pressione ed entalpie sono in genere sotto il 5%. Il modello può perciò dirsi validato e rappresenta un valido strumento di analisi per comprendere la risposta ai carichi parziali anche al di fuori del range di calibrazione. Il modello è stato infine utilizzato per costruire delle mappe del carico parziale e analizzare l'influenza delle variabili del ciclo. Ulteriori applicazioni delle mappe prodotte sono proposte a fine del lavoro.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.