956 resultados para ricorsività macchina di Turing algoritmi di Markov


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mio elaborato si pone come obiettivo il miglioramento di una macchina di condizionamento atta al funzionamento a temperature inferiori allo standard nazionale (circa -20°C, -253,15 K). Il lavoro si basa sullo studio di un sistema innovativo di sbrinamento per pompe di calore ad alta efficienza che necessiti nel minor modo possibile di manutenzione, sia di facile installazione e permetta alla macchina di mantenere il rendimento intorno a valori accettabili. Dopo aver portato avanti un'analisi energetica del sistema, attraverso lo studio di diverse possibilità di sbrinamento, l'elaborato verifica che l'installazione del sistema progettato porti ad un effettivo vantaggio anche dal punto di vista economico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi vuole fornire un'introduzione alla complessità computazionale e allo studio dei numeri primi riferito a questa materia. Si tratterà della Macchina di Turing e della sua importanza per calcolabilità e complessità, introducendo le classi P ed NP. Queste saranno approfondite studiando prima la classe di problemi NP-completi e successivamente fornendo alcuni esempi importanti. Nella parte finale ci si occuperà esplicitamente del problema dei numeri primi e si guarderà da vicino l'algoritmo AKS, dimostrandone la correttezza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il concetto di “sostenibilità” si riferisce allo sviluppo dei sistemi umani attraverso il più piccolo impatto possibile sul sistema ambientale. Le opere che si inseriscono bene nel contesto ambientale circostante e le pratiche che rispettano le risorse in maniera tale da permettere una crescita e uno sviluppo a lungo termine senza impattare sull’ambiente sono indispensabili in una società moderna. I progressi passati, presenti e futuri che hanno reso i conglomerati bituminosi materiali sostenibili dal punto di vista ambientale sono particolarmente importanti data la grande quantità di conglomerato usato annualmente in Europa e negli Stati Uniti. I produttori di bitume e di conglomerato bituminoso stanno sviluppando tecniche innovative per ridurre l’impatto ambientale senza compromettere le prestazioni meccaniche finali. Un conglomerato bituminoso ad “alta lavorabilità” (WMA), pur sviluppando le stesse caratteristiche meccaniche, richiede un temperatura di produzione minore rispetto a quella di un tradizionale conglomerato bituminoso a caldo (HMA). L’abbassamento della temperature di produzione riduce le emissioni nocive. Questo migliora le condizioni dei lavoratori ed è orientato verso uno sviluppo sostenibile. L’obbiettivo principale di questa tesi di laurea è quello di dimostrare il duplice valore sia dal punto di vista dell’eco-compatibilità sia dal punto di vista meccanico di questi conglomerati bituminosi ad “alta lavorabilità”. In particolare in questa tesi di laurea è stato studiato uno SMA ad “alta lavorabilità” (PGGWMA). L’uso di materiali a basso impatto ambientale è la prima fase verso un progetto ecocompatibile ma non può che essere il punto di partenza. L’approccio ecocompatibile deve essere esteso anche ai metodi di progetto e alla caratterizzazione di laboratorio dei materiali perché solo in questo modo è possibile ricavare le massime potenzialità dai materiali usati. Un’appropriata caratterizzazione del conglomerato bituminoso è fondamentale e necessaria per una realistica previsione delle performance di una pavimentazione stradale. La caratterizzazione volumetrica (Mix Design) e meccanica (Deformazioni Permanenti e Comportamento a fatica) di un conglomerato bituminoso è una fase importante. Inoltre, al fine di utilizzare correttamente i materiali, un metodo di progetto avanzato ed efficiente, come quello rappresentato da un approccio Empirico-Meccanicistico (ME), deve essere utilizzato. Una procedura di progetto Empirico-Meccanicistica consiste di un modello strutturale capace di prevedere gli stati di tensione e deformazione all’interno della pavimentazione sotto l’azione del traffico e in funzione delle condizioni atmosferiche e di modelli empirici, calibrati sul comportamento dei materiali, che collegano la risposta strutturale alle performance della pavimentazione. Nel 1996 in California, per poter effettivamente sfruttare i benefici dei continui progressi nel campo delle pavimentazioni stradali, fu iniziato un estensivo progetto di ricerca mirato allo sviluppo dei metodi di progetto Empirico - Meccanicistici per le pavimentazioni stradali. Il risultato finale fu la prima versione del software CalME che fornisce all’utente tre approcci diversi di l’analisi e progetto: un approccio Empirico, uno Empirico - Meccanicistico classico e un approccio Empirico - Meccanicistico Incrementale - Ricorsivo. Questo tesi di laurea si concentra sulla procedura Incrementale - Ricorsiva del software CalME, basata su modelli di danno per quanto riguarda la fatica e l’accumulo di deformazioni di taglio dai quali dipendono rispettivamente la fessurazione superficiale e le deformazioni permanenti nella pavimentazione. Tale procedura funziona per incrementi temporali successivi e, usando i risultati di ogni incremento temporale, ricorsivamente, come input dell’incremento temporale successivo, prevede le condizioni di una pavimentazione stradale per quanto riguarda il modulo complesso dei diversi strati, le fessurazioni superficiali dovute alla fatica, le deformazioni permanenti e la rugosità superficiale. Al fine di verificare le propreità meccaniche del PGGWMA e le reciproche relazioni in termini di danno a fatica e deformazioni permanenti tra strato superficiale e struttura della pavimentazione per fissate condizioni ambientali e di traffico, è stata usata la procedura Incrementale – Ricorsiva del software CalME. Il conglomerato bituminoso studiato (PGGWMA) è stato usato in una pavimentazione stradale come strato superficiale di 60 mm di spessore. Le performance della pavimentazione sono state confrontate a quelle della stessa pavimentazione in cui altri tipi di conglomerato bituminoso sono stati usati come strato superficiale. I tre tipi di conglomerato bituminoso usati come termini di paragone sono stati: un conglomerato bituminoso ad “alta lavorabilità” con granulometria “chiusa” non modificato (DGWMA), un conglomerato bituminoso modificato con polverino di gomma con granulometria “aperta” (GGRAC) e un conglomerato bituminoso non modificato con granulometria “chiusa” (DGAC). Nel Capitolo I è stato introdotto il problema del progetto ecocompatibile delle pavimentazioni stradali. I materiali a basso impatto ambientale come i conglomerati bituminosi ad “alta lavorabilità” e i conglomerati bituminosi modificati con polverino di gomma sono stati descritti in dettaglio. Inoltre è stata discussa l’importanza della caratterizzazione di laboratorio dei materiali e il valore di un metodo razionale di progetto delle pavimentazioni stradali. Nel Capitolo II sono stati descritti i diversi approcci progettuali utilizzabili con il CalME e in particolare è stata spiegata la procedura Incrementale – Ricorsiva. Nel Capitolo III sono state studiate le proprietà volumetriche e meccaniche del PGGWMA. Test di Fatica e di Deformazioni Permanenti, eseguiti rispettivamente con la macchina a fatica per flessione su quattro punti e il Simple Shear Test device (macchina di taglio semplice), sono stati effettuati su provini di conglomerato bituminoso e i risultati dei test sono stati riassunti. Attraverso questi dati di laboratorio, i parametri dei modelli della Master Curve, del danno a fatica e dell’accumulo di deformazioni di taglio usati nella procedura Incrementale – Ricorsiva del CalME sono stati valutati. Infine, nel Capitolo IV, sono stati presentati i risultati delle simulazioni di pavimentazioni stradali con diversi strati superficiali. Per ogni pavimentazione sono stati analizzati la fessurazione superficiale complessiva, le deformazioni permanenti complessive, il danno a fatica e la profondità delle deformazioni in ognuno degli stati legati.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La teoria dei sistemi dinamici studia l'evoluzione nel tempo dei sistemi fisici e di altra natura. Nonostante la difficoltà di assegnare con esattezza una condizione iniziale (fatto che determina un non-controllo della dinamica del sistema), gli strumenti della teoria ergodica e dello studio dell'evoluzione delle densità di probabilità iniziali dei punti del sistema (operatore di Perron-Frobenius), ci permettono di calcolare la probabilità che un certo evento E (che noi definiamo come evento raro) accada, in particolare la probabilità che il primo tempo in cui E si verifica sia n. Abbiamo studiato i casi in cui l'evento E sia definito da una successione di variabili aleatorie (prima nel caso i.i.d, poi nel caso di catene di Markov) e da una piccola regione dello spazio delle fasi da cui i punti del sistema possono fuoriuscire (cioè un buco). Dagli studi matematici sui sistemi aperti condotti da Keller e Liverani, si ricava una formula esplicita del tasso di fuga nella taglia del buco. Abbiamo quindi applicato questo metodo al caso in cui l'evento E sia definito dai punti dello spazio in cui certe osservabili assumono valore maggiore o uguale a un dato numero reale a, per ricavare l'andamento asintotico in n della probabilità che E non si sia verificato al tempo n, al primo ordine, per a che tende all'infinito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’azienda GGP, leader europeo nella produzione di rasaerba e prodotti per il giardinaggio, ha avviato, in collaborazione con il Laboratorio di aerodinamica sperimentale della Facoltà di ingegneria dell’Università di Bologna, uno studio atto alla valutazione delle prestazioni dei rasaerba commercializzati, al fine di comprendere quali siano le vie percorribili per ottenere un miglioramento delle prestazioni associate. Attualmente il metodo utilizzato per compiere tali valutazioni consiste nel far percorrere al rasaerba un percorso di lunghezza prestabilita e valutare il peso dell’erba raccolta nel sacco. Tale approccio presenta delle forti limitazioni in quanto le prove non sono per loro natura ripetibili. Si pensi ad esempio alla non uniformità del terreno e all’altezza dell’erba. È pertanto necessario un approccio in grado di definire con maggior precisione e ripetibilità le prestazioni dei macchinari rasaerba. Tra le diverse prestazioni c’è la capacità della macchina di trattare una portata di aria più elevata possibile garantendo un’elevata aspirazione dell’erba tagliata. Da questo punto vista la geometria della lama riveste un’importanza particolare. Per valutare le prestazioni della singola lama, è stato realizzato un “test-rig lame”, uno strumento con cui è possibile trattare il flusso per renderlo misurabile e valutare la portata d’aria attraverso semplici misure di pressione. Una volta costruito il “test-rig”, sono stati individuati i parametri geometrici delle lame che influenzano la portata, quali apertura, corda e calettamento del flap della lama. Lo studio svolto si limita a valutare gli effetti causati dalla sola geometria della lama prescindendo dalla forma della voluta, in quanto la sua interazione con la lama risulta di grande complessità. Si è quindi avviata una campagna di test sperimentali effettuati su lame caratterizzate da diversi valori dei parametri, che l’azienda stessa ha prodotto e fornito al laboratorio, al fine di trovare relazioni funzionali tra la portata elaborata e la geometria delle lame.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si inserisce nell'ambito delle analisi statistiche e dei metodi stocastici applicati all'analisi delle sequenze di DNA. Nello specifico il nostro lavoro è incentrato sullo studio del dinucleotide CG (CpG) all'interno del genoma umano, che si trova raggruppato in zone specifiche denominate CpG islands. Queste sono legate alla metilazione del DNA, un processo che riveste un ruolo fondamentale nella regolazione genica. La prima parte dello studio è dedicata a una caratterizzazione globale del contenuto e della distribuzione dei 16 diversi dinucleotidi all'interno del genoma umano: in particolare viene studiata la distribuzione delle distanze tra occorrenze successive dello stesso dinucleotide lungo la sequenza. I risultati vengono confrontati con diversi modelli nulli: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi) e la distribuzione geometrica per le distanze. Da questa analisi le proprietà caratteristiche del dinucleotide CpG emergono chiaramente, sia dal confronto con gli altri dinucleotidi che con i modelli random. A seguito di questa prima parte abbiamo scelto di concentrare le successive analisi in zone di interesse biologico, studiando l’abbondanza e la distribuzione di CpG al loro interno (CpG islands, promotori e Lamina Associated Domains). Nei primi due casi si osserva un forte arricchimento nel contenuto di CpG, e la distribuzione delle distanze è spostata verso valori inferiori, indicando che questo dinucleotide è clusterizzato. All’interno delle LADs si trovano mediamente meno CpG e questi presentano distanze maggiori. Infine abbiamo adottato una rappresentazione a random walk del DNA, costruita in base al posizionamento dei dinucleotidi: il walk ottenuto presenta caratteristiche drasticamente diverse all’interno e all’esterno di zone annotate come CpG island. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per migliorare l’individuazione di queste aree di interesse nel genoma umano e di altri organismi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo della modellizzazione delle stringhe di DNA è la formulazione di modelli matematici che generano sequenze di basi azotate compatibili con il genoma esistente. In questa tesi si prendono in esame quei modelli matematici che conservano un'importante proprietà, scoperta nel 1952 dal biochimico Erwin Chargaff, chiamata oggi "seconda regola di Chargaff". I modelli matematici che tengono conto delle simmetrie di Chargaff si dividono principalmente in due filoni: uno la ritiene un risultato dell'evoluzione sul genoma, mentre l'altro la ipotizza peculiare di un genoma primitivo e non intaccata dalle modifiche apportate dall'evoluzione. Questa tesi si propone di analizzare un modello del secondo tipo. In particolare ci siamo ispirati al modello definito da da Sobottka e Hart. Dopo un'analisi critica e lo studio del lavoro degli autori, abbiamo esteso il modello ad un più ampio insieme di casi. Abbiamo utilizzato processi stocastici come Bernoulli-scheme e catene di Markov per costruire una possibile generalizzazione della struttura proposta nell'articolo, analizzando le condizioni che implicano la validità della regola di Chargaff. I modelli esaminati sono costituiti da semplici processi stazionari o concatenazioni di processi stazionari. Nel primo capitolo vengono introdotte alcune nozioni di biologia. Nel secondo si fa una descrizione critica e prospettica del modello proposto da Sobottka e Hart, introducendo le definizioni formali per il caso generale presentato nel terzo capitolo, dove si sviluppa l'apparato teorico del modello generale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo della tesi è studiare la dinamica di un random walk su network. Essa è inoltre suddivisa in due parti: la prima è prettamente teorica, mentre la seconda analizza i risultati ottenuti mediante simulazioni. La parte teorica è caratterizzata dall'introduzione di concetti chiave per comprendere i random walk, come i processi di Markov e la Master Equation. Dopo aver fornito un esempio intuitivo di random walk nel caso unidimensionale, tale concetto viene generalizzato. Così può essere introdotta la Master Equation che determina l'evoluzione del sistema. Successivamente si illustrano i concetti di linearità e non linearità, fondamentali per la parte di simulazione. Nella seconda parte si studia il comportamento di un random walk su network nel caso lineare e non lineare, studiando le caratteristiche della soluzione stazionaria. La non linearità introdotta simula un comportamento egoista da parte di popolazioni in interazioni. In particolare si dimostra l'esistenza di una Biforcazione di Hopf.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il testo contiene nozioni base di probabilità necessarie per introdurre i processi stocastici. Sono trattati infatti nel secondo capitolo i processi Gaussiani, di Markov e di Wiener, l'integrazione stocastica alla Ito, e le equazioni differenziali stocastiche. Nel terzo capitolo viene introdotto il rapporto tra la genetica e la matematica, dove si introduce l'evoluzione la selezione naturale, e altri fattori che portano al cambiamento di una popolazione; vengono anche formulate le leggi basilari per una modellizzazione dell’evoluzione fenotipica. Successivamente si entra più nel dettaglio, e si determina un modello stocastico per le mutazioni, cioè un modello che riesca ad approssimare gli effetti dei fattori di fluttuazione all'interno del processo evolutivo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Si analizzano diversi algoritmi euristici volti alla soluzione di problemi di scheduling su macchina singola con vincoli sui tempi di completamento, quali earliness, tardiness, manutenzione, ecc. e ne vengono mostrati i risultati.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Oggi, grazie al continuo progredire della tecnologia, in tutti i sistemi di produzione industriali si trova almeno un macchinario che permette di automatizzare determinate operazioni. Alcuni di questi macchinari hanno un sistema di visione industriale (machine vision), che permette loro di osservare ed analizzare ciò che li circonda, dotato di algoritmi in grado di operare alcune scelte in maniera automatica. D’altra parte, il continuo progresso tecnologico che caratterizza la realizzazione di sensori di visione, ottiche e, nell’insieme, di telecamere, consente una sempre più precisa e accurata acquisizione della scena inquadrata. Oggi, esigenze di mercato fanno si che sia diventato necessario che macchinari dotati dei moderni sistemi di visione permettano di fare misure morfometriche e dimensionali non a contatto. Ma le difficoltà annesse alla progettazione ed alla realizzazione su larga scala di sistemi di visione industriali che facciano misure dimensioni non a contatto, con sensori 2D, fanno sì che in tutto il mondo il numero di aziende che producono questo tipo di macchinari sia estremamente esiguo. A fronte di capacità di calcolo avanzate, questi macchinari necessitano dell’intervento di un operatore per selezionare quali parti dell’immagine acquisita siano d’interesse e, spesso, anche di indicare cosa misurare in esse. Questa tesi è stata sviluppata in sinergia con una di queste aziende, che produce alcuni macchinari per le misure automatiche di pezzi meccanici. Attualmente, nell’immagine del pezzo meccanico vengono manualmente indicate le forme su cui effettuare misure. Lo scopo di questo lavoro è quello di studiare e prototipare un algoritmo che fosse in grado di rilevare e interpretare forme geometriche note, analizzando l’immagine acquisita dalla scansione di un pezzo meccanico. Le difficoltà affrontate sono tipiche dei problemi del “mondo reale” e riguardano tutti i passaggi tipici dell’elaborazione di immagini, dalla “pulitura” dell’immagine acquisita, alla sua binarizzazione fino, ovviamente, alla parte di analisi del contorno ed identificazione di forme caratteristiche. Per raggiungere l’obiettivo, sono state utilizzate tecniche di elaborazione d’immagine che hanno permesso di interpretare nell'immagine scansionata dalla macchina tutte le forme note che ci siamo preposti di interpretare. L’algoritmo si è dimostrato molto robusto nell'interpretazione dei diametri e degli spallamenti trovando, infatti, in tutti i benchmark utilizzati tutte le forme di questo tipo, mentre è meno robusto nella determinazione di lati obliqui e archi di circonferenza a causa del loro campionamento non lineare.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Come il titolo suggerisce, due sono gli aspetti oggetto di questo elaborato: i modelli e gli algoritmi (con le rispettive criticità), e il linguaggio di modellazione AMPL. Il filo conduttore che integra le due parti, nonché mezzo ultimo per un’applicazione pratica dell’attività di modellazione, è l’ottimizzatore, la ”macchina” che effettua la risoluzione vera e propria dei suddetti modelli.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Nell'elaborato, dopo una breve descrizione di come vengono suddivise le macchine elettriche a seconda che vi siano o meno parti in movimento al loro interno, vengono esaminati inizialmente gli aspetti teorici che riguardano le macchine sincrone a poli lisci ed a poli salienti prendendo in esame anche quelli che sono i provvedimenti necessari a ridurre il contributo dei campi armonici di ordine superiore. Per questo tipo di macchine, spesso utilizzate in centrale per la pruduzione dell'energia elettrica, risultano di fondamentale importanza le curve a "V" e le curve di "Capability". Esse sono strumenti che permettono di valutare le prestazioni di tali macchine una volta che siano noti i dati di targa delle stesse. Lo scopo della tesi è pertanto quello di sviluppare un software in ambiente Matlab che permetta il calcolo automatico e parametrico di tali curve al fine di poter ottimizzare la scelta di una macchina a seconda delle esigenze. Nel corso dell'eleaborato vengono altresì proposti dei confronti su come varino tali curve, e pertanto i limiti di funzionamento ad esse associati, al variare di alcuni parametri fondamentali come il fattore di potenza, la reattanza sincrona o, nel caso di macchine a poli salienti, il rapporto di riluttanza. Le curve di cui sopra sono state costruite a partire da considerazioni fatte sul diagramma di Behn-Eschemburg per le macchine isotrope o sul diagramma di Arnold e Blondel per le macchine anisotrope.