188 resultados para complessità computazionale primalità problemi polinomiali algoritmo aks
Resumo:
Questa ricerca affronta in maniera interdisciplinare il tema delle funzioni polinomiali definite sugli anelli degli interi modulo la potenza di un numero primo. In primo luogo è stato esaminato il caso particolare del campo Zp, dimostrando che in esso tutte le funzioni sono polinomiali. In seguito è stato calcolato il numero delle funzioni polinomiali negli interi modulo 9 e modulo 25, mostrando un procedimento che può essere esteso a qualsiasi potenza di un numero primo. Esso fa uso di alcuni risultati di teoria dei numeri e di aritmetica e affronta il tema da un punto di vista prettamente algebrico. A queste dimostrazioni è stato affiancato un esperimento di tipo statistico, il cui obiettivo è cercare una regolarità che permetta, dati il numero primo p e il suo esponente n, di calcolare immediatamente il numero delle funzioni polinomiali nell'anello degli interi modulo p^n. Sono state presentate due congetture, ottenute utilizzando strumenti di tipo informatico: un software di calcolo e un linguaggio di programmazione ad alto livello. Gli strumenti della statistica descrittiva, in particolare il test di Pearson, si sono rivelati essenziali per verificare l'adeguatezza delle supposizioni. Questa ricerca può essere considerata il punto di partenza per dimostrare (o confutare) quello che è stato ipotizzato attraverso un'analisi di tipo sperimentale.
Resumo:
La tesi tratta dell'ottimizzazione di alcune tipologie di strutture reticolari. Per sviluppare i problemi analizzati ci si è avvalsi del software Grasshopper, conducendo poi l'ottimizzazione mediante un algoritmo genetico.
Resumo:
Il teorema di Chevalley-Shephard-Todd è un importante risultato del 1954/1955 nella teoria degli invarianti polinomiali sotto l'azione del gruppo delle matrici invertibili. Lo scopo di questa tesi è presentare e dimostrare il teorema nella versione in cui l'anello dei polinomi ha come campo base R e di vedere alcuni esempi concreti di applicazione del teorema. Questa dimostrazione può essere generalizzata facilmente avendo come campo base un qualsiasi campo K di caratteristica 0.
Resumo:
Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.
Resumo:
L'oggetto di questo elaborato è la proposta di traduzione dell'introduzione e del primo capitolo del romanzo Zahvărlen v prirodata dello scrittore bulgaro Milen Ruskov. Questo autore, sebbene sia pressoché sconosciuto in Italia, ha ottenuto numerosi riconoscimenti letterari, tra cui il Premio dell'Unione Europea per la letteratura nel 2014. La scelta di traduzione è ricaduta su Zahvărlen v prirodata in quanto questo romanzo è l'ultimo scritto da Ruskov e anche l'unico a non essere stato tradotto in lingua italiana. È la storia del viaggio di due medici tra la Spagna e l'Inghilterra e della nuova panacea del XVI secolo, il tabacco. In quest'opera si mescolano assieme creatività stilistica, precisione linguistica e ricchezza lessicale, elementi che ricreano perfettamente l'ambientazione cinquecentesca della storia. Di conseguenza, tali caratteristiche della prosa di Ruskov obbligano il traduttore a operare scelte di resa creative anche nella lingua d'arrivo. Nel primo capitolo si propone una presentazione generale dell'autore e delle tematiche affrontate nel romanzo, il secondo è invece dedicato alla proposta di traduzione e, infine, nel terzo capitolo si commentano i problemi traduttivi riscontrati.
Resumo:
Le azioni che un robot dovrà intraprendere per riuscire a portare a termine un determinato task non sono sempre note a priori. In situazioni dove l’ambiente in cui il robot si muove e con cui interagisce risulta impredicibile, variabile o persino ignoto, diventa pressocché impossibile progettare un algoritmo universale, che tenga conto di tutte le possibili variabili, avvalendosi dei metodi classici di programmazione e design. La Robotica Evolutiva (ER) è una branca della Computazione Evolutiva (EC) che si occupa di risolvere questo problema avvalendosi di specifici Algoritmi Evolutivi (EA) applicati alla robotica. Gli utilizzi della Robotica Evolutiva sono molteplici e spaziano dalla ricerca di soluzioni per problemi/task complessi allo studio e alla riproduzione di fenomeni fisiologici e biologici per riuscire a comprendere (o ipotizzare) l’evoluzione di alcuni tratti genetici presenti nel genere animale/umano. Lo scopo di questo elaborato è di predisporre una base, una visione generale per chiunque voglia intraprendere studi approfonditi nella Robotica Evolutiva, esaminando lo stato attuale delle sperimentazioni, gli obiettivi raggiunti e le sfide che ogni ricercatore di ER deve affrontare ogni giorno per riuscire portare questo campo di studi nel mondo reale, fuori dall’ambiente simulato e ideale.
Resumo:
Analisi e applicazione dei processi di data mining al flusso informativo di sistemi real-time. Implementazione e analisi di un algoritmo autoadattivo per la ricerca di frequent patterns su macchine automatiche.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Resumo:
Scopo di questo elaborato è studiare la risolubilità per radicali di un polinomio a coefficienti in un campo di caratteristica zero attraverso lo studio del gruppo di Galois del suo campo di spezzamento. Dopo aver analizzato alcuni risultati su gruppi risolubili e gruppi semplici, vengono studiate le estensioni radicali e risolubili. Viene inoltre dimostrato su un campo K di caratteristica zero il Teorema di Galois, che caratterizza i polinomi risolubili per radicali f a coefficienti in K attraverso la risolubilità del gruppo di Galois G(L/K), dove L è il campo di spezzamento di f. La tesi contiene anche un'esposizione sintetica del metodo introdotto da Lagrange per la risoluzione di equazioni polinomiali di cui si conosca il gruppo di Galois.
Resumo:
Il sostantivo nelle costruzioni “идти в солдаты” è declinato all’accusativo. La sua animatezza in queste composizioni cambia nel seguente modo: diventa morfologicamente inanimato e sintatticamente parzialmente animato debole.
Resumo:
La Digital Volume Correlation (DVC) è una tecnica di misura a tutto campo, non invasiva, che permette di misurare spostamenti e deformazioni all’interno della struttura ossea in esame. Mediante la comparazione d’immagini con provino scarico e con provino carico, ottenute attraverso sistemi di tomografia computerizzata, si può ottenere la mappa degli spostamenti per ogni direzione e la mappa di deformazione per ogni componente di deformazione. L’obiettivo di questo lavoro di tesi è la validazione della DVC, attraverso la determinazione dell’errore sistematico (accuratezza) e dell’errore casuale (precisione), in modo da poter valutare il livello di affidabilità della strumentazione. La valutazione si effettua su provini di vertebre di maiale, aumentate e non, sia a livello d’organo, sia a livello di tessuto. The Digital Volume Correlation (DVC) is a full field and contact less measurement technique that allowed estimating displacement and strain inside bone specimen. Images of the unloaded and loaded specimen were obtained from micro-CT and compared in order to obtain the displacement map and, differentiating, the strain map. The aim of this work is the validation of the approach, estimating the lack of accuracy (systematic error) and the lack of precision (random error) on different kinds of porcine vertebra, augmented and not, analysing the specimen on tissue level and on organ level.
Resumo:
Nel campo della Ricerca Operativa e dei problemi di ottimizzazione viene presentato un problema, denominato Bus Touring Problem (BTP), che modella una problematica riguardante il carico e l’instradamento di veicoli nella presenza di di vincoli temporali e topologici sui percorsi. Nel BTP, ci si pone il problema di stabilire una serie di rotte per la visita di punti di interesse dislocati geograficamente da parte di un insieme di comitive turistiche, ciascuna delle quali stabilisce preferenze riguardo le visite. Per gli spostamenti sono disponibili un numero limitato di mezzi di trasporto, in generale eterogenei, e di capacitá limitata. Le visite devono essere effettuate rispettando finestre temporali che indicano i periodi di apertura dei punti di interesse; per questi, inoltre, é specificato un numero massimo di visite ammesse. L’obiettivo é di organizzare il carico dei mezzi di trasporto e le rotte intraprese in modo da massimizzare la soddisfazione complessiva dei gruppi di turisti nel rispetto dei vincoli imposti. Viene presentato un algoritmo euristico basato su Tabu Search appositamente ideato e progettato per la risoluzione del BTP. Vengono presentati gli esperimenti effettuati riguardo la messa appunto dei parametri dell'algoritmo su un insieme di problemi di benchmark. Vengono presentati risultati estesi riguardo le soluzioni dei problemi. Infine, vengono presentate considerazioni ed indicazioni di sviluppo futuro in materia.
Resumo:
Nel presente lavoro viene descritto come è stata ottimizzata, a livello software e hardware, la procedura di controllo della pressione in uno strumento manometrico utilizzato per la misura della quantità di idrogeno assorbita e desorbita da parte di metalli. Dopo una breve introduzione sulle caratteristiche dell'idrogeno che lo rendono così appetibile dal punto di vista energetico, viene esposta la teoria alla base del processo di formazione di idruri metallici. Vengono dunque descritte le due principali tecniche di caratterizzazione di questi sistemi, ovvero le cinetiche e le isoterme pressione-composizione (PCI), e il metodo di misura adottato, ovvero quello volumetrico. Successivamente si passa alla descrizione delle componenti hardware del sistema, per poi soffermarsi sull'analisi dettagliata dell'algoritmo del software implementato, spiegando i problemi affrontati e le soluzioni adottate, riportando anche alcune formule utili ricorrenti. Infine, vengono esposti i risultati ottenuti da misure di cinetiche e PCI per il sistema MgH2 (idruro di magnesio).
Resumo:
L’obiettivo del presente lavoro è illustrare la creazione di due corpora bilingui italiano-inglese di libretti d’opera di Giuseppe Verdi, annotati e indicizzati, e descrivere le potenzialità di queste risorse. Il progetto è nato dalla volontà di indagare l’effettiva possibilità di gestione e consultazione di testi poetici tramite corpora in studi translation-driven, optando in particolare per il genere libretto d’opera in considerazione della sua complessità, derivante anche dal fatto che il contenuto testuale è fortemente condizionato dalla musica. Il primo corpus, chiamato LiVeGi, si compone di cinque opere di Giuseppe Verdi e relativa traduzione inglese: Ernani, Il Trovatore, La Traviata, Aida e Falstaff; il secondo corpus, nominato FaLiVe, contiene l’originale italiano dell’opera Falstaff e due traduzioni inglesi, realizzate a circa un secolo di distanza l’una dall’altra. All’analisi del genere libretto e delle caratteristiche principali delle cinque opere selezionate (Capitolo 1), segue una panoramica della prassi traduttiva dei lavori verdiani nel Regno Unito e negli Stati Uniti (Capitolo 2) e la presentazione delle nozioni di Digital Humanities e di linguistica computazionale, all’interno delle quali si colloca il presente studio (Capitolo 3). La sezione centrale (Capitolo 4) presenta nel dettaglio tutte le fasi pratiche di creazione dei due corpora, in particolare selezione e reperimento del materiale, OCR, ripulitura, annotazione e uniformazione dei metacaratteri, part-of-speech tagging, indicizzazione e allineamento, terminando con la descrizione delle risorse ottenute. Il lavoro si conclude (Capitolo 5) con l’illustrazione delle potenzialità dei due corpora creati e le possibilità di ricerca offerte, presentando, a titolo d’esempio, due case study: il linguaggio delle protagoniste tragiche nei libretti di Verdi in traduzione (studio realizzato sul corpus LiVeGi) e la traduzione delle ingiurie nel Falstaff (attraverso il corpus FaLiVe).
Resumo:
La tesi tratta i concetti fondamentali della teoria delle tabelle di Young e l'algoritmo di Robinson-Schensted. Nella prima parte si trovano le definizioni preliminari e le 2 operazioni principali definite sulle tabelle di Young. Si definiscono i prodotti tra tabelle. Si fornisce la definizione di parola associata ad una tabella e si introduce la definizione di knuth-equivalenza per le parole. Nella seconda parte della tesi si introduce l'algoritmo di Robinson-Schensted con con relativa corrispondenza di Robinson-Schensted-Knuth. Si danno anche risultati relativi alle sottosequenze crescenti massime di una parola; e risultati relativi alle tabelle associate alle permutazioni.