950 resultados para risolubilità radicali equazioni polinomiali teoria di Galois gruppi risolubili estensioni radicali risolubili
Il libro dell'arte. Elementi di estetica e di letteratura ad uso delle scuole medie di secondo grado
Resumo:
v.1. La lingua e lo stile, a cura di A. Pellizzari.--v.2. Teoria e storia dei componimenti letterari, a cura di D. Guerr. 2. ed., riv.
Resumo:
From Istituto veneto di scienze, lettere ed arti. Memorie, vol. IX, 1860.
Resumo:
The author is partially supported by: M. U. R. S. T. Prog. Nazionale “Problemi e Metodi nella Teoria delle Equazioni Iperboliche”.
Resumo:
Con questa tesi verrà spiegata l'intrinseca connessione tra la matematica della teoria dei numeri e l'affidabilità e sicurezza dei crittosistemi asimmetrici moderni. I principali argomenti trattati saranno la crittografia a chiave pubblica ed il problema della verifica della primalità. Nei primi capitoli si capirà cosa vuol dire crittografia e qual è la differenza tra asimmetria e simmetria delle chiavi. Successivamente verrà fatta maggiore luce sugli utilizzi della crittografia asimmetrica, mostrando tecniche per: comunicare in modo confidenziale, scambiare in modo sicuro chiavi private su un canale insicuro, firmare messaggi, certificare identità e chiavi pubbliche. La tesi proseguirà con la spiegazione di quale sia la natura dei problemi alla base della sicurezza dei crittosistemi asimmetrici oggigiorno più diffusi, illustrando brevemente le novità introdotte dall'avvento dei calcolatori quantistici e dimostrando l'importanza che riveste in questo contesto il problema della verifica della primalità. Per concludere verrà fatta una panoramica di quali sono i test di primalità più efficienti ed efficaci allo stato dell'arte, presentando una nuova tecnica per migliorare l'affidabilità del test di Fermat mediante un nuovo algoritmo deterministico per fattorizzare gli pseudoprimi di Carmichael, euristicamente in tempo O~( log^3{n}), poi modificato sfruttando alcune proprietà del test di Miller per ottenere un nuovo test di primalità deterministico ed euristico con complessità O~( log^2{n} ) e la cui probabilità di errore tende a 0 con n che tende ad infinito.
Resumo:
Questo progetto di tesi è parte di un programma più ampio chiamato TIME (Tecnologia Integrata per Mobilità Elettrica) sviluppato tra diversi gruppi di ricerca afferenti al settore meccanico, termofluidodinamico e informatico. TIME si pone l'obiettivo di migliorare la qualità dei componenti di un sistema powertrain presenti oggi sul mercato progettando un sistema general purpose adatto ad essere installato su veicoli di prima fornitura ma soprattutto su retrofit, quindi permettendo il ricondizionamento di veicoli con motore a combustione esistenti ma troppo datati. Lo studio svolto si pone l'obiettivo di identificare tutti gli aspetti di innovazione tecnologica che possono essere installati all'interno del sistema di interazione uomo-macchina. All'interno di questo progetto sarà effettuata una pianificazione di tutto il lavoro del gruppo di ricerca CIRI-ICT, partendo dallo studio normativo ed ergonomico delle interfacce dei veicoli analizzando tutti gli elementi di innovazione che potranno far parte del sistema TIME e quindi programmare tutte le attività previste al fine di raggiungere gli obiettivi prefissati, documentando opportunamente tutto il processo. Nello specifico saranno analizzate e definite le tecniche da utilizzare per poi procedere alla progettazione e implementazione di un primo sistema sperimentale di Machine Learning e Gamification con lo scopo di predire lo stato della batteria in base allo stile di guida dell'utente e incentivare quest'ultimo tramite sistemi di Gamification installati sul cruscotto ad una guida più consapevole dei consumi. Questo sistema sarà testato su dati simulati con l'obiettivo di avere un prodotto configurabile da installare sul veicolo.
Resumo:
La presente tesi è suddivisa in due parti: nella prima parte illustriamo le definizioni e i relativi risultati della teoria delle tabelle di Young, introdotte per la prima volta nel 1900 da Alfred Young; mentre, nella seconda parte, diamo la nozione di numeri Euleriani e di Polinomi Euleriani. Nel primo capitolo abbiamo introdotto i concetti di diagramma di Young e di tabelle di Young standard. Inoltre, abbiamo fornito la formula degli uncini per contare le tabelle di Young della stessa forma. Il primo capitolo è focalizzato sul teorema di Robinson-Schensted, che stabilisce una corrispondenza biunivoca tra le permutazioni di Sn e le coppie di tabelle di Young standard della stessa forma. Ne deriva un'importante conseguenza che consiste nel poter trovare in modo efficiente la massima sottosequenza crescente di una permutazione. Una volta definite le operazioni di evacuazione e "le jeu de taquin" relative alle tabelle di Young, illustriamo una serie di risultati riferibili alla corrispondenza biunivoca R-S che variano in base alla permutazione che prendiamo in considerazione. In particolare, enunciamo il teorema di simmetria di M.P.Schüztenberger, che dimostriamo attraverso la costruzione geometrica di Viennot. Nel secondo capitolo, dopo aver dato la definizione di discesa di una permutazione, descriviamo altre conseguenze della corrispondenza biunivoca R-S: vediamo così che esiste una relazione tra le discese di una permutazione e la coppia di tabelle di Young associata. Abbiamo trattato approfonditamente i numeri Euleriani, indicati con A(n,k) = ]{σ ∈ Sn;d(σ) = k}, dove d(σ) indica il numero di discese di una permutazione. Descriviamo le loro proprietà e simmetrie e vediamo che sono i coefficienti di particolari polinomi, detti Polinomi Euleriani. Infine, attraverso la nozione di eccedenza di una permutazione e la descrizione della mappa di Foata arriviamo a dimostrare un importante risultato: A(n,k) conta anche il numero di permutazioni di Sn con k eccedenze.
Resumo:
Sono studiati nel dettaglio, sia dal punto di vista matematico che con un certo inquadramento storico, i capitoli quinto e sesto del volume ''Le operazioni distributive e le loro applicazioni all'analisi'' di Salvatore Pincherle. La tesi si inserisce in un progetto più ampio di studio ed è già stata preceduta da un'altra tesi magistrale dedicata ai primi capitoli del libro.
Resumo:
L'Italia è spesso sede di eventi d'intensa precipitazione, frequentemente associati ad alluvioni con conseguente perdita di vite umane e gravi danni economici. È quindi di fondamentale importanza poter prevedere questi eventi con un adeguato anticipo. Allo stato attuale, i modelli meteorologici non permettono sempre di raggiungere tale obbiettivo e, di conseguenza, è in atto un'intensa attività di ricerca al fine di di renderne più accurata la previsione, sia attraverso il miglioramento dei modelli stessi, sia sviluppando l'assimilazione dati, la quale riduce l'incertezza della condizione iniziale da cui parte la previsione. All'interno di questo contesto, la tesi si prefigge l'obiettivo di studiare gli effetti dell'assimilazione di dati di precipitazione, effettuata mediante uno schema di nudging, nel modello non idrostatico MOLOCH. Al fine di ottimizzare lo schema e di valutarne l'impatto, sono stati simulati tutti gli eventi di maltempo di ottobre e novembre del 2014 che hanno interessato la Liguria, area frequentemente soggetta ad alluvioni. Dalla sistematica verifica dei risultati, effettuata sia qualitativamente che mediante numerosi metodi statistici (tra cui la tecnica SAL basata sull'individuazione dei nuclei di precipitazione), si riscontra un generale miglioramento della previsione della precipitazione anche se limitato alle prime ore dopo la fine del periodo di assimilazione. L'impatto dello schema di nudging varia a seconda dell'evento e, in particolare, si osserva una certa correlazione tra il miglioramento ottenuto e la tipologia di evento, come descritto dalla teoria dell'equilibrio convettivo e come riportato in alcuni studi analoghi recentemente comparsi in letteratura. La ricaduta del miglioramento della previsione meteorologica è stata valutata anche in termini di impatti al suolo accoppiando il modello meteorologico con il modello idrologico utilizzato dal Centro Funzionale della Regione Liguria, con risultati abbastanza positivi.
Resumo:
Abstract La metafora è stata tradizionalmente considerata come uno strumento linguistico dal valore esclusivamente estetico, ma agli inizi degli anni Ottanta questa teoria è stata messa in discussione: la metafora è per noi uno strumento conoscitivo fondamentale: ci consente di organizzare le nostre conoscenze e di crearne di nuove, aiutandoci a categorizzare elementi e concetti astratti o troppo complessi come elementi di cui possiamo fare esperienza quotidianamente e che sono sufficientemente strutturati nel nostro sistema concettuale. Le metafore di questo tipo vengono definite metafore concettuali. La messa in discussione della teoria tradizionale della metafora comporta inevitabilmente anche la messa in discussione del concetto di similarità, visto non più come una causa della metafora, ma come la sua conseguenza, e del meccanismo che ne sta alla base. La teoria cognitiva della metafora, in ricerche successive, è stata confermata attraverso le teoria neurale della metafora: l'insorgere di una metafora comporta la creazione di un legame tra aree diverse del cervello che rappresenta fisiologicamente la metafora.
Resumo:
Nella tesi inizialmente ho introdotto qualche nozione principale della teoria dei giochi; in seguito ho analizzato e approfondito l'equilibrio di Nash attraverso degli esempi come il dilemma del prigioniero. Ho studiato qualche tipologia di gioco come l'induzione a ritroso e infine nell'ultimo capitolo ho inserito tre esempi che possono essere studiati e affrontati con l'equilibrio di Nash.
Resumo:
Questo elaborato si propone di approfondire lo studio dei campi finiti, in modo particolare soffermandosi sull’esistenza di una base normale per un campo finito, in quanto l'utilizzo di una tale base ha notevoli applicazioni in ambito crittografico. Vengono trattati i seguenti argomenti: elementi di base della teoria dei campi finiti, funzione traccia e funzione norma, basi duali, basi normali. Vengono date due dimostrazioni del Teorema della Base Normale, la seconda delle quali fa uso dei polinomi linearizzati ed è in realtà un po' più generale, in quanto si riferisce ai q-moduli.
Resumo:
Nel 1837 il matematico A.F. Möbius definì la funzione aritmetica mu(n) che vale 0 se n è divisibile per il quadrato di un numero primo, (-1)^k se n è il prodotto di k primi distinti e \mu(1)=1. Essa ricopre un ruolo di fondamentale importanza per quanto riguarda la distribuzione dei numeri primi, nonché per la sua duttilità nella risoluzione di diversi problemi di conteggio grazie alla formula di inversione di Möbius, che può essere pensata come un analogo formale del teorema fondamentale del calcolo integrale. Una sorprendente varietà di problemi di calcolo combinatorio si rivelano essere nient'altro che casi particolari di un problema più generale che riguarda la possibilità di invertire una somma fatta sugli elementi di un insieme parzialmente ordinato. L'obiettivo di questo elaborato è quello di illustrare come sia possibile generalizzare il concetto di funzione aritmetica estendendolo a quello di funzione di un'algebra di incidenza. Le algebre di incidenza hanno catturato l'interesse di svariati matematici a partire dagli anni '60 del secolo scorso, e si svilupparono come ambiente naturale nel quale generalizzare la formula di inversione di Mobius. La funzione di Möbius della teoria dei numeri, definita originariamente sull'insieme dei numeri interi positivi ordinato per divisibilità, può quindi essere definita su generici insiemi parzialmente ordinati.
Resumo:
La tesi ha come scopo principale quello di studiare la funzione di risoluzione e le distribuzioni della distanza equivalente attraverso i risultati ottenuti dal lavoro del gruppo n_TOF al CERN di Ginevra. n_TOF utilizza un fascio di protoni accelerato dal ProtoSincrotrone (PS) del CERN per crearne due di neutroni (uno verticale e uno orizzontale) tramite spallazione. Dopo aver spiegato la tecnica del tempo di volo (TOF) e descritto il set up sperimentale presente al CERN, si esporranno le simulazioni Monte Carlo utilizzate per simulare la produzione dei fasci di neutroni, analizzando nel dettaglio quello diretto verso la prima sala sperimentale. Nella parte finale del lavoro verranno riportati i risultati ottenuti dalle simulazioni; verrà prestata particolare attenzione al confronto tra le conclusioni ottenute da tre gruppi di lavoro differenti nonchè ad una trattazione statistica delle misure effettuate. Si mostrerà inoltre in che modo lo studio effettuato sia importante nella determinazione delle sezioni d'urto nelle reazioni indotte da neutroni.
Resumo:
I robot ad architettura parallela sono meccanismi robotici a catena chiusa. Se al posto di membri rigidi estensibili, come collegamenti tra base e piattaforma, si utilizzano dei cavi avvolgibili allora si parla di manipolatori paralleli a cavi. Nel primo capitolo si mettono a confronto robot seriali e paralleli, si descrivono le caratteristiche dei manipolatori paralleli a cavi e si presentano alcune attuali applicazioni. Nel secondo capitolo si forniscono richiami fondamentali di cinematica e dinamica del corpo rigido e si fanno alcuni cenni alla teoria dei torsori. Nel terzo capitolo si affronta il problema geometrico-statico inverso di un robot parallelo a tre cavi. Nel quarto capitolo si affronta il problema della dinamica inversa, che è sempre da risolvere nei casi in cui si abbiano forze inerziali rilevanti e si desideri raggiungere livelli di accuratezza elevati. Nel quinto capitolo si descrive il codice di simulazione Matlab-Adams. Nel sesto capitolo si descrive la componentistica meccanica ed elettronica del prototipo di laboratorio di manipolatore parallelo a tre cavi e si presentano i risultati ottenuti dalle simulazioni combinate Matlab-Adams nei casi di diverse traiettorie percorse a differenti velocità; infine, si mettono in evidenza le differenze tra l’approccio dinamico e quello statico quando le velocità dei motori e le inerzie della piattaforma mobile sono rilevanti.
Resumo:
I processi di separazione sono tra quelli che consumano più energia nelle nazioni maggiormente industrializzate, questo rende necessaria la ricerca continua di tecnologie e materiali che siano in grado di aumentarne l’efficienza. Uno dei principali campi di studio di questa ricerca riguarda la separazione di gas, in cui le membrane polimeriche si candidano come principale alternativa innovativa ai metodi classici. Questo lavoro di tesi mira all’analisi delle variabili che governano il trasposto di gas attraverso membrane polimeriche di tipo vetroso, alla comprensione dei fenomeni destabilizzanti quali aging e plasticizzazione in termini di cause ed effetti e alla primaria rielaborazione dei dati di letteratura relativi agli stessi fenomeni per verificare analiticamente quanto studiato nella parte precedente. Per fare ciò, operativamente, ci si è serviti del supporto di articoli scientifici che trattano il tema, andando ad estrapolare dati e informazioni rilevanti e delle indicazioni del professor Minelli che da anni è impegnato nella ricerca su questi materiali. Dopo una prima parte introduttiva riguardante le tecnologie a membrana e le loro applicazioni, si passa allo studio approfondito della teoria e alla discussione dei due fenomeni, ai quali viene dedicato un capitolo ciascuno per capirne nel dettaglio le implicazioni che comportano nell’utilizzo di tecnologie a membrane polimeriche. Nella rielaborazione ci si sofferma poi sui film sottili, nell’ordine del micron, che corrispondo alle dimensioni tipiche delle membrane utilizzate per la separazione di gas. Ci si focalizza su miscele contenenti anidride carbonica, gas di estremo interesse sia perché è uno dei maggiori contributori al fenomeno del surriscaldamento globale, sia perché è uno dei principali responsabili della plasticizzazione di un polimero, per via della sua buona solubilità. Si conclude l’elaborato con una breve analisi sulle possibili contromisure riguardanti aging e plasticizzazione.