483 resultados para parla
Resumo:
La mia tesi parla di un attacco crittografico ad RSA, ideato da Wiener, basato sulle frazioni continue. Il primo capitolo riguarda RSA, il secondo spiega la teoria delle frazioni continue e nel terzo spiego l'attacco passo per passo.
Resumo:
La tesi riguarda la didattica della matematica e parla del modo di fare didattica negli istituti secondari di secondo grado attraverso l'analisi di un caso particolare: la didattica dei numeri complessi. La didattica verrà analizzata per prima cosa a livello generale attraverso l'esposizione dei punti principali della riforma Gelmini, e, successivamente, in particolare attraverso l'analisi della didattica dei numeri complessi nei licei scientifici. Di quest'ultima verranno presentati: gli strumenti con cui viene svolta, la modalità con cui vengono presentati i concetti, un nuovo metodo per migliorarla e, infine, il modo in cui i ragazzi la percepiscono. Questi elementi si traducono, rispettivamente, nell'analisi del libro `Matematica a colori', nell'esposizione di una lezione-tipo, nella proposta dell'utilizzo della storia della matematica e infine in un questionario posto agli alunni. Quanto emerso verrà confrontato con le indicazioni nazionali di alcuni stati esteri e il tutto verrà utilizzato per `leggere' i risultati del TIMMS ADVANCED 2008.
Resumo:
La tesi parla dei software OCR, della loro storia e di come si sono evoluti nel tempo, come sono strutturati e come funziona la logica alla base del loro funzionamento, inoltre studia come questi software vengano utilizzati nella lettura dei contatori di consumo domestici.
Resumo:
Lo sviluppo di questa tesi è nato dalla mia volontà di intraprendere un cammino nel campo dell’animazione computerizzata e della grafica in generale. La tesi tratta in generale della nascita dell’animazione, del suo sviluppo, delle principali tecniche e ne applica i principi nella realizzazione di un’animazione. Il progetto consiste nella modellazione di un personaggio di un cartone animato attraverso il programma Autodesk Maya, e nella sua successiva animazione, ossia nel rendere il movimento del personaggio in una scena realizzata sempre con gli strumenti di Maya. Nel primo capitolo viene presentata una breve storia della computer grafica, come e dove è nata e i ricercatori che hanno contribuito a svilupparla. Si parla del suo sviluppo, di cortometraggi e film d’animazione che hanno reso possibile il suo sviluppo sia nel cinema, sia in altri settori. In breve vengono descritte anche alcune applicazioni e uno schema che racchiude i rami della grafica. Nel secondo capitolo viene messa in rilievo una differenza tra animazione tradizionale e animazione computerizzata. Inoltre vengono elencati i principi cardini dell’animazione, particolare rilievo viene dato alle figure articolate e alle principali articolazioni importanti per l’animazione. Viene trattata la cinematica che permette lo studio del moto del corpo e viene descritta la differenza tra cinematica diretta e inversa, i tre approcci per utilizzarla e un confronto finale tra le due. Infine viene fatta una breve descrizione dell’animazione interattiva, della dinamica dei corpi e dell’animazione automatizzata. Il terzo capitolo tratta del software utilizzato per la realizzazione del progetto Autodesk Maya. È stata inserita una breve guida base sugli strumenti di Maya. Nel quarto capitolo vengono esposti i passi seguiti per la realizzazione del progetto. Il personaggio che è stato modellato è Olaf, il pupazzo di neve del film d’animazione Frozen. In questo capitolo vengono presentati anche i passi per lo sviluppo della scena, e le tecniche utilizzate per animare il personaggio.
Resumo:
La congestione del traffico è un fenomeno molto familiare, con il quale si ha a che fare nelle più svariate occasioni. Dal punto di vista fisico, il flusso del traffico rappresenta un sistema di particelle interagenti (i ve- icoli) in condizione di non equilibrio. L’effetto complessivo di un sistema composto da molte particelle interagenti è la creazione di una instabil- ità, osservata empiricamente, nello stato di free flow (scorrimento libero), causata dall’aumentare delle fluttuazioni. In questi casi di parla di phan- tom traffic jam, ovvero una congestione che ha origine senza cause appar- enti, come incidenti o lavori in corso. Sarà dimostrato come la condizione di stop & go si verifichi spontaneamente se la densità media dei veicoli eccede un certo valore critico. L’importanza di poter predire una congestione stradale non è un problema puramente matematico, ma ha risvolti socio-economici non indifferenti. Infatti, le caratteristiche della mobilità e dei sistemi di trasporto sono strettamente legate alla struttura della comunità e alla qualità della vita. Con il seguente studio si cercherà di trovare un osservabile facilmente calcolabile, che potrebbe essere un predittore della formazione di uno stato congestionato con un intervallo di tempo sufficientemente adeguato. A tal fine sono state prese in considerazione misure relative alle condizioni del traffico su strade provinciali dell’Emilia-Romagna, tramite un sistema MTS composto da 3509 spire che registra i passaggi delle macchine; in seguito, per poter avere una comprensione maggiore dei fenomeni che si manifestano durante la transizione a stato congestionato, si è provveduto a creare un modello matematico utilizzato per le simulazioni al computer. I risultati ottenuti dalle simulazioni, poi, sono stati utilizzati per trovare l’osservabile cercato nei dati pervenuti dalle strade campione.
Resumo:
In ambiente astrofisico, se si parla di campi magnetici, due sono gli elementi che devono sovvenire alla mente: plasma relativistico e radiazione di sincrotrone. L'elaborato vuole illustrare in modo più semplice possibile come si presenta una radiosorgente dal punto di vista magnetoidrodinamico e, più ampiamente, come funziona a livello di interazione elettromagnetica di sincrotrone
Resumo:
Questa tesi nasce dal voler approfondire lo studio delle curve piane di grado 3 iniziato nel corso di Geometria Proiettiva. In particolare si andrà a studiare la legge di gruppo che si può definire su tali curve e i punti razionali di ordine finito appartenenti alle curve ellittiche. Nel primo capitolo si parla di equazioni diofantee, dell’Ultimo Teorema di Fermat, dell'equazione e della formula di duplicazione di Bachet. Si parla inoltre dello stretto rapporto tra la geometria, l'algebra e la teoria dei numeri nella teoria delle curve ellittiche e come le curve ellittiche siano importanti nella crittografia. Nel secondo capitolo vengono enunciate alcune definizioni, proposizioni e teoremi, riguardanti polinomi e curve ellittiche. Nel terzo capitolo viene introdotta la forma normale di una cubica. Nel quarto capitolo viene descritta la legge di gruppo su una cubica piana non singolare e la costruzione geometrica che porta ad essa; si vede il caso particolare della legge di gruppo per una cubica razionale in forma normale ed inoltre si ricavano le formule esplicite per la somma di due punti appartenenti ad una cubica. Nel capitolo cinque si iniziano a studiare i punti di ordine finito per una curva ellittica con la legge di gruppo dove l'origine è un flesso: vengono descritti e studiati i punti di ordine 2 e quelli di ordine 3. Infine, nel sesto capitolo si studiano i punti razionali di ordine finito qualsiasi: viene introdotto il concetto di discriminante di una cubica e successivamente viene enunciato e dimostrato il teorema di Nagell-Lutz.
Resumo:
La volontà di ritornare a un'Italia completamente unita sotto un'unica fede religiosa, quella cattolica, costituisce uno degli elementi che caratterizzarono il regime fascista. Sorge spontaneo chiedersi quali furono le sorti delle altre denominazioni religiose, insediatesi relativamente da poco tempo sul suolo italiano, e come esse reagirono di fronte a questo nuovo potere che cercò di screditarle e limitarle fino a farle scomparire. Si parla spesso della religione ebraica, la minoranza più colpita dalla dittatura: essa dovette subire numerosi provvedimenti che finirono per sfociare in un'aperta persecuzione. Tuttavia, parlare della realtà ebraica durante il regime fascista di Benito Mussolini sarebbe un argomento decisamente troppo esteso per questo mio breve elaborato finale. Mi concentrerò quindi sulle altre minoranze religiose esistenti all'epoca in Italia, tutte riconducibili al protestantesimo, per riflettere sui loro rapporti con il regime e sulle conseguenze che derivarono da determinati provvedimenti presi dal governo. Le mie considerazioni sulle minoranze religiose durante il fascismo inizieranno dai primi atti del nuovo regime, come gli episodi della marcia su Roma e l'attentato all'onorevole Matteotti, fino ad arrivare ad analizzare gli effetti di alcune azioni messe in atto dal governo in ambito religioso e la posizione assunta dalle diverse fedi. Infine, non potendomi soffermare su ogni singola denominazione e sul loro comportamento alla fine della Seconda guerra mondiale, osserverò in linea generale la realtà della Chiesa avventista, indicando i cambiamenti salienti che avvennero nel secondo dopoguerra.
Resumo:
Tesi sull'analisi del ruolo dell'interprete militare. Nel primo capitolo viene spiegato il modo di accesso all'Esercito Italiano e i requisiti richiesti. Nel secondo capitolo si parla delle organizzazioni a tutela degli interpreti e i loro progetti.
Resumo:
In questo lavoro si parla di un particolare comportamento emergente nei sistemi complessi: il flocking. Dopo aver dato una panoramica generale di come sia stato affrontato finora lo studio della formazione degli stormi, vengono portati come esempio un modello matematico e uno studio empirico particolare, il quale fonda le basi del flocking su un’interazione topologica. Il modello matematico, basato su un’interazione metrica, viene dapprima presentato, cercando di darne una parziale spiegazione tramite le proprietà delle matrici laplaciane, per poi essere testato attraverso delle simulazioni numeriche. Lo studio empirico, invece, viene presentato nei dettagli fornendo risultati e ipotesi atte a spiegarli. Infine prendendo spunto da questi due lavori, nell’ultima parte vengono posti a confronto due modelli, uno metrico e uno topologico, tramite simulazioni al calcolatore. L’esito di queste simulazioni conferma le ipotesi avanzate per spiegare i risultati empirici.
Resumo:
La tesi vuole essere una panoramica generale sugli strumenti anti-plagio e sul fenomeno del plagio. Si parte col descrivere le leggi in merito al plagio e come viene sanzionato, successivamente si parla del plagio in ambito universitario cioè come le università si approcciano al problema. Si descrivono i metodi di individuazione del plagio sia nei testi che nei software. Si analizzano diversi programmi: uno di analisi testuale (CitePlag) altri di analisi dei software; questi ultimi vengono confrontati tra di loro attraverso una serie di test infine se ne discutono i risultati.
Resumo:
Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.
Resumo:
Grazie al continuo affinamento dell'elettronica di consumo e delle tecnologie di telecomunicazione, ad oggi sempre più "cose" sono dotate di capacità sensoriali, computazionali e comunicative, si parla così di Internet delle cose e di oggetti "smart". Lo scopo di questo elaborato è quello di approfondire e illustrare questo nuovo paradigma nell'ambito dell'automotive, evidenziandone caratteristiche, potenzialità e limiti. Ci riferiremo quindi più specificatamente al concetto di Internet dei veicoli per una gestione ottimale della mobilità su strada. Parleremo di questa tecnologia non solo per il supporto che può dare alla guida manuale, ma anche in funzione del concetto di guida autonoma, di come quest'ultima beneficerà di un'interconnessione capillare di tutti gli utenti, i veicoli e le infrastrutture presenti sulla strada, il tutto in un'ottica cooperativa. Illustreremo quali sono le principali sfide per raggiungere uno scenario del genere e quali potrebbero essere le implicazioni più rilevanti.
Resumo:
Nell'ambito dell'industria di processo, si definisce "effetto domino" la propagazione di un evento incidentale primario dovuta all’accadimento di uno o più incidenti secondari innescati dall’evento primario, con amplificazione dell’area di danno. Un incidente con effetto domino vede infatti la presenza iniziale di uno scenario incidentale primario, solitamente causato dal rilascio di sostanze pericolose e/o dal rilascio di energia tali da determinare effetti dannosi in grado di innescare successivamente degli eventi incidentali secondari, che determinino un'intensificazione delle conseguenze dell'evento iniziale. Gli incidenti con effetto domino possono avere conseguenze all'interno dello stabilimento in cui ha origine lo scenario incidentale primario o all'esterno, eventualmente coinvolgendo, stabilimenti limitrofi: nel primo caso si parla di effetto domino intra-stabilimento, nel secondo di effetto domino inter-stabilimento. Gli ultimi decenni hanno visto un forte aumento della domanda di prodotti dell'industria chimica e dunque del numero di impianti di processo, talvolta raggruppati nei cosiddetti "chemical clusters", ossia aree ad elevata concentrazione di stabilimenti chimici. In queste zone il rischio di effetto domino inter-stabilimento è particolarmente alto, a causa della stretta vicinanza di installazioni che contengono elevati quantitativi di sostanze pericolose in condizioni operative pericolose. È proprio questa consapevolezza, purtroppo confermata dal verificarsi di diversi incidenti con effetto domino, che ha determinato negli ultimi anni un significativo aumento delle ricerche relative all'effetto domino e anche una sua maggiore considerazione nell'ambito della normativa. A riguardo di quest'ultimo aspetto occorre citare la Direttiva Europea 2012/18/UE (comunemente denominata Direttiva Seveso III) e il suo recepimento nella normativa italiana, il Decreto Legislativo del 26 giugno 2015, "Attuazione della direttiva 2012/18/UE relativa al controllo del pericolo di incidenti rilevanti connessi con sostanze pericolose, entrato in vigore il 29 luglio 2015: questo decreto infatti dedica ampio spazio all'effetto domino e introduce nuovi adempimenti per gli stabilimenti a Rischio di Incidente Rilevante presenti sul territorio nazionale. In particolare, l'Allegato E del D. Lgs. 105/2015 propone una metodologia per individuare i Gruppi domino definitivi, ovvero i gruppi di stabilimenti a Rischio di Incidente Rilevante tra i quali è possibile il verificarsi di incidenti con effetto domino inter-stabilimento. Nel presente lavoro di tesi, svolto presso ARPAE (Agenzia Regionale per la Prevenzione, l'Ambiente e l'Energia) dell'Emilia Romagna, è stata effettuata, secondo la metodologia proposta dall'Allegato E del D. Lgs. 105/2015, la valutazione dell'effetto domino inter-stabilimento per gli stabilimenti a Rischio di Incidente Rilevante presenti in Emilia Romagna, al fine di individuare i Gruppi domino definitivi e di valutare l'aggravio delle conseguenze fisiche degli eventi incidentali primari origine di effetto domino.
Resumo:
In questo lavoro di tesi è presentato un metodo per lo studio della compartimentalizzazione dell’acqua in cellule biologiche, mediante lo studio dell’autodiffusione delle molecole d’acqua tramite uno strumento NMR single-sided. Le misure sono state eseguite nel laboratorio NMR all’interno del DIFA di Bologna. Sono stati misurati i coefficienti di autodiffusione di tre campioni in condizione bulk, ottenendo risultati consistenti con la letteratura. È stato poi analizzato un sistema cellulare modello, Saccharomyces cerevisiae, allo stato solido, ottimizzando le procedure per l’ottenimento di mappe di correlazione 2D, aventi come assi il coefficiente di autodiffusione D e il tempo di rilassamento trasversale T2. In questo sistema l’acqua è confinata e l’autodiffusione è ristretta dalle pareti cellulari, si parla quindi di coefficiente di autodiffusione apparente, Dapp. Mediante le mappe sono state individuate due famiglie di nuclei 1H. Il campione è stato poi analizzato in diluizione in acqua distillata, confermando la separazione del segnale in due distinte famiglie. L’utilizzo di un composto chelato, il CuEDTA, ha permesso di affermare che la famiglia con il Dapp maggiore corrisponde all’acqua esterna alle cellule. L’analisi dei dati ottenuti sulle due famiglie al variare del tempo lasciato alle molecole d’acqua per la diffusione hanno portato alla stima del raggio dei due compartimenti: r=2.3±0.2µm per l’acqua extracellulare, r=0.9±0.1µm per quella intracellulare, che è probabilmente acqua scambiata tra gli organelli e il citoplasma. L’incertezza associata a tali stime tiene conto soltanto dell’errore nel calcolo dei parametri liberi del fit dei dati, è pertanto una sottostima, dovuta alle approssimazioni connesse all’utilizzo di equazioni valide per un sistema poroso costituito da pori sferici connessi non permeabili. Gli ordini di grandezza dei raggi calcolati sono invece consistenti con quelli osservabili dalle immagini ottenute con il microscopio ottico.