906 resultados para lambda-calcolo, teoremi di separazione, risorse, espansione di Taylor
Resumo:
Uno dei comparti industriali più importanti nel mondo è senz’altro il settore automobilistico, il quale è oggetto di particolare attenzione da parte dei governi mondiali. Infatti l’automobile è il mezzo sia urbano che extraurbano che è stato perfezionato nel tempo in base alle esigenze dell’uomo, ma bisogna anche evidenziare che in generale il settore dei trasporti è un settore industriale che negli anni non ha portato grandi innovazioni, in quanto presenta ancora la stessa tecnologia di trent’anni fa. Attualmente, grazie alle nuove normative Europee riguardanti la tutela dell’ambiente e le riduzioni di emissioni, si sta passando a nuove forme di alimentazione per ridurre le emissioni di CO2 ed evitare di utilizzare i combustibili fossili. Una valida soluzione è stata attuata attraverso i veicoli completamente elettrici (EV), dato il rendimento energetico nettamente superiore e l’assente emissione di gas inquinanti. Purtroppo gli utenti hanno ancora timore ad utilizzare i veicoli elettrici (EV): ciò avviene soprattutto per mancanza/scarsità di infrastrutture e servizi a supporto degli utenti, provocando nell’utente un’insicurezza che viene più comunemente chiamata “range anxiety” (timore che il EV non abbia autonomia sufficiente per arrivare a destinazione) e generando l’infondata idea che i EV siano utilizzabili solo in città o per i tragitti brevi. In questo documento è proposta un’applicazione la quale sarà in grado di ridurre i problemi relativi a “Driving without anxiety”. In particolare tale applicazione è in grado di rilevare la velocità media e l’accelerazione sul tratto di strada che si sta percorrendo. Attraverso il servizio di Google Direction si richiede la velocità media stimata sul medesimo tratto. L’applicazione confronta il valore reale ed il valore medio stimato, ed in base a quello fornisce una classificazione dello stile di guida dell’utente (es. Aggressivo); fornisce una stima dell’energia consumata sul tratto percorso, inserendo nel calcolo dell’energia un parametro che consente di tener conto dello stile di guida, determinato al passo precedente.
Resumo:
Una curva di Jordan è una curva continua nel piano, semplice e chiusa. Lo scopo della tesi è presentare tre teoremi riguardanti le curve di Jordan. Il teorema dei quattro vertici afferma che ogni curva di Jordan regolare di classe C^2 ha almeno quattro punti in cui la curvatura orientata ha un massimo o un minimo locali. Il teorema della curva di Jordan asserisce che una curva di Jordan divide il piano esattamente in due parti, l'interno e l'esterno della curva. Secondo il teorema di Schönflies, la chiusura dell'interno di una curva di Jordan è omeomorfa a un disco chiuso.
Resumo:
L'isolamento gravitazionale delle sonde dello spazio profondo durante le loro fasi di crociera ed i loro esigui livelli di vibrazioni, le rendono la migliore collocazione possibile per mini-laboratori automatici di fisica fondamentale da installare su di esse come strumenti scientifici. Date le note difficoltà di misurazione della costante di gravitazione universale, probabilmente dovute alla collocazione terrestre dei laboratori, si propone di dedicare un mini-laboratorio alla misurazione del valore locale ed istantaneo della costante G ed alla sua stabilità spazio-temporale durante il moto della sonda. La misurazione di G nel mini-laboratorio può essere effettuata rilasciando con attuatori elettrostatici, senza velocità relativa, due masse campione, preferibilmente due sfere d’oro da 1Kg, a distanza di 1 mm, e monitorando il loro libero moto, dominato dall’attrazione gravitazionale reciproca, con un sensore di spostamento laser interferometrico multicanale. Dopo il congiungimento le masse dovrebbero essere riposizionate e rilasciate nuovamente per una misurazione quasi continua della costante. Un meccanismo dorrebbe invece bloccare le masse durante le fasi dinamiche della sonda. Un sensore di spostamento interferometrico a fibre ottiche, FPS3010 della Attocube, appariva adatto ed un esperimento è stato realizzato per provarlo in un apparato simulante il mini-laboratorio. In una campana del vuoto isolata dalle vibrazioni, due cilindri in tungsteno da 1Kg sono stati sospesi orizzontante tramite micro-Dyneema a piastre in allumino movimentate da nanoposizionatori piezoelettrici dotati di encoder ottico nanometrico. Il sensore ha monitorato il moto radiale dei cilindri, le cui basi combacianti sono state posizionate a distanze di separazione variabili da 10 micron a 5000 micron. Malgrado il rumore meccanico ed una sorgente ignota di errore sistematico, un moto attrattivo è stato riscontrato differenzialmente o direttamente in molte misurazioni e nessuna ha mostrato un moto repulsivo. In alcune misurazioni è direttamente visibile la rotazione dell’asse di oscillazione dei cilindri sospesi. Il sensore si è comportato egregiamente.
Resumo:
Questa tesi nasce dal voler approfondire lo studio delle curve piane di grado 3 iniziato nel corso di Geometria Proiettiva. In particolare si andrà a studiare la legge di gruppo che si può definire su tali curve e i punti razionali di ordine finito appartenenti alle curve ellittiche. Nel primo capitolo si parla di equazioni diofantee, dell’Ultimo Teorema di Fermat, dell'equazione e della formula di duplicazione di Bachet. Si parla inoltre dello stretto rapporto tra la geometria, l'algebra e la teoria dei numeri nella teoria delle curve ellittiche e come le curve ellittiche siano importanti nella crittografia. Nel secondo capitolo vengono enunciate alcune definizioni, proposizioni e teoremi, riguardanti polinomi e curve ellittiche. Nel terzo capitolo viene introdotta la forma normale di una cubica. Nel quarto capitolo viene descritta la legge di gruppo su una cubica piana non singolare e la costruzione geometrica che porta ad essa; si vede il caso particolare della legge di gruppo per una cubica razionale in forma normale ed inoltre si ricavano le formule esplicite per la somma di due punti appartenenti ad una cubica. Nel capitolo cinque si iniziano a studiare i punti di ordine finito per una curva ellittica con la legge di gruppo dove l'origine è un flesso: vengono descritti e studiati i punti di ordine 2 e quelli di ordine 3. Infine, nel sesto capitolo si studiano i punti razionali di ordine finito qualsiasi: viene introdotto il concetto di discriminante di una cubica e successivamente viene enunciato e dimostrato il teorema di Nagell-Lutz.
Resumo:
Il presente elaborato si propone di dimostrare che per la tipologia testuale presa in considerazione, ovvero il contratto, l’uso di un programma di traduzione assistita è da preferire alla traduzione manuale, per produttività e coerenza traduttiva. Primo obiettivo è dunque quello di svolgere un’analisi comparativa tra i due approcci traduttivi, evidenziando i vantaggi della traduzione assistita rispetto a quella manuale, e al tempo stesso analizzando e valutando i suoi possibili limiti. Inoltre, posto che SDL Trados Studio è il sistema CAT per eccellenza, ma che molto spesso non è alla portata dei tanti traduttori alle prime armi, l’elaborato si propone di offrire una valida alternativa ad esso: memoQ, uno dei programmi di traduzione assistita attualmente in più rapida espansione, che si sta inserendo sempre più all’interno del mercato della traduzione come valida alternativa a SDL Trados Studio.
Resumo:
La tesi analizza l'estensione del calcolo classico, il calcolo frazionario, descrivendone le proprietà principali e dandone esempi concreti. Si procede con la definizione di indice di Hurst e di moto Browniano frazionario. Si vede poi come è possibile estendere il calcolo frazionario al calcolo stocastico rispetto ad un moto Browniano frazionario. Infine, si richiamano alcuni concetti di teoria della probabilità.
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
In questa tesi sono stati simulati i modelli circuitali relativi alle tecniche di estrazione SECE, Q-SECE e SSHI. Sono state graficate e analizzate le caratteristiche di trasferimento di potenza. Tramite simulazioni LTspice, è stata calcolata l'energia estratta con tecnica SECE e Q-SECE ed è stato ricavato un miglioramento delle prestazioni di energia di +30% con la tecnica Q-SECE. Un'analisi simile è stata fatta per il calcolo dell'energia in uscita anche per il modello SSHI-parallel.
Resumo:
L’acqua è una delle risorse critiche del pianeta e l’acqua dolce accessibile all’uomo rappresenta meno dell’1% delle risorse idriche; da questi numeri si capisce quanto siano importanti la prevenzione dell’inquinamento ambientale e i processi di depurazione delle acque reflue. A partire dagli anni ’70, grazie anche al miglioramento delle tecniche analitiche, sono iniziati monitoraggi degli inquinanti nelle acque superficiali e sotterranee e sono state riscontrate concentrazioni di inquinanti, i cui effetti di tossicità cronica sull’uomo e l’ecosistema non sempre sono trascurabili. Inoltre si è rilevato che alcune molecole di sintesi sono difficilmente biodegradabili e non sono mineralizzate con i trattamenti convenzionali di depurazione; perciò l’Unione Europea ha emanato delle direttive per preservare le risorse idriche in cui è contenuto un elenco di sostanze prioritarie, per le quali sono stati fissati gli standard di qualità ambientale. Nel 2013 è stata anche istituita una watch list che contiene dieci sostanze sulle quali raccogliere dati di monitoraggio ambientale e effetti sugli ecosistemi. Di qui la ricerca costante di nuovi trattamenti di depurazione delle acque, tra i quali i processi di ossidazione avanzata attirano molto interesse perché promettono di mineralizzare i composti bio-recalcitranti senza produrre fanghi da smaltire o sottoprodotti pericolosi. Oggetto della presente tesi sperimentale, svolta presso il Consiglio Nazionale delle Ricerche, nell’Istituto per la Sintesi Organica e la Fotoreattività, è stato lo studio della de-gradazione e mineralizzazione di una miscela di cinque molecole (diclofenac, carbama-zepina, triton X-100, benzofenone-3, benzofenone-4), scelte per le diverse caratteristiche chimico-fisiche, utilizzando radiazione ultravioletta e ultrasuoni, in presenza di biossido di titanio come fotocatalizzatore o perossido d'idrogeno come additivo per produrre radicali idrossile e avviare catene di reazioni ossidative. A partire dai fenomeni fotochimici o fotocatalitici così ottenuti, eventualmente assistiti da ultrasuoni, sono stati studiati gli effetti delle variazioni dei parametri operativi sulla degradazione dei componenti della miscela e sono stati valutati i consumi energetici della strumentazione prototipale per unità di massa del contaminante degradato. La parte sperimentale è stata preceduta da un’accurata ricerca bibliografica riguardo gli effetti di tossicità degli inquinanti ritrovati nelle acque, la legislazione europea ed italiana in materia ambientale e delle acque e i processi di ossidazione avanzata.
Resumo:
Questo documento affronta le novità ed i vantaggi introdotti nel mondo delle reti di telecomunicazioni dai paradigmi di Software Defined Networking e Network Functions Virtualization, affrontandone prima gli aspetti teorici, per poi applicarne i concetti nella pratica, tramite casi di studio gradualmente più complessi. Tali innovazioni rappresentano un'evoluzione dell'architettura delle reti predisposte alla presenza di più utenti connessi alle risorse da esse offerte, trovando quindi applicazione soprattutto nell'emergente ambiente di Cloud Computing e realizzando in questo modo reti altamente dinamiche e programmabili, tramite la virtualizzazione dei servizi di rete richiesti per l'ottimizzazione dell'utilizzo di risorse. Motivo di tale lavoro è la ricerca di soluzioni ai problemi di staticità e dipendenza, dai fornitori dei nodi intermedi, della rete Internet, i maggiori ostacoli per lo sviluppo delle architetture Cloud. L'obiettivo principale dello studio presentato in questo documento è quello di valutare l'effettiva convenienza dell'applicazione di tali paradigmi nella creazione di reti, controllando in questo modo che le promesse di aumento di autonomia e dinamismo vengano rispettate. Tale scopo viene perseguito attraverso l'implementazione di entrambi i paradigmi SDN e NFV nelle sperimentazioni effettuate sulle reti di livello L2 ed L3 del modello OSI. Il risultato ottenuto da tali casi di studio è infine un'interessante conferma dei vantaggi presentati durante lo studio teorico delle innovazioni in analisi, rendendo esse una possibile soluzione futura alle problematiche attuali delle reti.
Resumo:
L'informatica, assieme alle sue innovazioni tecnologiche, offre al mondo d'oggi uno scenario in continuo sviluppo evolutivo che permette di facilitare alcune necessità dell'essere umano. Con la nascita di internet e dei nuovi dispositivi cellulari, la comunicazione è stata resa più malleabile e immediata. Tuttavia, le nuove tecnologie utilizzano infrastrutture complesse che non sempre sono ampiamente sfruttate a causa delle loro esigenze quali scalabilità, risposte in tempo reale, o tolleranza. Per far fronte a queste caratteristiche, una nuova tendenza del software è quella di fornire autonomia e pro-attività alle entità nel sistema in modo da incrementare la loro interazione. Queste caratteristiche permettono di responsabilizzare i soggetti rendendo il sistema auto-organizzato, con una migliore scalabilità,robustezza, e quindi riducendo le esigenze di calcolo di ciascuna entità. Lo studio dei sistemi auto-organizzanti è stato ispirato alla natura, e in particolare, ai sistemi biologici. Questi sistemi mostrano le caratteristiche interessanti per gli scenari pervasivi, poichè sono robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagiscono a determinate modifiche che si verificano nell'ambiente comportandosi di conseguenza. L'ingegneria dell'auto-organizzazione ha il compito di simulare e testare questi comportamenti presentando uno schema progettuale completo che permetta di presentare soluzioni ricorrenti a problemi noti. Tale schema è definito in termini informatici design pattern. Le entità, definite agenti, per interagire e comunicare tra di loro hanno bisogno di coordinarsi tramite un modello specifico. Nel nostro caso è stato scelto TuCSoN, poichè riesce a separare uno spazio dedicato allo scambio di informazioni da uno spazio dedicato alle specifiche che permette di descrivere delle politiche di comportamento per sistemi MAS implementati nell'opportuno linguaggio di programmazione ReSpecT.
Resumo:
I materiali compositi rivestono un ruolo fondamentale nell’industria aeronautica e nel settore delle competizioni automobilistiche. La possibilità di progettare i materiali in funzione della loro applicazione permette una crescente diffusione del loro utilizzo, e l’ampliamento delle applicazioni a moltissimi altri settori, sia per componenti di tipo strutturale, sia di tipo estetico. Nonostante la quantità di studi sul comportamento a fatica dei compositi, non sono ancora presenti risultati attendibili per la previsione della resistenza e della vita a fatica in relazione ad un determinato tipo di sollecitazione; non almeno a livello dei materiali tradizionali. L’obiettivo della tesi è indagare eventuali variazioni del comportamento a fatica di un laminato in CFRP in relazione al variare di parametri quali dimensioni e sequenza di impilamento delle ply. Per tale scopo sono state realizzate delle prove per il calcolo del comportamento a fatica, in particolare prove di flessione in 3 punti, e si sono poi confrontati tra loro i risultati sperimentali e correlati al variare dei parametri di interesse.
Resumo:
In questo lavoro di Tesi Magistrale si sono esaminate le problematiche relative agli impatti ambientali delle materie plastiche, tenendo in considerazione il loro ambito di applicazione. Per quanto riguarda le materie plastiche destinate al packaging alimentare si è visto che uno smaltimento tramite discarica, incenerimento o riciclo non può essere sostenibile sul lungo periodo. Una soluzione può essere lo sviluppo di un materiale che al termine del ciclo di vita possa essere biodegradato tramite compostaggio. Al fine di eliminare la dipendenza di questo materiale plastico dalle risorse fossili, esso deve poter essere ricavato da fonti rinnovabili. Il poli(butilene furanoato) è un buon candidato come materiale plastico per il packaging alimentare, ma possiede scarse caratteristiche di biodegradabilità. Si è quindi realizzato un sistema copolimerico in cui il poli(butilene furanoato) viene statisticamente copolimerizzato con il poli(butilene diglicolato), anche quest'ultimo interamente ottenibile da fonti rinnovabili. I materiali sintetizzati sono stati sottoposti a diversi tipi di analisi, al fine di determinarne le proprietà in funzione di una possibile applicazione nel packaging alimentare: analisi strutturale, caratterizzazione termica, studio delle proprietà meccaniche e di permeabilità a diversi tipi di gas e infine valutazione della compostabilità.
Resumo:
La continua e crescente esigenza da parte dei gestori delle reti stradali ed autostradali di contenere i costi di gestione e manutenzione, ha da tempo impegnato l'industria delle pavimentazioni nell'individuazione di metodi innovativi, in grado di aumentare la redditività dei budget predisposti per il ripristino della sede stradale. Il presente lavoro di tesi si propone di approfondire tale argomento e in particolare di indagare l’impiego di terre decoloranti esauste all'interno di miscele bituminose drenanti per strati di usura. Il riutilizzo di queste terre porterebbe a risparmiare risorse naturali come il filler calcareo e diminuire i volumi che vengono smaltiti in discarica. È stato osservato che il filler bentonitico digestato può essere utilizzato nel confezionamento di miscele bituminose per strati di usura drenanti e fonoassorbenti con prestazioni simili o addirittura superiori alle equivalenti con filler calcareo tradizionale. Le prove condotte non hanno evidenziato nessun deterioramento delle caratteristiche meccaniche. Si ricorda che sono necessari studi circa il drenaggio del legante e il comportamento a fatica delle miscele bituminose in relazione alle fasi di esercizio dei materiali. Sulla base delle considerazioni elaborate si può affermare che nel caso in esame l'impiego del filler bentonitico digestato consente di risparmiare una risorsa naturale come il filler calcareo, a parità di inerti e legante nella miscela. Inoltre, si ha un vantaggio dal punto di vista economico, poiché meno volumi di questo materiale vengono smaltiti in discarica.
Resumo:
Oggetto di questa tesi è lo studio di una rete di teleriscaldamento (TLR) preesistente, la rete di Corticella (Bo) ipotizzando la presenza di sottostazioni di scambio termico attive. Inizialmente sono state presentate le sottostazioni di scambio termico sia tradizionali che attive. Nelle tradizionali ci si è soffermato sul tipo di regolazione che può avvenire. Per quanto riguarda le sottostazioni di scambio termico attive son stati esaminati i 4 layout che permettono uno scambio termico bidirezionale di energia termica. E’ stato presentato il software IHENA (intelligent Heat Energy Network Analysis) creato dal dipartimento di ingegneria industriale, che ha permesso di effettuare le simulazioni sulla rete analizzata. Viene mostrato l’algoritmo di Todini-Pilati generalizzato dall’utilizzo delle equazioni di Darcy-Weisbach su cui si basa il motore di calcolo. Inoltre vengono presentati i vari input che è necessario inserire per ottenere il calcolo della rete. Dopo nozioni di base relative al teleriscaldamento attivo e la presentazione del software utilizzato si è passati alla vera e propria analisi della rete di teleriscaldamento. Sono state effettuate varie simulazioni per vedere l’andamento della rete di Corticella sia considerandola passiva (come nella realtà) che ipotizzandola attiva tramite l’inserimento di sottostazioni di scambio termico ative. Le analisi condotte riguardano i seguenti punti. a) E’ stata presentata la rete di Corticella cosi come è andando a studiare quindi il caso base. b) Sono state svolte delle analisi per vedere come si comportava la rete nel caso in cui venivano variati dei parametri operativi come i carichi termici richiesti dalle utenze. c) Sono stati valutati i percorsi più critici. d) Si è condotta un analisi sulla regolazione al variare delle temperature esterne. Dopo l'analisi del caso base sono state introdotte delle sottostazioni di scambio termico attive, prima solo una, e poi varie lungo determinati percorsi. Le valutazioni effettuate mettevano in primo piano gli andamenti della temperatura nei percorsi, la potenza termica generata dalla sorgente, la temperatura di ritorno in centrale e se si verificano delle problematiche sugli scambiatori di calore. In queste simulazioni sono stati valutati tutti e quattro gli schemi utilizzabili. Infine è stata effettuata un analisi comparativa tra le varie soluzioni studiate per poter mettere a confronto i casi. In particolare anche qui si sono voluti confrontare i valori di potenza spesa per il pompaggio, temperatura di ritorno in centrale e potenza termica offerta dalla sorgente.