480 resultados para estensioni trascendenti basi di trascendenza teorema degli zeri di Hilbert teorema di Lüroth
Resumo:
La presente tesi si inserisce nel contesto del progetto europeo Theseus, che ha l’obiettivo di pianificare strategie di difesa sostenibili nei confronti dell’erosione costiera e del rischio di inondazioni. E’ stata indagata la zona intertidale di sei spiagge della costa emiliano-romagnola, diverse per caratteristiche morfodinamiche, grado di antropizzazione e modalità di gestione contro l’erosione. Lido di Spina, Bellocchio e lido di Dante sono siti più naturali, Cervia, Cesenatico e Cesenatico sud sono antropizzati per la presenza di strutture di difesa costiera o attività di bulldozing. Lo scopo principale è stato quello di valutare la risposta della componente macrobentonica a variazioni morfodinamiche conseguenti alla differente gestione. I principali risultati possono essere così riassunti. Bellocchio, sito naturale, si è rivelato il più differente per tipologia di sedimento, fine e argilloso, e comunità presenti, con specie non tipiche delle spiagge sabbiose, quali Polydora e Mytilus galloprovincialis. Lido di Dante, anch’esso naturale, si pone all’opposto, con un sedimento più grossolano e caratterizzato sia dalla dominanza di Lentidium mediterraneum, la cui presenza evidenzia il maggiore grado di idrodinamismo del sito, sia dalle specie Scolelepis squamata ed Eurydice spinigera, tipiche delle spiagge sabbiose esposte al moto ondoso. Cervia, Cesenatico e Cesenatico sud presentano un numero di specie e di individui minore rispetto agli altri siti, come probabile conseguenza della gestione antropica, e comunità che rispecchiano le variazioni idrodinamiche dovute alla presenza di barriere. In generale, le differenze individuate sia fra le comunità che fra i descrittori sedimentari e morfodinamici, sembrano dovute alle caratteristiche peculiari dei siti e dal grado di antropizzazione piuttosto che dalla presenza di un vero e proprio gradiente morfodinamico o geografico. Questi risultati portano un contributo sostanziale alla problematica generale dell’impatto conseguente ai cambiamenti climatici e alla messa in opera di programmi di gestione sostenibili da un punto di vista anche ambientale.
Resumo:
Nel caso di un centro storico, ovvero di fronte a un patrimonio edilizio diffuso di interesse storico e architettonico, sia il processo di conoscenza che il rilievo della vulnerabilità sismica, richiedono l’utilizzo di un metodo che tenga opportunamente conto del valore e dei caratteri architettonici del tessuto edilizio, della presenza di una tradizione costruttiva e dell’evoluzione storica dei manufatti. Scopo del presente lavoro quindi vuole essere quello di fornire gli strumenti e un metodo per una corretta valutazione della vulnerabilità sismica a scala dell’aggregato attraverso la lettura delle sue caratteristiche costruttive e attraverso l’individuazione delle precarietà strutturali. Fondamentale a questo scopo è la conoscenza delle trasformazioni subite dall’aggregato, perché solo tramite lo studio delle successive stratificazioni e modifiche è possibile capire la successione logica che ha portato l’impianto originale alla configurazione attuale e quindi individuare le carenze strutturali.
Resumo:
Il documento di tesi è composto da tre capitoli, che in successione analizzano gli aspetti teorici del progetto fino ad arrivare all’implementazione vera e propria dell’applicazione. Nel primo capitolo vediamo definito il tema dell’accessibilità accennando alle normative presenti in Italia e all’estero sull’argomento. Successivamente viene spiegato il concetto di Smart City e le tecniche che vengono utilizzate allo scopo di migliorare la qualità di vita nelle città. Vengono introdotti i concetti di crowdsourcing e participatory sensing, ideologie alla base delle Smart City. Al termine del capitolo viene introdotto uno studio sul grado di accessibilità degli smartphone presenti oggi sul mercato, analizzando anche le tecnologie assistive disponibili per questi dispositivi. Nel secondo capitolo si descrivono le tecnologie e i servizi utilizzati durante la creazione del progetto. In particolare viene presentato Android ed il suo funzionamento, essendo quest’ultimo il sistema operativo per cui è stata sviluppata l’applicazione. In seguito troviamo una breve analisi di tutti i servizi impiegati nel progetto: Foursquare, Fusion Table e Google Maps. Infine vengono descritte le tecnologie intermedie utilizzate per far comunicare fra loro gli strumenti spiegati in precedenza. Nel terzo capitolo viene presentata in modo dettagliato l’implementazione del progetto. Inizialmente vengono definite le classi principali create per progettare le funzionalità di base del software e per interagire con i servizi scelti. Successivamente viene descritto il funzionamento e l’aspetto dell’applicazione sviluppata insieme a degli screenshot, che permetteranno al lettore di avere un riferimento visivo di ciò che è stato esposto nel corso della tesi.
Resumo:
Il presente lavoro si compone di una parte iniziale in cui si introducono i principi alla base della teoria della Relatività Generale, e viene discussa la loro effettiva importanza come elementi fondanti del lavoro di Einstein. Nel capitolo 1 si sviluppano i principali concetti di geometria differenziale utili alla comprensione dei risultati ottenuti nei capitoli successivi. In particolare viene mostrato un risultato notevole che permette di ricavare gli integrali primi del moto geodetico a partire dalla dipendenza del tensore metrico dalle coordinate utilizzate. Vengono poi brevemente introdotte le Equazioni di campo di Einstein. Nel capitolo 2 Viene ricavata la soluzione di Schwarzschild e le quantità conservate nel moto in caduta libera verso una sorgente a simmetria sferica e statica. Viene poi definito il concetto di orizzonte degli eventi. Infine nel capitolo 3 viene introdotta la metrica di Kerr, e si suggerisce come questa possa essere indotta da una sorgente massiva rotante. Vengono analizzati gli integrali primi del moto di particelle in caduta libera e da questi viene ricavata l'espressione dell'effetto di trascinamento. Vengono poi introdotto il concetto di limite statico e la definizione di ergosfera, e viene ricavata l'espressione del raggio dell'orizzonte degli eventi.
Resumo:
In questo lavoro di tesi si è sviluppato un sistema di supporto al fisioterapista per la definizione degli esercizi da far eseguire al paziente che consenta di automatizzare il controllo della corretta esecuzione degli esercizi stessi da parte del paziente. Si è realizzato un linguaggio per codificare gli esercizi ed un editor per poterli esprimere, attraverso il linguaggio, da parte dello specialista. E' stato realizzato un motore che riesca a valutare in modo automatico se il paziente sta eseguendo correttamente gli esercizi proposti, confrontando le pose riconosciute utilizzando il sensore Microsoft Kinect con le pose degli esercizi definiti attraverso l'editor. Il filo conduttore per la realizzazione del linguaggio e del motore è stata la teoria del Calcolo degli Eventi, estesa con il concetto di aspettativa.
Resumo:
In questo lavoro di tesi sono descritte: l’analisi dei requisiti, la progettazione, l’implementazione di un sistema per l’acquisizione automatizzata delle configurazioni degli apparati di rete della Scuola di Ingegneria e Architettura.
Resumo:
Lo scopo di questa tesi è di permettere ad un utente, che visita un qualunque sito web, di effettuare una valutazione al termine della lettura di un articolo. Inoltre per esprimere la propria votazione, l'utente dovrà effettuare l'autenticazione al sito web, attraverso un modulo di login, con le proprie credenziali, dopo essersi registrato con i propri dati personali.
Resumo:
La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.
Resumo:
Nell'elaborato sono analizzati diversi tipi di algoritmi di routing per reti VANET. Nel secondo capitolo verrà fornita una panoramica delle reti MANET e VANET. Nel terzo capitolo sono viste le caratteristiche delle reti VANET. Nel quarto verranno esposte le peculiarità di classificazione dei protocolli di routing routing e nel quinto capitolo saranno analizzati diversi protocolli di routing proposti fino ad ora nella letteratura.
Resumo:
A causa delle complesse problematiche ambientali e in accordo con gli obiettivi della legislazione internazionale e comunitaria, le aziende sempre più frequentemente adottano sistemi di gestione per miglioramento continuo delle proprie prestazioni ambientali. La tesi si pone come obiettivo l’analisi dell’efficienza energetica di una grande azienda del settore alimentare: sono state valutate le prestazioni in relazione agli impianti di produzione di energia e i consumi di energia dei singoli reparti di lavorazione e impianti; per ogni reparto sono stati inoltre analizzati dati e indicatori di tipo generale e puntuale, sulla base delle indicazioni riportate nella norma CEI EN ISO 50001: 2011. I risultati mostrano che i reparti di produzione energetica operano in assetto di Cogenerazione ad Alto Rendimento e che negli ultimi due anni si è registrata una riduzione delle emissioni di CO2 rispetto ai MWh prodotti; dal 2008 al 2013 si è assistito ad un trend di aumento dei consumi di energia elettrica rispetto ai prodotti realizzati, a differenza dei consumi di energia termica. Infine sulla base delle priorità di intervento individuate, è stato creato un piano d’azione teso al miglioramento delle performance energetiche. Inoltre la tesi si pone l’obiettivo di creare e applicare un metodo per calcolare la significatività degli aspetti ambientali dell’azienda, al fine di valutare gli impatti associati, in modo da permetterne una classificazione e da individuare le priorità di intervento per il miglioramento delle performance ambientali, in accordo con la norma UNI EN ISO 14001: 2004. Il metodo è stato progettato sulla base di dati aziendali e in modo da garantire oggettività, modulabilità e ripetibilità nella maggiore misura possibile; tale metodo è stato applicato ad un reparto di lavorazione e ha permesso di classificare gli aspetti ambientali, individuando le priorità di intervento, quali consumi idrici ed energetici.
Resumo:
Analisi tecnico-economica di 2 impianti a biogas: uno da 100 kW e l'altro da 300 kW alla luce del nuovo sistema incentivante per gli impianti entrati in funzione dal 01/01/2013
Resumo:
Dal punto di vista geometrico, il tracciato delle linee AV/AC è determinato in funzione delle velocità di progetto, attualmente variabili tra 250 e 300 km/h, e in modo da limitare i parametri cinematici. In questa maniera è assicurata la corretta qualità di marcia dei treni ad alta velocità. La sovrastruttura ferroviaria è realizzata in modo da sopportare i carichi dinamici trasmessi dai convogli transitanti a elevate velocità, e da garantire la sicurezza della circolazione e il comfort di marcia. In particolare, la qualità del binario ferroviario è determinata attraverso una serie di parametri geometrici fondamentali, definiti da Rete Ferroviaria Italiana. A seconda dei valori assunti da tali parametri, il binario rientra in un livello di qualità geometrica: sono definiti tre livelli per i quali la circolazione ferroviaria avviene senza limitazioni e un livello che richiede l’imposizione di vincoli all’esercizio (rallentamenti o interruzioni). L’introduzione dei parametri geometrici e dei rispettivi valori di riferimento ha lo scopo di mantenere elevati livelli qualitativi e di sicurezza per l’infrastruttura ferroviaria, in materia di geometria dell’armamento. Infatti, il superamento di certe soglie da parte dei parametri, implica l’intervento manutentivo sul binario, al fine di ripristinare la corretta geometria e di garantire così la qualità della marcia dei treni. La politica è quella d’intervento prima del raggiungimento del quarto livello di qualità, per il quale sono necessarie restrizioni alla circolazione e interventi correttivi immediati.
Resumo:
The aim of Tissue Engineering is to develop biological substitutes that will restore lost morphological and functional features of diseased or damaged portions of organs. Recently computer-aided technology has received considerable attention in the area of tissue engineering and the advance of additive manufacture (AM) techniques has significantly improved control over the pore network architecture of tissue engineering scaffolds. To regenerate tissues more efficiently, an ideal scaffold should have appropriate porosity and pore structure. More sophisticated porous configurations with higher architectures of the pore network and scaffolding structures that mimic the intricate architecture and complexity of native organs and tissues are then required. This study adopts a macro-structural shape design approach to the production of open porous materials (Titanium foams), which utilizes spatial periodicity as a simple way to generate the models. From among various pore architectures which have been studied, this work simulated pore structure by triply-periodic minimal surfaces (TPMS) for the construction of tissue engineering scaffolds. TPMS are shown to be a versatile source of biomorphic scaffold design. A set of tissue scaffolds using the TPMS-based unit cell libraries was designed. TPMS-based Titanium foams were meant to be printed three dimensional with the relative predicted geometry, microstructure and consequently mechanical properties. Trough a finite element analysis (FEA) the mechanical properties of the designed scaffolds were determined in compression and analyzed in terms of their porosity and assemblies of unit cells. The purpose of this work was to investigate the mechanical performance of TPMS models trying to understand the best compromise between mechanical and geometrical requirements of the scaffolds. The intention was to predict the structural modulus in open porous materials via structural design of interconnected three-dimensional lattices, hence optimising geometrical properties. With the aid of FEA results, it is expected that the effective mechanical properties for the TPMS-based scaffold units can be used to design optimized scaffolds for tissue engineering applications. Regardless of the influence of fabrication method, it is desirable to calculate scaffold properties so that the effect of these properties on tissue regeneration may be better understood.
Resumo:
Questo elaborato di tesi si propone di indicare due esempi di strutture in grado di misurare con una certa precisione i coefficienti di attrito che agiscono su un giunto filettato distinguendoli tra coefficiente di attrito nel sottotesta della vite e coefficiente di attrito sul filetto. I macchinari ideati saranno anche in grado di misurare la forza di precarico applicata e permetteranno l’analisi dei segni d’usura attorno ai fori che ospiteranno le viti.
Resumo:
L’attività sperimentale presentata in questo elaborato riguarda lo studio di una particolare applicazione che impiega la tecnologia laser per la lavorazione di materiali compositi ed è stata interamente svolta, in particolar modo nella sua parte operativa, presso i laboratori della Facoltà di Ingegneria a Bologna. Il lavoro di tesi ha come obiettivo fondamentale la valutazione degli effetti che i parametri di processo possono avere sulla qualità risultante nel procedimento di ablazione per i materiali compositi. Per questa indagine sono stati utilizzati campioni piani (tutti identici tra loro) con rinforzo in fibra di carbonio e matrice in resina epossidica, i quali sono stati lavorati con un laser Nd:YAG (λ = 1064 nm) funzionante in regime continuo. L’idea alla base dell’intera attività sperimentale è stata quella di realizzare una ablazione ottimale, rimuovendo dai campioni esclusivamente la resina (in maniera locale) e tentando, allo stesso tempo, di ottenere il minimo danneggiamento possibile per le fibre. Le prove effettuate non costituiscono naturalmente un punto di arrivo, bensì rappresentano piuttosto un punto di partenza per acquisire informazioni preliminari che potranno consentire, nel prossimo futuro, di proseguire con il perfezionamento del processo e la messa a punto dei parametri, al fine di conseguire una lavorazione che dia risultati effettivamente ottimali ed interessanti per l’eventuale applicazione industriale.