566 resultados para grado di Brouwer grado di Leray-Schauder
Resumo:
L'obiettivo di questo lavoro di tesi è realizzare un modello, prima statico poi dinamico, dei componenti: imbocco e gruppo compressore, del turboalbero Allison 250 C18 sottoposto alla tecnologia del fogging. I dati sperimentali utilizzati provengono da prove sperimentali svolte da un altro tesista nel laboratorio di Propulsione e macchine della Scuola di Ingegneria e Architettura di Forlì. Grazie al modello statico, realizzato con il software MATLAB®, sono state create le principali mappe prestazionali dei singoli componenti. Queste ultime sono state poi implementate all'interno del modello dinamico realizzato con il software Simulink. Attraverso il modello dinamico, siamo stati in grado di osservare, grazie ad una struttura modulare a blocchi, l'andamento delle grandezze anche in regime transitorio, e di cambiare i parametri di inizializzazione in maniera molto rapida. Infine i dati ottenuti sono stati confrontati con i dati sperimentali e sono state effettuate valutazioni sull'utilità o meno del fogging. Entrambe le conclusioni hanno dato buoni risultati.
Resumo:
Questa tesi tratta lo sviluppo di strumenti web in grado di effettuare stime di sostenibilità aziendale basate su dati secondari. Alcuni studenti di Ingegneria Gestionale hanno svolto un’analisi della sostenibilità aziendale, cercando manualmente nei siti web delle aziende alcuni indicatori chiave da loro definiti, creando un Osservatorio per alcune aziende dell’Emilia-Romagna. L'obiettivo è quello di sviluppare un software capace di eseguire automaticamente questa attività: partendo da un elenco di aziende e dagli indicatori che si vogliono cercare, il software è in grado di scaricare i siti web delle aziende e di leggerli per effettuare la ricerca degli indicatori tramite un algoritmo sviluppato ad hoc.
Resumo:
L'analisi di questa tesi si basa sui dati ottenuti contattando direttamente le aziende produttrici e/o di progettazione e riguarda due settori energetici: la cogenerazione e il solare fotovoltaico. Nel primo si sono studiate 60 unità complete di cogenerazione il cui studio si è basato sulla costruzione di grafici che mettono in relazione le potenze uscenti con il prezzo. Si è mostrato così la forte presenza di un fenomeno di economia di scala e la diversa ripartizione della potenza prodotta. Per unità di piccola-media potenza predomina la produzione di energia termica, la quale diminuisce la sua quota percentuale all’aumentare della taglia. Nel settore del solare fotovoltaico l’analisi è stata più diversificata e articolata. Si sono analizzati 70 pannelli di cui 35 monocristallini, 14 europei e 21 asiatici, e 35 policristallini, 26 europei e 9 asiatici, per i quali si sono graficati gli andamenti di resa, potenza specifica e costo specifico. I pannelli monocristallini, intrinsecamente più efficienti grazie al maggior grado di purezza, presentano un andamento crescente dei costi piuttosto ripido anche se non proporzionale con l’aumento delle prestazioni. Tra i pannelli policristallini invece si evidenzia l’assenza di un andamento nettamente crescente delle prestazioni all’aumentare dei costi. Confrontando i moduli divisi in base alla macro-regione di produzione si nota che l’Asia produce i pannelli al Si monocristallino più efficienti e più costosi mentre pannelli al Si policristallino più economici, ma con prestazioni in linea con quelli europei.Con i dati raccolti si è potuta svolgere anche una ristretta analisi sui pannelli al film sottile. Quelli che utilizzano il Si amorfo presentano prestazioni così basse da non permettere loro una vera affermazione sul mercato. Quest’ultima si presume che sarà invece possibile per pannelli basati su diversi materiali semiconduttori che presentano buoni livelli di prestazioni, ma prezzi ancora troppo elevati.
Resumo:
Lo scopo della presente tesi è lo studio e la progettazione di un sistema Hands-Free applicato in ambito Healthcare, volto ad aiutare il personale sanitario nello svolgimento delle mansioni lavorative. Il progetto, denominato Trauma Tracker, ha avuto origine grazie alla collaborazione con medici ed infermieri dell'ospedale Maurizio Bufalini di Cesena. In particolare, il sistema in prodotto si prende carico della compilazione del report finale contenente tutte le operazioni svolte sui pazienti nell'ambito del Pronto Soccorso, riducendo così notevolmente le possibilità di errori dovuti a fattori umani. Durante le fasi di sviluppo e progettazione sono state aggiunte ulteriori funzionalità al sistema, fino a farlo diventare vero e proprio oggetto incantato, in grado di esibire proprietà finora inimmaginabili in questo campo di applicazione. Trauma Tracker, almeno in queste prime fasi, non si propone come uno strumento immediatamente utilizzabile sul campo e pronto ad affiancare i medici, poiché necessiterebbe subito di qualità come robustezza ed affidabilità a livelli estremamente elevati. Per questo motivo il progetto è stato trattato come un "Proof of Concept", ossia un prototipo che ha lo scopo di dimostrare la fattibilità di tale sistema nella realtà, e di verificarne l'utilità una volta applicato in uno scenario concreto. L'argomento trattato ha quindi una grande importanza, poiché getta le basi di una tecnologia che un giorno potrà aiutare medici ed infermieri a svolgere al meglio l'impegnativo compito di salvare vite. In questa tesi, è stato approfondito in particolare il sottosistema utilizzato per il riconoscimento dei parametri vitali dal monitor multi-parametrico posto nei diversi reparti ospedalieri. Esso ha richiesto lunghe fasi di implementazione e collaudo per ottenere dei risultati soddisfacenti, che alla fine sono stati raggiunti.
Resumo:
Agent-oriented programming (AOP) è un paradigma di programmazione che concepisce un software come insieme di agenti che possiedono caratteristiche di autonomia, proattività e che sono in grado di comunicare con altri agenti. Sebbene sia stato impiegato soprattutto nell'ambito dell'intelligenza artificiale questo tipo di programmazione si rivela utile per lo sviluppo di sistemi distribuiti riuscendo a gestire agilmente problemi di concorrenza. Lo scopo di questa tesi è analizzare le caratteristiche del paradigma e dei software basati su agenti, utilizzando come caso di studio Sarl, un linguaggio general-purpose molto recente. La parte principale del lavoro consiste nella descrizione dei modelli teorici che hanno portato alla nascita della programmazione ad agenti, in particolare del modello BDI, e dei principali framework per lo sviluppo di sistemi multi-agente.
Resumo:
Il progetto realizzato consiste in uno strumento software in grado di effettuare una conversione di file, dal formato MIDI al formato MusicXML. Il tool è il proseguimento di un’attività basata sull'analisi di reti complesse e sullo sviluppo di strumenti per la modellazione di spartiti musicali. Melodie, assoli ed in generale tracce musicali sono rappresentabili come reti complesse, in cui i nodi identificano le note del brano e gli archi mostrano le sequenze con cui queste vengono suonate. Utilizzando la teoria delle reti è possibile estrarre alcune metriche principali che caratterizzano il brano in questione. Per la generazione della rete si è fatto uso di spartiti musicali descritti tramite lo standard MusicXML. File in questo formato sono difficilmente reperibili, per cui lo strumento realizzato si propone di effettuare una conversione da formato MIDI a formato MusicXML, con l’obiettivo di ottenere un database più esteso. Attraverso il tool sono stati convertiti brani di diverso genere, le cui reti relative sono state poi analizzate applicandovi le metriche principali ed effettuando le dovute valutazioni.
RSLT: trasformazione di Open LinkedData in testi in linguaggio naturaletramite template dichiarativi
Resumo:
La diffusione del Semantic Web e di dati semantici in formato RDF, ha creato la necessità di un meccanismo di trasformazione di tali informazioni, semplici da interpretare per una macchina, in un linguaggio naturale, di facile comprensione per l'uomo. Nella dissertazione si discuterà delle soluzioni trovate in letteratura e, nel dettaglio, di RSLT, una libreria JavaScript che cerca di risolvere questo problema, consentendo la creazione di applicazioni web in grado di eseguire queste trasformazioni tramite template dichiarativi. Verranno illustrati, inoltre, tutti i cambiamenti e tutte le modi�che introdotte nella versione 1.1 della libreria, la cui nuova funzionalit�à principale �è il supporto a SPARQL 1.0.
Resumo:
Il presente elaborato si propone di analizzare i moderni sistemi d’isolamento sismico. In particolare si studiano il funzionamento e le procedure di calcolo degli isolatori a pendolo scorrevole, facendo riferimento alle prescrizioni dell’attuale normativa tecnica e si analizza l’affidabilità sismica di una struttura isolata con tali dispositivi. Nell’ottica di voler introdurre i concetti base della progettazione antisismica, nel primo capitolo, vengono descritte le origini del fenomeno sismico, per arrivare alla definizione di accelerogramma di un terremoto. Per comprendere il passaggio da accelerogramma a spettro dell’azione sismica, si introduce la dinamica dei sistemi ad un grado di libertà per poi arrivare a definire gli spettri di risposta previsti dall’attuale normativa. Nel secondo capitolo vengono illustrati gli scopi e le funzionalità dell’isolamento sismico per poi passare in rassegna le principali tipologie di dispositivi antisismici attualmente in commercio. Nel terzo capitolo si analizza nel dettaglio il funzionamento degli isolatori a pendolo scorrevole, studiandone la modellazione matematica alla base e le procedure di calcolo previste dall’Eurocodice 8 e dalle NTC 08. Nello stesso capitolo viene progettato un dispositivo di isolamento a pendolo scorrevole, secondo l'analisi lineare equivalente. Nel quarto capitolo viene illustrata l’analisi sismica effettuata dagli ingegneri Castaldo, Palazzo e Della Vecchia, dell’università di Salerno, i cui risultati sono riportati nella rivista scientifica Engeneering structures, n. 95, 2015, pp. 80-93. Lo studio è effettuato sul modello strutturale tridimensionale di un edificio in calcestruzzo armato, isolato alla base con dispositivi a pendolo scorrevole.
Resumo:
La salvaguardia e conservazione del Patrimonio Artistico ed Architettonico rappresentano un aspetto imprescindibile di ogni cultura, e trovano le loro fondamenta nella coscienza e conoscenza dei Beni. Il rilievo è l’operazione basilare per acquisire una conoscenza rigorosa di un oggetto nella sua geometria e in altre sue caratteristiche. Le finalità delle operazioni di rilevamento sono molteplici, dall’archiviazione a scopo di documentazione fino all’indagine conservativa volta alla diagnostica e alla progettazione di interventi. I modelli digitali, introdotti dallo sviluppo tecnologico degli ultimi decenni, permettono una perfetta conoscenza del bene, non necessitano di contatto diretto durante la fase di rilevamento e possono essere elaborati secondo le esigenze del caso. Le tecniche adottate nel Reverse Engineering si differenziano per il tipo di sensore utilizzato: quelle fotogrammetriche utilizzano sensori di tipo “passivo” e trovano oggi largo impiego nel settore dei Beni Culturali grazie agli strumenti di Structure from Motion, mentre strumenti basati su sensori di tipo “attivo” utilizzano Laser o proiezione di luce strutturata e sono in grado di rilevare con grande precisione geometrie anche molto complesse. La costruzione del modello della fontana del Nettuno e della torre Garisenda di Bologna costituiscono un valido esempio di applicazione delle tecniche di rilievo digitale, e dimostrano la validità delle stesse su oggetti di diversa dimensione in due diversi ambiti applicativi: il restauro e il monitoraggio. Gli sviluppi futuri del Reverse Engineering in questo ambito sono molteplici, e la Geomatica rappresenta senza dubbio una disciplina fondamentale per poterli realizzare.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Lo scopo del presente lavoro è la realizzazione e l'ottimizzazione di un software che, tramite l'utilizzo di un controllo automatico Proporzionale-Integrativo-Derivativo: PID, gestisca la temperatura di un fornetto in camera a vuoto. È necessario che il sistema sia in grado di eseguire rampe regolari di temperatura di diversa pendenza scelta dall'utente, in modo che possa essere utilizzato in futuro per esperimenti di Desorbimento Termico da parte di vari materiali. La tesi è così suddivisa, nel primo capitolo sono illustrati i concetti teorici di base utilizzati nello sviluppo dei controlli automatici. Nel secondo capitolo è descritta la parte hardware: sono mostrate le diverse sezioni che compongono il fornetto e la camera a vuoto, è inoltre illustrato il cablaggio che permette l'interfaccia del forno alla scheda Arduino ed al software LabVIEW. La terza sezione è dedicata agli studi svolti per la realizzazione del sistema di controllo PID e per la sua ottimizzazione. Il quarto capitolo è invece dedicato alla descrizione del software creato per la gestione del fornetto. Nel quinto capitolo sono infine mostrati i metodi utilizzati per il calcolo delle costanti operative del PID ed i risultati sperimentali ottenuti.