938 resultados para Open Data, Bologna
Resumo:
Joseph Nicolas Cugnot built the first primitive car in 1769 and approximately one hundred year later the first automotive race took place. Thanks to this, for the first time the aerodynamics principles began to be applied to cars. The aerodynamic study of a car is important to improve the performance on the road, or on the track. It purposely enhances the stability in the turns and increases the maximum velocity. However, it is also useful, decrease the fuel consumption, in order to reduce the pollution. Given that cars are a very complex body, the aerodynamic study cannot be conducted following an analytical method, but it is possible, in general, to choose between two different approaches: the numerical or the experimental one. The results of numerical studies depend on the computers’ potential and on the method use to implement the mathematical model. Today, the best way to perform an aerodynamic study is still experimental, which means that in the first phase of the design process the study is performed in a wind tunnel and in later phases directly on track. The automotive wind tunnels are singular mainly due to the test chamber, which typically contains a ground simulation system. The test chamber can have different types of walls: open walls, closed walls, adaptive walls or slotted walls. The best solution is to use the slotted walls because they minimize the interference between the walls and the streamlines, the interaction between the flow and the environment, and also to contain the overall costs. Furthermore, is necessary minimize the boundary layer at the walls, without accelerating the flow, in order to provide the maximum section of homogeneous flow. This thesis aims at redefining the divergent angle of the Dallara Automobili S.P.A. wind tunnel’s walls, in order to improve the overall homogeneity. To perform this study it was necessary to acquire the pressure data of the boundary layer, than it was created the profile of the boundary layer velocity and, to minimize the experimental errors, it was calculated the displacement thickness. The results obtained shows, even if the instrument used to the experiment was not the best one, that the boundary layer thickness could be minor in case of a low diffusion angle. So it is convenient to perform another experiment with a most sensitive instrument to verified what is the better wall configuration.
Resumo:
This dissertation consists of three empirical studies that aim at providing new evidence in the field of public policy evaluation. In particular, the first two chapters focus on the effects of the European cohesion policy, while the third chapter assesses the effectiveness of Italian labour market incentives in reducing long-term unemployment. The first study analyses the effect of EU funds on life satisfaction across European regions , under the assumption that projects financed by structural funds in the fields of employment, education, health and environment may affect the overall quality of life in recipient regions. Using regional data from the European Social Survey in 2002-2006, it resorts to a regression discontinuity design, where the discontinuity is provided by the institutional framework of the policy. The second study aims at estimating the impact of large transfers from a centralized authority to a local administration on the incidence of white collar crimes. It merges a unique dataset on crimes committed in Italian municipalities between 2007 and 2011 with information on the disbursement of EU structural funds in 2007-2013 programming period, employing an instrumental variable estimation strategy that exploits the variation in the electoral cycle at local level. The third study analyses the impact of an Italian labour market policy that allowed firms to cut their labour costs on open-ended job contracts when hiring long-term unemployed workers. It takes advantage of a unique dataset that draws information from the unemployment lists in Veneto region and it resorts to a regression discontinuity approach to estimate the effect of the policy on the job finding rate of long-term unemployed workers.
Resumo:
Questo studio prospettico valuta l’efficacia e i vantaggi del sistema LigasureTM rispetto alle tecniche chirurgiche tradizionali, in quattro differenti procedure eseguite su 77 cani. I soggetti sono stati suddivisi in 4 gruppi, a seconda della chirurgia eseguita: Gruppo 1, 25 pazienti sottoposti a Splenectomia “aperta” semplice; Gruppo 2, 15 pazienti sottoposti a Splenectomia “aperta” complessa; Gruppo 3, 22 pazienti sottoposti ad Ovariectomia “aperta”. Gruppo 4: 18 pazienti sottoposti a Linfoadenectomia. Ciascun gruppo è stato a sua volta suddiviso in due sottogruppi: a (LigasureTM) e b (Tradizionale), a seconda della metodica utilizzata. Sono stati analizzati: il segnalamento, i parametri ematologici, le condizioni cliniche, le informazioni riguardanti l’intervento chirurgico e l’outcome. In tutti i gruppi il ricorso all’utilizzo di garze nonché dei fili da sutura sono risultati statisticamente inferiori nei pazienti operati con il sistema a radiofrequenza (Gruppo 1, P < 0.0001; Gruppo 2, P < 0,0014; Gruppo 3, P = 0,0001; Gruppo 4, P = 0,0148). Anche i tempi per la rimozione dell’organo sono significativamente ridotti in tutti i gruppi in cui è stato utilizzato il sistema LigasureTM (Gruppo 1 P < 0.0001; Gruppo 2 P < 0,0014; Gruppo 3 P = 0,0009; Gruppo 4 P = 0,0008), come i tempi chirurgici nei gruppi 1, 2 e 3 (P = 0,0287; P = 0,0064; e P = 0,0124) ed anestesiologici nei gruppi 1a e 2a (P = 0,0176; P = 0,0043). Tra le variabili analizzate, l’utilizzo del sistema di sintesi vascolare a radiofrequenza, è l’unico ad influenzare i tempi necessari per l’esecuzione della procedura. Questo studio dimostra, quindi, come il sistema LigasureTM sia sicuro ed efficace per le procedure chirurgiche esaminate, riducendo i tempi della chirurgia e limitando, quindi, i rischi per il paziente, indipendentemente dall’operatore, dall’esecuzione di altre procedure contemporanee e dalla natura della patologia splenica o linfonodale.
Resumo:
Resource management is of paramount importance in network scenarios and it is a long-standing and still open issue. Unfortunately, while technology and innovation continue to evolve, our network infrastructure system has been maintained almost in the same shape for decades and this phenomenon is known as “Internet ossification”. Software-Defined Networking (SDN) is an emerging paradigm in computer networking that allows a logically centralized software program to control the behavior of an entire network. This is done by decoupling the network control logic from the underlying physical routers and switches that forward traffic to the selected destination. One mechanism that allows the control plane to communicate with the data plane is OpenFlow. The network operators could write high-level control programs that specify the behavior of an entire network. Moreover, the centralized control makes it possible to define more specific and complex tasks that could involve many network functionalities, e.g., security, resource management and control, into a single framework. Nowadays, the explosive growth of real time applications that require stringent Quality of Service (QoS) guarantees, brings the network programmers to design network protocols that deliver certain performance guarantees. This thesis exploits the use of SDN in conjunction with OpenFlow to manage differentiating network services with an high QoS. Initially, we define a QoS Management and Orchestration architecture that allows us to manage the network in a modular way. Then, we provide a seamless integration between the architecture and the standard SDN paradigm following the separation between the control and data planes. This work is a first step towards the deployment of our proposal in the University of California, Los Angeles (UCLA) campus network with differentiating services and stringent QoS requirements. We also plan to exploit our solution to manage the handoff between different network technologies, e.g., Wi-Fi and WiMAX. Indeed, the model can be run with different parameters, depending on the communication protocol and can provide optimal results to be implemented on the campus network.
Resumo:
Tesi riguardante le differenze tra Semantic Web e Web Tradizionale
Resumo:
This work is focused on the study of saltwater intrusion in coastal aquifers, and in particular on the realization of conceptual schemes to evaluate the risk associated with it. Saltwater intrusion depends on different natural and anthropic factors, both presenting a strong aleatory behaviour, that should be considered for an optimal management of the territory and water resources. Given the uncertainty of problem parameters, the risk associated with salinization needs to be cast in a probabilistic framework. On the basis of a widely adopted sharp interface formulation, key hydrogeological problem parameters are modeled as random variables, and global sensitivity analysis is used to determine their influence on the position of saltwater interface. The analyses presented in this work rely on an efficient model reduction technique, based on Polynomial Chaos Expansion, able to combine the best description of the model without great computational burden. When the assumptions of classical analytical models are not respected, and this occurs several times in the applications to real cases of study, as in the area analyzed in the present work, one can adopt data-driven techniques, based on the analysis of the data characterizing the system under study. It follows that a model can be defined on the basis of connections between the system state variables, with only a limited number of assumptions about the "physical" behaviour of the system.
Resumo:
Heart diseases are the leading cause of death worldwide, both for men and women. However, the ionic mechanisms underlying many cardiac arrhythmias and genetic disorders are not completely understood, thus leading to a limited efficacy of the current available therapies and leaving many open questions for cardiac electrophysiologists. On the other hand, experimental data availability is still a great issue in this field: most of the experiments are performed in vitro and/or using animal models (e.g. rabbit, dog and mouse), even when the final aim is to better understand the electrical behaviour of in vivo human heart either in physiological or pathological conditions. Computational modelling constitutes a primary tool in cardiac electrophysiology: in silico simulations, based on the available experimental data, may help to understand the electrical properties of the heart and the ionic mechanisms underlying a specific phenomenon. Once validated, mathematical models can be used for making predictions and testing hypotheses, thus suggesting potential therapeutic targets. This PhD thesis aims to apply computational cardiac modelling of human single cell action potential (AP) to three clinical scenarios, in order to gain new insights into the ionic mechanisms involved in the electrophysiological changes observed in vitro and/or in vivo. The first context is blood electrolyte variations, which may occur in patients due to different pathologies and/or therapies. In particular, we focused on extracellular Ca2+ and its effect on the AP duration (APD). The second context is haemodialysis (HD) therapy: in addition to blood electrolyte variations, patients undergo a lot of other different changes during HD, e.g. heart rate, cell volume, pH, and sympatho-vagal balance. The third context is human hypertrophic cardiomyopathy (HCM), a genetic disorder characterised by an increased arrhythmic risk, and still lacking a specific pharmacological treatment.
Resumo:
Obiettivo del lavoro è quello di legare tra di loro due aspetti che storicamente sono sempre stati scollegati. Il primo è il lungo dibattito sul tema “oltre il PIL”, che prosegue ininterrottamente da circa mezzo secolo. Il secondo riguarda l’utilizzo dei sistemi di misurazione e valutazione della performance nel settore pubblico italiano. Si illustra l’evoluzione del dibattito sul PIL facendo un excursus storico del pensiero critico che si è sviluppato nel corso di circa cinquanta anni analizzando le ragioni assunte dagli studiosi per confutare l’utilizzo del PIL quale misura universale del benessere. Cogliendo questa suggestione l’Istat, in collaborazione con il CNEL, ha avviato un progetto per individuare nuovi indicatori da affiancare al PIL, in grado di misurare il livello non solo della crescita economica, ma anche del benessere sociale e sostenibile, con l’analisi degli indicatori riferiti a 12 domini di benessere individuati. Al progetto Istat-CNEL si è affiancato il progetto UrBES, promosso dall’Istat e dal Coordinamento dei sindaci metropolitani dell’ANCI, che hanno costituito una rete di città metropolitane per sperimentare la misurazione e il confronto sulla base di indicatori di benessere urbano equo e sostenibile, facendo proprio un progetto del Comune di Bologna e di Laboratorio Urbano (Centro di documentazione, ricerca e proposta sulle città), che ha sottoposto a differenti target un questionario on line, i cui risultati, con riferimento alle risposte fornite alle domande aperte, sono stati elaborati attraverso l’utilizzo di Taltac, un software per l’analisi dei testi, al fine di individuare i “profili” dei rispondenti, associando i risultati dell’elaborazione alle variabili strutturali del questionario. Nell’ultima parte i servizi e progetti erogati dal comune di Bologna sono stati associati alle dimensioni UrBES, per valutare l’impatto delle politiche pubbliche sulla qualità della vita e sul benessere dei cittadini, indicando le criticità legate alla mancanza di dati adeguati.
Resumo:
This thesis presents a CMOS Amplifier with High Common Mode rejection designed in UMC 130nm technology. The goal is to achieve a high amplification factor for a wide range of biological signals (with frequencies in the range of 10Hz-1KHz) and to reject the common-mode noise signal. It is here presented a Data Acquisition System, composed of a Delta-Sigma-like Modulator and an antenna, that is the core of a portable low-complexity radio system; the amplifier is designed in order to interface the data acquisition system with a sensor that acquires the electrical signal. The Modulator asynchronously acquires and samples human muscle activity, by sending a Quasi-Digital pattern that encodes the acquired signal. There is only a minor loss of information translating the muscle activity using this pattern, compared to an encoding technique which uses astandard digital signal via Impulse-Radio Ultra-Wide Band (IR-UWB). The biological signals, needed for Electromyographic analysis, have an amplitude of 10-100μV and need to be highly amplified and separated from the overwhelming 50mV common mode noise signal. Various tests of the firmness of the concept are presented, as well the proof that the design works even with different sensors, such as Radiation measurement for Dosimetry studies.
Resumo:
Relazione del lavoro di creazione e implementazione della piattaforma software che sviluppa l’archivio del progetto SATNET. I satelliti universitari hanno un tempo di vista della propria Stazione di Terra di pochi minuti al giorno: SATNET risponde all’esigenza di comunicare con un satellite universitario in orbita bassa per più dei pochi minuti al giorno che una singola Stazione di Terra permette. Questo avviene grazie a una rete di Stazioni di Terra Satellitari collegate da specifiche missioni comuni che mettono in condivisione dati ricevuti da uno o più satelliti, aumentando il rendimento dati/giorno di questi e permettendo una migliore fruizione delle Stazioni di Terra stesse. Il network sfrutta Internet come canale di connessione, e prevede la presenza di un archivio nel quale memorizzare i dati ricevuti, per poi renderne possibile la consultazione e il recupero. Oggetto di questo lavoro di tesi è stato lo sviluppo e l’implementazione di tale archivio: utilizzando un sito web dinamico, il software risponde a tutte le richieste evidenziate nel paragrafo precedente, permettendo a utenti autenticati di inserire dati e ad altri di poterne avere accesso. Il software è completo e funzionante ma non finito, in quanto manca la formulazione di alcune richieste; per esempio non è stato specificato il tipo di informazioni che è possibile caricare in upload, né il tipo di campi richiesti nel modulo di registrazione dei vari utenti. In questi casi sono stati inseriti campi generici, lasciando all’utente la possibilità di modificarli in seguito. Il software è stato dunque concepito come facilmente personalizzabile e modificabile anche da utenti inesperti grazie alla sola lettura della tesi, che rappresenta quindi una vera e propria guida per l’utilizzo, l’installazione, la personalizzazione e la manutenzione della piattaforma software. La tesi evidenzia gli obiettivi e le richieste, mostrando l’aspetto del sito web e le sue funzionalità, e spiega passo per passo il procedimento per la modifica dell’aspetto delle pagine e di alcuni parametri di configurazione. Inoltre, qualora siano necessarie modifiche sostanziali al progetto, introduce i vari linguaggi di programmazione necessari allo sviluppo e alla programmazione web e aiuta l’utente nella comprensione della struttura del software. Si conclude con alcuni suggerimenti su eventuali modifiche, attuabili solo a seguito di un lavoro di definizione degli obiettivi e delle specifiche richieste. In futuro ci si aspetta l’implementazione e la personalizzazione del software, nonché l’integrazione dell’archivio all’interno del progetto SATNET, con l’obiettivo di migliorare e favorire la diffusione e la condivisione di progetti comuni tra diverse Università Europee ed Extra-Europee.
Resumo:
Nella fisica delle particelle, onde poter effettuare analisi dati, è necessario disporre di una grande capacità di calcolo e di storage. LHC Computing Grid è una infrastruttura di calcolo su scala globale e al tempo stesso un insieme di servizi, sviluppati da una grande comunità di fisici e informatici, distribuita in centri di calcolo sparsi in tutto il mondo. Questa infrastruttura ha dimostrato il suo valore per quanto riguarda l'analisi dei dati raccolti durante il Run-1 di LHC, svolgendo un ruolo fondamentale nella scoperta del bosone di Higgs. Oggi il Cloud computing sta emergendo come un nuovo paradigma di calcolo per accedere a grandi quantità di risorse condivise da numerose comunità scientifiche. Date le specifiche tecniche necessarie per il Run-2 (e successivi) di LHC, la comunità scientifica è interessata a contribuire allo sviluppo di tecnologie Cloud e verificare se queste possano fornire un approccio complementare, oppure anche costituire una valida alternativa, alle soluzioni tecnologiche esistenti. Lo scopo di questa tesi è di testare un'infrastruttura Cloud e confrontare le sue prestazioni alla LHC Computing Grid. Il Capitolo 1 contiene un resoconto generale del Modello Standard. Nel Capitolo 2 si descrive l'acceleratore LHC e gli esperimenti che operano a tale acceleratore, con particolare attenzione all’esperimento CMS. Nel Capitolo 3 viene trattato il Computing nella fisica delle alte energie e vengono esaminati i paradigmi Grid e Cloud. Il Capitolo 4, ultimo del presente elaborato, riporta i risultati del mio lavoro inerente l'analisi comparata delle prestazioni di Grid e Cloud.
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
Die Molekularbiologie von Menschen ist ein hochkomplexes und vielfältiges Themengebiet, in dem in vielen Bereichen geforscht wird. Der Fokus liegt hier insbesondere auf den Bereichen der Genomik, Proteomik, Transkriptomik und Metabolomik, und Jahre der Forschung haben große Mengen an wertvollen Daten zusammengetragen. Diese Ansammlung wächst stetig und auch für die Zukunft ist keine Stagnation absehbar. Mittlerweile aber hat diese permanente Informationsflut wertvolles Wissen in unüberschaubaren, digitalen Datenbergen begraben und das Sammeln von forschungsspezifischen und zuverlässigen Informationen zu einer großen Herausforderung werden lassen. Die in dieser Dissertation präsentierte Arbeit hat ein umfassendes Kompendium von humanen Geweben für biomedizinische Analysen generiert. Es trägt den Namen medicalgenomics.org und hat diverse biomedizinische Probleme auf der Suche nach spezifischem Wissen in zahlreichen Datenbanken gelöst. Das Kompendium ist das erste seiner Art und sein gewonnenes Wissen wird Wissenschaftlern helfen, einen besseren systematischen Überblick über spezifische Gene oder funktionaler Profile, mit Sicht auf Regulation sowie pathologische und physiologische Bedingungen, zu bekommen. Darüber hinaus ermöglichen verschiedene Abfragemethoden eine effiziente Analyse von signalgebenden Ereignissen, metabolischen Stoffwechselwegen sowie das Studieren der Gene auf der Expressionsebene. Die gesamte Vielfalt dieser Abfrageoptionen ermöglicht den Wissenschaftlern hoch spezialisierte, genetische Straßenkarten zu erstellen, mit deren Hilfe zukünftige Experimente genauer geplant werden können. Infolgedessen können wertvolle Ressourcen und Zeit eingespart werden, bei steigenden Erfolgsaussichten. Des Weiteren kann das umfassende Wissen des Kompendiums genutzt werden, um biomedizinische Hypothesen zu generieren und zu überprüfen.
Resumo:
Il termine Domotica deriva dall’unione dei termini domus e robotics e spazia oltre alle competenze in ambito informatico ed elettronico, avvalendosi dell’architettura e di determinati campi dell’ingegneria come: energetica, edile, dell’ automazione, elettrotecnica, delle telecomunicazioni. La Domotica agevola gli aspetti della quotidianità all’interno dell’ambiente casalingo o, più in generale, di ambienti antropizzati. Questa tesi ha l’intento di spiegare come può essere realizzato un sistema domotizzato casalingo utilizzando dispositivi open-hardware. Inizialmente verranno messi in chiaro i concetti chiave generici di un sistema domotico e verranno discussi i prodotti attualmente in commercio e verrà fatta una piccola introduzione sul concetto di open-hardware. Successivamente verrà discusso il sistema realizzato dandone una panoramica, si esaminerà la strutturazione sia software che hardware e le tecnologie ed i dispositivi utilizzati, per poi enucleare casi d’uso. A seguire le conclusioni.
Resumo:
The present work is aimed to the study and the analysis of the defects detected in the civil structure and that are object of civil litigation in order to create an instruments capable of helping the different actor involved in the building process. It is divided in three main sections. The first part is focused on the collection of the data related to the civil proceeding of the 2012 and the development of in depth analysis of the main aspects regarding the defects on existing buildings. The research center “Osservatorio Claudio Ceccoli” developed a system for the collection of the information coming from the civil proceedings of the Court of Bologna. Statistical analysis are been performed and the results are been shown and discussed in the first chapters.The second part analyzes the main issues emerged during the study of the real cases, related to the activities of the technical consultant. The idea is to create documents, called “focus”, addressed to clarify and codify specific problems in order to develop guidelines that help the technician editing of the technical advice.The third part is centered on the estimation of the methods used for the collection of data. The first results show that these are not efficient. The critical analysis of the database, the result and the experience and throughout, allowed the implementation of the collection system for the data.