975 resultados para Kinect, Calcolo degli Eventi, EC, ECE
Resumo:
Nella prima parte di questa tesi viene introdotto il concetto di Internet of Things. Vengono discussi gli elementi costituitivi fondamentali di tale tecnologia, le differenti architetture proposte nel corso degli anni e le sfide che devono ancora essere affrontate per vedere realizzato l’IoT. Questa prima parte si conclude inoltre con due esempi di applicazione dell’IoT. Questi due esempi, Smart City e Smart Healthcare, hanno l’obbiettivo di evidenziare quali sono i vantaggi ed i servizi che possono essere offerti all’utente finale una volta applicato l’IoT. Nel secondo capitolo invece, vengono presentate le funzionalità della piattaforma IoT ThingWorx, la quale mette a disposizione un ambiente di sviluppo per applicazioni IoT con l’obbiettivo di ridurre i tempi e quindi anche i costi di sviluppo delle stesse. Questa piattaforma cerca di ridurre al minimo la necessità di scrivere codice, utilizzando un sistema di sviluppo di tipo “Drag and Drop”. ThingWorx mette anche a disposizione degli SDK per facilitare la programmazione dei device, gestendo soprattutto la parte di comunicazione nodo – piattaforma. Questo argomento viene trattato ampiamente nella parte finale di questo capitolo dopo aver visto quali sono i concetti fondamentali di modellazione e rappresentazione dei dati sui quali si basa la piattaforma. Nel terzo e ultimo capitolo di questa tesi viene presentato innanzitutto il tutorial Android di ThingWorx. Svolgere e successivamente estendere il tutorial ha evidenziato alcune limitazioni del modello iniziale e questo ci ha portato a progettare e sviluppare il componente Aggregated & Complex Event Manager per la gestione di eventi complessi e che permette di sgravare parzialmente la piattaforma da tale compito. La tesi si conclude evidenziando, tramite dei test, alcune differenze fra la situazione iniziale nella quale il componente non viene utilizzato e la situazione finale, nella quale invece viene usato.
Resumo:
L’obiettivo di questa tesi di Laurea è stato di analizzare gli scambi termici radiativi che si verificano all’interno di una stanza; per eseguire questa analisi si sono calcolati i fattori di vista Fij tra diversi punti (i) definiti tramite una griglia regolare posta all’interno della stanza e le superfici che vi si affacciano (j); tale griglia prevede 25 punti posti a 3 altezze diverse, per un totale di 75 punti. Dalla conoscenza delle temperature superficiali si sono ottenuti i valori di temperatura media radiante nei punti della griglia, e successivamente i valori degli indici di benessere PMV (voto medio previsto) e PPD (percentuale prevista di insoddisfatti), fissando i parametri necessari. Il calcolo dei fattori di vista è stato eseguito tramite il software TRISCO®, dopo averne confrontato i risultati forniti con COMSOL® e dopo aver valutato la correttezza di alcune approssimazioni. Il modello utilizzato nelle simulazioni è costituito da una stanza di 5x5x2,8 m, in cui sono stati fatti variare il numero e la posizione di alcuni elementi caratterizzanti, come finestre e radiatori, oltre a tipologia di elementi scaldanti e posizione e numero di pareti esterne, tramite la variazione delle temperature. In seguito si è analizzata la potenza scambiata per irraggiamento dagli elementi scaldanti, per poter riconoscere gli elementi responsabili dei maggiori contributi; nel caso di pavimento o soffitto radiante si è divisa tale superficie in diverse porzioni per riconoscere le zone della superficie radiante più influenti. I risultati ottenuti mostrano che la presenza di radiatori, finestre o pareti esterne, introducendo elementi di disturbo asimmetrici, forniscono andamenti disuniformi di temperatura e PMV, con l’omogeneità che migliora allontanandosi da tali elementi; impianti a pavimento o soffitto radiante producono risultati decisamente migliori, sia per quanto riguarda i valori assoluti di temperatura e PMV, che nell’omogeneità della relativa distribuzione.
Resumo:
La trattazione si propone di affrontare, in una prospettiva economico-aziendale, la questione relativa alla quantificazione del corretto risarcimento per reintegrare i danni economici conseguenti a violazioni dei diritti di proprietà industriale. L’obiettivo della tesi è, in particolare, quello di individuare le principali metodologie di valutazione degli intangibile assets, con particolare riferimento ai casi di loro contraffazione e indebita appropriazione da parte di terzi. Tra le diverse categorie di intellectual property, nel lavoro è affrontata con un maggior grado di dettaglio quella specifica del marchio, il bene intangibile più violato. L'indagine teorico-concettuale svolta nei primi capitoli trova un riscontro empirico nei diversi casi di violazione relativi a sentenze dei tribunali delle imprese italiani, presi in esame nell’ultima parte della tesi. L'analisi effettuata ha permesso, in particolare, di comprendere l'iter logico effettivamente adottato per la quantificazione del danno in sede di giudizio.
Resumo:
L'obiettivo principale della politica di sicurezza alimentare è quello di garantire la salute dei consumatori attraverso regole e protocolli di sicurezza specifici. Al fine di rispondere ai requisiti di sicurezza alimentare e standardizzazione della qualità, nel 2002 il Parlamento Europeo e il Consiglio dell'UE (Regolamento (CE) 178/2002 (CE, 2002)), hanno cercato di uniformare concetti, principi e procedure in modo da fornire una base comune in materia di disciplina degli alimenti e mangimi provenienti da Stati membri a livello comunitario. La formalizzazione di regole e protocolli di standardizzazione dovrebbe però passare attraverso una più dettagliata e accurata comprensione ed armonizzazione delle proprietà globali (macroscopiche), pseudo-locali (mesoscopiche), ed eventualmente, locali (microscopiche) dei prodotti alimentari. L'obiettivo principale di questa tesi di dottorato è di illustrare come le tecniche computazionali possano rappresentare un valido supporto per l'analisi e ciò tramite (i) l’applicazione di protocolli e (ii) miglioramento delle tecniche ampiamente applicate. Una dimostrazione diretta delle potenzialità già offerte dagli approcci computazionali viene offerta nel primo lavoro in cui un virtual screening basato su docking è stato applicato al fine di valutare la preliminare xeno-androgenicità di alcuni contaminanti alimentari. Il secondo e terzo lavoro riguardano lo sviluppo e la convalida di nuovi descrittori chimico-fisici in un contesto 3D-QSAR. Denominata HyPhar (Hydrophobic Pharmacophore), la nuova metodologia così messa a punto è stata usata per esplorare il tema della selettività tra bersagli molecolari strutturalmente correlati e ha così dimostrato di possedere i necessari requisiti di applicabilità e adattabilità in un contesto alimentare. Nel complesso, i risultati ci permettono di essere fiduciosi nel potenziale impatto che le tecniche in silico potranno avere nella identificazione e chiarificazione di eventi molecolari implicati negli aspetti tossicologici e nutrizionali degli alimenti.
Resumo:
L'RCMT (Regional Centroid Moment Tensor), realizzato e gestito dai ricercatori dell'INGV (Istituto Nazionale di Geofisica e Vulcanologia), è dal 1997 il catalogo di riferimento per gli eventi sismici avvenuti nell'area Europea-Mediterranea, ossia nella regione avente longitudine compresa tra 10° W e 40° E e latitudine compresa tra 25° N e 60° N. Tale regione è caratterizzata da un'attività tettonica complessa, legata non soltanto alla convergenza delle placche Euroasiatica ed Africana, ma anche al movimento di altre placche minori (ad esempio, la placca Arabica), che tutte insieme danno origine ad una vasta gamma di regimi tettonici. Col termine RCMT si indica un particolare tipo di tensore momento sismico, la cui determinazione avviene su scala regionale, per eventi sismici aventi M_w >= 4.5 (M_w >= 4.0 per gli eventi che avvengono nella penisola italica). Il tensore momento sismico è uno strumento fondamentale per caratterizzare natura ed entità di un terremoto. Da esso, infatti, oltre alla magnitudo momento M_w, si ricava anche il meccanismo focale. Comunemente rappresentato sotto forma di beach ball, consente di individuare il tipo di movimento (distensivo, compressivo o trascorrente, o anche una combinazione del primo o del secondo con il terzo) avvenuto sulla faglia che ha provocato il terremoto. I tensori momento sismico permettono, quindi, di identificare le faglie che si attivano durante una sequenza sismica, di comprendere la loro cinematica e di ipotizzare la successiva evoluzione a breve termine. Scopo di questa relazione di laurea è stato derivare le relazioni che intercorrono fra le M_w dell'RCMT e le M_w del CMT (Centroid Moment Tensor della Columbia University), del GFZ (Deutsches GeoForschungsZentrum di Postdam) e del TDMT (Time Domain Moment Tensor). Le relazioni sono state ottenute applicando il metodo dei minimi quadrati agli eventi comuni, che sono stati selezionati utilizzando alcuni semplici programmi scritti in Fortran.
Resumo:
Questa tesi riguarda il problema della schedulazione degli interventi nel blocco operatorio di un presidio ospedaliero, noto anche come Operating Theatre Planning & Scheduling. Il blocco operatorio è la struttura che eroga servizi a più alto impatto sui costi di un presidio ospedaliero ed è legato ad attività ad alto rischio. E' quindi fondamentale gestire in modo ottimale questa risorsa. In questa tesi, si considera come caso studio l'applicazione reale di un presidio ospedaliero dell'Emilia Romagna con un orizzonte temporale di una settimana, ovvero la cosiddetta programmazione operativa. L'obiettivo è quello di ottenere un utilizzo efficiente del blocco operatorio, garantendo al contempo la priorità agli interventi più urgenti. Data la complessità del problema, vengono proposti algoritmi euristici che permettano di ottenere buone soluzioni in tempi di calcolo ridotti. Studi precedenti hanno infatti evidenziato la difficoltà di trovare soluzioni ottime al problema, mediante l'utilizzo di solver commerciali per modelli di Programmazione Lineare Intera, senza introdurre ipotesi semplificative. Sono stati elaborati tre algoritmi euristici costruttivi di tipo multi-start che permettono di generare soluzioni ammissibili con diverse caratteristiche. Gli algoritmi si differenziano principalmente per le modalità con cui collocano gli interventi nel tempo disponibile delle risorse (induction room, operating room, recovery room), cercando di migliorarne l’utilizzazione e dando priorità ai pazienti più urgenti. Gli algoritmi sono stati implementati utilizzando il linguaggio JAVA e sono stati testati su istanze realistiche fornite dal presidio ospedaliero. I risultati hanno evidenziato un alto grado di utilizzazione delle sale operatorie, un fattore molto rilevante per una ottimale gestione del blocco operatorio. E' stata, infine, svolta un'analisi di sensitività alla variabilità delle durate.
Resumo:
Scopo del presente lavoro è la presentazione del codice di calcolo semplificato adoperato nella sezione “Simulatore fotovoltaico” presente sul portale www.energia.cnr.it del progetto CNR ENERGY+. Utilizzando i valori reali di radiazione solare misurati dalle stazioni meteorologiche installate presso alcune sedi del CNR il codice, con appropriati algoritmi, generala scomposizione della radiazione sul piano orizzontale e su superfici inclinate e variamente orientate, in modo da pervenire alla potenza prodotta da un ipotetico impianto fotovoltaico posto sullo stesso sito di ubicazione della stazione.
Resumo:
Español
Resumo:
Italiano
Resumo:
Sono stati analizzati i circuiti neurali addetti all'elaborazione matematica, a partire da quelli di start-up neurocognitivo per l'apprendimento del numero e del calcolo, capacità innate e già presenti alla nascita. I protagonisti sono il sistema della stima approssimativa del numero e quello di individuazione degli oggetti multipli e, spesso, le difficoltà che si incontrano durante un compito matematico (o la lentezza per portarlo a termine) sono date dalla difficile interazione tra questi e le loro sottocomponenti, continuamente riprogrammate dall'esecutivo centrale per poter supervisionare i processi di problem solving. Per la costruzione e lo sviluppo del calcolo più elevato, occorrono alcune capacità di base come il concetto di corrispondenza biunivoca, quello di ordinamento di un insieme, di maggioranza, di raddoppio e di dimezzamento, per mezzo delle quali ogni procedura si può ridurre ad una serie di operazioni più semplici. Queste funzioni vengono controllate e coordinate dal Sistema Attentivo Esecutivo che presiede tutte le attività di problem solving. I ragazzi che presentano deficit altamente specifici in una o più abilità matematiche di base vengono definiti discalculici e tra i loro tratti caratteristici vi sono l'incapacità di comprendere le numerosità, i principi delle operazioni e di elaborare strategie risolutive adatte ad ogni esercizio. Non tutti i ragazzi che presentano difficoltà in matematica sono discalculici: a tal proposito ho svolto una sperimentazione didattica in 10 classi di un I.T.I.S. , per cercare di capire se i concetti reputati consolidati alla scuola secondaria di 1° grado, lo sono realmente in quella di 2° e per mostrare le diverse tipologie di errori compiuti dai ragazzi clinici e non. I risultati sono stati largamente al di sotto delle aspettative, anche negli esercizi in cui è stato permesso l'uso della calcolatrice, lasciandomi presagire che gli errori commessi siano perlopiù di concetto piuttosto che di calcolo.
Resumo:
Objective. The Effective Consumer Scale (EC-17) comprises 17 items measuring the main skills and behaviors people need to effectively manage their healthcare. We tested the responsiveness of the EC-17. Methods. Participants, in 2 waves of a 6-week Arthritis Self-Management Program (ASMP) from Arthritis Ireland, received a questionnaire at the first and last week of the weekly ASMP. The questionnaire included the EC-17 and 10 other measures for arthritis. Deficits, mean change, and standard deviations were calculated at baseline and Week 6. The EC-17 scores were compared to the Arthritis Self-Efficacy (ASE) and Patient Activation Measure (PAM) scales. Results were presented at OMERACT 9. Results. There is some overlap between the EC-17 and the ASE and PAM; however, most items of greatest deficit in the EC-17 are not covered by those scales. In 327 participants representing both intervention waves (2006 and 2007), the EC-17 was more efficient than the ASE but less efficient than the PAM for detecting improvements after the ASMP, and was moderately correlated with the PAM. Conclusion. The EC-17 appears to measure different skills and attributes than the ASE and PAM. Discussions with participants at OMERACT 9 agreed that it is worthwhile to measure the skills and attributes of an effective consumer, and supported the development of an intervention (such as proposed online decision aids) that would include education in the categories in the EC-17.
Resumo:
We explore relationships between habits and technology interaction by reporting on older people's experience of the Kinect for Xbox. We contribute to theoretical and empirical understandings of habits in the use of technology to inform understanding of the habitual qualities of our interactions with computing technologies, particularly systems exploiting natural user interfaces. We situate ideas of habit in relation to user experience and usefulness in interaction design, and draw on critical approaches to the concept of habit from cultural theory to understand the embedded, embodied, and situated contexts in our interactions with technologies. We argue that understanding technology habits as a process of reciprocal habituation in which people and technologies adapt to each other over time through design, adoption, and appropriation offers opportunities for research on user experience and interaction design within human-computer interaction, especially as newer gestural and motion control interfaces promise to reshape the ways in which we interact with computers.
Resumo:
We contribute an empirically derived noise model for the Kinect sensor. We systematically measure both lateral and axial noise distributions, as a function of both distance and angle of the Kinect to an observed surface. The derived noise model can be used to filter Kinect depth maps for a variety of applications. Our second contribution applies our derived noise model to the KinectFusion system to extend filtering, volumetric fusion, and pose estimation within the pipeline. Qualitative results show our method allows reconstruction of finer details and the ability to reconstruct smaller objects and thinner surfaces. Quantitative results also show our method improves pose estimation accuracy. © 2012 IEEE.
Resumo:
The aim of this paper is to present the evolution of the Francovich doctrine within the European legal order. The first part deals with the gradual development of the ECJ's case law on State liability in damages for breach of EC law. Starting from the seminal Francovich and Brasserie du Pêcheur, the clarification of the criteria set by the Court is attempted with reference to subsequent case law, whereas issues concerning the extent and form of the compensation owned are also mentioned. The second part concerns one of the more recent developments in the field, namely State liability for breaches of Community law attributed to national judiciary. The Court's ruling in Köbler is examined in connection with two other recent judgments, namely Commission v. Italy of 2003 and Kühne & Heitz, as an attempt of the ECJ to reframe its relationships with national supreme courts and appropriate for itself the position of the Supreme Court in the European legal order. The implications on State liability claims by the ruling in Commission v. France of 1997 constitute the theme of the third part, where it is submitted that Member States can also be held liable for disregard of Community law by private individuals within their respected territories. To this extent, Schmidberger is viewed as a manifestation of this opinion, with fundamental rights acquiring a new dimension, being invoked by the States, contra the individuals as a shield to liability claims. Finally, the third part examines the relationship between the Francovich doctrine and the principle of legal certainty and concludes that the solutions employed by the ECJ have been both predictable and acceptable by the national legal orders. Keywords: State liability, damages, Francovich, Köbler, Schmidberger