898 resultados para contactless sistema di misura ottico elettrofilatura triangolazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Blockchain è un deposito di dati distribuito costituito da una lista di record (in continua crescita) resistente a modifiche e revisioni, anche da parte degli operatori dei nodi (computer) su cui risiede. I dati sono sicuri anche in presenza di partecipanti non affidabili o disonesti alla rete. Una copia totale o parziale della blockchain è memorizzata su tutti i nodi. I record contenuti sono di due tipi: le transazioni, che sono i dati veri e propri, e i blocchi, che sono la registrazione di quanto ed in quale ordine le transazioni sono state inserite in modo indelebile nel database. Le transazioni sono create dai partecipanti alla rete nelle loro operazioni (per esempio, trasferimento di valuta ad un altro utente), mentre i blocchi sono generati da partecipanti speciali, i cosiddetti “miners”, che utilizzano software e a volte hardware specializzato per creare i blocchi. L’attività dei miners viene ricompensata con l’assegnazione di “qualcosa”, nel caso della rete Bitcoin di un certo numero di unità di valuta. Spesso negli esempi si fa riferimento alla Blockchain di Bitcoin perché è la catena di blocchi implementata per prima, e l'unica ad avere una dimensione consistente. Le transazioni, una volta create, vengono distribuite sui nodi con un protocollo del tipo “best effort”. La valididi una transazione viene verificata attraverso il consenso dei nodi della rete sulla base di una serie di parametri, che variano secondo l’implementazione specifica dell’architettura. Una volta verificata come valida, la transazione viene inserita nel primo blocco libero disponibile. Per evitare che ci sia una duplicazione delle informazioni l’architettura prevede un sistema di time stamping, che non richiede un server centralizzato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las enfermedades huérfanas en Colombia, se definen como aquellas crónicamente debilitantes, que amenazan la vida, de baja prevalencia (menor 1/5000) y alta complejidad. Se estima que a nivel mundial existen entre 6000 a 8000 enfermedades raras diferentes(1). Varios países a nivel mundial individual o colectivamente, en los últimos años han creado políticas e incentivos para la investigación y protección de los pacientes con enfermedades raras. Sin embargo, a pesar del creciente número de publicaciones; la información sobre su etiología, fisiología, historia natural y datos epidemiológicos persiste escasa o ausente. Los registros de pacientes, son una valiosa herramienta para la caracterización de las enfermedades, su manejo y desenlaces con o sin tratamiento. Permiten mejorar políticas de salud pública y cuidado del paciente, contribuyendo a mejorar desenlaces sociales, económicos y de calidad de vida. En Colombia, bajo el decreto 1954 de 2012 y las resoluciones 3681 de 2013 y 0430 de 2013 se creó el fundamento legal para la creación de un registro nacional de enfermedades huérfanas. El presente estudio busca determinar la caracterización socio-demográfica y la prevalencia de las enfermedades huérfanas en Colombia en el periodo 2013. Métodos: Se realizó un estudio observacional de corte transversal de fuente secundaria sobre pacientes con enfermedades huérfanas en el territorio nacional; basándose en el registro nacional de enfermedades huérfanas obtenido por el Ministerio de Salud y Protección Social en el periodo 2013 bajo la normativa del decreto 1954 de 2012 y las resoluciones 3681 de 2013 y 0430 de 2013. Las bases de datos obtenidas fueron re-categorizadas en Excel versión 15.17 para la extracción de datos y su análisis estadístico posterior, fue realizado en el paquete estadístico para las ciencias sociales (SPSS v.20, Chicago, IL). Resultados: Se encontraron un total de 13173 pacientes con enfermedades huérfanas para el 2013. De estos, el 53.96% (7132) eran de género femenino y el 46.03% (6083) masculino; la mediana de la edad fue de 28 años con un rango inter-cuartil de 39 años, el 9% de los pacientes presentaron discapacidad. El registro contenía un total de 653 enfermedades huérfanas; el 34% del total de las enfermedades listadas en nuestro país (2). Las patologías más frecuentes fueron el Déficit Congénito del Factor VIII, Miastenia Grave, Enfermedad de Von Willebrand, Estatura Baja por Anomalía de Hormona de Crecimiento y Displasia Broncopulmonar. Discusión: Se estimó que aproximadamente 3.3 millones de colombianos debían tener una enfermedad huérfana para el 2013. El registro nacional logró recolectar datos de 13173 (0.4%). Este bajo número de pacientes, marca un importante sub-registro que se debe al uso de los códigos CIE-10, desconocimiento del personal de salud frente a las enfermedades huérfanas y clasificación errónea de los pacientes. Se encontraron un total de 653 enfermedades, un 34% de las enfermedades reportadas en el listado nacional de enfermedades huérfanas (2) y un 7% del total de enfermedades reportadas en ORPHANET para el periodo 2013 (3). Conclusiones: La recolección de datos y la sensibilización sobre las enfermedades huérfanas al personal de salud, es una estrategia de vital importancia para el diagnóstico temprano, medidas específicas de control e intervenciones de los pacientes. El identificar apropiadamente a los pacientes con este tipo de patologías, permite su ingreso en el registro y por ende mejora el sub-registro de datos. Sin embargo, cabe aclarar que el panorama ideal sería, el uso de un sistema de recolección diferente al CIE-10 y que abarque en mayor medida la totalidad de las enfermedades huérfanas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La gestione del fine vita dei prodotti è un argomento di interesse attuale per le aziende; sempre più spesso l’imprese non possono più esimersi dall’implementare un efficiente sistema di Reverse Logistics. Per rispondere efficacemente a queste nuove esigenze diventa fondamentale ampliare i tradizionali sistemi logistici verso tutte quelle attività svolte all’interno della Reverse Logitics. Una gestione efficace ed efficiente dell’intera supply chain è un aspetto di primaria importanza per un’azienda ed incide notevolmente sulla sua competitività; proprio per perseguire questo obiettivo, sempre più aziende promuovono politiche di gestione delle supply chain sia Lean che Green. L’obiettivo di questo lavoro, nato dalle esigenze descritte sopra, è quello di applicare un modello innovativo che consideri sia politiche di gestione Lean, che dualmente politiche Green, alla gestione di una supply chain del settore automotive, comprendente anche le attività di gestione dei veicoli fuori uso (ELV). Si è analizzato per prima cosa i principi base e gli strumenti utilizzati per l’applicazione della Lean Production e del Green supply chain management e in seguito si è analizzato le caratteristiche distintive della Reverse Logistics e in particolare delle reti che trattano i veicoli a fine vita. L’obiettivo finale dello studio è quello di elaborare e implementare, tramite l’utilizzo del software AMPL, un modello di ottimizzazione multi-obiettivo (MOP- Multi Objective Optimization) Lean e Green a una Reverse Supply Chain dei veicoli a fine vita. I risultati ottenuti evidenziano che è possibile raggiungere un ottimo compromesso tra le due logiche. E' stata effettuata anche una valutazione economica dei risultati ottenuti, che ha evidenziato come il trade-off scelto rappresenti anche uno degli scenari con minor costi.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Progettazione di un sensore ottico ad assorbanza per lo studio dell'effetto dell'osmolarità sul sangue.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

GOG-Fit è un servizio che offre maschere da neve personalizzate, stampate in 3D su misura del cliente. Il modello di maschera prodotto è composto da due moduli, uniti tra loro grazie a incastri magnetici.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi della candidata presenta - attraverso lo studio della normativa e della giurisprudenza rilevanti in Italia, Francia e Germania – un’analisi dell'ambito soggettivo di applicazione del diritto costituzionale d'asilo e del suo rapporto con il riconoscimento dello status di rifugiato ai sensi della Convenzione di Ginevra del 1951, nonchè della sua interazione con le altre forme di protezione della persona previste dal diritto comunitario e dal sistema CEDU di salvaguardia dei diritti fondamentali. Dal breve itinerario comparatistico percorso, emerge una forte tendenza alla neutralizzazione dell’asilo costituzionale ed alla sua sovrapposizione con la fattispecie del rifugio convenzionale quale carattere comune agli ordinamenti presi in esame, espressione di una consapevole scelta di politica del diritto altresì volta ad assimilare la materia alla disciplina generale dell’immigrazione al fine di ridimensionarne le potenzialità espansive (si pensi alla latitudine delle formule costituzionali di cui agli artt. 10, co. 3 Cost. it. e 16a, co. 1 Grundgesetz) e di ricondurre l'asilo entro i tradizionali confini della discrezionalità amministrativa quale sovrana concessione dello Stato ospitante. L'esame delle fonti comunitarie di recente introduzione illumina l’indagine: in particolare, la stessa Direttiva 2004/83CE sulla qualifica di rifugiato e sulla protezione sussidiaria consolida quanto stabilito dalle disposizioni convenzionali, ma ne estende la portata in modo significativo, recependo gli esiti della lunga evoluzione giurisprudenziale compiuta dalle corti nazionali e dal Giudice di Strasburgo nell’interpretazione del concetto di “persecuzione” (specialmente, in relazione all’individuazione delle azioni e degli agenti persecutori). Con riferimento al sistema giuridico italiano, la tesi si interroga sulle prospettive di attuazione del dettato dell’art. 10, terzo comma della Costituzione, ed inoltre propone la disamina di alcuni istituti chiave dell’attuale normativa in materia di asilo, attraverso cui si riscontrano importanti profili di incompatibilità con la natura di diritto fondamentale costituzionalmente tutelato, conferita al diritto di asilo dalla volontà dei Costituenti e radicata nella ratio della norma stessa (il trattenimento del richiedente asilo; la procedura di esame della domanda, l’onere probatorio e le cause ostative al suo accoglimento; l’effettività della tutela giurisdizionale). Le questioni più problematiche ancora irrisolte investono proprio tali aspetti del procedimento - previsto per ottenere quello che alcuni atti europei, tra cui l'art. 18 della Carta di Nizza, definiscono right to asylum - come rivela la disciplina contenuta nella Direttiva 2005/85CE, recante norme minime per le procedure applicate negli Stati membri ai fini del riconoscimento e della revoca dello status di rifugiato. Infine, il fenomeno della esternalizzazione dei controlli compromette lo stesso accesso alle procedure, nella misura in cui rende "mobile" il confine territoriale dell’area Schengen (attraverso l'introduzione del criterio dello "Stato terzo sicuro", degli strumenti dell'esame preliminare delle domande e della detenzione amministrativa nei Paesi di transito, nonché per mezzo del presidio delle frontiere esterne), relegando il trattamento dei richiedenti asilo ad uno spazio in cui non sempre è monitorabile l'effettivo rispetto del principio del non refoulement, degli obblighi internazionali relativi all’accoglienza dei profughi e delle clausole di determinazione dello Stato competente all'esame delle domande ai sensi del Regolamento n. 343/03, c.d. Dublino II (emblematico il caso del pattugliamento delle acque internazionali e dell'intercettazione delle navi prima del superamento dei confini territoriali). Questi delicati aspetti di criticità della disciplina procedimentale limitano il carattere innovativo delle recenti acquisizioni comunitarie sull’ambito di operatività delle nuove categorie definitorie introdotte (le qualifiche di rifugiato e di titolare di protezione sussidiaria e la complessa nozione di persecuzione, innanzitutto), richiedendo, pertanto, l’adozione di un approccio sistemico – piuttosto che analitico – per poter rappresentare in modo consapevole le dinamiche che concretamente si producono a livello applicativo ed affrontare la questione nodale dell'efficienza dell'attuale sistema multilivello di protezione del richiedente asilo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questa tesi si effettua lo studio di un azionamento elettrico con motore asincrono eptafase. In particolare si realizza un sistema automatico per il controllo della coppia mediante stimatori con encoder. Si ha così la possibilità di effettuare un controllo accurato della macchina asincrona eptafase anche a bassa velocità, cosa che risulterebbe più complessa se eseguita mediante controlli di tipo sensorless. Inoltre, grazie ad opportune strategie di controllo, è possibile assicurare un funzionamento accettabile degli azionamenti con motori multifase durante una condizione di guasto con una fase aperta, senza alcuna necessità di hardware aggiuntivo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La sezione d'urto di produzione per coppie tt-barra viene misurata utilizzando dati raccolti dall'esperimento CMS in collisioni protone-protone ad LHC, con energia nel sistema del centro di massa radice di s = 8 TeV. Il campione raccolto corrisponde ad una luminosità integrata di 19.5 fb^-1. La misura viene effettuata su eventi che contano un numero di jet pari o superiore a 6, almeno due dei quali identificati come prodotto dell'adronizzazione di quark bottom. Il valore di sezione d'urto ottenuto è (260 pm 10 (stat)) pb, in accordo con le previsioni teoriche del Modello Standard.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il documento contiene un'analisi sull'accordo fra le misure delle sezioni d’urto differenziali del sistema top-antitop registrate nel 2011 dall’esperimento ATLAS a un'energia del centro di massa di 7 TeV e le predizioni teoriche.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi è finalizzata ad una preliminare fase di sperimentazione di un algoritmo che, a partire da dati di acustica, sia in grado di classificare le specie di pesce presenti in cale mono e plurispecifiche. I dati sono stati acquisiti nella fascia costiera della Sicilia meridionale, durante alcune campagne di ricerca effettuate tra il 2002 e il 2011, dall’IAMC – CNR di Capo Granitola. Sono stati registrati i valori delle variabili ambientali e biotiche tramite metodologia acustica e della composizione dei banchi di pesci catturati tramite cale sperimentali: acciughe, sardine, suri, altre specie pelagiche e pesci demersali. La metodologia proposta per la classificazione dei segnali acustici nasce dalla fusione di logica fuzzy e teorema di Bayes, per dar luogo ad un approccio modellistico consistente in un compilatore naïve Bayes operante in ambiente fuzzy. Nella fattispecie si è proceduto alla fase di training del classificatore, mediante un learning sample di percentuali delle categorie ittiche sopra menzionate, e ai dati di alcune delle osservazioni acustiche, biotiche e abiotiche, rilevate dall’echosurvey sugli stessi banchi. La validazione del classificatore è stata effettuata sul test set, ossia sui dati che non erano stati scelti per la fase di training. Per ciascuna cala, sono stati infine tracciati dei grafici di dispersione/correlazione dei gruppi ittici e le percentuali simulate. Come misura di corrispondenza dei dati sono stati considerati i valori di regressione R2 tra le percentuali reali e quelle calcolate dal classificatore fuzzy naïve Bayes. Questi, risultando molto alti (0,9134-0,99667), validavano il risultato del classificatore che discriminava con accuratezza le ecotracce provenienti dai banchi. L’applicabilità del classificatore va comunque testata e verificata oltre i limiti imposti da un lavoro di tesi; in particolare la fase di test va riferita a specie diverse, a condizioni ambientali al contorno differenti da quelle riscontrate e all’utilizzo di learning sample meno estesi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il lavoro svolto in questa tesi si colloca nell’area della robotica aerea e della visione artificiale attraverso l’integrazione di algoritmi di visione per il controllo di un velivolo senza pilota. Questo lavoro intende dare un contributo al progetto europeo SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), coordinato dall’università di Bologna e con la compartecipazione delle università di Brema, Zurigo, Twente, Leuven, Linkopings, del CREATE (Consorzio di Ricerca per l’Energia e le Applicazioni Tecnologiche dell’Elettromagnetismo), di alcune piccole e medie imprese e del club alpino italiano, che consiste nel realizzare un team di robots eterogenei in grado di collaborare con l’uomo per soccorrere i dispersi nell’ambiente alpino. L’obiettivo di SHERPA consiste nel progettare e integrare l’autopilota all’interno del team. In tale contesto andranno gestiti problemi di grande complessità, come il controllo della stabilità del velivolo a fronte di incertezze dovute alla presenza di vento, l’individuazione di ostacoli presenti nella traiettoria di volo, la gestione del volo in prossimità di ostacoli, ecc. Inoltre tutte queste operazioni devono essere svolte in tempo reale. La tesi è stata svolta presso il CASY (Center for Research on Complex Automated Systems) dell’università di Bologna, utilizzando per le prove sperimentali una PX4FLOW Smart Camera. Inizialmente è stato studiato un autopilota, il PIXHAWK, sul quale è possibile interfacciare la PX4FLOW, in seguito sono stati studiati e simulati in MATLAB alcuni algoritmi di visione basati su flusso ottico. Infine è stata studiata la PX4FLOW Smart Camera, con la quale sono state svolte le prove sperimentali. La PX4FLOW viene utilizzata come interfaccia alla PIXHAWK, in modo da eseguire il controllo del velivolo con la massima efficienza. E’ composta da una telecamera per la ripresa della scena, un giroscopio per la misura della velocità angolare, e da un sonar per le misure di distanza. E’ in grado di fornire la velocità di traslazione del velivolo, e quest’ultima, integrata, consente di ricostruire la traiettoria percorsa dal velivolo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nel presente lavoro è progettato e sviluppato un sistema dual-fuel diesel/benzina per combustioni di tipo RCCI, e sono esposti i risultati sperimentali in termini di prestazioni ed emissioni. E' inoltre descritto e implementato un algoritmo di stima dell'MFB50 a partire dalla sola misura della velocità motore.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Gli oceani coprono quasi il 75% della superficie della terra ed esercitano una grande influenza sulla vita di tutte le specie viventi e sull’evoluzione del clima a livello planetario. I repentini cambiamenti climatici hanno reso sempre piú importante studiarne i comportamenti. L’analisi della salinitá degli oceani é estremamente importante per gli studi sull’ambiente marino; puó essere usata per tracciare le masse d’acqua, descrivendone i flussi e svelandone la correlazione con i processi climatici, puó essere di aiuto ai biologi per studiare gli organismi marini e costituisce un parametro fondamentale per una vasta gamma di sensori. Un sistema autonomo che misuri conducibilitá e temperatura é il primo strumento per determinare la salinitá dell’acqua, sul mercato sono presenti sí numerosi sensori a elevata accuratezza ma necessitano di ingombranti strumenti di laboratorio per funzionare. Sistemi di ridotte dimensioni non sono invece altrettanto accurati ed affidabili. Questa tesi mira a sviluppare un'interfaccia che permetta di analizzare conducibilitá e temperatura con un elevato livello di accuratezza. Particolare attenzione sará posta all’elaborazione delle misure effettuate e alla caratterizzazione degli errori e dell’accuratezza del sistema. Partendo da queste basi in futuro si potrá creare un sistema autonomo a bassissima potenza, alimentato da batterie, che, basandosi sull’iterazione fra il chip impedenziometrico e il PIC, permetta di fare misure per un ciclo di vita di qualche anno.