482 resultados para Prestazioni dirigibilicaratteristiche dirigibilistoria dirigibili
Resumo:
Fino ad oggi la mobilità urbana si è affidata in particolar modo alla motorizzazione privata. Occorre considerare anche altre alternative di trasporto per garantire una mobilità più sostenibile ed efficace all’interno delle nostre aree urbane. Una di queste alternative è costituita dalla bicicletta, che deve essere considerata un’autentica alternativa di trasporto, che può facilmente contribuire, assieme ad altre, a ridurre l’attuale inefficiente dipendenza dall’automobile. La progettazione dei percorsi ciclo-pedonali richiede collegamenti sicuri, diretti, ben segnalati e confortevoli, che assicurino una mobilità indipendente e protetta per tutti. In questo lavoro di tesi stato proposto un questionario che ha lo scopo di dare un ritratto immediato degli utenti ciclabili che percorrono i campi prova analizzati, confrontare i risultati ottenuti e verificare quali parametri sono ritenuti di maggiore importanza per l’utente medio. Nella seconda fase e punto focale di tale lavoro di ricerca è stata svolta un’attenta analisi delle possibili scelte e problematiche di un particolare caso reale. In particolare, sono stati valutati gli elementi che il conducente del velocipede scansiona con lo sguardo durante la guida, cercando informazioni significative per la posizione spaziale e temporale in cui si trova. La ricerca è stata condotta mediante l’utilizzo della strumentazione Mobile Eye-XG che permette il rilievo in continuo dello sguardo dei conducenti durante la guida. Il campo prova riguarda il percorso “Sabotino”, composto da due itinerari situati all’interno dell’area urbana di Bologna, la Tangenziale Ovest delle biciclette e la “ciclabile vecchia” Sabotino. Dalle informazioni ricavate dall’analisi, si è cercato infine di ipotizzare delle possibili ed efficaci migliorie, che possano incentivare l’uso della bicicletta e la sicurezza nei confronti della mobilità lenta, migliorando le prestazioni della pista e aumentando gli standard.
Resumo:
Parlare di KeyCrime significa rapportarsi con un software che si fonda prioritariamente su di un metodo scientifico che fa proprio il ragionamento conclusivo (conclusive reasoning), applicato al decison making , pertanto all’intelligence investigativa e alla predictive policing. Potremmo pensare a KeyCrime come un paradigma operativo che si pone in sinergia tra la filosofia, il cognitivismo giuridico e le scienze applicate (Romeo F., 2006). Quando analisi e decision making trovano in un unico contesto il terreno fertile dove svilupparsi, ma ancor più, creare presupposti di ragionamento, ecco che da queste è facile comprendere da quale altra condizione sono nate, attivate e soprattutto utilizzate ai fini di un risultato: questa non è altro che “l’osservazione”; se ben fatta, profonda e scientifica offre una sistematica quanto utile predisposizione alle indagini, specialmente di carattere preventivo per l’anticrimine e la sicurezza.
Resumo:
Nel corso degli anni il calcio italiano, dalla storia e tradizioni invidiabili, ha perso terreno nella battaglia competitiva del calcio europeo sia per quanto riguarda il risultato sportivo sia per quanto riguarda il risultato economico. La cultura calcistica però appassiona e unisce italiani come nient’altro. Dopo decenni di prestazioni all’insegna di tutti, nell’attuale scenario l’Italia calcistica si trova in una diversa posizione, con lo sguardo verso nuovi orizzonti. Il calcio italiano professionistico avrebbe bisogno di una strategia o di un modello di successo da imitare, innanzitutto nella veste del suo campionato di punta, la Serie A, per ripartire e diventare competitiva in primo luogo nel contesto europeo molto competitivo. Nonostante tutti gli scandali e problemi di natura finanziaria che hanno caratterizzato la storia del calcio italiano – oltreché i problemi attuali, per esempio, riguardo all’età media dei giocatori di Serie A – il suo profondo bagaglio culturale calcistico rimane, in sostanza, un punto di partenza fermo senza molti paragoni al mondo. La responsabilità di sviluppare e rivitalizzare il ‘prodotto’ calcio ha bisogno di idee nuove e investimenti al pari dei competitori principali. I problemi di prima importanza da risolvere sono la moltiplicazione e la ristrutturazione del modello di ricavi e gli impianti sportivi urgentemente da privatizzare e ristrutturare per renderli moderni e più profittabili. I tifosi di calcio, che si contano in decine di milioni solo in Italia (oggi come oggi addirittura 4 italiani su 10 si definiscono “tifosi militanti”), avrebbero bisogno di un ‘prodotto’ rivitalizzato che ha conservato il suo orgoglio e le caratteristiche nazionali uniche, tra cui, la parte sana della cultura dei tifosi organizzati chiamati ‘ultras’, di cui il modo di tifare ma in parte anche il linguaggio e le caratteristiche simboliche, sono divenuti, nel corso degli anni, conosciuti e imitati in larga parte del mondo. Tuttavia, in prospettiva non si può e non si deve trascurare l’impatto e le possibili opportunità finanziarie che il sempre più ampio e crescente mercato del calcio internazionale potrebbe offrire, nonostante ne soffrisse un po’ l’identità tradizionale del calcio italiano.
Resumo:
Questo lavoro è incentrato sull'analisi e la simulazione di un ciclo Rankine a fluido organico (ORC) per la produzione di energia da calore a bassa entalpia. Il lavoro è stato svolto in collaborazione con l'università di Gent, in Belgio, in particolare grazie al Prof. De Peape e all' Ing. Steven Lecompte; il lavoro in Italia è stato coordinato dal Prof. De Pascale. L'obiettivo principale della tesi è stata la creazione un modello computazionale in grado di descrivere le prestazioni dell'impianto a carico parziale. Ogni elemento dell'impianto è stato analizzato e modellizzato secondo un approccio di simulazione originale in Matlab. I componenti ottenuti sono stati poi combinati a formare la simulazione dell'intero sistema; questa è in grado di prevedere la potenza prodotta ed il rendimento del ciclo al variare delle condizioni esterne. I risultati ottenuti dalle simulazioni sono stati poi confrontati con i dati sperimentali raccolti sull'impianto di prova dell'Università. Questo confronto dimostra un buon accordo dei risultati previsti con quelli misurati. L'errore relativo massimo ottenuto per la potenza elettrica è sotto il 7%, così come quello sul rendimento; Gli errori relativi a pressione ed entalpie sono in genere sotto il 5%. Il modello può perciò dirsi validato e rappresenta un valido strumento di analisi per comprendere la risposta ai carichi parziali anche al di fuori del range di calibrazione. Il modello è stato infine utilizzato per costruire delle mappe del carico parziale e analizzare l'influenza delle variabili del ciclo. Ulteriori applicazioni delle mappe prodotte sono proposte a fine del lavoro.
Resumo:
Negli ultimi anni, lo scenario di crescente competizione su cui si affaccia il mercato ha spinto le aziende a interessarsi sempre più frequentemente all’ingegneria della manutenzione, allo scopo di avvalersi di tecniche che permettano di pianificare strategie di manutenzione per i sistemi produttivi che siano efficaci nel minimizzare i costi di gestione garantendo prestazioni e livelli di sicurezza elevati. Le tecniche analitiche tipiche dell’ingegneria della manutenzione sono nate in settori industriali che richiedono elevati livelli di progresso tecnologico (aeronautico, nucleare), e si basano su ipotesi specifiche stringenti, che risultano limitanti nel panorama sempre più vasto ed eterogeneo in cui ne si richiede l’applicazione. D’altra parte, la rimozione di tali ipotesi rende necessario il ricorso a tecniche di risoluzione numeriche. In questa tesi si definisce un nuovo modello che permetta di caratterizzare un sistema di produzione tenendo conto di tutti i possibili aspetti di interesse nell’ambito dell’ingegneria della manutenzione. Inoltre, sono descritti gli algoritmi definiti per la risoluzione di tale modello.
Resumo:
I materiali bioceramici, in base alla loro capacità d’interazione con l’osso e i tessuti del corpo umano, possono essere classificati in bioinerti e bioattivi. I materiali bioinerti, una volta impiantati, formano uno strato fibroso, non aderente, all’interfaccia con l’osso. Tale strato è una forma naturale di protezione che l’organismo adotta per isolare il materiale che viene, inizialmente, percepito come estraneo. Al contrario, i materiali bioattivi, una volta impiantati, mostrano una risposta biologica immediata, creando un legame attivo con l’osso e i tessuti nel quale vengono impiantati, favorendo e velocizzando la guarigione. La zirconia è un materiale ceramico altamente biocompatibile, definito come bioinerte per la sua scarsa capacità d’integrazione con l’osso ed i tessuti dell’organismo umano. Questa sua particolarità può, nel lungo termine, comprometterne la funzione fino ad arrivare, in alcuni casi, al totale malfunzionamento dell’impianto. Negli ultimi anni, diversi studi sono stati condotti con lo scopo di aumentare la capacità di biointegrazione della zirconia ed alcuni brevetti sono stati depositati. L’obiettivo del presente lavoro è quello di condurre un’analisi bibliografica ed una ricerca brevettuale sul tema dei coating bioattivi su zirconia per impianti dentali ed ortopedici. La necessità di condurre questo studio deriva dalla crescente richiesta di utilizzo della zirconia, in particolare, nel settore dentale. La zirconia rappresenta, infatti, ad oggi, il migliore candidato per la sostituzione dei metalli negli impianti dentali. Le buone proprietà meccaniche, l’eccellente biocompatibilità e l’aspetto estetico molto simile a quello dei denti naturali, rendono questo materiale particolarmente adatto a questo genere di applicazioni. La possibilità di rendere la sua superficie bioattiva rappresenta un importante miglioramento delle prestazioni in termini di biointegrazione, durabilità, sicurezza ed affidabilità.
Resumo:
In questa tesi vengono analizzati i principi fisici che stanno alla base dei dispositivi ottici di misura di tensioni e di correnti e, in particolare, vengono presentate le differenti soluzioni tecnologiche investigate dai produttori. La trattazione si concentra principalmente sulle tecniche di misura polarimetriche, che riguardano mutamenti indotti nello stato di polarizzazione della luce, mentre essa viaggia attraverso una fibra ottica, a causa di fenomeni esterni di interesse (come campi magnetici o elettrici). Le tecniche ottiche di misura, in futuro, avranno ruoli sempre più predominanti nel settore della fornitura di energia elettrica, dove offrono miglioramenti in sensibilità e prestazioni, rispetto ai convenzionali sistemi, riducendo inoltre i costi grazie alla minima richiesta di isolamento. Esistono, però, ancora dei problemi da risolvere come l'influenza della temperatura ambientale nella misura o l'affidabilità dei dispositivi per lunghi funzionamenti.
Resumo:
L'analisi di questa tesi si basa sui dati ottenuti contattando direttamente le aziende produttrici e/o di progettazione e riguarda due settori energetici: la cogenerazione e il solare fotovoltaico. Nel primo si sono studiate 60 unità complete di cogenerazione il cui studio si è basato sulla costruzione di grafici che mettono in relazione le potenze uscenti con il prezzo. Si è mostrato così la forte presenza di un fenomeno di economia di scala e la diversa ripartizione della potenza prodotta. Per unità di piccola-media potenza predomina la produzione di energia termica, la quale diminuisce la sua quota percentuale all’aumentare della taglia. Nel settore del solare fotovoltaico l’analisi è stata più diversificata e articolata. Si sono analizzati 70 pannelli di cui 35 monocristallini, 14 europei e 21 asiatici, e 35 policristallini, 26 europei e 9 asiatici, per i quali si sono graficati gli andamenti di resa, potenza specifica e costo specifico. I pannelli monocristallini, intrinsecamente più efficienti grazie al maggior grado di purezza, presentano un andamento crescente dei costi piuttosto ripido anche se non proporzionale con l’aumento delle prestazioni. Tra i pannelli policristallini invece si evidenzia l’assenza di un andamento nettamente crescente delle prestazioni all’aumentare dei costi. Confrontando i moduli divisi in base alla macro-regione di produzione si nota che l’Asia produce i pannelli al Si monocristallino più efficienti e più costosi mentre pannelli al Si policristallino più economici, ma con prestazioni in linea con quelli europei.Con i dati raccolti si è potuta svolgere anche una ristretta analisi sui pannelli al film sottile. Quelli che utilizzano il Si amorfo presentano prestazioni così basse da non permettere loro una vera affermazione sul mercato. Quest’ultima si presume che sarà invece possibile per pannelli basati su diversi materiali semiconduttori che presentano buoni livelli di prestazioni, ma prezzi ancora troppo elevati.
Resumo:
In questo lavoro si analizza il rendimento isoentropico di diversi espansori adottati all’interno di sistemi micro-ORC (Organic Rankine Cycle). Si parte da una descrizione generale dei sistemi ORC, mettendone in evidenza le principali caratteristiche, il layout tipico, le differenze rispetto ad un ciclo Rankine tradizionale, e gli ambiti di utilizzo. Si procede ad una trattazione teorica del rendimento isoentropico del compressore e dell’espansore, specificando le ipotesi adottate nei calcoli e mettendo in luce la relazione tra rendimento isoentropico e politropico nell’uno e nell’altro apparato. Si passa poi alla descrizione delle quattro principali tipologie di espansori presenti in letteratura: scroll, screw, vane e piston, e si prosegue con l'analisi nel dettaglio della letteratura relativa alla valutazione dell’efficienza di questi quando utilizzati all’interno di un sistema micro-ORC. Infine, dopo aver descritto il sistema ORC del laboratorio di via Terracini del DIN, illustrandone layout, componenti principali, potenza scambiata all’interno dei componenti e modalità di calcolo adottata per la valutazione del rendimento isoentropico dell’espansore e del sistema complessivo, si confrontano i dati di efficienza di questo con quelli reperiti in letteratura. Il confronto del rendimento, dell'espansore e complessivo, del sistema del DIN, 33.8% e 1,818% rispettivamente, con quelli degli altri sistemi, è risultato di difficilmente valutazione a causa delle condizioni di forte off-design del sistema stesso. Dalla ricerca è inoltre emerso che i fluidi più utilizzati nella sperimentazione, e dunque capaci di migliori prestazioni, sono R245fa, R134a e R123. Per quel che riguarda infine gli espansori, nel range di potenza di 1-10 kW, lo scroll risulta essere il migliore.
Resumo:
Il presente elaborato esplora l’attitudine delle organizzazioni nei confronti dei processi di business che le sostengono: dalla semi-assenza di struttura, all’organizzazione funzionale, fino all’avvento del Business Process Reengineering e del Business Process Management, nato come superamento dei limiti e delle problematiche del modello precedente. All’interno del ciclo di vita del BPM, trova spazio la metodologia del process mining, che permette un livello di analisi dei processi a partire dagli event data log, ossia dai dati di registrazione degli eventi, che fanno riferimento a tutte quelle attività supportate da un sistema informativo aziendale. Il process mining può essere visto come naturale ponte che collega le discipline del management basate sui processi (ma non data-driven) e i nuovi sviluppi della business intelligence, capaci di gestire e manipolare l’enorme mole di dati a disposizione delle aziende (ma che non sono process-driven). Nella tesi, i requisiti e le tecnologie che abilitano l’utilizzo della disciplina sono descritti, cosi come le tre tecniche che questa abilita: process discovery, conformance checking e process enhancement. Il process mining è stato utilizzato come strumento principale in un progetto di consulenza da HSPI S.p.A. per conto di un importante cliente italiano, fornitore di piattaforme e di soluzioni IT. Il progetto a cui ho preso parte, descritto all’interno dell’elaborato, ha come scopo quello di sostenere l’organizzazione nel suo piano di improvement delle prestazioni interne e ha permesso di verificare l’applicabilità e i limiti delle tecniche di process mining. Infine, nell’appendice finale, è presente un paper da me realizzato, che raccoglie tutte le applicazioni della disciplina in un contesto di business reale, traendo dati e informazioni da working papers, casi aziendali e da canali diretti. Per la sua validità e completezza, questo documento è stata pubblicato nel sito dell'IEEE Task Force on Process Mining.
La passivhaus in clima mediterraneo: caratteristiche costruttive e simulazioni energetiche dinamiche
Resumo:
Questa Tesi approfondisce lo standard Passivhaus, un metodo sviluppato originariamente in Germania nella seconda metà degli anni ’80 ed ora diffuso in tutta Europa, con l’obiettivo di favorire la realizzazione di edifici in grado di fornire ottimi livelli di comfort con consumi energetici pari quasi a zero. Questo standard abitativo mi ha appassionato a tal punto che ho deciso di farne oggetto della mia tesi di laurea. Da diversi anni stiamo assistendo ad una serie di mutamenti climatici che stanno modificando la vita sul nostro pianeta e portano a considerare tutta una serie di cambiamento sul nostro modo di vivere. La casa passiva, a mio parere, è un concetto valido e utile a contenere questa situazione. In altre zone d’Europa, con climi invernali rigidi ma condizioni estive meno gravose delle nostre, è uno standard piuttosto diffuso e qui cercherò di formulare un’analisi quanto più vicina alla realtà riguardo all’adattabilità della Passivhaus al nostro clima. Lo scopo è quello di capire come si comporta questo tipo di edifici in ambienti climatici diversi da quelli per cui lo standard è stato progettato. Per verificarne l’efficacia, verrà studiato nel dettaglio il primo edificio residenziale multipiano recentemente costruito a Cesena e certificato Passivhaus. Successivamente, sarà simulata la realizzazione dello stesso edificio in dieci diverse località italiane, con differenti condizioni climatiche, e ne saranno verificate le prestazioni energetiche tramite un software di modellazione in regime dinamico. Se risulterà necessario a seguito delle verifiche, saranno progettate le modifiche alle soluzioni costruttive che permettano di raggiungere i livelli previsti dallo standard Passivhaus in tutte le località. I risultati della simulazione saranno infine confrontati e commentati nella parte conclusiva della Tesi.
Resumo:
I mondi di Smart City e Internet-of-Things si stanno ampliando notevolmente grazie all'evoluzione continua delle tecnologie. Tuttavia risultano escluse dall'ambito di interesse le zone rurali e decentralizzate perché spesso prive di un'infrastruttura di rete ben definita. A fronte di questo problema, i dispositivi che si trovano in queste zone potrebbero auto-organizzarsi per comunicare instaurando collegmenti di tipo peer-to-peer e utilizzando protocolli di disseminazione di informazioni basati su gossip. In questa tesi sono trattate le seguenti questioni e mediante alcune simulazioni al calcolatore sono riprodotti alcuni scenari per valutare le prestazioni degli algoritmi di Gossip with Fixed Probability e Conditional Broadcast e la diffusione delle informazioni tra i nodi all'interno di una rete creata in maniera opportunistica.
Resumo:
Il presente lavoro di tesi nasce in seguito all’esperienza di tirocinio svolta presso l’Arcispedale Santa Maria Nuova di Reggio Emilia. Fulcro di questo lavoro è lo sviluppo di un sistema di pianificazione della dose per il trattamento dei pazienti sottoposti a Molecular Radionuclide Therapy (MRT). Presso tale struttura ospedaliera è già stato sviluppato uno strumento che si appoggia all’ambiente di lavoro Matlab per il calcolo dosimetrico. Tale programma è chiamato VoxelMed. Si tratta di uno strumento di calcolo che lavora al così detto voxel-level, tecnica di sviluppo recente che permette il calcolo della dose assorbita all’interno di un paziente in modo più dettagliato rispetto ai metodi di calcolo basati unicamente sulla stima media per organo, tipicamente impiegati in dosimetria tradizionale. Parte del lavoro di tesi consiste nell’implementare nuove modalità di calcolo ed aggiungere ulteriori accorgimenti all’attuale versione di VoxelMed. In VoxelMed è stata poi integrata ex-novo una componente di calcolo di misure radiobiologiche, in particolare della BED. La dose assorbita non è infatti un parametro sufficiente per valutare gli effetti della radiazione sui tessuti, a parità di tipo ed energia della radiazione gli effetti possono essere molto variabili. La BED è il parametro che tiene conto della risposta del tessuto sano o cancerogeno alla radiazione. Parte del lavoro è stato svolto sperimentalmente, tramite misure con fantocci acquisiti o preparati ad hoc. In particolare si sono utilizzati diverse tipologie di fantocci, per effettuare protocolli di calibrazione dei sistemi di acquisizione, misure di curve di effetto di volume parziale e test finali di verifica. Per un ulteriore verifica delle prestazioni di calcolo si sono effettuate misurazioni su un gruppo di pazienti e si sono confrontati i risultati con quelli ottenuti dal software maggiormente utilizzato nella pratica clinica, OLINDA/EXM.
Resumo:
I semiconduttori organici sono alla base dell'elettronica organica, un campo di ricerca che negli ultimi anni ha coinvolto diversi gruppi di lavoro, sia a livello accademico che industriale. Diversi studi hanno portato all'idea di impiegare materiali di questo tipo come detector di raggi X, sfruttando la loro flessibilità meccanica, la facile fabbricazione di dispositivi su larga area e tramite tecniche a basso costo (es. stampa a getto di inchiostro) e le basse tensioni operative. In questa tesi in particolare si utilizzeranno degli OFET (Organic Field-Effect Transistor) a questo scopo, dimostrando la possibilità amplificare la sensibilità alla radiazione X e di pilotare le prestazioni del detector mediante l'applicazione della tensione all'elettrodo di gate. Presenteremo quindi uno studio sperimentale atto a caratterizzare elettricamente dei transistor realizzati con differenti semiconduttori organici, prima, durante e dopo l'esposizione a raggi X, in maniera da stimarne la sensibilità, le proprietà di conduzione intrinseche e la resistenza all'invecchiamento.
Resumo:
Las enfermedades huérfanas en Colombia, se definen como aquellas crónicamente debilitantes, que amenazan la vida, de baja prevalencia (menor 1/5000) y alta complejidad. Se estima que a nivel mundial existen entre 6000 a 8000 enfermedades raras diferentes(1). Varios países a nivel mundial individual o colectivamente, en los últimos años han creado políticas e incentivos para la investigación y protección de los pacientes con enfermedades raras. Sin embargo, a pesar del creciente número de publicaciones; la información sobre su etiología, fisiología, historia natural y datos epidemiológicos persiste escasa o ausente. Los registros de pacientes, son una valiosa herramienta para la caracterización de las enfermedades, su manejo y desenlaces con o sin tratamiento. Permiten mejorar políticas de salud pública y cuidado del paciente, contribuyendo a mejorar desenlaces sociales, económicos y de calidad de vida. En Colombia, bajo el decreto 1954 de 2012 y las resoluciones 3681 de 2013 y 0430 de 2013 se creó el fundamento legal para la creación de un registro nacional de enfermedades huérfanas. El presente estudio busca determinar la caracterización socio-demográfica y la prevalencia de las enfermedades huérfanas en Colombia en el periodo 2013. Métodos: Se realizó un estudio observacional de corte transversal de fuente secundaria sobre pacientes con enfermedades huérfanas en el territorio nacional; basándose en el registro nacional de enfermedades huérfanas obtenido por el Ministerio de Salud y Protección Social en el periodo 2013 bajo la normativa del decreto 1954 de 2012 y las resoluciones 3681 de 2013 y 0430 de 2013. Las bases de datos obtenidas fueron re-categorizadas en Excel versión 15.17 para la extracción de datos y su análisis estadístico posterior, fue realizado en el paquete estadístico para las ciencias sociales (SPSS v.20, Chicago, IL). Resultados: Se encontraron un total de 13173 pacientes con enfermedades huérfanas para el 2013. De estos, el 53.96% (7132) eran de género femenino y el 46.03% (6083) masculino; la mediana de la edad fue de 28 años con un rango inter-cuartil de 39 años, el 9% de los pacientes presentaron discapacidad. El registro contenía un total de 653 enfermedades huérfanas; el 34% del total de las enfermedades listadas en nuestro país (2). Las patologías más frecuentes fueron el Déficit Congénito del Factor VIII, Miastenia Grave, Enfermedad de Von Willebrand, Estatura Baja por Anomalía de Hormona de Crecimiento y Displasia Broncopulmonar. Discusión: Se estimó que aproximadamente 3.3 millones de colombianos debían tener una enfermedad huérfana para el 2013. El registro nacional logró recolectar datos de 13173 (0.4%). Este bajo número de pacientes, marca un importante sub-registro que se debe al uso de los códigos CIE-10, desconocimiento del personal de salud frente a las enfermedades huérfanas y clasificación errónea de los pacientes. Se encontraron un total de 653 enfermedades, un 34% de las enfermedades reportadas en el listado nacional de enfermedades huérfanas (2) y un 7% del total de enfermedades reportadas en ORPHANET para el periodo 2013 (3). Conclusiones: La recolección de datos y la sensibilización sobre las enfermedades huérfanas al personal de salud, es una estrategia de vital importancia para el diagnóstico temprano, medidas específicas de control e intervenciones de los pacientes. El identificar apropiadamente a los pacientes con este tipo de patologías, permite su ingreso en el registro y por ende mejora el sub-registro de datos. Sin embargo, cabe aclarar que el panorama ideal sería, el uso de un sistema de recolección diferente al CIE-10 y que abarque en mayor medida la totalidad de las enfermedades huérfanas.