1000 resultados para algoritmo calcolo taglie pazienti traiettorie Scout validazione
Greenow: um algoritmo de roteamento orientado a workspace para uma arquitetura de Internet do futuro
Resumo:
Current and future applications pose new requirements that Internet architecture is not able to satisfy, like Mobility, Multicast, Multihoming, Bandwidth Guarantee and so on. The Internet architecture has some limitations which do not allow all future requirements to be covered. New architectures were proposed considering these requirements when a communication is established. ETArch (Entity Title Architecture) is a new Internet architecture, clean slate, able to use application’s requirements on each communication, and flexible to work with several layers. The Routing has an important role on Internet, because it decides the best way to forward primitives through the network. In Future Internet, all requirements depend on the routing. Routing is responsible for deciding the best path and, in the future, a better route can consider Mobility aspects or Energy Consumption, for instance. In the dawn of ETArch, the Routing has not been defined. This work provides intra and inter-domain routing algorithms to be used in the ETArch. It is considered that the route should be defined completely before the data start to traffic, to ensure that the requirements are met. In the Internet, the Routing has two distinct functions: (i) run specific algorithms to define the best route; and (ii) to forward data primitives to the correct link. In traditional Internet architecture, the two Routing functions are performed in all routers everytime that a packet arrives. This work allows that the complete route is defined before the communication starts, like in the telecommunication systems. This work determined the Routing for ETArch and experiments were performed to demonstrate the control plane routing viability. The initial setup before a communication takes longer, then only forwarding of primitives is performed, saving processing time.
Resumo:
A lo largo de la historia, nuestro planeta ha atravesado numerosas y diferentes etapas. Sin embargo, desde finales del cretácico no se vivía un cambio tan rápido como el actual. Y a la cabeza del cambio, nosotros, el ser humano. De igual manera que somos la causa, debemos ser también la solución, y el análisis a gran escala de la tierra está siendo un punto de interés para la comunidad científica en los últimos años. Prueba de ello es que, cada vez con más frecuencia, se lanzan gran cantidad de satélites cuya finalidad es el análisis, mediante fotografías, de la superficie terrestre. Una de las técnicas más versátiles para este análisis es la toma de imágenes hiperespectrales, donde no solo se captura el espectro visible, sino numerosas longitudes de onda. Suponen, eso sí un reto tecnológico, pues los sensores consumen más energía y las imágenes más memoria, ambos recursos escasos en el espacio. Dado que el análisis se hace en tierra firme, es importante una transmisión de datos eficaz y rápida. Por ello creemos que la compresión en tiempo real mediante FPGAs es la solución idónea, combinando un bajo consumo con una alta tasa de compresión, posibilitando el análisis ininterrumpido del astro en el que vivimos. En este trabajo de fin de grado se ha realizado una implementación sobre FPGA, utilizando VHDL, del estándar CCSDS 123. Este está diseñado para la compresión sin pérdida de imágenes hiperespectrales, y permite una amplia gama de configuraciones para adaptarse de manera óptima a cualquier tipo de imagen. Se ha comprobado exitosamente la validez de la implementación comparando los resultados obtenidos con otras implementaciones (software) existentes. Las principales ventajas que presentamos aquí es que se posibilita la compresión en tiempo real, obteniendo además un rendimiento energético muy prometedor. Estos resultados mejoran notablemente los de una implementación software del algoritmo, y permitirán la compresión de las imágenes a bordo de los satélites que las toman.
Resumo:
Esta dissertação apresenta um trabalho sobre codificação de vídeo 3D compatível com vídeo 2D. Tem por base o desenvolvimento de um método para melhorar, no descodificador, a reconstrução de uma vista subamostrada resultante de uma transmissão simulcast usando a norma de codificação de vídeo H.265 (informalmente denominada de High Efficiency Video Coding (HEVC)). Apesar de manter a compatibilidade com vídeo 2D a transmissão simulcast normalmente requer uma taxa de transmissão elevada. Na ausência de ferramentas de codificação 3D adequadas é possível reduzir a taxa de transmissão utilizando compressão assimétrica do vídeo, onde a vista base é codificada com a resolução espacial original, enquanto que a vista auxiliar é codificada com uma resolução espacial menor, sendo sobreamostrada no descodificador. O método desenvolvido visa melhorar a vista auxiliar sobreamostrada no descodificador utilizando informação dos detalhes da vista base, ou seja, as componentes de alta frequência. Este processo depende de transformadas Afim para realizar um mapeamento geométrico entre a informação de alta frequência da vista base de resolução completa e a vista auxiliar de menor resolução. Adicionalmente, de modo a manter a continuidade do conteúdo da imagem entre regiões, evitando artefatos de blocos, o mapeamento utiliza uma malha de triangulação da vista auxiliar aplicado à imagem de detalhes obtida a partir da vista base. A técnica proposta é comparada com um método de estimação de disparidade por correspondência de blocos, sendo que os resultados mostram que para algumas sequências a técnica desenvolvida melhora não só a qualidade objetiva (PSNR) até 2.2 dB, mas também a qualidade subjetiva, para a mesma taxa de compressão global.
Resumo:
Gli autovalori giocano un ruolo fondamentale in moltissimi fenomeni fisici. La localizzazione degli autovalori di una certa matrice nel piano complesso, ad esempio, è fondamentale nello studio della stabilità degli aerei. Le frequenze delle vibrazioni dei fasci sono sostanzialmente gli autovalori di una matrice di dimensione infinita. Questo rende il calcolo degli autovalori un problema notevolmente importante. Tra i metodi iterativi noti per l'approssimazione degli autovalori vi è il metodo delle potenze, utilizzato per il calcolo dell'autovalore dominante (autovalore di modulo massimo) di una matrice data e del relativo autovettore associato. Affinchè l'algoritmo converga è necessario che ci sia un autovalore dominante e, in particolare, più l'autovalore dominante è staccato dal resto dello spettro, maggiore sarà la sua velocità di convergenza. Il metodo delle potenze e le sue varianti (metodo delle potenze inverse e metodo delle potenze inverse shiftate) sono molto usati nelle applicazioni, in cui spesso non si è interessati ad approssimare tutti gli autovalori dello spettro, ma solo alcuni. Le equazioni del moto in dinamica strutturale, problemi di ingegneria strutturale e problemi relativi all'informatica (come l'algoritmo di PageRank di Google) sono solo alcuni esempi di applicazioni possibili di tale metodo.
Resumo:
Nell'elaborato, dopo una breve descrizione di come vengono suddivise le macchine elettriche a seconda che vi siano o meno parti in movimento al loro interno, vengono esaminati inizialmente gli aspetti teorici che riguardano le macchine sincrone a poli lisci ed a poli salienti prendendo in esame anche quelli che sono i provvedimenti necessari a ridurre il contributo dei campi armonici di ordine superiore. Per questo tipo di macchine, spesso utilizzate in centrale per la pruduzione dell'energia elettrica, risultano di fondamentale importanza le curve a "V" e le curve di "Capability". Esse sono strumenti che permettono di valutare le prestazioni di tali macchine una volta che siano noti i dati di targa delle stesse. Lo scopo della tesi è pertanto quello di sviluppare un software in ambiente Matlab che permetta il calcolo automatico e parametrico di tali curve al fine di poter ottimizzare la scelta di una macchina a seconda delle esigenze. Nel corso dell'eleaborato vengono altresì proposti dei confronti su come varino tali curve, e pertanto i limiti di funzionamento ad esse associati, al variare di alcuni parametri fondamentali come il fattore di potenza, la reattanza sincrona o, nel caso di macchine a poli salienti, il rapporto di riluttanza. Le curve di cui sopra sono state costruite a partire da considerazioni fatte sul diagramma di Behn-Eschemburg per le macchine isotrope o sul diagramma di Arnold e Blondel per le macchine anisotrope.
Resumo:
Questa tesi riguarda il problema della schedulazione degli interventi nel blocco operatorio di un presidio ospedaliero, noto anche come Operating Theatre Planning & Scheduling. Il blocco operatorio è la struttura che eroga servizi a più alto impatto sui costi di un presidio ospedaliero ed è legato ad attività ad alto rischio. E' quindi fondamentale gestire in modo ottimale questa risorsa. In questa tesi, si considera come caso studio l'applicazione reale di un presidio ospedaliero dell'Emilia Romagna con un orizzonte temporale di una settimana, ovvero la cosiddetta programmazione operativa. L'obiettivo è quello di ottenere un utilizzo efficiente del blocco operatorio, garantendo al contempo la priorità agli interventi più urgenti. Data la complessità del problema, vengono proposti algoritmi euristici che permettano di ottenere buone soluzioni in tempi di calcolo ridotti. Studi precedenti hanno infatti evidenziato la difficoltà di trovare soluzioni ottime al problema, mediante l'utilizzo di solver commerciali per modelli di Programmazione Lineare Intera, senza introdurre ipotesi semplificative. Sono stati elaborati tre algoritmi euristici costruttivi di tipo multi-start che permettono di generare soluzioni ammissibili con diverse caratteristiche. Gli algoritmi si differenziano principalmente per le modalità con cui collocano gli interventi nel tempo disponibile delle risorse (induction room, operating room, recovery room), cercando di migliorarne l’utilizzazione e dando priorità ai pazienti più urgenti. Gli algoritmi sono stati implementati utilizzando il linguaggio JAVA e sono stati testati su istanze realistiche fornite dal presidio ospedaliero. I risultati hanno evidenziato un alto grado di utilizzazione delle sale operatorie, un fattore molto rilevante per una ottimale gestione del blocco operatorio. E' stata, infine, svolta un'analisi di sensitività alla variabilità delle durate.
Resumo:
Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).
Resumo:
Le prestazioni dei motori a combustione interna sono fortemente influenzate dalla formazione di un film fluido, a seguito dell'impatto di uno spray con una parete. Nell'ottica di favorire la formazione della miscela e di ridurre le emissioni, lo studio approfondito di tale fenomeno deve essere supportato da un processo di simulazione assistita dal calcolatore. Pertanto, la Fluidodinamica Computazionale (Computational Fluid Dynamics, CFD) ed i modelli ad essa associati rappresentano al giorno d'oggi uno strumento vantaggioso e sempre più utilizzato. In questo ambito si colloca il presente lavoro di tesi, che si propone di validare il modello di film fluido implementato nel software OpenFOAM-2.3.0, confrontando i risultati ottenuti, in termini di altezza del film fluido, con quelli del caso sperimentale di Le Coz et al.
Resumo:
La tesi descrive la mia esperienza di tirocinio presso l'azienda Marchesini Group, inserito all'interno dell'Ufficio Validazione Impianti. Dopo un'introduzione sul tema della qualità e dell'affidabilità, della loro evoluzione e della loro rilevanza nel mercato odierno, il cuore dell'elaborato descrive il progetto condotto all'interno dell'azienda. In particolare, la descrizione di uno strumento di standardizzazione per la compilazione di documenti di validazione. Infine è presente un modello di simulazione (realizzato con il software Arena Simulation) per l'analisi di congestioni e colli di bottiglia del macro processo di validazione. Lo stesso modello è stato poi utilizzato per lo studio del sistema dopo l'introduzione dello strumento standard.
Resumo:
La caratterizzazione del parenchima polmonare è un aspetto cruciale per l’identificazione dell’enfisema e dell’air trapping in pazienti affetti da broncopneumopatia cronica ostruttiva (BPCO). L’innovazione presente in questo lavoro di tesi è quella di utilizzare a questo scopo l’analisi tessiturale mediante il metodo delle matrici di co-occorrenza su immagini di tomografia computerizzata (TC) acquisite in inspirio ed espirio co-registrate. La co-registrazione che ha portato le immagini acquisite in espirio sullo stesso sistema di riferimento di quelle acquisite in inspirio è avvenuta utilizzando la trasformazione diffeomorfa B-Spline SyN, implementata nel software ANTs, ed è stata applicata sia alle immagini TC che alle features estratte da esse. Dalle matrici di co-occorrenza è stata calcolata la feature Energia, che misura l’uniformità dei livelli di grigio contenuti nell’immagine, e quindi la sua omogeneità. Partendo dal fatto che le aree parenchimali affette da enfisema e air trapping hanno alti livelli di omogeneità dovuti alla presenza dell’aria intrappolata al loro interno, l’idea alla base di questo lavoro è stata quella di identificare queste aree attraverso gli alti valori che l’Energia assume in loro corrispondenza. Sono state quindi stabilite sperimentalmente alcune soglie basate sui valori assunti dall’Energia in inspirio e in espirio. Sulla base di queste il parenchima polmonare è stato clusterizzato in diverse aree identificanti i tessuti sani, quelli affetti da enfisema e quelli affetti dall’air trapping. La clusterizzazione ottenuta è risultata coerente con la reale distribuzione dell’enfisema e dell’air trapping nei pazienti analizzati, dimostrando la validità della tecnica utilizzata e aprendo nuovi scenari futuri alla caratterizzazione del parenchima polmonare in questa patologia.
Resumo:
L’idrocefalo normoteso idiopatico (iNPH) è una patologia che si sviluppa in età senile ed è caratterizzata da un insieme di sintomi generici tra cui disturbi della marcia che rendono difficoltosa la diagnosi. La presente attività di tesi mira ad identificare parametri motori specificamente alterati in pazienti affetti da iNPH rispetto a pazienti con sintomatologie simili, che siano quindi un possibile ausilio alla diagnosi differenziale oltre ad essere sensibili all’intervento terapeutico. Trenta pazienti hanno preso parte allo studio (15 idrocefali, 9 misti e 6 con altre patologie) e sono stati valutati pre, post 24h e post 72h rispetto ad un intervento di drenaggio di liquor cefalorachidiano (CSF tapping). Ciascun paziente, ad ogni valutazione ha eseguito due task motori standardizzati: l’instrumented 18m walk (i18W) e l’instrumented Timed Up and Go (iTUG). Il metodo proposto è stato in grado di estrapolare i parametri prefissati da tali prove e quindi fornire un report dettagliato del singolo paziente. Successivamente, l’analisi statistica eseguita tra pazienti appartenenti allo stesso gruppo (intra gruppo) e quella tra pazienti di gruppi diversi (inter gruppo) ha mostrato un complessivo trend di miglioramento delle performance per i soli soggetti con diagnosi di idrocefalo o con alcuni segni clinici caratteristici di idrocefalo. I pazienti affetti da altre patologie, come si era ipotizzato, non subiscono sostanziali cambiamenti a seguito dell’intervento.
Resumo:
Nel trattamento e nella cura di pazienti con lesione spinale è fondamentale una corretta valutazione della lesione e delle disfunzionalità che questa produce. Il cammino è senza dubbio una delle funzionalità maggiormente ridotta a seguito di una lesione, che può portare sia ad una diminuzione di questa capacità sia ad una completa inabilità. Nella valutazione del cammino il clinico si avvale di diverse strumentazioni come sistemi stereofotogrammetrici, pedane di forza ed elettromiografi che gli permettono di svolgere un’analisi strumentale del passo ed indagare le cause muscolari e neurologiche che portano a delle anormalità nella deambulazione. Questo lavoro si propone di presentare questi sistemi e compiere una panoramica dei principali parametri cinematici (velocità del cammino, lunghezza del passo, fase di stance, angoli articolari, ciclogrammi intra-articolari) che influenzano il passo e le metodologie con più successo nel migliorarli. Inoltre verranno evidenziati i risultati ottenuti dall’analisi elettromiografica riguardo alla presenza di pattern muscolari comuni alla base del cammino riscontrabili anche in persone sane e come gli impulsi EMG siano modulabili in ampiezza e durata a seguito di training motori.
Resumo:
L’elaborato propone una descrizione generale dei dispositivi protesici transtibiali, dalla storia, al processo di protesizzazione dei pazienti amputati alla struttura costitutiva modulare. Particolare importanza viene, inoltre, conferita all’analisi biomeccanica del movimento, della quale è data descrizione delle tecniche, della strumentazione, e dei risultati che vengono ottenuti nelle indagini di soggetti amputati rispetto alle persone normodotate. Considerazioni sulla biomeccanica di pazienti protesizzati transtibialmente offrono interessanti spunti di riflessione sulle componenti meccaniche, idrauliche ed elettroniche dei dispositivi modulari, delle quali si descrive in modo completo la struttura e il funzionamento, facendo riferimento ai brevetti tecnici più noti. Verranno, infine, riportati risultati di recenti studi e ricerche che evidenziano come l’utilizzo nei moduli prostesici transtibiali di caviglie idrauliche a controllo elettronico dello smorzamento sia la soluzione ottimale per ottenere risultati biomeccanicamente migliori, sia dal punto di vista dell’efficienza del movimento che per quanto riguarda l’equilibrio.
Resumo:
En este artículo presentamos un algoritmo híbrido para una variante del problema de la siguiente versión (NRP). En esta variante existe un conjunto de requisitos para los que se dispone de una estimación del esfuerzo necesario para su implementación y de la satisfacción percibida por los potenciales clientes con la inclusión de dichos requisitos. Entre estos requisitos existen relaciones de interdependencia, que establecen a ciertos requisitos como prerequisitos de otros, o que obligan a implementar determinados requisitos simultáneamente en caso de incluirse alguno de ellos en la siguiente versión del producto a desarrollar. Dado un límite superior de esfuerzo prefijado, el objetivo es seleccionar un subconjunto de requisitos que cumpla todas las restricciones y maximice la satisfacción global de los clientes. La propuesta combina heurísticas con técnicas exactas para una versión simplificada del problema. El rendimiento del algoritmo resultante en distintos escenarios realistas se compara con el de otras técnicas metaheurísticas previamente empleadas
Resumo:
Scopo del presente lavoro è la presentazione del codice di calcolo semplificato adoperato nella sezione “Simulatore fotovoltaico” presente sul portale www.energia.cnr.it del progetto CNR ENERGY+. Utilizzando i valori reali di radiazione solare misurati dalle stazioni meteorologiche installate presso alcune sedi del CNR il codice, con appropriati algoritmi, generala scomposizione della radiazione sul piano orizzontale e su superfici inclinate e variamente orientate, in modo da pervenire alla potenza prodotta da un ipotetico impianto fotovoltaico posto sullo stesso sito di ubicazione della stazione.