943 resultados para orientamento :: 396 :: Percorso sistemi elettronici per applicazioni biomediche


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le tecniche di next generation sequencing costituiscono un potente strumento per diverse applicazioni, soprattutto da quando i loro costi sono iniziati a calare e la qualità dei loro dati a migliorare. Una delle applicazioni del sequencing è certamente la metagenomica, ovvero l'analisi di microorganismi entro un dato ambiente, come per esempio quello dell'intestino. In quest'ambito il sequencing ha permesso di campionare specie batteriche a cui non si riusciva ad accedere con le tradizionali tecniche di coltura. Lo studio delle popolazioni batteriche intestinali è molto importante in quanto queste risultano alterate come effetto ma anche causa di numerose malattie, come quelle metaboliche (obesità, diabete di tipo 2, etc.). In questo lavoro siamo partiti da dati di next generation sequencing del microbiota intestinale di 5 animali (16S rRNA sequencing) [Jeraldo et al.]. Abbiamo applicato algoritmi ottimizzati (UCLUST) per clusterizzare le sequenze generate in OTU (Operational Taxonomic Units), che corrispondono a cluster di specie batteriche ad un determinato livello tassonomico. Abbiamo poi applicato la teoria ecologica a master equation sviluppata da [Volkov et al.] per descrivere la distribuzione dell'abbondanza relativa delle specie (RSA) per i nostri campioni. La RSA è uno strumento ormai validato per lo studio della biodiversità dei sistemi ecologici e mostra una transizione da un andamento a logserie ad uno a lognormale passando da piccole comunità locali isolate a più grandi metacomunità costituite da più comunità locali che possono in qualche modo interagire. Abbiamo mostrato come le OTU di popolazioni batteriche intestinali costituiscono un sistema ecologico che segue queste stesse regole se ottenuto usando diverse soglie di similarità nella procedura di clustering. Ci aspettiamo quindi che questo risultato possa essere sfruttato per la comprensione della dinamica delle popolazioni batteriche e quindi di come queste variano in presenza di particolari malattie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’idea generale da cui parte l’attività di analisi e di ricerca della tesi è che l’identità non sia un dato acquisito ma un processo aperto. Processo che è portato avanti dall’interazione tra riconoscimento sociale del proprio ruolo lavorativo e rappresentazione soggettiva di sé. La categoria di lavoratori che è stata scelta è quella degli informatori scientifici del farmaco, in virtù del fatto che la loro identificazione con il ruolo professionale e la complessa costruzione identitaria è stata duramente messa alla prova negli ultimi anni a seguito di una profonda crisi che ha coinvolto la categoria. Per far fronte a questa crisi nel 2008 è stato creato un dispositivo, che ha visto il coinvolgimento di aziende, lavoratori, agenzie per il lavoro e organizzazioni sindacali, allo scopo di ricollocare il personale degli informatori scientifici del farmaco coinvolto in crisi e/o ristrutturazioni aziendali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'obiettivo del seguente lavoro è determinare attraverso l'uso di procedure statistico-econometriche, in particolare del metodo ECM, le previsioni per i tassi di default nel triennio 2013-2015, partendo dalle serie storiche di questi ultimi e da quelle macroeconomiche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni la tecnica di misura della correlazione digitale di immagini (“Digital Image Correlation” = DIC) sta trovando numerose applicazioni nell’ambito della meccanica sperimentale come valida alternativa per misure di campi di deformazione su componenti strutturali soggetti a carichi statici e dinamici. Misurare deformazioni in provini troppo piccoli, troppo grandi, teneri o caldi, è un tipico scenario in cui diventano necessarie le tecniche senza contatto in quanto l’applicazione di estensimetri risulta inefficiente. L’obiettivo di questo lavoro consta nel valutare l’applicabilità e l’accuratezza di programmi di elaborazione gratuiti per la correlazione digitale di immagini evidenziandone il metodo di utilizzo e l’autenticità dei risultati verificati attraverso prove in laboratorio. Tali programmi, per praticità e gratuità, nel campo bidimensionale, possono considerarsi una valida alternativa a programmi commerciali di elevato costo. Nonostante ciò, presentano alcune criticità e limitazioni che emergeranno dalle attente sperimentazioni effettuate. Verrà così definita la corretta e necessaria preparazione del set up sperimentale antecedente la prova e il campo di applicabilità a cui si prestano tali programmi per un preciso ed autentico rilevamento delle deformazioni subite da un corpo sottoposto a sollecitazioni, al pari di un comune estensimetro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Descrizione di un software di simulazione, realizzato attraverso la programmazione in Labview, che estrapola i dati immagazzinati nei file RINEX di navigazione e di osservazione della missione GRACE e li invia con le stesse modalità con cui lo farebbe il ricevitore OEM615 della NovAtel. L'obiettivo è creare un software che permetta di testare, nell'ambito della missione ESEO dell'ESA, il ricevitore GPS che farà parte del payoload della stessa missione, costituita da un micro-satellite che orbiterà in orbita bassa LEO, e che sarà composto da un ricevitore OEM615, da un'antenna GPS e da un processore di navigazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni l’attenzione di legislatori e degli Organi di Vigilanza, in base alle riforme regolamentari attivate in risposta alla crisi economica, si sono focalizzate sulle pratiche di risk management delle Banche, sottolineando l’importanza dei sistemi di controllo e gestione dei rischi. Il presente lavoro nasce con l’intento di analizzare e valutare le caratteristiche salienti del processo di assunzione e gestione dei rischi nel sistema economico finanziario attuale. Numerosi e autorevoli esperti, come gli operatori del Financial Stability Board , Institute of International Finance e Senior Supervisory Group, si sono espressi sulle cause della crisi finanziaria ed hanno sollevato dubbi circa la qualità delle azioni intraprese da alcuni manager, sulle loro politiche gestionali e sulla comprensione delle reali condizioni in cui versavano le loro Banche (in termini di esposizione ai rischi, report da aggregazione dati su performance aziendali e qualità dei dati aggregati) , si è ritenuto giusto dal punto di vista teorico approfondire in particolare i temi del Risk Appetite e Risk Tolerance, novità introdotte nelle diverse direttive e normative in risposta alle citate ed ambigue politiche di gestione ed assunzione rischi. I concetti, qui introdotti, di appetito e tolleranza al rischio conducono ad una ampia sfera di riferimento che guarda alla necessità di fissare degli obiettivi di rischio e loro limiti per poter meglio controllare e valutare la stabilità economica/finanziaria e stimare gli effetti di condizioni peggiorative (reali o soltanto teoriche, come gli stress test) sulla solvibilità e profittabilità delle Banche nazionali ed internazionali. Inoltre, ad integrazione di quanto precedentemente esposto sarà illustrata una survey sulla disclosure delle principali Banche europee in relazione alle informazioni sul Risk Appetite e sul Risk Tolerance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell'elaborato svolto viene presentato un ballast elettronico destinato ad applicazioni di illuminazione stradale. L'alimentatore deve sostituire il tradizionale reattore elettromagnetico attualmente montato sui lampioni, deve poter alimentare lampade HID fino a 150 W, deve soddisfare le più stringenti normative di futura approvazione, deve garantire ulteriori servizi aggiuntivi legati sia al migliore sfruttamento della lampada che a eventuali esigenze legate all'innovativo concetto di palo intelligente (alimentazioni ausiliarie e strategie di risparmio energetico).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Modern embedded systems embrace many-core shared-memory designs. Due to constrained power and area budgets, most of them feature software-managed scratchpad memories instead of data caches to increase the data locality. It is therefore programmers’ responsibility to explicitly manage the memory transfers, and this make programming these platform cumbersome. Moreover, complex modern applications must be adequately parallelized before they can the parallel potential of the platform into actual performance. To support this, programming languages were proposed, which work at a high level of abstraction, and rely on a runtime whose cost hinders performance, especially in embedded systems, where resources and power budget are constrained. This dissertation explores the applicability of the shared-memory paradigm on modern many-core systems, focusing on the ease-of-programming. It focuses on OpenMP, the de-facto standard for shared memory programming. In a first part, the cost of algorithms for synchronization and data partitioning are analyzed, and they are adapted to modern embedded many-cores. Then, the original design of an OpenMP runtime library is presented, which supports complex forms of parallelism such as multi-level and irregular parallelism. In the second part of the thesis, the focus is on heterogeneous systems, where hardware accelerators are coupled to (many-)cores to implement key functional kernels with orders-of-magnitude of speedup and energy efficiency compared to the “pure software” version. However, three main issues rise, namely i) platform design complexity, ii) architectural scalability and iii) programmability. To tackle them, a template for a generic hardware processing unit (HWPU) is proposed, which share the memory banks with cores, and the template for a scalable architecture is shown, which integrates them through the shared-memory system. Then, a full software stack and toolchain are developed to support platform design and to let programmers exploiting the accelerators of the platform. The OpenMP frontend is extended to interact with it.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tra i liposarcomi, il tumore lipomatoso atipico/liposarcoma ben differenziato e il liposarcoma dedifferenziato rappresentano i sottotipi più frequenti. Spesso è difficile distinguere questi tumori da altri con caratteristiche morfologiche simili. Da un punto di vista citogenetico sono caratterizzati dalla presenza di cromosomi soprannumerari giganti e cromosomi ad anello costituiti principalmente da sequenze amplificate della regione 12q13-15. In questa regione mappano numerosi geni tra cui il gene MDM2 (murine double minute-2). La caratterizzazione molecolare di tali sottotipi diventa estremamente importante sia a fini diagnostici sia per un corretto indirizzo terapeutico, soprattutto oggi, dopo l’introduzione nella pratica clinica di terapie biologiche mirate (targeted therapies). Nel presente studio viene analizzato il ruolo dell’analisi FISH per la valutazione dello status di MDM2 nelle neoplasie lipomatose e per stabilire se questo marcatore possa essere utilizzato nella diagnosi differenziale di questi tumori. Sebbene questo studio confermi l’utilità diagnostica dell’amplificazione di MDM2 nella diagnosi del tumore lipomatoso atipico/liposarcoma ben differenziato ed il liposarcoma dedifferenziato, questo marcatore potrebbe avere in futuro anche una più ampia applicazione. Data la recente introduzione degli inibitori selettivi di MDM2 tale ricerca risulta importante non solo a fini diagnostici ma anche per la selezione dei pazienti che potranno in futuro beneficiare del trattamento con tali inibitori. Questo studio è stato effettuato anche per analizzare la rilevanza biologica del percorso che vede coinvolto il gene AKT nel liposarcoma ben differenziato e dedifferenziato e per stabilire se questo percorso possa rappresentare un utile bersaglio terapeutico in questi tumori. I dati ottenuti dimostrano che AKT è espresso ed attivato in tutti i casi di tumore lipomatoso atipico/liposarcoma ben differenziato e liposarcoma dedifferenziato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di valutare l’utilizzo di tecnologie Web, per la creazione di applicazioni per dispositivi mobile, come alternativa allo sviluppo di applicazioni tramite linguaggi nativi. Tra i vari dispositivi mobile esistenti, quello che trova maggior interesse nello sviluppo della tesi è sicuramente lo smartphone, il più recente tra questi dispositivi, che rispetto agli altri dispositivi è caratterizzato da una maggior complessità dovuta a funzionalità e capacità più elevate. Quindi in questa tesi verrà analizzato l’aspetto legato alle applicazioni utilizzate da questo dispositivo mobile. Si è deciso di strutturare la tesi in diversi capitoli, che verranno illustrati qui in seguito, al fine di creare un percorso concettuale per arrivare ad analizzare l’argomento chiave della tesi, le applicazioni mobile basate su tecnologie Web, perciò nei primi due capitoli verrano trattati argomenti riguardanti il mondo dei dispositivi mobile, con particolare riguardo per lo smartphone, con lo scopo di dare una visione dell’ambiente che circonda questo argomento di tesi. Negli ultimi capitoli si entrerà nel cuore della tesi, dove verrà trattato l’argomento chiave nel dettaglio, con la specifica analisi di Tizen come caso di studio. Inoltre si è deciso di approfondire gli aspetti legati a questo argomento di tesi sviluppando un piccola applicazione, con lo scopo di andare a sperimentare le nozioni acquisite durante tutto questo percorso di studio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Scopo della tesi è analizzare il modello di migrazione 'pre-copy' e convalidare il simulatore che lo implementa. Modificando opportunamente il codice e facendo delle prove di simulazione in diversi casi, si vogliono riprodurre i grafici che si ottengono applicando il metodo analitico per la migrazine di insiemi di macchine virtuali. Si cerca di fare chiarezza, attraverso un'analisi dettagliata delle varie opzioni, su come i vari parametri fondamentali del sistema influiscono, dal punto di vista quantitativo, sulle prestazioni del sistema stesso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo di questa tesi è quello di estendere l’interfaccia grafica di tuProlog nella versione per Android, il più diffuso sistema operativo per tablet e smartphone. TuProlog è un’ interprete Prolog interamente scritto in java, leggero e open–source. L’applicazione è disponibile sotto forma di archivio JAR eseguibile e può essere utilizzato tramite un’interfaccia a riga di comando, nella versione Java, o per mezzo di interfacce grafiche negli ambienti Java, .NET e Android. La versione per Android supporta pienamente Java e la maggior parte delle librerie dell’applicativo per JVM. Lo sviluppo di applicazioni per dispositivi mobile, però, limita lo sviluppatore in termini di complessità delle elaborazioni effettuabili dal programma e comprensibilità dell’interfaccia grafica; per questi e altri motivi, la struttura dell’applicativo in versione Android, fatta eccezione per il core Prolog, è diversa dalle versioni per altri ambienti. L’applicazione, giunta ora alla versione 2.7.2, manca della possibilità di input da console in tutte le versioni ad interfaccia grafica. Scopo di questa tesi è quindi integrare tale funzionalità, inserendola all’interno del contesto applicativo senza modificare il normale flusso delle operazioni, intervenendo in modo mirato, il meno invasivo possibile e garantendo l’espandibilità della modifica ad estensioni future.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi di laurea è stata redatta presso l’azienda Sacmi Imola S.C. ed in particolare all’interno della divisione Closures, che si occupa della progettazione e della realizzazione di linee per la produzione di varie tipologie di capsule. Lo scopo dell’elaborato è descrivere lo sviluppo di un sistema di tracciabilità di prodotto; sistemi di questo tipo, adottati inizialmente nel settore alimentare, stanno acquisendo sempre maggiore importanza anche in altri campi produttivi, poiché rivestono un ruolo strategico al fine della realizzazione di prodotti caratterizzati da livelli elevati di performance e di qualità, capaci di emergere nel mercato moderno caratterizzato da una concorrenza estesa a livello mondiale e molto attento alle esigenze dei clienti. Nel caso specifico di Sacmi il sistema di tracciabilità si rivolge ad una pressa, la CCM (Continuous Compression Moulder), realizzata dall’azienda per la produzione di capsule in materiale termoplastico tramite la tecnologia dello stampaggio a compressione. In particolare il sistema si concentra sugli stampi della macchina CCM, i quali ne rappresentano gli elementi critici dal punto di vista sia tecnico che economico. A livello generale, un sistema di tracciabilità è costituito da due componenti fondamentali: il primo è un sistema di identificazione che permetta di rendere distinguibili ed individuabili le unità da tracciare, mentre il secondo è un sistema di raccolta dati in grado di raccogliere le informazioni desiderate. Queste sono poi archiviate in un apposito database ed attribuite alle entità corrispondenti sfruttando le proprietà del sistema di identificazione. Il primo passo da compiere quando si intende sviluppare un sistema di tracciabilità all’interno di un contesto produttivo già consolidato è la ricostruzione del processo produttivo presente in azienda: si tratta di individuare tutti gli enti aziendali che concorrono al processo e che saranno interessati dall’introduzione del nuovo sistema. Una volta definiti gli attori, è necessario anche capire come questi siano collegati dai flussi di materiale e di informazioni. Il processo produttivo di Sacmi era caratterizzato dalla quasi totale assenza di un flusso strutturato di informazioni a supporto di quello di materiale, ed il sistema di tracciabilità ha provveduto a colmare proprio questa mancanza. Il sistema deve essere in grado di integrarsi perfettamente nel contesto produttivo aziendale: è necessario trovare il giusto compromesso per quanto riguarda la quantità di informazioni da raccogliere, che devono garantire una corretta copertura di tutto il processo senza però appesantirlo eccessivamente. E’ bene che la raccolta dati sia basata su procedure standard che assicurino la ripetibilità delle operazioni di prelievo delle informazioni. Come è logico immaginarsi, l’introduzione di numerose novità nell’ambito di un contesto già strutturato ha fatto emergere un certo numero di problematiche, come ad esempio difficoltà nello stoccaggio e ritardi di produzione; queste devono essere risolte chiedendo uno sforzo aggiuntivo agli enti interessati o, nel medio/lungo periodo, evolvendo ed affinando il sistema con soluzioni più snelle.