806 resultados para analisi di abbondanzasistemi binari
Resumo:
Tesi riguardante il rebranding che vuole ottenere, tramite l'analisi di due casi studio (due aziende operanti nel mercato B2B), delle linee guida e suggerimenti per superare le problematiche principali di questo processo. L'analisi dei casi studio è stata fatta tramite interviste interne all'azienda, ricerche online e materiale proprio delle aziende. Le linee guida saranno formulate sulla base delle difficoltà affrontate da queste due aziende sia nel fornire servizi sia prodotti fisici.
Resumo:
Background. Il recupero funzionale precoce dopo intervento di wedge resection polmonare non è studiato in maniera approfondita, in particolare, sono carenti i dati relativi al recupero postoperatorio precoce dei pazienti sottoposti a tele procedura chirurgica in seguito a metastasi polmonari per tumore osseo primitivo. Obiettivo. Lo scopo di questo studio osservazionale è quello di descrivere il percorso fisioterapico dopo intervento di wedge resection polmonare, evidenziando il possibile recupero funzionale nel breve termine e ricercandone i possibili fattori prognostici. Metodi. Per valutare il recupero funzionale si è utilizzato il 1 minute sit to stand test (1MSTS), che è stato somministrato in sesta giornata postoperatoria. Per descrivere l’andamento del recupero il test è stato somministrato in fase preoperatoria e in tutte le giornate postoperatorie. Sono state condotte analisi di univariata per valutare l’associazione delle variabili demografiche, anamnestiche e cliniche con l’outcome primario. Risultati. Sono stati reclutati 13 pazienti, per un totale di 17 osservazioni poiché alcuni pazienti hanno ripetuto l’operazione. Nella sesta giornata il 41,2% dei pazienti aveva eseguito lo stesso o un numero maggiore di verticalizzazioni del 1MSTS fatte nella fase preoperatoria. Nella sesta giornata postoperatoria il 100% dei pazienti era riuscito ad eseguire il 1MSTS almeno una volta dopo l’intervento. All’outcome primario risultavano associarsi con una significatività statistica il livello di autonomia, misurato con la TESS, (p=0,01) e il 1MSTS (p=0,001) misurati nella fase preoperatoria. Conclusioni. Il recupero funzionale postoperatorio è possibile fin dalle prime giornate postoperatorie per i pazienti sottoposti a wedge resection. Il livello di autonomia e il numero di verticalizzazioni del 1MSTS eseguite in fase preoperatoria sono possibili fattori prognostici del recupero funzionale postoperatorio.
Resumo:
La tesi descrive un modello AIMMS di ottimizzazione dei flussi di potenza tra gli utenti di una comunità energetica rinnovabile. Il modello considera la presenza nella stessa rete di distribuzione di più comunità energetiche. Ogni utente può scegliere un fornitore diverso dagli altri anche se partecipa ad una comunità. Sono considerati generatori fotovoltaici e sistemi di accumulo. Per i carichi sono stati generati profili tipici di utenze domestiche. Il modello è in grado di valutare i prezzi delle transazioni di energia interne a ciascuna comunità, in base alle tariffe orarie dei fornitori di energia. Per la rete di distribuzione test IEEE a 123 nodi, la tesi presenta una analisi di sensitività al variare della taglia dei sistemi di accumulo, della potenza di picco dei generatori fotovoltaici, della potenza richiesta dai carichi, del numero di comunità energetiche e dei fornitori.
Resumo:
Oggigiorno le aziende si trovano ad operare in mercati aventi caratteristiche comuni; le difficoltà presenti nelle catene del valore sono evidenti: risulta complicato non solo reperire la materia prima per realizzare il prodotto finito, ma anche l’energia necessaria per avviare i processi di trasformazione. Partendo da queste considerazioni, l’incremento dei costi aziendali risulta purtroppo scontato; è quindi necessario ricercare metodi per ridurli e per mantenere invariato il margine di contribuzione sul prodotto finito. Questo elaborato va ad esaminare le attività presenti all’interno del magazzino prodotti finiti di Marazzi Group, azienda leader nella produzione del grès porcellanato, cercando di proporre alcuni miglioramenti applicabili nella quotidianità. Nello specifico, tramite l’applicazione del principio di Pareto, siamo andati a suddividere gli articoli e le locazioni in classi cercando di determinare l’allocazione ottimale per ridurre al minimo le movimentazioni e i relativi sprechi. Una volta determinata la situazione attuale, abbiamo cercato di creare uno strumento che permettesse di monitorare in qualsiasi istante la gestione da parte del responsabile. Inoltre, considerando la saturazione delle varie locazioni, siamo andati a creare un file in grado di indirizzare il materiale in ingresso nella stiva più adeguata. L’introduzione di questi miglioramenti ha portato benefici sia da un punto di vista quantitativo sia qualitativo. A livello quantitativo è stato possibile osservare una riduzione dei costi collegati al personale, al carburante e alla manutenzione dei carrelli. D’altro canto, a livello qualitativo abbiamo riscontrato una riduzione nei tempi di preparazione e di spedizione, aumentando così la capacità produttiva del magazzino.
Resumo:
Nel presente elaborato si analizzeranno le prestazioni del linguaggio di programmazione parallela Chapel sul kernel Integer Sort di NAS Parallel Benchmarks. Questo algoritmo, a livello pratico, è utilizzato per studi o applicazioni sui metodi particellari. Saranno introdotti i concetti fondamentali di programmazione parallela e successivamente illustrate le principali caratteristiche di MPI e Chapel. Verranno poi approfonditi Integer Sort e i rispettivi dettagli implementativi, concludendo con un'analisi di prestazioni dei due linguaggi sul kernel preso in esame.
Resumo:
Quando si pensa alla figura di un medico, non lo si può immaginare senza uno stetoscopio alle sue spalle. Lo stetoscopio è uno strumento molto semplice ma molto importante, inventato in Francia nel 1816 da René Théophile Hyacinthe Laennec, permise di poter auscultare ed analizzare i rumori generati dai battiti cardiaci ottenendo suoni più puliti e rendendo meno invasiva la procedura, precedentemente svolta posizionando l'orecchio sul petto del paziente. Nel 1970 David Littman migliorò notevolmente la struttura dello stetoscopio precedente, creando lo strumento che noi tutti conosciamo. Grazie alla rapida evoluzione dell'elettronica negli ultimi anni si hanno oggi a disposizione una moltitudine di nuovi ed efficaci sensori, alcuni dei quali trovano impiego nell'ambito dell'ingegneria biomedica. In particolare, si è pensato di utilizzare queste nuove tecnologie per la progettazione e lo sviluppo di uno stetoscopio elettronico. Il forte vantaggio di uno stetoscopio elettronico, rispetto al classico biomeccanico, risiede nell'elaborazione, nel filtraggio e nell'amplificazione del segnale che si può applicare all'auscultazione, oltreché nella possibilità di poter registrare il segnale acquisito, rendendo questo dispositivo uno strumento potenzialmente efficace per la telemedicina. In questo elaborato verrà trattato lo sviluppo di uno stetoscopio elettronico, evidenziando tutti i problemi e le criticità riscontrate durante il progetto in ogni punto di vista, software, hardware e signal processing. Tutto ciò non prima di una consistente introduzione necessaria per comprendere la tipologia di segnale d'interesse e l'analisi di alcuni tipi di dispositivi presenti in commercio e non, da cui si è tratta ispirazione. Seguirà un analisi critica dei risultati ottenuti, confrontando i segnali ottenuti dal dispositivo progettato con quelli ottenuti in reparto utilizzando due dispositivi commerciali, analizzando le differenze, punti di forza e di debolezza.
Resumo:
Molti degli studi oncologici partono dalla analisi di provini istologici, cioè campioni di tessuto prelevati dal paziente. Grazie a marcatori specifici, ovvero coloranti selettivi applicati alla sezione da analizzare, vengono studiate specifiche parti del campione. Spesso per raccogliere più informazioni del campione si utilizzano più marcatori. Tuttavia, questi non sempre possono essere applicati in parallelo e spesso vengono utilizzati in serie dopo un lavaggio del campione. Le immagini così ottenute devono quindi essere allineate per poter procedere con studi di colocalizzazione simulando una acquisizione in parallelo dei vari segnali. Tuttavia, non esiste una procedura standard per allineare le immagini così ottenute. L’allineamento manuale è tempo-dispendioso ed oggetto di possibili errori. Un software potrebbe rendere il tutto più rapido e affidabile. In particolare, DS4H Image Alignment è un plug-in open source implementato per ImageJ/Fiji per allineare immagini multimodali in toni di grigio. Una prima versione del software è stata utilizzata per allineare manualmente una serie di immagini, chiedendo all’utente di definire punti di riferimento comuni a tutte le immagini. In una versione successiva, è stata aggiunta la possibilità di effettuare un allineamento automatico. Tuttavia, questo non era ottimizzato e comportava una perdita di informazione nelle aree non sovrapposte all’immagine definita come riferimento. In questo lavoro, è stato sviluppato un modulo ottimizzato di registrazione automatica di immagini che non assume nessuna immagine di riferimento e preserva tutti i pixel delle immagini originali creando uno stack di dimensioni idonee a contenere il tutto. Inoltre, l’architettura dell’intero software è stata estesa per poter registrare anche immagini a colori.
Resumo:
La segmentazione prevede la partizione di un'immagine in aree strutturalmente o semanticamente coerenti. Nell'imaging medico, è utilizzata per identificare, contornandole, Regioni di Interesse (ROI) clinico, quali lesioni tumorali, oggetto di approfondimento tramite analisi semiautomatiche e automatiche, o bersaglio di trattamenti localizzati. La segmentazione di lesioni tumorali, assistita o automatica, consiste nell’individuazione di pixel o voxel, in immagini o volumi, appartenenti al tumore. La tecnica assistita prevede che il medico disegni la ROI, mentre quella automatica è svolta da software addestrati, tra cui i sistemi Computer Aided Detection (CAD). Mediante tecniche di visione artificiale, dalle ROI si estraggono caratteristiche numeriche, feature, con valore diagnostico, predittivo, o prognostico. L’obiettivo di questa Tesi è progettare e sviluppare un software di segmentazione assistita che permetta al medico di disegnare in modo semplice ed efficace una o più ROI in maniera organizzata e strutturata per futura elaborazione ed analisi, nonché visualizzazione. Partendo da Aliza, applicativo open-source, visualizzatore di esami radiologici in formato DICOM, è stata estesa l’interfaccia grafica per gestire disegno, organizzazione e memorizzazione automatica delle ROI. Inoltre, è stata implementata una procedura automatica di elaborazione ed analisi di ROI disegnate su lesioni tumorali prostatiche, per predire, di ognuna, la probabilità di cancro clinicamente non-significativo e significativo (con prognosi peggiore). Per tale scopo, è stato addestrato un classificatore lineare basato su Support Vector Machine, su una popolazione di 89 pazienti con 117 lesioni (56 clinicamente significative), ottenendo, in test, accuratezza = 77%, sensibilità = 86% e specificità = 69%. Il sistema sviluppato assiste il radiologo, fornendo una seconda opinione, non vincolante, adiuvante nella definizione del quadro clinico e della prognosi, nonché delle scelte terapeutiche.
Resumo:
Il Parmigiano Reggiano è un formaggio a Denominazione d’Origine Protetta (DOP), a pasta dura, cotta, granulosa, a lunga stagionatura, prodotto con latte crudo, parzialmente scremato, proveniente da vacche alimentate prevalentemente con foraggi della zona d’origine. La trasformazione del latte in questo formaggio DOP è ancora basata su una tecnologia artigianale legata all’esperienza empirica dei casari e tutelata dal Consorzio del Parmigiano Reggiano. L’obiettivo della tesi è stato quello di analizzare l’attività dell’acqua e la texture di 14 punte di formaggio “Parmigiano Reggiano”, provenienti da diverse realtà casearie nelle provincie di Parma, Reggio Emilia, Modena, Bologna alla sinistra del fiume Reno e Mantova, alla destra del fiume Po aderenti al consorzio di tutela; al fine di trarre conclusioni sulla struttura di tali campioni. In dettaglio, per valutare in modo sistematico e comprensivo la texture dei campioni è stata valutata mediante i test di Taglio, Texture Profile Analysis (TPA) e Three Point Bending. Al fine di valutare l’effetto della temperatura, le medesime analisi di texture sono state anche effettuate su alcuni campioni di formaggio condizionati alle temperature di 8, 20, 25 e 30°C. I campioni di Parmigiano Reggiano provenienti da diversi caseifici hanno presentato alcune differenze significative in termini di attività dell’acqua, durezza di taglio, elasticità, coesività, gommosità, forza massima, distanza lineare e fratturabilità. Queste variabilità potrebbero essere attribuite a diversità e peculiarità nel processo produttivo e nell’esperienza dei singoli caseari. Inoltre, è stato evidenziato un ruolo significativo delle temperature dei campioni alla quale si effettuano le analisi di texture. In particolare, i campioni condizionati a 8°C rispetto alle altre temperature hanno presentato differenze significative in tutti i parametri di texture analizzati eccetto che per quelli di elasticità e gommosità determinati con il test TPA.
Resumo:
La maggioranza degli applicativi che utilizziamo quotidianamente come siti di e-commerce e portali di home banking basano il proprio funzionamento su un’infrastruttura a microservizi, cioè un modello architetturale in cui un insieme di più sottocomponenti collabora scambiandosi dati per permettere agli utenti finali di fruire di un servizio. Questo pattern rappresenta lo standard adottato dagli applicativi moderni che ha ormai soppiantato il più datato modello monolitico in cui l’intero funzionamento veniva gestito in un’unica unità implementativa di grandi dimensioni, difficile da sviluppare e mantenere all’aumentare delle funzionalità richieste. Decomporre un unico software in più sottocomponenti permette di ridistribuirne la complessità totale richiedendo però un insieme di accortezze e di strumenti consoni per gestire tutte le entità da sviluppare. A tale scopo al giorno d’oggi è molto importante l’utilizzo della telemetria, cioè la tecnologia che consiste nella raccolta a distanza dei dati generati dai componenti a scopo di analisi di funzionamento e performance dell’intera piattaforma. L’adozione di questa tecnologia comporta numerosi benefici, sia a livello implementativo che dal punto di vista del mantenimento della piattaforma, che potrà essere monitorata anche dopo il rilascio. In questo elaborato di tesi sono stati implementati due use case realistici di piattaforme a microservizi che ricevono ed elaborano dati, alle quali sono state aggiunte nella fase di sviluppo software le funzionalità di due diversi strumenti di telemetria. L’obiettivo è permettere l’analisi dello storico delle elaborazioni eseguite per poter ricostruire il funzionamento dell’intero applicativo a scatola chiusa, analizzando le metriche generate nei log dei microservizi o in un’interfaccia grafica raggiungibile tramite browser. All’interno dell’elaborato verranno descritti tutti i dettagli implementativi, analizzando poi i benefici ottenuti dall’adozione di questi strumenti.
Resumo:
La seguente tesi è stata redatta con l’obbiettivo di implementare il piano di controllo della qualità dello stabilimento dell’azienda INALCA S.p.A, creando un HACCP specifico per il nuovo sistema di congelamento automatico della carne. In particolare, dopo un cenno storico al problema HACCP, si sono affrontati i principali aspetti del sistema HACCP, e dei regolamenti che ne conseguono per la sua creazione, attuazione e validazione. Obiettivo dell’azienda e del mio elaborato era quello di valutare la possibilità di congelare e raggiungere i -18°C al cuore in un tempo inferiore alle 24 ore, puntando alle 16 ore, per ottimizzare la fase di congelamento e velocizzare il processo per la futura vendita dei pallets di carne. A tal fine si è elaborato e successivamente validato il sistema di controllo che tiene conto di tutti gli aspetti generali, dall’entrata della materia prima e dalle sue caratteristiche intrinseche ed estrinseche, all’uscita del prodotto finito confezionato in pallet e trasferito in celle, congelato per il mantenimento della catena del freddo per poi essere spedite ai clienti. Si sono effettuate analisi di conferma per il corretto funzionamento e ottimizzazione dell’impianto medesimo, confrontando le tempistiche di congelamento nei diversi piani dell’impianto di congelamento automatico per il raggiungimento dei -18°C al cuore delle cassette contenenti polpa industriale, valore standard definito dall’azienda per la vendita e spedizione dei prodotti congelati.
Resumo:
A regional envelope curve (REC) of flood flows summarises the current bound on our experience of extreme floods in a region. RECs are available for most regions of the world. Recent scientific papers introduced a probabilistic interpretation of these curves and formulated an empirical estimator of the recurrence interval T associated with a REC, which, in principle, enables us to use RECs for design purposes in ungauged basins. The main aim of this work is twofold. First, it extends the REC concept to extreme rainstorm events by introducing the Depth-Duration Envelope Curves (DDEC), which are defined as the regional upper bound on all the record rainfall depths at present for various rainfall duration. Second, it adapts the probabilistic interpretation proposed for RECs to DDECs and it assesses the suitability of these curves for estimating the T-year rainfall event associated with a given duration and large T values. Probabilistic DDECs are complementary to regional frequency analysis of rainstorms and their utilization in combination with a suitable rainfall-runoff model can provide useful indications on the magnitude of extreme floods for gauged and ungauged basins. The study focuses on two different national datasets, the peak over threshold (POT) series of rainfall depths with duration 30 min., 1, 3, 9 and 24 hrs. obtained for 700 Austrian raingauges and the Annual Maximum Series (AMS) of rainfall depths with duration spanning from 5 min. to 24 hrs. collected at 220 raingauges located in northern-central Italy. The estimation of the recurrence interval of DDEC requires the quantification of the equivalent number of independent data which, in turn, is a function of the cross-correlation among sequences. While the quantification and modelling of intersite dependence is a straightforward task for AMS series, it may be cumbersome for POT series. This paper proposes a possible approach to address this problem.
Resumo:
Questo documento descrive gran parte del lavoro svolto durante un periodo di studio di sei mesi all’International Centre for Geohazards (ICG) di Oslo. Seguendo la linea guida dettata nel titolo, sono stati affrontati diversi aspetti riguardanti la modellazione numerica dei pendii quali l’influenza delle condizioni al contorno e delle proporzioni del modello, la back-analysis di eventi di scivolamento e l’applicazione delle analisi di stabilità monodimensionali. La realizzazione di semplici modelli con il programma agli elementi finiti PLAXIS (Brinkgreve et al., 2008) ha consentito di analizzare le prestazioni dei modelli numerici riguardo all’influenza delle condizioni al contorno confrontandoli con un calcolo teorico del fattore di amplificazione. Questa serie di test ha consentito di stabilire alcune linee guida per la realizzazione di test con un buon livello di affidabilità. Alcuni case-history, in particolare quello di Las Colinas (El Salvador), sono stati modellati allo scopo di applicare e verificare i risultati ottenuti con i semplici modelli sopracitati. Inoltre sono state svolte analisi di sensitività alla dimensione della mesh e ai parametri di smorzamento e di elasticità. I risultati hanno evidenziato una forte dipendenza dei risultati dai parametri di smorzamento, rilevando l’importanza di una corretta valutazione di questa grandezza. In ultima battuta ci si è occupati dell’accuratezza e dell’applicabilità dei modelli monodimensionali. I risultati di alcuni modelli monodimensionali realizzati con il software Quiver (Kaynia, 2009) sono stati confrontati con quelli ottenuti da modelli bidimensionali. Dal confronto è risultato un buon grado di approssimazione accompagnato da un margine di sicurezza costante. Le analisi monodimensionali sono poi state utilizzate per la verifica di sensitività. I risultati di questo lavoro sono qui presentati e accompagnati da suggerimenti qualitativi e quantitativi per la realizzazione di modelli bidimensionali affidabili. Inoltre si descrive la possibilità di utilizzare modelli monodimensionali in caso d’incertezze sui parametri. Dai risultati osservati emerge la possibilità di ottenere un risparmio di tempo nella realizzazione di importanti indagini di sensitività.
Resumo:
Lo scopo principale di questa dissertazione e quello di investigare il rapporto che si crea tra suono, immagine e sistemi informatico-tecnologici attraverso l'analisi di tre grandi centri europei di ricerca, formazione e produzione, all'avanguardia per quanto riguarda la produzione di opere sonoro-visive multimediali e interattive: Ircam di Parigi, Tempo Reale di Firenze e United Visual Artists di Londra. Saranno analizzati il rapporto tra lo sviluppo delle tecnologie digitali e le sue applicazioni in campo artistico, nonche il modo in cui, nei tre centri citati, viene trattato il suono. Saranno inoltre analizzate quali sperimentazioni sono state effettuate, quali sono in corso d'opera e come vengono utilizzati i risultati di queste ricerche combinando suono e tecnologia per dar vita a quegli universi sonoro-visivi citati nel titolo stesso della tesi.
Resumo:
La risorsa acqua in zone semi-aride è sottoposta a un'estrema variabilità climatica nello spazio e nel tempo. La gestione della risorsa acqua è quindi soggetta a un insieme di sfide quando i vincoli naturali vengono uniti agli effetti indotti da attività umana come per esempio l'aumento dello sfruttamento dell'acqua di sottosuolo, cambiamento dell'uso del suolo e presenza di infrastruttura mista. Si spera che il cambiamento climatico e l'attività risultanti dallo sviluppo economico, a corto termine aumentino la pressione su un sistema ormai sensibile. Se pianificato e gestito correttamente, lo stoccaggio dell'acqua, nelle sue varie forme, funge come un meccanismo di controllo della variabilità climatica e può potenziare la capacità adattiva. Lo uadi Merguellil è un corso d'acqua a carattere non perenne al centro della Tunisia, più specificamente a est della città di Kairouan. Il Merguellil drena la pioggia sulla dorsale Tunisina insieme al uadi Zeroud e Nebhana, ed è tra i principali fiumi che scorre sulla piana di Kairouan. Lo stoccaggio dell'acqua nel bacino assume diverse forme come i laghi collinari, i terrazzi, acqua di sottosuolo e una diga. Alcune delle opzioni per lo stoccaggio dell'acqua sono state costruite per preservare la risorsa acqua, mantenere la popolazione rurale e mantenere l'equità tra le zone a monte ed a valle ma solitamente non è mai stata fatta un'analisi comprensiva dei "trade-offs" coinvolti in tali sviluppi. Anche se la ricerca è sviluppata in questa zona, finora nessuna analisi ha cercato di combinare le dinamiche del sistema idrologico con scenari gestionali. L'analisi di scenari gestionali consente ai decisori di valutare delle alternative di pianificazione e può incrementare positivamente la loro abilità di creare delle politiche che si basino sulle necessità fisiche ma anche sociali di un particolare sistema. Questo lavoro è un primo passo verso un Sistema di Gestione Integrata della Risorsa Idrica (inglese: IWMR) capace di mettere in prospettiva strategie future su diverse scale. L'uso di uno strumento metodologico illustra le sfide associate nell'affrontare questo compito. In questo caso, un modello WEAP (Water Evaluation and Planning System) è stato sviluppato in collaborazione con partners Tunisini in modo da integrare le conoscenze su processi fisici e valutare diverse tendenze come l'aumento dell'irrigazione o il cambio di alcuni aspetti climatici. Lo strumento ora è disponibile ai ricercatori locali dove potrà essere sviluppato ulteriormente a fine di indirizzare domande più specifiche. Questo lavoro focalizza lo stoccaggio dell'acqua per poter evidenziare le interazioni dinamiche tra le diverse opzioni di stoccaggio nella zona di studio e valutare i "trade-offs" tra di esse. I risultati iniziali dimostrati in questo lavoro sono: - Se lo sfruttamento degli acquiferi fosse ristretto ai livelli delle loro ricarica, la domanda d'acqua dei diversi utilizzatori non sarebbe soddisfatta al 25% dei livelli di consumo attuale. - La tendenza di incremento dell'agricoltura di irrigazione crea un impatto più accentuato nelle risorse di sottosuolo di quello creato da un'ipotetica riduzione della piovosità all'85% - L'aumento del numero di laghi collinari riduce la quantità d'acqua che arriva a valle, allo stesso tempo aumenta la quantità d'acqua "persa" per evaporazione.