603 resultados para Modello organizzativo e funzionale, Unità Complesse di Cure Primarie.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli anni la funzione dei social network è cambiata molte volte. Alle origini i social network erano uno strumento di connessione tra amici, ora sono siti internet in cui le persone mettono informazioni e quando un social network ha milioni di utenti, diventa un’incredibile sorgente di dati. Twitter è uno dei siti internet più visitati, e viene descritto come “the SMS of internet”, perchè è un social network che permette ai suoi utenti di inviare e leggere messaggi corti, di 140 caratteri, chiamati “tweets”. Con il passare del tempo Twitter `e diventato una fonte fondamentale di notizie. Il suo grande numero di utenti permette alle notizie di espandersi nella rete in modo virale. Molte persone hanno cercato di analizzare il potere dei tweet, come il contenuto positivo o negativo, mentre altri hanno cercato di capire se avessero un potere predittivo. In particolare nel mondo finanziario, sono state avviate molte ricerche per verificare l’esistenza di una effettiva correlazione tra i tweets e la fluttuazione del mercato azionario. L’effettiva presenza di tale relazione unita a un modello predittivo, potrebbe portare allo sviluppo di un modello che analizzando i tweets presenti nella rete, relativi a un titolo azionario, dia informazioni sulle future variazioni del titolo stesso. La nostra attenzione si è rivolata alla ricerca e validazione statistica di tale correlazione. Sono stati effettuati test su singole azioni, sulla base dei dati disponibili, poi estesi a tutto il dataset per vedere la tendenza generale e attribuire maggior valore al risultato. Questa ricerca è caratterizzata dal suo dataset di tweet che analizza un periodo di oltre 2 anni, uno dei periodi più lunghi mai analizzati. Si è cercato di fornire maggior valore ai risultati trovati tramite l’utilizzo di validazioni statistiche, come il “permutation test”, per validare la relazione tra tweets di un titolo con i relativi valori azionari, la rimozione di una percentuale di eventi importanti, per mostrare la dipendenza o indipendenza dei dati dagli eventi più evidenti dell’anno e il “granger causality test”, per capire la direzione di una previsione tra serie. Sono stati effettuati anche test con risultati fallimentari, dai quali si sono ricavate le direzioni per i futuri sviluppi di questa ricerca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si concentra sull’infrastruttura di coordinazione TuCSoN on Android, realizzando il refactoring del servizio di geolocalizzazione platform-independent (lato infrastruttura) e platform-dependent (lato mobile device), nonché l’integrazione del modello event-driven con la proprietà di situatedness.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tema di questo lavoro sono i cedimenti indotti dallo scavo di gallerie superficiali in terreni coesivi sotto falda. In questi casi la velocità di avanzamento dello scavo v e la permeabilità del mezzo k influenzano molto l'evoluzione della consolidazione. Le ipotesi di risposta non drenata o drenata del mezzo saturo, comunemente adottate, sono valide solo per rapporto v/k estremamente alto o basso. Nei casi intermedi, analisi numeriche accoppiate che tengano conto del processo di consolidazione durante lo scavo sono indispensabili. Ciò nonostante, queste sono molto rare in letteratura viste le notevoli difficoltà teoriche e numeriche ad esse associate. Proprio per non incrementare ulteriormente tali difficoltà, si è deciso di adottare modelli costitutivi semplici quali: il modello elastico perfettamente plastico con criterio di resistenza alla Mohr Coulomb e il Modified Cam Clay. Dopo un' introduzione sulla risposta del terreno nell'intorno dello scavo al variare del modello costitutivo, è stato svolto uno studio parametrico del processo di consolidazione. Ci si è, successivamente, concentrati sulla capacità dei tre modelli costitutivi di predire l'andamento dei cedimenti, mediante confronto con le soluzioni empiriche proposte in letteratura. Infine, sono state effettuate una serie di simulazioni 3D accoppiate passo-passo con il programma agli elementi finiti Abaqus al variare della permeabilità del mezzo e del rivestimento installato, supposto infinitamente permeabile o impermeabile. È emerso che per v/k<100 o v/k>100000 non è necessario esaminare nel dettaglio la dipendenza dal tempo della risposta del suolo e si possono ottenere risultati affidabili assumendo condizioni drenate o non drenate, rispettivamente. Nei casi intermedi, invece, le condizioni sono da ritenersi transienti e l'unico modo per effettuare correttamente le analisi dei cedimenti e lo studio della stabilità del fronte è mediante analisi numeriche 3D idromeccaniche accoppiate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La misura della sezione d'urto di processi fisici prodotti negli urti fra protoni ad LHC è uno dei settori più importanti della ricerca in corso, sia per verificare le predizioni del Modello Standard, che per la ricerca di nuova fisica. La precisione necessaria per distinguere fenomeni standard e non, richiede un ottimo controllo delle incertezze sistematiche. Fra le sorgenti di errore sistematico, di particolare importanza sono quelle sulla misura della luminosità, che rappresenta il fattore di normalizzazione necessario per la misura di qualsiasi sezione d'urto. Ogni esperimento che si proponga misure di questo genere è quindi dotato di monitor di luminosità dedicati. In questa tesi sono presentate le tecniche di misura della luminosità ad ATLAS utilizzando i rivelatori dedicati e le problematiche incontrate nel corso della presa dati del 2012, sia per quanto riguarda la loro procedura di calibrazione assoluta, che per la loro stabilità in funzione del tempo e linearità di risposta, e vengono fornite le incertezze sistematiche dipendenti dal loro confronto. Per meglio comprendere tali risultati, si è studiato il canale di produzione del bosone Z nelle interazioni protone-protone, all'energia nel centro di massa s = √8 TeV mediante il suo decadimento in due muoni, utilizzando i dati acquisiti nel corso del 2012 Nel primo capitolo vengono definiti i concetti di luminosità istantanea ed integrata, sia dalla prospettiva del collider che le fornisce, che dal punto di vista delle analisi di fisica, quale quella svolta in questa tesi. Nel secondo capitolo viene descritto l'insieme dei rivelatori utilizzati da ATLAS per la misura della luminosità e i risultati ottenuti mediante il loro confronto in termini di incertezze sistematiche. Nel terzo capitolo viene infine presentata la misura della sezione d'urto di produzione del bosone Z e l'utilizzo di tale misura per il controllo della stabilità nel tempo e della linearità della misura sperimentale della luminosità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato è incentrato sulla modellizzazione del plasma di bordo nei dispositivi per la produzione di energia da fusione nucleare noti come tokamak. La tecnologia che nel corso di tutta la seconda metà del XX secolo fino ad oggi è stata sviluppata a questo fine deve necessariamente scontrarsi con alcuni limiti. Nei tokamak il confinamento del plasma è di tipo magnetico e vincola le particelle a muoversi di moto elicoidale all'interno del vessel, tuttavia il confinamento non risulta perfetto e parte dell'energia si scarica sulle pareti della camera, rischiando pertanto di fondere i materiali. Alcune strategie possono essere messe in atto per limitare questo problema, per esempio agendo sulla geometria del tokamak, oppure sulla fisica, inducendo nel plasma una data concentrazione di impurezze che ionizzino irraggiando parte dell'energia di plasma. Proprio tale meccanismo di perdita è stato simulato in un modello monodimensionale di plasma monofluido di bordo. I risultati del codice numerico relativo al modello dimostrano che per concentrazioni di impurezze crescenti è possibile diminuire in modo significativo flusso di calore e temperatura al divertore. Per di più risulta possibile controllare la posizione del fronte di irraggiamento per mezzo di parametri di controllo del plasma quali la pressione. Si osserva inoltre l'insorgere del cosiddetto fenomeno di biforcazione alle basse temperature di divertore, fenomeno in cui il plasma si comporta in modo instabile a causa di fenomeni fisici tipici delle basse energie ("detachment") e a seguito del quale può improvvisamente spegnersi (disruzione). Infine lo stesso modello è stato migliorato inserendo l'ipotesi di plasma bifluido. Anche per gli ioni viene osservato il fenomeno di biforcazione. I risultati numerici evidenziano le dinamiche dello scambio energetico fra le specie gettando le basi di una progettazione efficiente della chimica del plasma finalizzata al raffreddamento del divertore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con la presente tesi viene esaminato un metodo per modificare la frequenza di risonanza di trasduttori piezoelettrici mediante applicazione di carichi elettrici esterni. L'elaborato inizia con la presentazione dei cristalli utilizzati nel lavoro di tesi, concentrandosi sul processo di fabbricazione di un bimorph cantilever impiegato come convertitore elettromeccanico di energia, la cui frequenza di risonanza è modellizzata analiticamente mediante la legge di Newton e il modello di Euler-Bernoulli. Su tale struttura vengono condotte misure mediante shaker elettrodinamico e analizzatore d'impedenza, ai fini di giusticare il modello analitico presentato. Con lo scopo di sincronizzare la frequenza di risonanza del cantilever con la vibrazione dell'ambiente per massimizzare la potenza disponibile, viene proposto un algoritmo MPPT secondo l'approccio Perturba e Osserva (P&O), al quale è fornita in ingresso la tensione efficace di un layer di materiale piezoelettrico. Valutare la sua risposta in tensione, presenta dei limiti applicativi che hanno portato a prendere in considerazione un approccio totalmente diff�erente, basato sullo sfasamento tra la tensione di un trasduttore piezoelettrico e il segnale di accelerazione impiegato come eccitazione. Misure sperimentali sono state condotte con l'obiettivo di validare l'efficacia di quest'ultimo approccio qualora si voglia sincronizzare la frequenza di risonanza dei piezo con segnali di vibrazione reali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante i trattamenti radioterapici dei pazienti oncologici testa-collo, le ghiandole parotidee (PGs) possono essere indebitamente irradiate a seguito di modificazioni volumetriche-spaziali inter/intra-frazione causate da fattori quali il dimagrimento, l’esposizione a radiazioni ionizzanti ed il morphing anatomico degli organi coinvolti nelle aree d’irraggiamento. Il presente lavoro svolto presso la struttura di Fisica Medica e di Radioterapia Oncologica dell’A.O.U di Modena, quale parte del progetto di ricerca del Ministero della Salute (MoH2010, GR-2010-2318757) “ Dose warping methods for IGRT and Adaptive RT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments ”, sviluppa un modello biomeccanico in grado di rappresentare il processo di deformazione delle PGs, considerandone la geometria, le proprietà elastiche e l'evoluzione durante il ciclo terapeutico. Il modello di deformazione d’organo è stato realizzato attraverso l’utilizzo di un software agli elementi finiti (FEM). Molteplici superfici mesh, rappresentanti la geometria e l’evoluzione delle parotidi durante le sedute di trattamento, sono state create a partire dai contorni dell’organo definiti dal medico radioterapista sull’immagine tomografica di pianificazione e generati automaticamente sulle immagini di setup e re-positioning giornaliere mediante algoritmi di registrazione rigida/deformabile. I constraints anatomici e il campo di forze del modello sono stati definiti sulla base di ipotesi semplificative considerando l’alterazione strutturale (perdita di cellule acinari) e le barriere anatomiche dovute a strutture circostanti. L’analisi delle mesh ha consentito di studiare la dinamica della deformazione e di individuare le regioni maggiormente soggette a cambiamento. Le previsioni di morphing prodotte dal modello proposto potrebbero essere integrate in un treatment planning system per metodiche di Adaptive Radiation Therapy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo sviluppo sistematico di modelli subject-specific computerizzati per l’analisi di trattamenti personalizzati è attualmente una realtà. Infatti di recente sono state sviluppate molte tecnologie per la creazione di modelli virtuali ad elementi finiti, che ricreano accuratamente le geometrie specifiche del soggetto e tutte le proprietà fondamentali per ricreare le capacità motorie, basandosi su analisi d’immagine quantitative. Tuttavia, per determinare le forze agenti sul sistema, necessitiamo di una intera analisi di cammino, solitamente in combinazione con uno studio di simulazione di dinamica inversa. In questo elaborato, mi propongo di illustrare i procedimenti per creare un modello subject-specific partendo da dati di imaging (da tomografie computerizzate) di un paziente reale affetto da displasia congenita dell’anca, e gli strumenti che ci permettono di effettuare le simulazioni del modello, al fine di ottenere informazioni quantitative circa le grandezze che governano la dinamica del cammino del paziente. Il corpi rigidi del modello scheletrico saranno costruiti mediante la tecnica della segmentazione 3D, e verranno utilizzati per costruire un sistema articolato dotato di attuatori muscolo-tendinei e giunti articolari a due o tre gradi di libertà. Per conseguire questo obiettivo si farà uso del software, “NMSBuilder”, per poi inserirlo in un programma di simulazione di dinamica del movimento, “OpenSim”, che ci permetterà di calcolare forze muscolari, forze di contatto e momenti articolari del modello. Questi risultati saranno di fondamentale importanza per studiare riabilitazioni ad hoc per pazienti affetti da DCA che devono essere sottoposti ad artroprotesi totale. Lo scopo di questo studio sarà anche quello di analizzare la sensibilità delle previsioni dei modelli specifici durante la deambulazione tenendo conto delle incertezze nell'identificazione delle posizioni dei body-landmarks, della massima tensione muscolare e della geometria muscolo-tendinea.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

degli elementi vegetali nella dinamica e nella dispersione degli inquinanti nello street canyon urbano. In particolare, è stato analizzata la risposta fluidodinamica di cespugli con altezze diverse e di alberi con porosità e altezza del tronco varianti. Il modello analizzato consiste in due edifici di altezza e larghezza pari ad H e lunghezza di 10H, tra i quali corre una strada in cui sono stati modellizati una sorgente rappresentativa del traffico veicolare e, ai lati, due linee di componenti vegetali. Le simulazioni sono state fatte con ANSYS Fluent, un software di "Computational Fluid Dynamics"(CFD) che ha permesso di modellizare la dinamica dei flussi e di simulare le concentrazioni emesse dalla sorgente di CO posta lungo la strada. Per la simulazione è stato impiegato un modello RANS a chiusura k-epsilon, che permette di parametrizzare i momenti secondi nell'equazione di Navier Stokes per permettere una loro più facile risoluzione. I risultati sono stati espressi in termini di profili di velocità e concentrazione molare di CO, unitamente al calcolo della exchange velocity per quantificare gli scambi tra lo street canyon e l'esterno. Per quanto riguarda l'influenza dell'altezza dei tronchi è stata riscontrata una tendenza non lineare tra di essi e la exchange velocity. Analizzando invece la altezza dei cespugli è stato visto che all'aumentare della loro altezza esiste una relazione univoca con l'abbassamento della exchange velocity. Infine, andando a variare la permeabilità delle chiome degli alberi è stata trovatta una variazione non monotonica che correla la exchange velocity con il parametro C_2, che è stata interpretata attraverso i diversi andamenti dei profili sopravento e sottovento. In conclusione, allo stadio attuale della ricerca presentata in questa tesi, non è ancora possibile correlare direttamente la exchange velocity con alcun parametro analizzato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La gestione del fine vita dei prodotti è un argomento di interesse attuale per le aziende; sempre più spesso l’imprese non possono più esimersi dall’implementare un efficiente sistema di Reverse Logistics. Per rispondere efficacemente a queste nuove esigenze diventa fondamentale ampliare i tradizionali sistemi logistici verso tutte quelle attività svolte all’interno della Reverse Logitics. Una gestione efficace ed efficiente dell’intera supply chain è un aspetto di primaria importanza per un’azienda ed incide notevolmente sulla sua competitività; proprio per perseguire questo obiettivo, sempre più aziende promuovono politiche di gestione delle supply chain sia Lean che Green. L’obiettivo di questo lavoro, nato dalle esigenze descritte sopra, è quello di applicare un modello innovativo che consideri sia politiche di gestione Lean, che dualmente politiche Green, alla gestione di una supply chain del settore automotive, comprendente anche le attività di gestione dei veicoli fuori uso (ELV). Si è analizzato per prima cosa i principi base e gli strumenti utilizzati per l’applicazione della Lean Production e del Green supply chain management e in seguito si è analizzato le caratteristiche distintive della Reverse Logistics e in particolare delle reti che trattano i veicoli a fine vita. L’obiettivo finale dello studio è quello di elaborare e implementare, tramite l’utilizzo del software AMPL, un modello di ottimizzazione multi-obiettivo (MOP- Multi Objective Optimization) Lean e Green a una Reverse Supply Chain dei veicoli a fine vita. I risultati ottenuti evidenziano che è possibile raggiungere un ottimo compromesso tra le due logiche. E' stata effettuata anche una valutazione economica dei risultati ottenuti, che ha evidenziato come il trade-off scelto rappresenti anche uno degli scenari con minor costi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto che qui presentiamo, è stato elaborato all’interno del laboratorio di sintesi finale Architettura sostenibile, e sviluppa il tema della riqualificazione di un edificio di housing sociale. Perché il social housing? La scarsità di alloggi di edilizia sociale nel patrimonio esistente e il crescente numero di persone che necessitano di una residenza a basso costo, ma che non sono povere al punto tale da poter accedere all’edilizia agevolata, porta ad incentrare la nostra ricerca su questo argomento. Osservando nel nostro paese la forte necessità di ampliare e migliorare questo patrimonio, oltre al rinnovato interesse per queste tematiche nel settore pubblico, diventa per noi un momento di riflessione e confronto nel campo della progettazione architettonica. Quale l’obiettivo? Il fine di tale ricerca è quindi quello di assecondare le odierne esigenze abitative, ripensando il patrimonio esistente in termini di recupero e rifunzionalizzazione degli spazi, migliorando il livello di confort e conseguendo allo stesso tempo elevate prestazioni energetiche. L’obiettivo si allarga poi alla scala del quartiere proponendo strategie utili alla rivitalizzazione delle dinamiche sociali. Qual è il metodo? La strategia utilizzata è quello della riqualificazione sostenibile. Questa scelta è motivata dall’intento di ridurre l’uso di risorse primarie, in termini di materiali, ed evitare l’ulteriore sfruttamento di aree non ancora urbanizzate. A questo va ad aggiungersi la necessità di realizzare un intervento economicamente sostenibile, data l’assenza di risorse da investire per tali fini.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La tesi individua alcune strategie di rigenerazione urbana e di riqualificazione edilizia, al fine di ottenere una serie di linee guida per l’intervento sul patrimonio di edilizia abitativa situata nelle periferie urbane. Tali principi sono stati poi applicati ad un edificio ACER collocato nella prima periferia di Forlì, per sperimentare l’efficacia delle strategie individuate. Dalla ricerca svolta sulle strategie di intervento volte alla riqualificazione sociale delle periferie, in particolare la teoria del “Defencible space” di Jacobs, si evidenzia l’importanza di accentuare nei residenti il sentimento di territorialità, ovvero la consapevolezza di far parte di una comunità specifica insediata in un particolare spazio, alimentata attraverso la frequentazione e l’appropriazione percettivo-funzionale degli spazi pubblici. Si è deciso quindi di allargare il campo di intervento alla rigenerazione dell’interno comparto, attraverso la riorganizzazione degli spazi verdi e la dotazione di attrezzature sportive e ricreative, in modo da offrire spazi specifici per le diverse utenze (anziani, giovani, bambini) e la definizione di un programma funzionale di servizi ricreativi e spazi destinati a piccolo commercio per integrare le dotazioni carenti dell’area. Dall’analisi approfondita dell’edificio sono emerse le criticità maggiori su cui intervenire: - l’intersezione dei percorsi di accesso all’edificio - la struttura portante rigida, non modificabile - la scarsa varietà tipologica degli alloggi - l’elevato fabbisogno energetico. La riqualificazione dell’edificio ha toccato quindi differenti campi: tecnologico, funzionale, energetico e sociale; il progetto è stato strutturato come una serie di fasi successive di intervento, eventualmente realizzabili in tempi diversi, in modo da consentire il raggiungimento di diversi obiettivi di qualità, in funzione della priorità data alle diverse esigenze. Secondo quest’ottica, il primo grado di intervento, la fase 1 - riqualificazione energetica, si limita all’adeguamento dello stato attuale alle prestazioni energetiche richieste dalla normativa vigente, in assenza di adeguamenti tipologici e spaziali. La fase 2 propone la sostituzione degli impianti di riscaldamento a caldaie autonome presenti attualmente con un impianto centralizzato con pompa di calore, un intervento invasivo che rende necessaria la realizzazione di un “involucro polifunzionale” che avvolge completamente l’edificio. Questo intervento nasce da tre necessità fondamentali : - architettonica: poter ampliare verso l’esterno le superfici degli alloggi, così da intervenire sulle unità abitative rendendole più rispondenti alle necessità odierne; - statica: non dover gravare in ciò sull’edificio esistente apportando ulteriori carichi, difficilmente sopportabili dalla struttura esistente, assicurando il rispetto della normativa antisismica in vigore; - impiantistica/tecnologica: alloggiare i condotti del nuovo impianto centralizzato per il riscaldamento, raffrescamento e acs; La fase 3 è invece incentrata sull’ampliamento dell’offerta abitativa, in modo da rispondere anche a necessità legate ad utenze speciali, come utenti disabili o anziani. L’addizione di nuovi volumi si sviluppa in tre direzioni: - un volume parassita, che aderisce all’edificio nel fronte sud/est, indipendente dal punto di vista strutturale, ruotato per sfruttare al meglio l’orientamento ottimale. - un volume satellite, indipendente, connesso all’edificio esistente tramite un elemento di raccordo, e nel quale sono collocati alcuni alloggi speciali. - un’addizione in copertura, che non appoggia direttamente sul solaio di copertura esistente, ma grava sull’elemento di chiusura del’involucro realizzato nella fase 2 Completano il progetto le addizioni volumetriche a piano terra, destinate a servizi quali un centro diurno, un micronido e un bar, i quali costituiscono la traduzione alla scala dell’edificio delle strategie applicate nel progetto di comparto. Questi interventi hanno consentito di trasformare un edificio costruito negli anni ’80 in un complesso residenziale moderno, dotato spazi accessori di grande qualità, tecnologie moderne che ne garantiscono il comfort abitativo, servizi alla persona disponibili in prossimità dell’edificio.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’affermazione del trasporto containerizzato verificatasi negli ultimi decenni ha determinato una profonda rivoluzione nell’ambito del trasporto marittimo internazionale. L’unitizzazione dei carichi e l’innovazione tecnologica dei mezzi utilizzati per il trasporto e la movimentazione consentono oggi di gestire ingenti volumi di traffico in tempi rapidi e con costi relativamente contenuti. L’utilizzo di unità standard ha inoltre reso possibile lo sviluppo del trasporto intermodale e la realizzazione di catene logistiche complesse. In questa tesi sono state analizzate le problematiche relative alla gestione delle operazioni che vengono svolte all’interno dei terminal container, i nodi fondamentali del trasporto intermodale. In particolare è stato studiato il caso del nuovo Terminal Container del Porto di Ravenna. Trattandosi di un terminal ancora in fase di progettazione, sono state applicate delle metodologie che consentono di effettuare una valutazione preliminare di quelle che potrebbero essere le potenzialità del nuovo terminal. In primo luogo sono stati determinati il throughput potenziale del terminal, in funzione delle aree di stoccaggio e della capacità operativa della banchina, e il numero medio di mezzi necessari alla movimentazione di tale volume di traffico annuo. Poi si è proceduto all’applicazione di modelli analitici specifici per la valutazione delle performance dell’equipment del terminal. I risultati ottenuti sono stati infine utilizzati per lo studio delle interazioni tra i sub-sistemi principali del terminal attraverso la teoria delle code, allo scopo di valutarne il livello di servizio e individuare eventuali criticità.