985 resultados para Fattibilità tecnica macchine automatiche gestione blister farmaceutici
Resumo:
Gli odori rappresentano uno degli elementi di disturbo che la popolazione avverte maggiormente e, anche nel caso in cui non siano associati a sostanze tossiche, sono causa di conflitti e di intolleranza, sia nei confronti delle aziende che li diffondono nel territorio, sia nella scelta del sito di localizzazione di nuovi impianti. La valutazione del disturbo olfattivo e la sua regolamentazione (esistono linee guida, ma non una legislazione di riferimento) rappresentano aspetti caratterizzati da elevata complessità, dal momento che l’inquinamento olfattivo è strettamente associato alla percezione umana. Nella tesi vengono valutate le emissioni odorigene e le relative immissioni, dovute ad un comparto per la gestione integrata dei rifiuti. Per caratterizzare le emissioni sono stati prelevati dei campioni di aria presso le principali sorgenti individuate e quantificate utilizzando la tecnica dell’olfattometria dinamica. Una volta caratterizzate le sorgenti, i dati di emissione ottenuti dalla campagna di misura e dall’analisi olfattometrica sono stati utilizzati come dati di input del modello LAPMOD (LAgrangian Particle MODel). LAPMOD è stato implementato con un modulo specifico per la determinazione delle concentrazioni massime orarie che utilizza un peak-to-mean variabile nel tempo, a differenza di altri modelli che usano un valore costante per la determinazione. Dall'elaborazione dei dati è emerso che, utilizzando il modulo specifico per gli odori, le concentrazioni come 98° percentile riferite al giorno tipico hanno un andamento opposto rispetto all’uso di un peak-to-mean costante. Dal confronto della simulazione in cui le emissioni sono indipendenti dalla variazione della portata di odore in funzione della velocità del vento, con quella che invece simula tale dipendenza (nelle sorgenti che presentano paratie laterali e tettoia) è emerso che la simulazione che mitiga completamente l’effetto del vento è più coerente con la realtà.
Resumo:
La tesi tratta l’analisi preliminare dell’Organization Environmental Footprint (OEF) dell’ente gestore dell’aeroporto Falcone - Borsellino di Palermo (GES.A.P.). Viene inoltre sviluppato un nuovo metodo per la classificazione degli aspetti ambientali utilizzabile all’interno del Sistema di Gestione Ambientale (SGA) attualmente utilizzato dall’ente GES.A.P. Dopo un'introduzione sulle ragioni che hanno portato allo sviluppo di questi strumenti, vengono approfondite le fasi necessarie per la loro applicazione, specificate nella guida metodologica sull’OEF e nella norma ISO 14001. I dati raccolti per il calcolo dell’OEF sono stati inseriti in un modello dell’organizzazione creato con il software GaBi7 al fine di stimare gli impatti ambientali dell’organizzazione negli anni analizzati. In questo lavoro viene effettuata un’analisi del metodo EMRG (Environmental Management Research Group) utilizzato per l’individuazione e la classificazione degli aspetti ambientali nell’ambito del SGA (certificato ISO 14001:2004) di GESAP e delle innovazioni introdotte nella versione 2015 della norma ISO 14001. Viene suggerito un metodo alternativo basato sull’integrazione dei risultati di un'analisi Life Cicle Assessment (LCA), svolta tramite l’OEF, con la metodologia EMRG, attualmente impiegata, al fine di avviare il processo di transizione del SGA verso l’aggiornamento-consegna richiesto dalla ISO14001:2015. Dall’applicazione del metodo viene ricavata una nuova gerarchia degli aspetti ambientali di GESAP utilizzabile per l’implementazione del suo SGA.
Resumo:
Secondo l'Agenzia Europea dell'Ambiente una delle principali minacce per le risorse di acqua dolce della zone costiere italiane è l’intrusione salina. L’obiettivo di questa tesi magistrale è la caratterizzazione idrogeologica di una frazione dell’acquifero freatico costiero situato in due differenti corpi dunosi. L’indagine proseguita per cinque mesi ha evidenziano differenze tra un’area sottoposta a forte pressione antropica (Marina Romea) e un’area che mostra un relativo sviluppo naturale del sistema spiaggia-duna (Porto Corsini). La tecnica di campionamento utilizzata è il sistema a minifiltri (multi level samplers), metodologia innovativa che garantisce tempistiche di monitoraggio rapide e una campionatura multi-livello puntuale e precisa. La campagna di monitoraggio ha coinvolto misure di freatimetria, conduttività elettrica e analisi chimiche delle acque che hanno portato ad una loro classificazione geo-chimica. Dai risultati si evidenzia che l’acquifero è molto salinizzato, gli strati d’acqua dolce sono isolati in lenti superficiali e i tipi di acque presenti sono dominati da ioni sodio e cloro. Tra i due siti il più vulnerabile risulta essere Marina Romea per molti fattori: l’erosione costiera che assottiglia la fascia dunale adibita alla ricarica di acqua dolce, un’estensione spaziale della duna minore rispetto a Porto Corsini, la presenza di infrastrutture turistiche che hanno frazionato la duna, la vicinanza al canale di drenaggio che causa la risalita delle acque profonde saline, la presenza di specie arboree idro-esigenti che attingono e quindi assottigliano le lenti d’acqua dolce. Si propone di migliorare la qualità dell’acqua sotterranea con una migliore gestione del canale di drenaggio, sostituendo alcuni esemplari di pinacee con specie arbustive tipiche degli ambienti dunosi ed infine imponendo misure per il risparmio idrico durante la stagione turistica.
Resumo:
Un manuale tecnico non veicola solo contenuti, ma definisce anche il rapporto tra emittente e destinatario all’interno di una relazione commerciale. Il testo deve quindi essere di buona qualità, altrimenti si potrebbero verificare danni economici e di immagine per l’emittente. Nonostante ciò, molte aziende dimostrano scarsa sensibilità al problema della qualità redazionale perché ottenerla significa affrontare investimenti di tempo e risorse. Con questa tesi propongo una modalità di revisione del manuale tecnico che tiene in considerazione esigenze di natura diversa: utilizzando gli strumenti CAT per la revisione è possibile, infatti, migliorare la qualità del manuale riducendo i tempi richiesti dal lavoro, e quindi contenerne i costi. Questa proposta, tuttavia, non è una soluzione definitiva perché la revisione migliora un singolo testo: affinché l’azienda comunichi in modo efficace non si può prescindere da un adeguato percorso di formazione dei redattori. In particolare, in un manuale tecnico la qualità corrisponde a un linguaggio chiaro, semplice e non ambiguo, ben lontano dunque dal burocratese che viene considerato da molti un buono stile e dall’antilingua contro cui già Calvino metteva in guardia. Le competenze non solo linguistiche del traduttore gli permettono di rivelarsi una figura determinante anche per la redazione e la revisione di testi monolingue. Così come tradurre non significa trasferire da una lingua all’altra le parole, ma i concetti, allo stesso modo rendere chiaro, semplice e univoco un manuale non vuol dire solo aumentarne la leggibilità, ma soprattutto mettere il destinatario nelle condizioni di capire i contenuti e di eseguire correttamente le istruzioni nel passaggio dal contesto linguistico a quello fattuale. Anche nella revisione, come nella traduzione, gli strumenti automatici non sostituiscono il professionista, ma gli permettono di finalizzare a uno scopo preciso le sue conoscenze sul funzionamento della lingua e della comunicazione.
Resumo:
La documentazione tecnica ha assunto un ruolo fondamentale per i produttori sia per rispondere agli obblighi di legge (v. Direttiva Macchine 2006/42/CE) sia come strumento di marketing. Dato l’alto grado di ripetitività dei manuali di istruzioni e le numerose lingue di destinazione, per la loro traduzione è indispensabile l’uso dei CAT tool. In questo contesto, la presente tesi si pone l’obiettivo di individuare una serie di elementi linguistici che possano fornire informazioni sulla qualità dei testi di partenza in italiano e su cui si possa intervenire per migliorarli, nell’ottica di ottimizzare l’uso dei CAT tool e ridurre il costo delle traduzioni. L’idea alla base del progetto è infatti che le caratteristiche dei testi originali influiscano in maniera fondamentale sulla qualità del risultato finale, così come sul costo del servizio di traduzione. I contenuti sono suddivisi in cinque capitoli. Nel primo capitolo si analizzano gli studi sulla leggibilità dei testi, sulla semplificazione del linguaggio e sui linguaggi specialistici. Nel secondo capitolo si presenta il funzionamento dei CAT tool e si approfondiscono gli aspetti rilevanti per l’ottimizzazione del loro uso nella traduzione dei manuali di istruzioni. Nel terzo capitolo si combinano le conoscenze acquisite nei primi due capitoli e si propone un metodo di revisione dei manuali da sottoporre a traduzione. Tale revisione ha lo scopo di agevolare i CAT tool nel riconoscimento della somiglianza tra le frasi e di permettere di conseguenza un lavoro di traduzione a costi inferiori, senza però perdere di vista la qualità finale del manuale e la sua leggibilità e chiarezza. Nel quarto capitolo si espone l’applicazione pratica del metodo e si analizzano e discutono i risultati ottenuti. Nel quinto capitolo si traggono le conclusioni finali sul metodo proposto e i relativi risultati. Si propongono inoltre argomenti di riflessione e discussione che suggeriscono nuovi scenari e prospettive.
Resumo:
Per limitare gli effetti tossici delle Ag-NPs, si è pensato che esse possano essere utilizzate in forma di microincapsulati, in quanto le microcapsule possono avere una certa velocità di rilascio sotto specifiche condizioni. Incapsulando quindi le Ag-NPs, posso ottenere un rilascio controllato di esse, in modo da ottenere una concentrazione di esse utile allo scopo per cui vengono impiegate, evitando un sovradosaggio che non porterebbe alcun beneficio ma solo a una maggior probabilità di causare effetti tossici.
Resumo:
Lo scopo della tesi è la realizzazione del modello geologico-tecnico della frana in Loc. Calvanelle (Comune di Loiano, Bologna) finalizzato alla progettazione del consolidamento del versante e al ripristino della viabilità stradale. Per realizzare il modello geologico - tecnico ho interpretato i dati stratigrafici ottenuti da una campagna di sondaggi a carotaggio continuo. Questi dati sono stati integrati da indagini geofisiche per ottenere un modello più accurato, inoltre ho cartografato il corpo di frana con l'ausilio del GPS e derivato il suo profilo usando il Triplometro. E' stata quindi valutata l'evoluzione geomorfologica del corpo di frana ed è stata monitorata la variazione della falda tramite l'installazioni di 12 piezometri. Infine ho svolto un'analisi numerica, per interpretare la dinamica del corpo di frana e per definire i parametri geotecnici dei terreni coinvolti.
Resumo:
L’HTA rappresenta un valido strumento per operare un’analisi dell’impatto clinico,economico e organizzativo di apparecchiature sempre più tecnologicamente sofisticate.Il SIC si inserisce nella valutazione multidisciplinare con le metodologie dell’HTA garantendo appropriatezza e aggiornamento del patrimonio tecnologico per rendere più efficiente l’erogazione delle prestazioni sanitarie.L’HTA dalla valutazione dei bisogni analizza l’applicabilità clinica.Un SIC deve essere in grado di elaborare dati tecnici,gestionali e clinici mediante il software di gestione della manutenzione del parco macchine che nel caso dell’AOSP BO è TMS che gestisce tutte le fasi del ciclo di vita di un’apparecchiatura biomedica.Il ruolo strategico del SIC prevede la programmazione degli investimenti e la valutazione rigorosa nella scelta del rinnovo tecnologico (urgente o programmato) o del potenziamento del parco tecnologico.L’algoritmo analizzato va a individuare diverse categorie di apparecchiature del Sant’Orsola e valuta modello per modello se e quanto risulta efficiente dopo un’attenta analisi il loro trasferimento all’interno del nuovo Polo Cardio Toraco Vascolare inaugurato il 14 dicembre 2015,determinando così un eventuale rinnovo tecnologico,aggiornamento,fuori uso o mantenimento in vita della strumentazione in esame.Le fasi dell’algoritmo finalizzato alla definizione dei recuperi delle apparecchiature medicali nell’ambito dei progetti di riqualificazione tecnologica sono: 1.Normativo (rispondenza a prescrizioni generali relative alla sicurezza e verifiche particolari.Si definisce anche un’analisi dei rischi). 2.Funzionale (si analizzano su TMS l’età dell’apparecchiatura,i tempi di disservizio,il numero e la frequenza delle azioni di manutenzione, le parti consumabili). 3.Economico (costi degli interventi e mantenimento dell'apparecchiatura, spese relative ai pezzi di ricambio o materiale deperibile,contratto di assistenza). 4.Prestazionale (valutazione dello stato del sistema in toto).
Resumo:
Le colate detritiche sono manifestazioni parossistiche con trasporto impulsivo di sedimenti lungo la rete idrografica minore che presentano un elevato potere distruttivo. In questo lavoro di tesi si è cercato di descrivere inizialmente le caratteristiche tipiche delle colate di detrito, e le condizioni climatiche e geomorfologiche che tendono a favorirne l’innesco. Verranno poi analizzati, i casi relativi all’Appennino bolognese, prendendo come riferimento le colate rapide di detrito avvenute in località Serraglio (Baragazza) nei pressi del comune di Castiglione dei Pepoli. Nello specifico verrà indagato il fenomeno avvenuto il 31/01/2014, per il quale sono stati effettuati numerosi rilievi morfometrici che hanno portato ad individuare una geometria di dettaglio del canale di flusso e della nicchia di frana, per poter ricostruire i volumi di materiale mobilizzato. In contemporanea alle misure morfometriche si sono effettuate delle indagini sismiche volte a stimare lo spessore della coltre di alterazione presente all’interno del canale prima dell’evento, e a monte della nicchia di frana. Successivamente si è cercato di correlare le misure H/V con le prove MASW effettuate ,senza successo, ciò è probabilmente dovuto dalla difficoltà di indagare spessori così sottili con le MASW. Perciò utilizzando le indagini H/V si è tentato di ricostruire il modello geologico – tecnico alla scala del versante. Infine si è cercato di modellizzare il fenomeno utilizzando il software Dan-W con il quale si sono testati vari modelli reologici fra i quali si sono dimostrati più realistici, in riferimento al caso in esame, il modello frizionale ed il modello di Voellmy. Per questi due modelli è stata quindi effettuata la calibrazione dei parametri, in riferimento dei quali si è visto che, con il modello di Voellmy si è ottenuto un buon valore della distanza percorsa dalla colata, ma una stima delle velocità abbastanza elevate. Il modello frizionale invece ha portato ad una buona stima degli spessori dei depositi, ma sottostimando la distanza che avrebbe potuto percorrere la colata se non avesse incontrato ostacoli.
Resumo:
Tenendo conto dell'elevato numero di morti provocate da arresto cardiaco e la possibilità di abbassare questo numero intervenendo tempestivamente con un Defibrillatore, mi sono posto l'obiettivo di analizzare dal punto di vista prestazionale e di costi i principali Defibrillatori Automatici Esterni presenti sul mercato in prospettiva di un eventuale acquisto futuro da parte della sede di Ingegneria dell'Università di Bologna.
Resumo:
Studio di fattibilità della conversione del Vought V-173 per il volo ad alta quota. Per realizzare l'intero lavoro si è adoperato il software di fluidodinamica computazionale Flow Simulation di SolidWorks e si è scelto l'ambiente Matlab per la fase di elaborazione e presentazione dati. A partire dal modello tridimensionale in SolidWorks del V-173 si sono ricreate le curve CL e CD a partire dai punti ottenuti dalle simulazioni per diverse configurazioni del velivolo. Si è valutata l'aerodinamica del velivolo senza la presenza di eliche e di ipersostentatori e successivamente si sono seguite due strade diverse per valutare il comportamento del velivolo: nel primo caso si sono eseguiti studi dell'aerodinamica del Pancake in presenza degli ipersostentatori già presenti sul velivolo originario (i plain flap). In secondo luogo, tenendo in considerazione che il Pancake è un aeroplano bielica, si è voluta studiare l'influenza delle due eliche sulla sua aerodinamica: dopo aver riprodotto nel modo più verosimile entrambe le eliche utilizzando SolidWorks si è fatto uno studio di massima ricavando risultati che potessero indicare la compatibilità tra elica e velivolo a seguito dei risultati sperimentali ottenuti con Flow Simulation. Questa parte è stata realizzata per lo stesso tipo di elica tripala, ma prendendo in considerazione due diversi diametri, una di 4:9m e una da 2:5m.
Resumo:
Gestione calDAV e cardDAV per sincronizzazione rubrica e calendario
Resumo:
La fabbricazione additiva è una classe di metodi di fabbricazione in cui il componente viene costruito aggiungendo strati di materiale l’uno sull’altro, sino alla completa realizzazione dello stesso. Si tratta di un principio di fabbricazione sostanzialmente differente da quelli tradizionali attualmente utilizzati, che si avvalgono di utensili per sottrarre materiale da un semilavorato, sino a conferire all’oggetto la forma desiderata, mentre i processi additivi non richiedono l’utilizzo di utensili. Il termine più comunemente utilizzato per la fabbricazione additiva è prototipazione rapida. Il termine “prototipazione”’ viene utilizzato in quanto i processi additivi sono stati utilizzati inizialmente solo per la produzione di prototipi, tuttavia con l’evoluzione delle tecnologie additive questi processi sono sempre più in grado di realizzare componenti di elevata complessità risultando competitivi anche per volumi di produzione medio-alti. Il termine “rapida” viene invece utilizzato in quanto i processi additivi vengono eseguiti molto più velocemente rispetto ai processi di produzione convenzionali. La fabbricazione additiva offre diversi vantaggi dal punto di vista di: • velocità: questi processi “rapidi” hanno brevi tempi di fabbricazione. • realizzazione di parti complesse: con i processi additivi, la complessità del componente ha uno scarso effetto sui tempi di costruzione, contrariamente a quanto avviene nei processi tradizionali dove la realizzazione di parti complesse può richiedere anche settimane. • materiali: la fabbricazione additiva è caratterizzata dalla vasta gamma di materiali che può utilizzare per la costruzione di pezzi. Inoltre, in alcuni processi si possono costruire pezzi le cui parti sono di materiali diversi. • produzioni a basso volume: molti processi tradizionali non sono convenienti per le produzioni a basso volume a causa degli alti costi iniziali dovuti alla lavorazione con utensili e tempi di setup lunghi.
Resumo:
Database preferences La tesi passa in rassegna i principali approcci alla formulazione e risoluzione di query su database relazionali con preferenza, di tipo sia qualitativo sia quantitativo. Verranno inoltre studiati gli algoritmi per il calcolo di skyline.
Resumo:
Uno dei principali settori di studio nell’ambito della visione artificiale riguarda lo sviluppo e la continua ricerca di tecniche e metodologie atte alla ricostruzione di ambienti 3D. Una di queste è il Kinect Fusion, la quale utilizza il dispositivo Kinect per catturare ed elaborare informazioni provenienti da mappe di profondità relative a una particolare scena, per creare un modello 3D dell’ambiente individuato dal sensore. Il funzionamento generale del sistema “Kinect Fusion” consiste nella ricostruzione di superfici dense attraverso l’integrazione delle informazioni di profondità dei vari frame all’interno di un cubo virtuale, che a sua volta viene partizionato in piccoli volumi denominati voxel, e che rappresenta il volume della scena che si intende ricostruire. Per ognuno di tali voxel viene memorizzata la distanza (TSDF) rispetto alla superficie più vicina. Durante lo svolgimento di questo lavoro di tesi ci si è concentrati innanzitutto nell’analisi dell’algoritmo Voxel Hashing, una tecnica che mira a rendere l'algoritmo Kinect Fusion scalabile, attraverso una migliore gestione della struttura dati dei voxel allocando questi ultimi all'interno di una tabella di hash solo se strettamente necessario (TSDF inferiore a una soglia). In una prima fase del progetto si è quindi studiato in dettaglio il funzionamento di suddetta tecnica, fino a giungere alla fase della sua implementazione all’interno di un framework di ricostruzione 3D, basato su Kinect Fusion; si è quindi reso il sistema realizzato più robusto tramite l’applicazione di diverse migliorie. In una fase successiva sono stati effettuati test quantitativi e qualitativi per valutarne l'efficienza e la robustezza. Nella parte finale del progetto sono stati delineati i possibili sviluppi di future applicazioni.