551 resultados para Complianza, totale, arteriosa


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les macrolactones sont des squelettes structuraux importants dans de nombreuses sphères de l’industrie chimique, en particulier dans les marchés pharmaceutiques et cosmétiques. Toutefois, la stratégie traditionnelle pour la préparation de macrolactones demeure incommode en requérant notamment l’ajout (super)stœchiométrique d’agents activateurs. Conséquemment, des quantités stœchiométriques de sous-produits sont générées; ils sont souvent toxiques, dommageables pour l’environnement et nécessitent des méthodes de purification fastidieuses afin de les éliminer. La présente thèse décrit le développement d’une macrolactonisation efficace catalysée au hafnium directement à partir de précurseurs portant un acide carboxylique et un alcool primaire, ne générant que de l’eau comme sous-produit et ne nécessitant pas de techniques d’addition lente et/ou azéotropique. Le protocole a également été adapté à la synthèse directe de macrodiolides à partir de mélanges équimolaires de diols et de diacides carboxyliques et à la synthèse de dimères tête-à-queue de seco acides. Des muscs macrocycliques ainsi que des macrolactones pertinentes à la chimie médicinale ont pu être synthétisés avec l’approche développée. Un protocole pour l’estérification directe catalysée au hafnium entre des acides carboxyliques et des alcools primaires a aussi été développé. Différentes méthodes pour la macrolactonisation catalytique directe entre des alcools secondaires et des acides carboxyliques ont été étudiées. En outre, la stratégie de séparation de phase en macrocyclisation en débit continu a été appliquée lors de la synthèse totale formelle de la macrolactone ivorenolide A. Les étapes-clés de la synthèse incluent une macrocyclisation par le couplage d’alcynes de Glaser-Hay et une réaction de métathèse d’alcènes Z-sélective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio decritto in questo progetto di tesi ha avuto origine dalla volontà di analizzare l’atteggiamento di studenti di scuola superiore di I e II grado rispetto alla richiesta di fornire argomentazioni, di giustificare affermazioni o risultati ottenuti in ambito matematico. L’analisi quantitativa dei dati ottenuti sottoponendo gli studenti ad un questionario costituito da quesiti scelti in ambiti differenti tra le prove Invalsi ha evidenziato che solo una parte (36% per le superiori di I grado, 59% per le superiori di II grado) degli studenti che hanno risposto correttamente ai quesiti, è stata in grado di argomentare la risposta. L’analisi è stata a questo punto approfondita sulla base del modello di Toulmin e delle componenti del processo di argomentazione da lui descritte. Si è valutato per ogni argomentazione in quale o quali delle componenti toulminiane si sia concentrato l’errore. Ogni argomentazione considerata errata può infatti contenere errori differenti che possono riguardare una soltanto, diverse o tutte e quattro le componenti di Backing, Warrant, Data e Conclusion. L’informazione che ne è emersa è che nella maggioranza dei casi il fatto che uno studente di scuola superiore non riesca ad argomentare adeguatamente un’affermazione dipende dal richiamo errato di conoscenze sull'oggetto dell'argomentazione stessa ("Warrant" e "Backing"), conoscenze che dovrebbero supportare i passi di ragionamento. Si è infine condotta un’indagine sul terreno logico e linguistico dei passi di ragionamento degli studenti e della loro concatenazione, in modo particolare attraverso l’analisi dell’uso dei connettivi linguistici che esprimono e permettono le inferenze, e della padronanza logica delle concatenazioni linguistiche. Si è osservato per quanto riguarda le scuole superiori di I grado, che le difficoltà di argomentazione dovute anche a scarsa padronanza del linguaggio sono circa l’8% del totale; per le scuole superiori di II grado questa percentuale scende al 6%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En République Démocratique du Congo (RDC), les savanes couvrent 76,8 millions d’hectares et constituent le second type d’écosystème après les forêts denses qui représentent 10% des forêts au niveau mondial. Ces formations herbeuses et arbustives offrent des potentialités importantes de séquestration du dioxyde de carbone pouvant contribuer par le fait même à la lutte contre le réchauffement climatique. C’est dans cette optique que se situe cette thèse intitulée « Évolution naturelle de savanes mises en défens à Ibi-village sur le plateau des Bateke en République Démocratique du Congo» dans le cadre du projet puits carbone d’IBI-Bateke. L’objectif général de notre recherche est d’étudier l’évolution naturelle en absence de feu de savanes situées dans des zones climatiques avec précipitations abondantes. Le plateau des Bateke nous a servi d’analyse de cas. Les inventaires floristiques et dendrométriques de la strate arbustive et arborescente de nos dispositifs hiérarchiques, ont permis de suivre ce processus naturel en tenant compte du gradient écologique dans les trois types de formations végétales (îlot forestier, la galerie forestière et la plantation d’Acacia auriculiformis). Nous avons mis en défens des savanes arbustives du plateau des Bateke pour étudier leur évolution naturelle vers une forêt, leur établissement, qualité, régénération forestière et en déterminer le taux de séquestration du carbone à l’aide des équations allométriques de Chave et al. (2005). Nous avons obtenu des valeurs moyennes de 107,477 t/ha de biomasse totale soit 51,05 Mg C/ha dans la galerie forestière, 103,772 t/ha de biomasse totale soit 49,29 Mg C/ha dans l’Îlot forestier, et 22,336 t/ha de biomasse totale soit 10,60 Mg C/ha dans la plantation. La mise en défens a stimulé l’installation des espèces forestières, et par le fait même accéléré la production de biomasse et donc la fixation de carbone. La comparaison de la richesse et la diversité spécifiques de l’Îlot et la galerie montre 22 familles botaniques inventoriées avec 55 espèces dans l’îlot forestier contre 27 familles dont 58 espèces dans la galerie. L’analyse canonique réalisée entre les variables de croissance et les variables environnementales révèle qu’il existe effectivement des relations fortes d’interdépendance entre les deux groupes de variables considérées. Cette méthodologie appropriée à la présente étude n’avait jamais été évoquée ni proposée par des études antérieures effectuées par d’autres chercheurs au plateau des Bateke. Mots Clés : Galerie forestière, Îlot forestier, mise en défens, plantation d’Acacia auriculiformis, reforestation, régénération naturelle, République Démocratique du Congo, savanes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’effet du risque de prix sur la décision des agriculteurs et les transformateurs québécois. Elle se divise en trois chapitres. Le premier chapitre revient sur la littérature. Le deuxième chapitre examine l’effet du risque de prix sur la production de trois produits, à savoir le maïs grain, la viande de porc et la viande d’agneau dans la province Québec. Le dernier chapitre est centré sur l’analyse de changement des préférences du transformateur québécois de porc pour ce qui est du choix de marché. Le premier chapitre vise à montrer l’importance de l’effet du risque du prix sur la quantité produite par les agriculteurs, tel que mis en évidence par la littérature. En effet, la littérature révèle l’importance du risque de prix à l’exportation sur le commerce international. Le deuxième chapitre est consacré à l’étude des facteurs du risque (les anticipations des prix et la volatilité des prix) dans la fonction de l’offre. Un modèle d’hétéroscédasticité conditionnelle autorégressive généralisée (GARCH) est utilisé afin de modéliser ces facteurs du risque. Les paramètres du modèle sont estimés par la méthode de l’Information Complète Maximum Vraisemblance (FIML). Les résultats empiriques montrent l’effet négatif de la volatilité du prix sur la production alors que la prévisibilité des prix a un effet positif sur la quantité produite. Comme attendu, nous constatons que l’application du programme d’assurance-stabilisation des revenus agricoles (ASRA) au Québec induit une plus importante sensibilité de l’offre par rapport au prix effectif (le prix incluant la compensation de l’ASRA) que par rapport au prix du marché. Par ailleurs, l’offre est moins sensible au prix des intrants qu’au prix de l’output. La diminution de l’aversion au risque de producteur est une autre conséquence de l’application de ce programme. En outre, l’estimation de la prime marginale relative au risque révèle que le producteur du maïs est le producteur le moins averse au risque (comparativement à celui de porc ou d’agneau). Le troisième chapitre consiste en l’analyse du changement de préférence du transformateur québécois du porc pour ce qui est du choix de marché. Nous supposons que le transformateur a la possibilité de fournir les produits sur deux marchés : étranger et local. Le modèle théorique explique l’offre relative comme étant une fonction à la fois d’anticipation relative et de volatilité relative des prix. Ainsi, ce modèle révèle que la sensibilité de l’offre relative par rapport à la volatilité relative de prix dépend de deux facteurs : d’une part, la part de l’exportation dans la production totale et d’autre part, l’élasticité de substitution entre les deux marchés. Un modèle à correction d’erreurs est utilisé lors d’estimation des paramètres du modèle. Les résultats montrent l’effet positif et significatif de l’anticipation relative du prix sur l’offre relative à court terme. Ces résultats montrent donc qu’une hausse de la volatilité du prix sur le marché étranger par rapport à celle sur le marché local entraine une baisse de l’offre relative sur le marché étranger à long terme. De plus, selon les résultats, les marchés étranger et local sont plus substituables à long terme qu’à court terme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del mio elaborato è stato quello di valutare se il denaro potesse essere un veicolo di trasmissione di microrganismi. Esistono infatti reperti storici che indicano che il denaro veniva visto come probabile portatore di infezioni fatali come la “morte nera”, la peste bubbonica e le pandemie di polmoniti descritte in Europa. Vi sono anche altri studi che hanno indicato come patogeni isolati con maggiore frequenza dalle banconote microrganismi quali enterobatteri e stafilococchi. In questa sperimentazione mi sono occupato del campionamento microbiologico di banconote di vario taglio, raccolte prevalentemente in piccoli esercizi alimentari, sulle quali è stato fatto un tampone al fine di determinare la presenza di: coliformi totali, E. coli, S. aureus, altri stafilococchi, muffe, lieviti, carica batterica totale. Le analisi condotte hanno mostrato che nelle banconote non sono mai stati isolati ceppi di S. aureus, a differenza di quanto riportato nella letteratura. Simili considerazioni si possono fare anche per E. coli. Per quel che riguarda la carica batterica totale, le banconote più contaminate sono risultate essere quelle da 20 euro (valore medio 474 UFC/cm2). I tamponi microbiologici effettuati sui tagli da 50 euro sono stati gli unici ad essere caratterizzati da una elevata presenza di coliformi totali. In conclusione possiamo affermare che le banconote posso effettivamente costituire un importante veicolo di contaminazione microbica, che può poi trasferirsi anche su altri matrici, come prodotti alimentari. Considerando la pressione che viene esercitata dalle Autorità di controllo su tutte le fasi della catena alimentare, dalla produzione alla vendita al dettaglio, la variabile posta dalle possibili contaminazioni attraverso il maneggiamento e la circolazione delle banconote potrebbe quindi costituire un rischio reale, sia pure non ancora quantificato e forse non quantificabile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi "Analisi del ciclo di lavorazione e dei costi di trattamenti termici" è stata svolta in collaborazione con l'azienda PASELLO TRATTAMENTI TERMICI s.r.l. che si occupa di trattamenti termici dei metalli per conto terzi. L’obiettivo è svolgere l’analisi del ciclo di lavorazione e dei costi di due prodotti ricevuti in conto lavoro dall’azienda, confrontando i trattamenti termici di cementazione in atmosfera e a bassa pressione. Nel capitolo 1 sono descritti i tratti generali dell’azienda, le risorse produttive di cui dispone e come vengono gestite l’identificazione e la tracciabilità dei prodotti durante il processo produttivo. Nel capitolo 2 viene analizzato il ciclo di lavorazione in atmosfera di un prodotto del cliente Sarbo Spa, sottoposto al trattamento termico di cementazione in atmosfera. Dunque vengono descritti il trattamento termico e le caratteristiche principali dei pezzi. Allo stesso modo, nel capitolo 3, viene analizzato il ciclo di lavorazione in bassa pressione di un prodotto del cliente Seven Diesel Spa, sottoposto al trattamento termico di cementazione a bassa pressione. Nel capitolo 4 viene svolta l’analisi dei costi, secondo la logica “full costing”, tenendo distinti i due ordini e determinando il costo industriale. Vengono analizzati gli investimenti nelle due linee, i costi di ammortamento, i costi dei materiali di consumo, i costi di manodopera e i costi dei gas di processo, fino a determinare il costo totale di fornata per la cementazione in atmosfera e per la cementazione a bassa pressione, e quindi l’euro al chilo e al pezzo dei due ordini. Inoltre è quantificata l’incidenza dei costi in percentuale sul costo totale di fornata. Nella conclusione viene sottolineato il fatto che, nonostante l’investimento in una linea innovativa come quella a bassa pressione sia superiore rispetto a quello per la linea in atmosfera, se si considera l’intero processo produttivo, risulta più conveniente la cementazione in bassa pressione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les concentrés de protéines de lait sont couramment utilisés comme ingrédients lors de la standardisation du lait de fromagerie. La concentration des protéines est généralement réalisée par ultrafiltration (UF) à l’aide de membranes polymériques ayant un seuil de coupure de 10 kDa, et ce, jusqu’à un facteur de concentration volumique de 3.5X. Dans l’optique d’améliorer l’efficience du procédé d’UF, l’étude avait pour but de caractériser l’impact du mode opératoire (pression transmembranaire constante (465 et 672 kPa) et flux constant) ainsi que la température (10°C et 50°C) sur la performance du système jusqu’à un facteur de concentration volumique de 3.6X. Le module de filtration à l’échelle pilote comprenait une membrane d’UF en polyéthersulfone de 10 kDa d’une surface de 2,04 m2. La performance du système a été caractérisée sur le flux de perméation, la sélectivité et la consommation énergétique totale. L’étude a montré que le flux de perméation était 1,9 fois plus élevé à une température de 50°C comparativement à 10°C lors de l’UF du lait. Le coefficient de rejet des protéines n’a pas été affecté significativement par la pression transmembranaire et la température (P< 0,05). L’effet de la température a été observé au niveau de la teneur en calcium, laquelle était plus élevée de 12% dans les rétentats générés à 50C. La consommation énergétique totale du système d’UF était plus élevée à 10C comparativement à 50C, représentant 0,32±0,02 et 0,26±0,04 kWh/kg rétentat respectivement. Les résultats montrent que le ratio d’efficience énergétique (rapport entre le flux de perméation et la consommation énergétique) optimal a été obtenu à faible pression transmembranaire constante et à 50C. L’approche développée dans le cadre de ce projet fournira des outils aux industriels laitiers pour améliorer l’éco-efficience de leurs procédés de séparation baromembranaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato ha come obiettivo valutare l’efficacia di alcuni composti d’aroma, ossia componenti di oli essenziali la cui attività antimicrobica è nota in letteratura, nell’aumentare la sicurezza igienico-sanitaria di germogli di ravanello Daikon. In particolare sono stati utilizzati timolo e carvacrolo, costituenti di oli di piante tra cui timo e origano. Vista la grande espansione nel mercato alimentare di semi germogliati pronti all’uso, matrice veicolante numerosi casi di tossinfezione alimentare, sono state effettuate prove per valutare il rischio di sviluppo di Listeria. Si è lavorato simulando un processo casalingo, facendo germinare i semi in acqua addizionata o meno di diverse concentrazioni dei due terpeni fenolici. I semi utilizzati venivano precedentemente inoculati con Listeria innocua, utilizzata come surrogato del patogeno Listeria monocytogenes. Il ricambio dell’acqua di ammollo avveniva ogni 24 ore, e dopo 6/24/32/48 ore venivano prelevate quantità note di semi e acqua, al fine di valutarne il contenuto in L. innocua, carica microbica totale ed enterobatteri. La prima prova, che ha previsto l’uso di timolo come unico composto antimicrobico, ha mostrato una riduzione di un ciclo logaritmico di L. innocua ed enterobatteri nei semi, mentre nell’acqua essi erano presenti solo dopo 24 e 48 ore. Risultati analoghi sono stati ottenuti utilizzando solo carvacrolo. Infine è stato testato l’eventuale effetto sinergico di timolo e carvacrolo, che però non ha dato differenze particolari rispetto a campioni trattati coi singoli composti. I risultati ottenuti hanno evidenziato l’elevato rischio microbiologico associato ai semi germogliati con produzione domestica, poiché le condizioni adottate favoriscono lo sviluppo di specie patogene. L’utilizzo dei composti di aroma, se pure in grado di ridurre sia le cinetiche di crescita che la quantità di Listeria, non è tuttavia in grado di controllare in maniera significativa il rischio associato a tali prodotti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quattro sistemi pilota, cilindrici, rappresentanti SFS a flusso verticale sono stati adoperati in parallelo per attività di ricerca. Il refluo trattato, defluente dalla sede di Ingegneria di via Terracini e classificabile come urbano, è stato immesso negli SFSV a valle di una sedimentazione primaria. Segue una breve descrizione dei sistemi. 1. VFF - Vertical Flow Filter - Reattore assimilabile ad un filtro a sabbia; 2. VFCWW - Vertical Flow Constructed Wetland with worms - Reattore dotato sia di piante (tipologia Phragmites Australis) sia di vermi (lombrichi); 3. VFCW - Vertical Flow Constructed Wetland - Reattore dotato di piante (tipologia Phragmites Australis); 4. VFFW - Vertical Flow Filter with worms - Reattore assimilabile ad un filtro a sabbia dotato di vermi (lombrichi). Il rendimento offerto da ciascun sistema è stato calcolato sulla base dei risultati forniti dalle analisi eseguite in laboratorio su campioni prelevati in input ed output da ciascun reattore. L'obiettivo dello studio è stato quello di valutare l'efficienza dei sistemi in relazione ai parametri misurati (azoto e fosforo totale, solidi sospesi, COD, ione ammoniacale, ortofosfato).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire est une analyse et une évaluation de la retraduction en suédois de « Le Petit Prince » d’Antoine de Saint-Exupéry (T2), parue chez Modernista, en 2015, en relation avec le texte source en français et en relation avec la traduction classique, parue chez Rabén&Sjögren, en 1952 (T1 ; la version révisée de 2015, actuelle au moment de la retraduction). L’analyse se base sur quelques concepts de Lita Lundquist, notamment la distinction entre stratégie de traduction « imitative » et « fonctionnelle », et la cohérence entre la stratégie « globale » et les stratégies « locales ». De plus, notre analyse nous mène à la distinction entre « traduction » et « révision », comme présentée par Philippe Bouquet (2012), et à la distinction entre une définition linguistique de traduction – approche principale de ce travail – et une définition socio-culturelle selon Toury (1995). Les résultats principaux sont 1) la découverte d’un manque de stratégie globale cohérente dans la T2 – à la différence de la T1– et 2) une dépendance forte de la T1 dans la T2. Aussi, dans la retraduction, nous avons remarqué une stratégie locale remarquable de suppression totale du pronom personnel suédois de man. Ces résultats sont brièvement discutés sous la lumière des aspects socio-culturels et dans une section sur l’applicabilité de l’hypothèse de la retraduction (Tegelberg 2014).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro si pone l'obiettivo di fornire stime della dose efficace annua e della dose al cristallino annua per operatori di radiologia interventistica. Ci si concentra inoltre sulla dose al cristallino vista la recente direttiva EURATOM che dovrà essere recepita dalla normativa italiana entro febbbraio 2018. Ci si è occupati di una equipe di tre medici radiologi operanti presso il reparto di Neuroradiologia dell'Ospedale Bellaria di Bologna che lavora principalmente con un angiografo biplanare. Il lavoro sperimentale ha avuto inizio delineando il campo di radiazione presente nella sala operatoria ed in particolare, nei pressi del primo medico operatore che è risultato essere quello più esposto alle radiazioni. Il campo di radiazione è stato definito tramite misurazioni con camera a ionizzazzione utilizzando dei fantocci in PMMA simulanti un paziente. Determinati i valori del campo di radiazione e stabiliti alcuni parametri fissi si è cercato un parametro (possibilmente registrato dalla macchina) che permettesse una correlazione tra il carico di lavoro degli operatori e la dose da essi ricevuta in modo da ricavare stime sul lungo periodo. Questo è stato individuato nel DAP totale (registrato automaticamente dopo ogni intervento e presenti nei report) grazie alla presenza di mappe isokerma fornite dalla ditta costruttrice dell'angiografo. Tali mappe forniscono una relazione tra Kerma e DAP al variare di alcuni parametri di macchina. Affinchè fosse possibile utilizzare le mappe isokerma ne è stata necessaria la verifica tramite ulteriori misure sperimentali (nelle stesse condizioni operative definite nelle mappe). Effettuata la verifica si è determinato il carico di lavoro degli operatori per quattro mesi, assunto come periodo sufficientemente lungo per una stima sulla dose assorbita annua. Combinando i carichi di lavoro con i valori di dose assorbita rilevati si sono ottenute le stime obiettivo della tesi che vengono discusse sotto vari aspetti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il contesto dinamico in cui operano le aziende richiede, sempre più, sistemi di gestione flessibili e in continua evoluzione, e soprattutto richiede che le varie funzioni aziendali siano integrate tra loro. Così anche la funzione di manutenzione, la quale nei tempi passati, era considerata una funzione di supporto alla produzione, ora è vista come parte integrante della stessa. Pertanto è necessario che la gestione dei flussi logistici ed informativi relativi ai processi di manutenzione, siano il più possibile efficace ed efficienti, al fine di ridurre i costi complessivi sostenuti dall’azienda. L’elaborato tratta del dimensionamento di un magazzino ricambi e della relativa gestione operativa ed informativa, applicati ad un caso aziendale. Geberit Produzione Spa ha la necessità di migliorare i flussi della gestione manutentiva totale, andando a correggere le criticità rilevate nel sistema attuale. Il dimensionamento è sviluppato sulla base delle informazioni raccolte dal campo, le quali permettono di individuare la quantità ottimale di ricambi, che minimizzi da un lato i costi di mantenimento a scorta e dall’altro i costi dovuti alla mancanza dei ricambi nel momento necessario. Secondo le tipologie di materiale tecnico presenti, sono individuate le modalità di immagazzinamento e i mezzi di movimentazione più idonei, ed in base a questi viene definito il layout definitivo. Sono, poi, determinati i criteri di gestione dei flussi logistici e di informatizzazione dei processi, al fine di descrivere delle procedure standard che regolino l’operato del personale. Scelti gli indici di valutazione delle performance della manutenzione, è stata valutata la convenienza economica della realizzazione del progetto. Con questo studio vengono definite le fondamenta per una efficace ed efficiente gestione futura della manutenzione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il percorso di tesi che ho intrapreso è stato svolto presso l'azienda Datalogic, con l'intento di integrare un sistema di visione ad un sistema di marcatura laser. L'utilizzo di questo potente strumento è però vincolato dalla particolare posizione fisica occupata, di volta in volta, dall'oggetto; per questo motivo viene fissato nella posizione desiderata, attraverso dime meccaniche. Fin ad ora si riteneva assolutamente necessaria la presenza di un operatore per il controllo del corretto posizionamento, tramite una simulazione della marcatura. Per ovviare a questo limite strutturale, Datalogic ha pensato di introdurre uno strumento di aiuto e di visione del processo: la camera. L'idea di base è stata quella di impiegare le moderne smart camera per individuare l'oggetto da marcare e rendere quindi il processo più automatico possibile. Per giungere a questo risultato è stato necessario effettuare una calibrazione del sistema totale: Camera più Laser. Il mio studio si è focalizzato quindi nel creare un eseguibile che aiutasse il cliente ad effettuare questa operazione nella maniera più semplice possibile. E' stato creato un eseguibile in C# che mettesse in comunicazione i due dispositivi ed eseguisse la calibrazione dei parametri intrinseci ed estrinseci. Il risultato finale ha permesso di avere il sistema di riferimento mondo della camera coincidente con quello del piano di marcatura del laser. Ne segue che al termine del processo di calibrazione se un oggetto verrà rilevato dalla camera, avente il baricentro nella posizione (10,10), il laser, utilizzando le medesime coordinate, marcherà proprio nel baricentro dell'oggetto desiderato. La maggiore difficoltà riscontrata è stata la differenza dei software che permettono la comunicazione con i due dispositivi e la creazione di una comunicazione con il laser, non esistente prima in C#.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Système Stockage de l’Énergie par Batterie ou Batterie de Stockage d’Énergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation d’énergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant d’injecter d’importantes quantités d’énergie renouvelable d’une part et d’autre part, en tant que composante essentielle aux grands réseaux électriques. De plus, d’énormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de l’émission des gaz à effet de serre, la réduction des pertes marginales, l’alimentation de certains consommateurs en source d’énergie d’urgence, l’amélioration de la gestion de l’énergie, et l’accroissement de l’efficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : l’Étape 1 - est relative à l’utilisation de la BSE en guise de réduction des pertes électriques ; l’Étape 2 - utilise la BSE comme élément de réserve tournante en vue de l’atténuation de la vulnérabilité du réseau ; et l’Étape 3 - introduit une nouvelle méthode d’amélioration des oscillations de fréquence par modulation de la puissance réactive, et l’utilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Étape, relative à l’utilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à l’allocation optimale et le seconde, à l’utilisation optimale. Dans la première sous-étape, l’Algorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de l’IREQ, en tant qu’algorithme évolutionniste multiobjectifs, permettant d’extraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à l’allocation et résout aussi la question de la programmation/scheduling dans l’interconnexion du Québec. Dans le but de réaliser l’objectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps d’une année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et l’efficacité énergétique constituent les principaux objectifs. Quant à la seconde Étape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. L’algorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de l’indice de vulnérabilité proposé et l’efficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que l’utilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Étape expose un nouveau concept d’ajout d’une inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté l’utilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à l’interconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de l’utilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.