765 resultados para Quantité d’énergie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi ha l'obiettivo di analizzare e ottimizzare i flussi di approvvigionamento in un'azienda che produce su commessa: CT Pack S.r.L, specializzata nella realizzazione di macchine automatiche per il packaging di biscotti, gelato e cioccolato. Per raggiungere l'obiettivo si è preso come riferimento il modello proposto dal BPR (Business Process Reengineering): sono stati analizzati i principali attori coinvolti, in particolare fornitori e magazzino, mediante l'uso di KPI definiti ad hoc. Sulla base di questi sono stati individuati due processi critici: il primo riguarda la gestione del magazzino, che presenta un'elevata quantità di codici non movimentati anche a causa del processo di gestione del materiale avanzato al termine di ciascuna commessa; il secondo riguarda il materiale a consumo, che impiega i magazzinieri per un tempo eccessivo, è caratterizzato da giacenze per il 30% non movimentate e da supermarket collocati in officina ridondanti e caratterizzati da bassi tassi di utilizzo (anche sotto il 50%). Per risolvere questi problemi ed effettuare una riprogettazione si fa affidamento agli strumenti proposti dal project management: si imposta quindi un progetto che ha l'obiettivo di ridurre nel breve periodo il valore di magazzino mediante lo smaltimento attraverso diverse vie di codici non utilizzati e agisce nel lungo periodo per evitare che le criticità si ripropongano. Mediante la riprogettazione della gestione dei resi di produzione si prevede un maggior controllo, grazie al lavoro congiunto di ufficio tecnico e ufficio acquisti. La nuova gestione del materiale a consumo ha in se alcune delle tecniche proposte dalla lean production (il kanban, per esempio) e integra il fornitore nella catena di approvvigionamento, garantendo un maggior controllo sulle quantità, un risparmio di circa 7 h/mese di lavoro per i magazzinieri e una riduzione delle giacenze del 46%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato ha come obiettivo valutare l’efficacia di alcuni composti d’aroma, ossia componenti di oli essenziali la cui attività antimicrobica è nota in letteratura, nell’aumentare la sicurezza igienico-sanitaria di germogli di ravanello Daikon. In particolare sono stati utilizzati timolo e carvacrolo, costituenti di oli di piante tra cui timo e origano. Vista la grande espansione nel mercato alimentare di semi germogliati pronti all’uso, matrice veicolante numerosi casi di tossinfezione alimentare, sono state effettuate prove per valutare il rischio di sviluppo di Listeria. Si è lavorato simulando un processo casalingo, facendo germinare i semi in acqua addizionata o meno di diverse concentrazioni dei due terpeni fenolici. I semi utilizzati venivano precedentemente inoculati con Listeria innocua, utilizzata come surrogato del patogeno Listeria monocytogenes. Il ricambio dell’acqua di ammollo avveniva ogni 24 ore, e dopo 6/24/32/48 ore venivano prelevate quantità note di semi e acqua, al fine di valutarne il contenuto in L. innocua, carica microbica totale ed enterobatteri. La prima prova, che ha previsto l’uso di timolo come unico composto antimicrobico, ha mostrato una riduzione di un ciclo logaritmico di L. innocua ed enterobatteri nei semi, mentre nell’acqua essi erano presenti solo dopo 24 e 48 ore. Risultati analoghi sono stati ottenuti utilizzando solo carvacrolo. Infine è stato testato l’eventuale effetto sinergico di timolo e carvacrolo, che però non ha dato differenze particolari rispetto a campioni trattati coi singoli composti. I risultati ottenuti hanno evidenziato l’elevato rischio microbiologico associato ai semi germogliati con produzione domestica, poiché le condizioni adottate favoriscono lo sviluppo di specie patogene. L’utilizzo dei composti di aroma, se pure in grado di ridurre sia le cinetiche di crescita che la quantità di Listeria, non è tuttavia in grado di controllare in maniera significativa il rischio associato a tali prodotti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il CTBT (Trattato di Bando Complessivo dei Test Nucleari) è un accordo multilaterale tra Stati, stilato nel 1996, che impone il divieto assoluto di effettuare esplosioni di tipo nucleare, sia per scopi civili che per scopi militari, in qualsiasi ambiente. Esso prevede l'istituzione di un sistema di verifica e monitoraggio che si prefigge lo scopo di rilevare tempestivamente se in una qualsiasi parte del mondo sia stato clandestinamente effettuato un test. Tra le varie tecniche utilizzate, la più decisiva per l'identificazione di un'esplosione è data dal monitoraggio di radionuclidi, che permette di fare ipotesi su di un eventuale evento illecito di origine nucleare se in una certa regione si rileva la presenza nell'ambiente di particolari isotopi radioattivi in quantità anomale. Attualmente, il metodo più efficace consiste nell'eventuale identificazione della presenza di quattro radioisotopi di gas nobili, ovvero xeno-131m, xeno-133, xeno-133m e xeno-135. Di recente, però, gli esperti hanno cominciato a valutare l'ipotesi di effettuare misurazioni anche di un altro radioisotopo di gas nobili, ovvero l'argon-37. L'efficacia nell'utilizzo di quest'ultimo è superiore a quella che caratterizza il monitoraggio dello xeno, anche se il motivo per cui il metodo di rilevazione dell'argon non è ancora sfruttato è dato dall'estrema difficoltà che la sua misurazione comporta. Obiettivo di questo lavoro è proprio quello di analizzare le potenzialità dell'utilizzo di tale radioisotopo dell'argon per gli scopi di verifica del CTBT, di descrivere l'attuale stato dell'arte delle tecnologie disponibili per la sua misurazione e di valutare quantitativamente il fondo di argon-37 naturalmente presente, in modo da stabilire i criteri con cui si possa dire se le quantità rilevate siano compatibili con la normale presenza di tale radioisotopo oppure se siano senza dubbio dovute a un'avvenuta esplosione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse s’intéresse aux politiques de santé conçues pour encourager l’offre de services de santé. L’accessibilité aux services de santé est un problème majeur qui mine le système de santé de la plupart des pays industrialisés. Au Québec, le temps médian d’attente entre une recommandation du médecin généraliste et un rendez-vous avec un médecin spécialiste était de 7,3 semaines en 2012, contre 2,9 semaines en 1993, et ceci malgré l’augmentation du nombre de médecins sur cette même période. Pour les décideurs politiques observant l’augmentation du temps d’attente pour des soins de santé, il est important de comprendre la structure de l’offre de travail des médecins et comment celle-ci affecte l’offre des services de santé. Dans ce contexte, je considère deux principales politiques. En premier lieu, j’estime comment les médecins réagissent aux incitatifs monétaires et j’utilise les paramètres estimés pour examiner comment les politiques de compensation peuvent être utilisées pour déterminer l’offre de services de santé de court terme. En second lieu, j’examine comment la productivité des médecins est affectée par leur expérience, à travers le mécanisme du "learning-by-doing", et j’utilise les paramètres estimés pour trouver le nombre de médecins inexpérimentés que l’on doit recruter pour remplacer un médecin expérimenté qui va à la retraite afin de garder l’offre des services de santé constant. Ma thèse développe et applique des méthodes économique et statistique afin de mesurer la réaction des médecins face aux incitatifs monétaires et estimer leur profil de productivité (en mesurant la variation de la productivité des médecins tout le long de leur carrière) en utilisant à la fois des données de panel sur les médecins québécois, provenant d’enquêtes et de l’administration. Les données contiennent des informations sur l’offre de travail de chaque médecin, les différents types de services offerts ainsi que leurs prix. Ces données couvrent une période pendant laquelle le gouvernement du Québec a changé les prix relatifs des services de santé. J’ai utilisé une approche basée sur la modélisation pour développer et estimer un modèle structurel d’offre de travail en permettant au médecin d’être multitâche. Dans mon modèle les médecins choisissent le nombre d’heures travaillées ainsi que l’allocation de ces heures à travers les différents services offerts, de plus les prix des services leurs sont imposés par le gouvernement. Le modèle génère une équation de revenu qui dépend des heures travaillées et d’un indice de prix représentant le rendement marginal des heures travaillées lorsque celles-ci sont allouées de façon optimale à travers les différents services. L’indice de prix dépend des prix des services offerts et des paramètres de la technologie de production des services qui déterminent comment les médecins réagissent aux changements des prix relatifs. J’ai appliqué le modèle aux données de panel sur la rémunération des médecins au Québec fusionnées à celles sur l’utilisation du temps de ces mêmes médecins. J’utilise le modèle pour examiner deux dimensions de l’offre des services de santé. En premierlieu, j’analyse l’utilisation des incitatifs monétaires pour amener les médecins à modifier leur production des différents services. Bien que les études antérieures ont souvent cherché à comparer le comportement des médecins à travers les différents systèmes de compensation,il y a relativement peu d’informations sur comment les médecins réagissent aux changementsdes prix des services de santé. Des débats actuels dans les milieux de politiques de santé au Canada se sont intéressés à l’importance des effets de revenu dans la détermination de la réponse des médecins face à l’augmentation des prix des services de santé. Mon travail contribue à alimenter ce débat en identifiant et en estimant les effets de substitution et de revenu résultant des changements des prix relatifs des services de santé. En second lieu, j’analyse comment l’expérience affecte la productivité des médecins. Cela a une importante implication sur le recrutement des médecins afin de satisfaire la demande croissante due à une population vieillissante, en particulier lorsque les médecins les plus expérimentés (les plus productifs) vont à la retraite. Dans le premier essai, j’ai estimé la fonction de revenu conditionnellement aux heures travaillées, en utilisant la méthode des variables instrumentales afin de contrôler pour une éventuelle endogeneité des heures travaillées. Comme instruments j’ai utilisé les variables indicatrices des âges des médecins, le taux marginal de taxation, le rendement sur le marché boursier, le carré et le cube de ce rendement. Je montre que cela donne la borne inférieure de l’élasticité-prix direct, permettant ainsi de tester si les médecins réagissent aux incitatifs monétaires. Les résultats montrent que les bornes inférieures des élasticités-prix de l’offre de services sont significativement positives, suggérant que les médecins répondent aux incitatifs. Un changement des prix relatifs conduit les médecins à allouer plus d’heures de travail au service dont le prix a augmenté. Dans le deuxième essai, j’estime le modèle en entier, de façon inconditionnelle aux heures travaillées, en analysant les variations des heures travaillées par les médecins, le volume des services offerts et le revenu des médecins. Pour ce faire, j’ai utilisé l’estimateur de la méthode des moments simulés. Les résultats montrent que les élasticités-prix direct de substitution sont élevées et significativement positives, représentant une tendance des médecins à accroitre le volume du service dont le prix a connu la plus forte augmentation. Les élasticitésprix croisées de substitution sont également élevées mais négatives. Par ailleurs, il existe un effet de revenu associé à l’augmentation des tarifs. J’ai utilisé les paramètres estimés du modèle structurel pour simuler une hausse générale de prix des services de 32%. Les résultats montrent que les médecins devraient réduire le nombre total d’heures travaillées (élasticité moyenne de -0,02) ainsi que les heures cliniques travaillées (élasticité moyenne de -0.07). Ils devraient aussi réduire le volume de services offerts (élasticité moyenne de -0.05). Troisièmement, j’ai exploité le lien naturel existant entre le revenu d’un médecin payé à l’acte et sa productivité afin d’établir le profil de productivité des médecins. Pour ce faire, j’ai modifié la spécification du modèle pour prendre en compte la relation entre la productivité d’un médecin et son expérience. J’estime l’équation de revenu en utilisant des données de panel asymétrique et en corrigeant le caractère non-aléatoire des observations manquantes à l’aide d’un modèle de sélection. Les résultats suggèrent que le profil de productivité est une fonction croissante et concave de l’expérience. Par ailleurs, ce profil est robuste à l’utilisation de l’expérience effective (la quantité de service produit) comme variable de contrôle et aussi à la suppression d’hypothèse paramétrique. De plus, si l’expérience du médecin augmente d’une année, il augmente la production de services de 1003 dollar CAN. J’ai utilisé les paramètres estimés du modèle pour calculer le ratio de remplacement : le nombre de médecins inexpérimentés qu’il faut pour remplacer un médecin expérimenté. Ce ratio de remplacement est de 1,2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il contesto dinamico in cui operano le aziende richiede, sempre più, sistemi di gestione flessibili e in continua evoluzione, e soprattutto richiede che le varie funzioni aziendali siano integrate tra loro. Così anche la funzione di manutenzione, la quale nei tempi passati, era considerata una funzione di supporto alla produzione, ora è vista come parte integrante della stessa. Pertanto è necessario che la gestione dei flussi logistici ed informativi relativi ai processi di manutenzione, siano il più possibile efficace ed efficienti, al fine di ridurre i costi complessivi sostenuti dall’azienda. L’elaborato tratta del dimensionamento di un magazzino ricambi e della relativa gestione operativa ed informativa, applicati ad un caso aziendale. Geberit Produzione Spa ha la necessità di migliorare i flussi della gestione manutentiva totale, andando a correggere le criticità rilevate nel sistema attuale. Il dimensionamento è sviluppato sulla base delle informazioni raccolte dal campo, le quali permettono di individuare la quantità ottimale di ricambi, che minimizzi da un lato i costi di mantenimento a scorta e dall’altro i costi dovuti alla mancanza dei ricambi nel momento necessario. Secondo le tipologie di materiale tecnico presenti, sono individuate le modalità di immagazzinamento e i mezzi di movimentazione più idonei, ed in base a questi viene definito il layout definitivo. Sono, poi, determinati i criteri di gestione dei flussi logistici e di informatizzazione dei processi, al fine di descrivere delle procedure standard che regolino l’operato del personale. Scelti gli indici di valutazione delle performance della manutenzione, è stata valutata la convenienza economica della realizzazione del progetto. Con questo studio vengono definite le fondamenta per una efficace ed efficiente gestione futura della manutenzione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le tradizionali tecniche usate per l’analisi della struttura e della composizione comprendono, tra le altre, microscopia ottica, microscopia elettronica, diffrazione a raggi X e analisi chimica. In generale però, la maggior parte di questi metodi richiede una procedura di preparazione che può modificare la struttura o la composizione del campione. È necessario infatti che il campione non subisca alterazioni particolari durante la fase di preparazioni in modo tale che le condizioni fisiologiche rimangano il più possibile simili a quelle che si hanno in situ. Una tecnica che ultimamente sta diventando sempre più significativa in ambito biomedico è la spettroscopia Raman. Innanzitutto con l’analisi Raman la quantità di materiale da studiare per ottenere buoni risultati è minima, visto che possono essere studiati campioni che vanno dai micro ai nanogrammi; inoltre, possono essere analizzati campioni umidi e a pressione atmosferica, condizioni che rispecchiano verosimilmente quelle fisiologiche. Questo tipo di analisi è inoltre vantaggiosa dato che riesce a identificare diversi composti chimici, ha un’elevata risoluzione spaziale (0.6-1µm), riuscendo quindi ad analizzare campioni molto piccoli, ha tempi di misura brevi e può essere utilizzato più volte sullo stesso campione senza che quest’ultimo venga danneggiato. Nel seguente elaborato si sono riportati i risultati di diversi studi condotti sull’idrossiapatite naturale/biologica e sintetica ottenuti mediante questa tecnica spettroscopica. In particolare, ci si è soffermati sulla diversa concentrazione di OH- presente nell’apatite stechiometrica rispetto a quella biologica e di come tale concentrazione sia influenzata dalla presenza o meno dello ione carbonato. Si riportano inoltre le analisi condotte su campioni sintetici e biologici per comprendere se le molecole di acqua si trovino all’interno della struttura del minerale (acqua di bulk) o se siano solamente assorbite in superficie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si pone l’obiettivo di individuare il corretto veicolo “carrier” per un cemento bioceramico premiscelato, iniettabile e pronto all’uso. Il suddetto cemento è creato per applicazioni di chiusura e otturazioni permanenti del canale radicolare. A tale scopo è stato analizzato anatomicamente il dente e sono state approfondite le patologie. In seguito si è posta particolare attenzione per l’endodonzia e la terapia endodontica ortograda. L’attenzione si è poi focalizzata sui cementi endodontici allo scopo di ricercare lo stato dell’arte circa le proprietà chimico-fisiche di cementi ampiamente utilizzati in odontoiatria quali il mineral trioxide aggregate (MTA) e il cemento da cui è derivato ossia il cemento Portland. La parte sperimentale dell’elaborato parte con l’idea di ricreare, presso il Centro di Ricerca Interdisciplinare di Biomineralogia, Cristallografia e Biomateriali del Dipartimento di Scienze della Terra e Geologico-Ambientali dell’Università di Bologna, un prodotto con le stesse caratteristiche di un cemento ad uso endodontico iniettabile attualmente in commercio. Si è quindi studiato non solo il comportamento ma si sono anche analizzate le caratteristiche superficiali al SEM del suddetto cemento additivato con differenti sostanze (acqua, PEG 400, etil-lattato, glicerina) in diverse quantità. Si è passati di poi a testare il campione dalle caratteristiche più vicine all’obiettivo su disco di dentina con il permeabilimetro di Pashley e successivamente, si sono osservati dischi di dentina dopo l’applicazione del cemento e dopo attacco acido al SEM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce in un progetto basato sulla ricerca di monomeri e polimeri derivati da fonte bio, in un’ottica di transizione verso una chimica green legata alla realizzazione di prodotti ottenuti da risorse rinnovabili e con processi a basso impatto ambientale. I polimeri bio, in particolare, sono prodotti parzialmente o interamente ottenibili da risorse rinnovabili, quali oli vegetali, zuccheri, grassi, resine, proteine, amminoacidi, frazioni lignocellulosiche, etc, e non da petrolio. Tra questi, gli oli vegetali sono interessanti come reagenti di partenza perché permettono di minimizzare l’uso di derivati petrolchimici e sono disponibili in quantità maggiore rispetto al petrolio. Una possibilità di sintesi di polimeri da oli consiste nel trasformare gli acidi grassi, ottenendo composti bifunzionali che possono agire da precursori nella polimerizzazione: in questo modo si possono ottenere molti polimeri lineari, tra cui poliuretani, polieteri, poliesteri, poliammidi, etc. Questo è stato l’approccio seguito per la sintesi dei poliesteri alla base del progetto di tesi. In particolare, il lavoro si è articolato nella sintesi di monomeri e polimeri utilizzando derivati di acidi carbossilici omega insaturi. Inizialmente, trattandosi di prove esplorative sulla fattibilità delle reazioni, è stato utilizzato un precursore commerciale: visti i buoni risultati ottenuti, lo studio è poi proseguito con la sintesi di poliesteri a partire da prodotti di origine naturale. Tutte le polimerizzazioni sono state effettuate in massa. Per ogni reagente, monomero e polimero sono state effettuate analisi NMR (1H-NMR, 13C-NMR, HSQC, HMBC); su alcuni reagenti e monomeri è stata invece effettuata analisi GC-MS. Infine, su tutti i polimeri ottenuti sono state effettuate analisi ATR, GPC, DSC e TGA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les résultats d’études récentes suggèrent que certains comportements de soutien des mentors pourraient augmenter les bénéfices du mentorat scolaire. Cependant, peu d’outils validés sont disponibles dans la littérature pour mesurer ces comportements. Il est aussi convenu que l’efficacité du mentorat scolaire dépend de la qualité de la relation tissée entre le mentor et son protégé, laquelle serait tributaire d’un ensemble de facteurs, dont les comportements du mentor. Néanmoins, encore une fois très peu d’études empiriques ont tenté d’identifier les patrons de comportements des mentors les plus susceptibles d’influencer la relation de mentorat et l’ajustement des protégés. La présente thèse poursuit deux objectifs, soit de construire et valider un outil de mesure des comportements de soutien des mentors oeuvrant en contexte de mentorat scolaire, puis d’explorer les liens entre des comportements de structure et de soutien des mentors, la relation de mentorat et l’ajustement des protégés. L’échelle de comportements des mentors (ECM) a été développée en s’inspirant des prémisses du modèle sociomotivationnel du mentorat (Larose & Tarabulsy, 2014). Deux cent cinquante-trois étudiants du collégial participant à un programme de mentorat scolaire d’une durée de huit mois ont complété une version expérimentale de l’ECM ainsi que différentes mesures de la qualité de la relation de mentorat à deux temps de leur participation au programme. Les résultats montrent que le questionnaire possède de bons coefficients de cohérence interne et une structure factorielle adéquate, à l’exception du facteur soutien à l’autonomie. De plus, trois des dimensions de l’ECM prédisent la qualité de la relation de mentorat et la perception d’utilité de l’intervention. Des recommandations pour l’utilisation et l’amélioration de l’ECM sont proposées. Sur la base des évaluations des protégés à l’ECM (Brodeur et al., 2015), quatre regroupements distincts de comportements de mentors ont été identifiés : Optimal, Suffisant, Contrôlant, et Inadéquat. Les résultats montrent que plus les mentors ont fait preuve de soutien et de structure, plus les protégés ont évalué positivement la relation et l’utilité du mentorat, sauf pour les profils Optimal et Contrôlant. Par ailleurs, uniquement l’ajustement social des protégés a différé du groupe contrôle, et ce proportionnellement à la quantité de soutien et de structure prodigués par les mentors. D’autre part, il est discuté de l’impact de l’ajustement initial des protégés sur les comportements des mentors. Des implications théoriques et pratiques des résultats des deux articles sont présentées. Mots-clés : mentorat scolaire, comportements des mentors, validation de questionnaire, qualité de la relation de mentorat, ajustement des protégés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Système Stockage de l’Énergie par Batterie ou Batterie de Stockage d’Énergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation d’énergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant d’injecter d’importantes quantités d’énergie renouvelable d’une part et d’autre part, en tant que composante essentielle aux grands réseaux électriques. De plus, d’énormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de l’émission des gaz à effet de serre, la réduction des pertes marginales, l’alimentation de certains consommateurs en source d’énergie d’urgence, l’amélioration de la gestion de l’énergie, et l’accroissement de l’efficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : l’Étape 1 - est relative à l’utilisation de la BSE en guise de réduction des pertes électriques ; l’Étape 2 - utilise la BSE comme élément de réserve tournante en vue de l’atténuation de la vulnérabilité du réseau ; et l’Étape 3 - introduit une nouvelle méthode d’amélioration des oscillations de fréquence par modulation de la puissance réactive, et l’utilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Étape, relative à l’utilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à l’allocation optimale et le seconde, à l’utilisation optimale. Dans la première sous-étape, l’Algorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de l’IREQ, en tant qu’algorithme évolutionniste multiobjectifs, permettant d’extraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à l’allocation et résout aussi la question de la programmation/scheduling dans l’interconnexion du Québec. Dans le but de réaliser l’objectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps d’une année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et l’efficacité énergétique constituent les principaux objectifs. Quant à la seconde Étape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. L’algorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de l’indice de vulnérabilité proposé et l’efficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que l’utilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Étape expose un nouveau concept d’ajout d’une inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté l’utilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à l’interconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de l’utilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les graines de lin sont des oléagineux largement cultivés au Canada. Cependant, les résidus générés suite au processus d’extraction de l’huile contiennent une importante quantité de protéines et peuvent être valorisées dans l’alimentation humaine en raison, principalement, de certaines fractions peptidiques possédant des propriétés bioactives. Dans le cadre de ce travail, l’influence des hautes pressions hydrostatiques (HPH) sur un isolat de protéines de lin a été étudiée concernant les modifications de la structure protéique, l’hydrolyse enzymatique ainsi que l’activité antioxydante des hydrolysats. Ainsi, des solutions protéiques de lin (1% m/v) ont été soumises à un traitement de HPH à 600 MPa pendant 5 et 20 minutes, à 20°C et comparés à des échantillons non-pressurisés. Deux traitements subséquents d’hydrolyse ont été effectués suite au traitement ou non de pressurisation : une première hydrolyse trypsique suivie d’une deuxième par la pronase. Dans un premier temps, la caractérisation de l’isolat protéique de lin pressurisé et non pressurisé a été réalisée par spectrofluorimétrie et par une analyse de la taille des particules afin d’étudier l’effet de la pressurisation sur les HPH la matrice protéique végétale. Par la suite, les hydrolysats protéiques ont été caractérisés par HPLC-MS et leur capacité antioxydante a été déterminée par ORAC. Les résultats ont démontré que le niveau de pressurisation et la durée du traitement ont un impact sur la structure protéique en induisant la dissociation des protéines, et la formation d’agrégats. Ceux-ci seraient occasionnés par la décompression ou créés durant l’entreposage des isolats. Suite à l’hydrolyse enzymatique des solutions protéiques pressurisées ou non par la trypsine seule et par la trypsine-pronase, les analyses chromatographiques ont révélé que la concentration de certains peptides a été modifiée lorsque la trypsine seule était utilisée après un traitement à HPH. Enfin, les HPH ont amélioré la capacité antioxydante des hydrolysats obtenus lors de l’hydrolyse trypsine-pronase comparativement au contrôle non-pressurisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un enjeu actuel en biotechnologie est d’obtenir des plantes haploïdes doublées par la technique de la culture de microspores isolées (CMI). Pourtant, la CMI génère parfois une proportion importante de plantes albinos, laquelle peut atteindre 100 % chez certains cultivars. Des travaux antérieurs ont indiqué que des remaniements du génome chloroplastique seraient à l’origine de cet albinisme. Afin de mieux comprendre ce processus menant à l’albinisme, nous avons entrepris d’étudier l’intégrité du génome chloroplastique au sein de microspores d’orge et de plantes albinos via une approche de séquençage à grande échelle. L’ADN total extrait de microspores à un stade précoce de la CMI, d’une feuille de la plante-mère (témoin), et de feuilles albinos, a été séquencé et les séquences chloroplastiques ont été analysées. Ceci nous a permis de documenter pour la première fois une diminution de l’ADN chloroplastique chez les microspores. De plus une étude de variations structurales a démontré un abaissement généralisé de la quantité de génomes chloroplastiques chez les microspores. Enfin, d’importants remaniements du génome chloroplastique ont été observés chez les plantes albinos, révélant une forte abondance de génomes chloroplastiques altérés de forme linéaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un contexte où l’utilisation d’un antibiotique provoque une hausse de la résistance bactérienne, ce mémoire évalue théoriquement et grâce à la simulation numérique, de quelle façon un monopoleur maximize son profit, à la suite de l’obtention d’un brevet. Du point de vue théorique, le monopoleur souhaite d’une part maximiser son profit à chaque instant et de l’autre maximiser son profit tout au long de la durée de vie de son brevet. À l’aide de la simulation numérique, la valorisation faite par le monopoleur de son antibiotique s’avère être le point central de l’analyse, de sorte que si la valorisation faite par le monopoleur est élevée, le monopoleur conserve l’efficacité de son antibiotique en diminuant la quantité produite. Dans le cas contraire, le monopoleur produira une plus grande quantité et conservera une moins grande efficacité de son antibiotique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prévalence de l’obésité sévère ne cesse d’augmenter. La problématique associée à l’obésité sévère est la présence possible de nombreuses comorbidités qui peuvent coexister et altérer le système cardiovasculaire, pulmonaire, endocrinien, articulaire et même favoriser le développement de certains cancers. L’excès de poids, plus particulièrement l’excès de tissu adipeux, sont tous deux liés au développement de ces comorbidités. Aucune donnée n’est disponible quant au rôle de la déposition ectopique du tissu adipeux. Considérant le caractère morbide de l’obésité sévère, la mortalité de toute cause augmentée et l’espérance de vie réduite, à ce jour le seul traitement dit efficace à long terme pour le traitement de l’obésité sévère est la chirurgie bariatrique. L’efficacité est définie par la perte de poids, le maintien à long terme de cette perte de poids ainsi que par l’amélioration ou la résolution des comorbidités. L’intérêt clinique et scientifique pour la chirurgie bariatrique est grandissant. Un nombre important d’études s’intéresse aux mécanismes sous-jacents de la résolution des comorbidités. Le diabète de type 2 est la comorbidité la plus étudiée et peu d’études se sont intéressées aux déterm meil.inants de la résolution de l’hypertension artérielle et de l’apnée obstructive du som Comme premier objectif, cette thèse visait à caractériser les différences de la composition corporelle et de la distribution du tissu adipeux de patients obèses sévères avec ou sans diagnostic de diabète de type 2, d’hypertension artérielle et d’apnée obstructive du sommeil. Le deuxième objectif de cette thèse visait à comparer l’évolution postopératoire suite à une chirurgie bariatrique sur les changements de la composition corporelle et de la distribution du tissu adipeux selon le statut de résolution du diabète de type 2, de l’hypertension artérielle et de l’apnée obstructive du sommeil. De plus, considérant le peu d’évidences dans la littérature au sujet des déterminants de la résolution de l’hypertension artérielle et de l’apnée obstructive du sommeil, l’évaluation du profil inflammatoire, des adipokines et de l’activité du système nerveux autonome ont aussi été caractérisés. Premièrement, nous avons documenté qu’en présence d’obésité sévère, la déposition ectopique du tissu adipeux était plus importante chez les patients avec un diabète de type 2, une hypertension artérielle et une apnée obstructive du sommeil comparativement à ceux n’ayant pas ces comorbidités. Nous avons par la suite montré que la résolution du diabète de type 2 et de l’hypertension artérielle était caractérisée par une réduction plus importante du tissu adipeux viscéral. Au contraire, la résolution de l’apnée obstructive du sommeil était plutôt caractérisée par une réduction plus importante du tissu adipeux sous-cutané à la mi-cuisse et par une tendance à une perte de poids plus élevée. De plus, nous avons observé que chez les patients qui n’avaient pas résolu leur diabète de type 2, leur hypertension artérielle et leur apnée obstructive du sommeil, la quantité de tissu adipeux viscéral, à 12 mois suivant la chirurgie bariatrique, était plus importante comparativement à celle mesurée chez les patients n’ayant pas résolu ces comorbidités. Spécifiquement à l’évaluation du profil inflammatoire et des adipokines, nous avons observé que chez les patients obèses sévères, la présence de l’hypertension artérielle et de l’apnée obstructive du sommeil n’était pas caractérisée par un profil altéré au niveau des marqueurs inflammatoires et des adipokines. Également, nous n’avons pas observé de changements majeurs qui pouvaient expliquer, en partie, la résolution de l’hypertension artérielle et de l’apnée obstructive du sommeil. Quant à l’activité du système nerveux autonome, nous avons observé une faible activité du système nerveux parasympathique chez les patients obèses sévères avec hypertension artérielle et apnée obstructive du sommeil. Nous avons également documenté que la résolution de l’hypertension artérielle et de l’apnée obstructive du sommeil était associée à une tendance à une augmentation plus importante de l’activité parasympathique du système nerveux autonome. Les résultats obtenus au cours de ce doctorat supportent l’importance de la déposition ectopique du tissu adipeux en situation d’obésité sévère, particulièrement le rôle du tissu adipeux viscéral, dans le développement du diabète de type 2, de l’hypertension artérielle et de l’apnée obstructive du sommeil ainsi que dans la résolution de ces comorbidités suivant une chirurgie bariatrique. D’autres recherches devront davantage s’intéresser à la mobilisation des dépôts ectopiques de tissu adipeux comme un déterminant important dans la résolution à plus long terme de ces comorbidités.