943 resultados para high-order peaks


Relevância:

30.00% 30.00%

Publicador:

Resumo:

This pilot study developed a climate instrument which was administered in a sample of high schools in one board of education. Several tests were conducted i n order to determine the reliability and internal consistency of the instrument . The ability of the instrument to identify the demographic differences of school and gender was also tested. The relationship between leadership styles and an effective use of authority in creating a productive and rewarding work environment was the f ocus of t his study. Attitudes to leadership and perceived school morale were investigated in a demographic study, a climate survey, as well as a body of related literature. In light of the empirical research, an attempt was made to determine the extent to which the authority figure's behaviour and adopted leadership style contributed to a positive school climate : one in which t eachers were motivated to achieve to t he best of their abilities by way of their commitment and service. The tone of authority assumed by t he leader not only shapes the mood of the school environment but ultimately determines the efficiency and morale of t he teaching staff.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Part I - Fluorinated Compounds A method has been developed for the extraction, concentration, and determination of two unique fluorinated compounds from the sediments of Lake Ontario. These compounds originated from a common industrial landfill, and have been carried to Lake Ontario by the Niagara River. Sediment samples from the Mississauga basin of Lake Ontario have been evaluated for these compounds and a depositional trend was established. The sediments were extracted by accelerated solvent extraction (ASE) and then underwent clean-up, fractionation, solvent exchange, and were concentrated by reduction under nitrogen gas. The concentrated extracts were analyzed by gas chromatography - electron capture negative ionization - mass spectrometry. The depositional profile determined here is reflective of the operation of the landfill and shows that these compounds are still found at concentrations well above background levels. These increased levels have been attributed to physical disturbances of previously deposited contaminated sediments, and probable continued leaching from the dumpsite. Part II - Polycyclic Aromatic Hydrocarbons Gas chromatography/mass spectrometry is the most common method for the determination of polycyclic aromatic hydrocarbons (PAHs) from various matrices. Mass discrimination of high-boiling compounds in gas chromatographic methods is well known. The use of high-boiling injection solvents shows substantial increase in the response of late-eluting peaks. These solvents have an increased efficiently in the transfer of solutes from the injector to the analytical column. The effect of I-butanol, I-pentanol, cyclopentanol, I-hexanol, toluene and n-octane, as injection solvents, was studied. Higher-boiling solvents yield increased response for all PAHs. I -Hexanol is the best solvent, in terms of P AH response, but in this solvent P AHs were more susceptible to chromatographic problems such as peak splitting and tailing. Toluene was found to be the most forgiving solvent in terms of peak symmetry and response. It offered the smallest discrepancies in response, and symmetry over a wide range of initial column temperatures.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dynamic logic is an extension of modal logic originally intended for reasoning about computer programs. The method of proving correctness of properties of a computer program using the well-known Hoare Logic can be implemented by utilizing the robustness of dynamic logic. For a very broad range of languages and applications in program veri cation, a theorem prover named KIV (Karlsruhe Interactive Veri er) Theorem Prover has already been developed. But a high degree of automation and its complexity make it di cult to use it for educational purposes. My research work is motivated towards the design and implementation of a similar interactive theorem prover with educational use as its main design criteria. As the key purpose of this system is to serve as an educational tool, it is a self-explanatory system that explains every step of creating a derivation, i.e., proving a theorem. This deductive system is implemented in the platform-independent programming language Java. In addition, a very popular combination of a lexical analyzer generator, JFlex, and the parser generator BYacc/J for parsing formulas and programs has been used.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The employment of the bridging/chelating Schiff bases, N-salicylidene-4-methyl-o-aminophenol (samphH2) and N-naphthalidene-2-amino-5-chlorobenzoic acid (nacbH2), in nickel cluster chemistry has afforded eight polynuclear Ni(II) complexes with new structural motifs, interesting magnetic and optical properties, and unexpected organic ligand transformations. In the present thesis, Chapter 1 deals with all the fundamental aspects of polynuclear metal complexes, molecular magnetism and optics, while research results are reported in Chapters 2 and 3. In the first project (Chapter 2), I investigated the coordination chemistry of the organic chelating/bridging ligand, N-salicylidene-4-methyl-o-aminophenol (samphH2). The general NiII/tBuCO2-/samphH2 reaction system afforded two new tetranuclear NiII clusters, namely [Ni4(samph)4(EtOH)4] (1) and [Ni4(samph)4(DMF)2] (2), with different structural motifs. Complex 1 possessed a cubane core while in complex 2 the four NiII ions were located at the four vertices of a defective dicubane. The nature of the organic solvent was found to be of pivotal importance, leading to compounds with the same nuclearity, but different structural topologies and magnetic properties. The second project, the results of which are summarized in Chapter 3, included the systematic study of a new optically-active Schiff base ligand, N-naphthalidene-2-amino-5-chlorobenzoic acid (nacbH2), in NiII cluster chemistry. Various reactions between NiX2 (X- = inorganic anions) and nacbH2 were performed under basic conditions to yield six new polynuclear NiII complexes, namely (NHEt3)[Ni12(nacb)12(H2O)4](ClO4) (3), (NHEt3)2[Ni5(nacb)4(L)(LH)2(MeOH)] (4), [Ni5(OH)2(nacb)4(DMF)4] (5), [Ni5(OMe)Cl(nacb)4(MeOH)3(MeCN)] (6), (NHEt3)2[Ni6(OH)2(nacb)6(H2O)4] (7), and [Ni6(nacb)6(H2O)3(MeOH)6] (8). The nature of the solvent, the inorganic anion, X-, and the organic base were all found to be of critical importance, leading to products with different structural topologies and nuclearities (i.e., {Ni5}, {Ni6} and {Ni12}). Magnetic studies on all synthesized complexes revealed an overall ferromagnetic behavior for complexes 4 and 8, with the remaining complexes being dominated by antiferromagnetic exchange interactions. In order to assess the optical efficiency of the organic ligand when bound to the metal centers, photoluminescence studies were performed on all synthesized compounds. Complexes 4 and 5 show strong emission in the visible region of the electromagnetic spectrum. Finally, the ligand nacbH2 allowed for some unexpected organic transformations to occur; for instance, the pentanuclear compound 5 comprises both nacb2- groups and a new organic chelate, namely the anion of 5-chloro-2-[(3-hydroxy-4-oxo-1,4-dihydronaphthalen-1-yl)amino]benzoic acid. In the last section of this thesis, an attempt to compare the NiII cluster chemistry of the N-naphthalidene-2-amino-5-chlorobenzoic acid ligand with that of the structurally similar but less bulky, N-salicylidene-2-amino-5-chlorobenzoic acid (sacbH2), was made.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Affiliation: Pascal Michel : Département de pathologie et microbiologie, Faculté de médecine vétérinaire, Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les liposomes sont des nanovecteurs polyvalents et prometteurs quant à leur utilisation dans plusieurs domaines. Il y a une décennie, un nouveau type de liposome constitué d’amphiphiles monoalkylés et de stérols est né fortuitement dans notre groupe. Ils sont nommés Stérosomes puisqu’ils contiennent une grande proportion de stérols, entre 50 et 70 mol %. Les objectifs de cette thèse sont de développer de nouvelles formulations de Stérosomes ayant des caractéristiques spécifiques et d’acquérir une compréhension plus profonde des règles physicochimiques qui dictent leur comportement de phase. Nous avons spécifiquement examiné le rôle de motifs moléculaires des stérols, de la charge interfaciale et de la capacité à former des liaisons H dans les interactions intermoléculaires menant à l’autoassemblage. Le comportement de phase a été caractérisé par calorimétrie différentielle à balayage (DSC), par spectroscopie infrarouge (IR) et par spectroscopie de résonance magnétique nucléaire du deutérium (²H NMR). Premièrement, nous avons établi certaines corrélations entre la structure des stérols, leur tendance à former des bicouches fluides en présence d'amphiphile monoalkylé et la perméabilité des grandes vésicules unilamellaires (LUV) formées. La nature des stérols module les propriétés de mélange avec de l’acide palmitique (PA). Les stérols portant une chaîne volumineuse en position C17 sont moins aptes à induire des bicouches fluides que ceux qui ont une chaîne plus simple, comme celle du cholestérol. Un grand ordre de la chaîne alkyle de PA est un effet commun à tous les stérols investigués. Il a été démontré que la perméabilité des LUV peut être contrôlée en utilisant des stérols différents. Cependant, ces stérols n’ont aucun impact significatif sur la sensibilité des Stérosomes au pH. Afin de créer des liposomes qui sont sensibles au pH et qui ont une charge positive à la surface, des Stérosomes composés de stéarylamine et de cholestérol (Chol) ont été conçus et caractérisés. Il a été conclu que l’état de protonation de l’amine, dans ce travail, ou du groupe carboxylique, dans un travail précédent, confère une sensibilité au pH et détermine la charge à la surface du liposome. Les premiers Stérosomes complètement neutres ont été fabriqués en utilisant un réseau de fortes liaisons H intermoléculaires. Le groupe sulfoxyde est capable de former de fortes liaisons H avec le cholestérol et les molécules d’eau. Une bicouche fluide métastable a été obtenue, à la température de la pièce, à partir d'un mélange équimolaire d’octadécyl méthyl sulfoxyde (OMSO) et de Chol. Ce comportement distinct a permis d’extruder le mélange pour former des LUV à la température de la pièce. Après 30 h, le temps de vie de la phase métastable, des Stérosomes stables et imperméables existaient toujours sous une forme solide. Un diagramme de température-composition a été proposé afin de résumer le comportement de phase des mélanges d’OMSO/Chol. Finalement, nous avons élaboré des Stérosomes furtifs en incorporant du polyéthylène glycol (PEG) avec une ancre de cholestérol (PEG-Chol) à l’interface de Stérosomes de PA/Chol. Jusqu’à 20 mol % de PEG-Chol peut être introduit sans perturber la structure de la bicouche. La présence du PEG-Chol n’a aucun impact significatif sur la perméabilité de la LUV. L'encapsulation active de la doxorubicine, un médicament contre le cancer, a été réalisée malgré la faible perméabilité de ces LUV et la présence du PEG à l’interface. L’inclusion de PEG a modifié considérablement les propriétés de l’interface et a diminué la libération induite par la variation de pH observée avec des LUV nues de PA/Chol. Cette formulation inédite est potentiellement utile pour l’administration intraveineuse de médicaments.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gazéification est aujourd'hui l'une des stratégies les plus prometteuses pour valoriser les déchets en énergie. Cette technologie thermo-chimique permet une réduction de 95 % de la masse des intrants et génère des cendres inertes ainsi que du gaz de synthèse (syngaz). Le syngaz est un combustible gazeux composé principalement de monoxyde de carbone (CO), d'hydrogène (H2) et de dioxyde de carbone (CO2). Le syngaz peut être utilisé pour produire de la chaleur et de l'électricité. Il est également la pierre angulaire d'un grand nombre de produits à haute valeur ajoutée, allant de l'éthanol à l'ammoniac et l'hydrogène pur. Les applications en aval de la production de syngaz sont dictées par son pouvoir calorifique, lui-même dépendant de la teneur du gaz en H2. L’augmentation du contenu du syngaz en H2 est rendu possible par la conversion catalytique à la vapeur d’eau, largement répandu dans le cadre du reformage du méthane pour la production d'hydrogène. Au cours de cette réaction, le CO est converti en H2 et CO2 selon : CO + H2O → CO2 + H2. Ce processus est possible grâce à des catalyseurs métalliques mis en contact avec le CO et de la vapeur. La conversion catalytique à la vapeur d’eau a jusqu'ici été réservé pour de grandes installations industrielles car elle nécessite un capital et des charges d’exploitations très importantes. Par conséquent, les installations de plus petite échelle et traitant des intrants de faible qualité (biomasse, déchets, boues ...), n'ont pas accès à cette technologie. Ainsi, la seule utilisation de leur syngaz à faible pouvoir calorifique, est limitée à la génération de chaleur ou, tout au plus, d'électricité. Afin de permettre à ces installations une gamme d’application plus vaste de leurs syngaz, une alternative économique à base de catalyseur biologique est proposée par l’utilisation de bactéries hyperthermophiles hydrogénogènes. L'objectif de cette thèse est d'utiliser Carboxydothermus hydrogenoformans, une bactérie thermophile carboxydotrophe hydrogénogène comme catalyseur biologique pour la conversion du monoxyde de carbone en hydrogène. Pour cela, l’impact d'un phénomène de biominéralisation sur la production d’H2 a été étudié. Ensuite, la faisabilité et les limites de l’utilisation de la souche dans un bioréacteur ont été évaluées. Tout d'abord, la caractérisation de la phase inorganique prédominante lorsque C. hydrogenoformans est inoculé dans le milieu DSMZ, a révélé une biominéralisation de phosphate de calcium (CaP) cristallin en deux phases. L’analyse par diffraction des rayons X et spectrométrie infrarouge à transformée de Fourier de ce matériau biphasique indique une signature caractéristique de la Mg-whitlockite, alors que les images obtenues par microscopie électronique à transmission ont montré l'existence de nanotiges cristallines s’apparentant à de l’hydroxyapatite. Dans les deux cas, le mode de biominéralisation semble être biologiquement induit plutôt que contrôlé. L'impact du précipité de CaP endogène sur le transfert de masse du CO et la production d’H2 a ensuite été étudié. Les résultats ont été comparés aux valeurs obtenues dans un milieu où aucune précipitation n'est observée. Dans le milieu DSMZ, le KLa apparent (0.22 ± 0.005 min-1) et le rendement de production d’H2 (89.11 ± 6.69 %) étaient plus élevés que ceux obtenus avec le milieu modifié (0.19 ± 0.015 min-1 et 82.60 ± 3.62% respectivement). La présence du précipité n'a eu aucune incidence sur l'activité microbienne. En somme, le précipité de CaP offre une nouvelle stratégie pour améliorer les performances de transfert de masse du CO en utilisant les propriétés hydrophobes de gaz. En second lieu, la conversion du CO en H2 par la souche Carboxydothermus hydrogenoformans fut étudiée et optimisée dans un réacteur gazosiphon de 35 L. Parmi toutes les conditions opérationnelles, le paramètre majeur fut le ratio du débit de recirculation du gaz sur le débit d'alimentation en CO (QR:Qin). Ce ratio impacte à la fois l'activité biologique et le taux de transfert de masse gaz-liquide. En effet, au dessus d’un ratio de 40, les performances de conversion du CO en H2 sont limitées par l’activité biologique alors qu’en dessous, elles sont limitées par le transfert de masse. Cela se concrétise par une efficacité de conversion maximale de 90.4 ± 0.3 % et une activité spécifique de 2.7 ± 0.4 molCO·g–1VSS·d–1. Malgré des résultats prometteurs, les performances du bioréacteur ont été limitées par une faible densité cellulaire, typique de la croissance planctonique de C. hydrogenoformans. Cette limite est le facteur le plus contraignant pour des taux de charge de CO plus élevés. Ces performances ont été comparées à celles obtenues dans un réacteur à fibres creuses (BRFC) inoculé par la souche. En dépit d’une densité cellulaire et d’une activité volumétrique plus élevées, les performances du BRFC à tout le moins cinétiquement limitées quand elles n’étaient pas impactées par le transfert de masse, l'encrassement et le vieillissement de la membrane. Afin de parer à la dégénérescence de C. hydrogenoformans en cas de pénurie de CO, la croissance de la bactérie sur pyruvate en tant que seule source de carbone a été également caractérisée. Fait intéressant, en présence simultanée de pyruvate et de CO, C. hydrogenoformans n’a amorcé la consommation de pyruvate qu’une fois le CO épuisé. Cela a été attribué à un mécanisme d'inhibition du métabolisme du pyruvate par le CO, faisant ainsi du pyruvate le candidat idéal pour un système in situ de secours.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La compréhension de processus biologiques complexes requiert des approches expérimentales et informatiques sophistiquées. Les récents progrès dans le domaine des stratégies génomiques fonctionnelles mettent dorénavant à notre disposition de puissants outils de collecte de données sur l’interconnectivité des gènes, des protéines et des petites molécules, dans le but d’étudier les principes organisationnels de leurs réseaux cellulaires. L’intégration de ces connaissances au sein d’un cadre de référence en biologie systémique permettrait la prédiction de nouvelles fonctions de gènes qui demeurent non caractérisées à ce jour. Afin de réaliser de telles prédictions à l’échelle génomique chez la levure Saccharomyces cerevisiae, nous avons développé une stratégie innovatrice qui combine le criblage interactomique à haut débit des interactions protéines-protéines, la prédiction de la fonction des gènes in silico ainsi que la validation de ces prédictions avec la lipidomique à haut débit. D’abord, nous avons exécuté un dépistage à grande échelle des interactions protéines-protéines à l’aide de la complémentation de fragments protéiques. Cette méthode a permis de déceler des interactions in vivo entre les protéines exprimées par leurs promoteurs naturels. De plus, aucun biais lié aux interactions des membranes n’a pu être mis en évidence avec cette méthode, comparativement aux autres techniques existantes qui décèlent les interactions protéines-protéines. Conséquemment, nous avons découvert plusieurs nouvelles interactions et nous avons augmenté la couverture d’un interactome d’homéostasie lipidique dont la compréhension demeure encore incomplète à ce jour. Par la suite, nous avons appliqué un algorithme d’apprentissage afin d’identifier huit gènes non caractérisés ayant un rôle potentiel dans le métabolisme des lipides. Finalement, nous avons étudié si ces gènes et un groupe de régulateurs transcriptionnels distincts, non préalablement impliqués avec les lipides, avaient un rôle dans l’homéostasie des lipides. Dans ce but, nous avons analysé les lipidomes des délétions mutantes de gènes sélectionnés. Afin d’examiner une grande quantité de souches, nous avons développé une plateforme à haut débit pour le criblage lipidomique à contenu élevé des bibliothèques de levures mutantes. Cette plateforme consiste en la spectrométrie de masse à haute resolution Orbitrap et en un cadre de traitement des données dédié et supportant le phénotypage des lipides de centaines de mutations de Saccharomyces cerevisiae. Les méthodes expérimentales en lipidomiques ont confirmé les prédictions fonctionnelles en démontrant certaines différences au sein des phénotypes métaboliques lipidiques des délétions mutantes ayant une absence des gènes YBR141C et YJR015W, connus pour leur implication dans le métabolisme des lipides. Une altération du phénotype lipidique a également été observé pour une délétion mutante du facteur de transcription KAR4 qui n’avait pas été auparavant lié au métabolisme lipidique. Tous ces résultats démontrent qu’un processus qui intègre l’acquisition de nouvelles interactions moléculaires, la prédiction informatique des fonctions des gènes et une plateforme lipidomique innovatrice à haut débit , constitue un ajout important aux méthodologies existantes en biologie systémique. Les développements en méthodologies génomiques fonctionnelles et en technologies lipidomiques fournissent donc de nouveaux moyens pour étudier les réseaux biologiques des eucaryotes supérieurs, incluant les mammifères. Par conséquent, le stratégie présenté ici détient un potentiel d’application au sein d’organismes plus complexes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il est évalué qu’entre 15 et 40 % des élèves surdoués performent à des niveaux inférieurs à leur potentiel (Seeley, 1994). Récemment, plusieurs chercheurs se sont plongés dans ce phénomène en tentant de l’expliquer. Par contre, une seule équipe de recherche s’est attardé sur l’impact des climats socioéducatifs sur la performance des surdoués, alors que ce lien est bien existant chez les jeunes non-doués. Cette recherche vise à explorer la relation possible entre les climats socioéducatifs, l’environnement familial et la performance scolaire chez les jeunes surdoués, afin de combler ce manque dans la littérature. Afin d’atteindre cet objectif, un échantillon de 1 885 participants de 3e secondaire provenant de la base de donnée de l’évaluation du programme SIAA furent étudiés afin de créer un modèle présentant l’effet des environnements sur la performance des jeunes surdoués, médié par la motivation. Nos résultats suggèrent que l’impact des environnements socioéducatifs et familiaux sur la performance des jeunes surdoués est minime, bien qu’il soit majeur chez les jeunes non-doués.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les enjeux liés aux politiques éducatives ont considérablement changé au cours des dernières décennies. Ces changements sont liés, entre autres, à l’accroissement de l’imputabilité et de la reddition de compte qui est devenue une caractéristique importante des réformes curriculaires et pédagogiques. Les politiques à enjeux élevés exercent une pression énorme sur les districts et les écoles états-unienne afin qu’ils augmentent le rendement des élèves en utilisant des systèmes de conséquences (Hall & Ryan, 2011; Loeb & Strunk, 2007). Ces politiques envoient de puissants messages sur l'importance de certaines matières scolaires au détriment d'autres - circonscrivant les exigences en termes de compétences et de connaissances. La langue maternelle d’enseignement et les mathématiques sont devenues des mesures centrales sur lesquelles reposent l’évaluation et le degré de performance des districts et des écoles. Conséquemment, les administrateurs de districts et les directions d’écoles ont souvent recours à des réformes curriculaires et pédagogiques comme moyen d'augmenter le rendement des élèves dans les matières scolaires visées par ces politiques. Les politiques contraignent les acteurs scolaires de concentrer les ressources sur les programmes curriculaires et les évaluations, le développement professionnel, et la prise de décision pilotée par les données (Anagnostopoulos & Ruthledge, 2007; Honig & Hatch, 2004; Spillane, Diamond, et al., 2002; Weitz White & Rosenbaum, 2008). Cette thèse examine la manière dont les politiques à enjeux élevés opèrent quotidiennement dans les interactions et les pratiques au sein des écoles. Nous analysons plus particulièrement les différents messages provenant de la politique transmis aux acteurs scolaires sur les manières d'apporter des changements substantiels dans le curriculum et l'enseignement. Nous élargissons l’analyse en prenant en compte le rôle des administrateurs de district ainsi que des partenaires universitaires qui façonnent également la manière dont certains aspects des messages provenant des politiques sont transmis, négociés et/ou débattus et d’autres sont ignorés (Coburn & Woulfin, 2012). En utilisant l’analyse de discours, nous examinons le rôle du langage comme constituant et médiateur des interactions sociales entre les acteurs scolaires et d’autres parties prenantes. De telles analyses impliquent une investigation approfondie d’un nombre d’étude de cas limité. Les données utilisées dans cette thèse ont été colligées dans une école primaire états-unienne du mid-West. Cette étude de cas fait partie d’une étude longitudinale de quatre ans qui comprenait huit écoles dans les milieux urbains entre 1999 et 2003 (Distributed Leadership Studies, http://www.distributedleadership.org). La base de données analysée inclut des observations de réunions formelles et des entrevues auprès des administrateurs du district, des partenaires universitaires, de la direction d’école et des enseignants. En plus de l’introduction et de la problématique (chapitre 1) et de discussion et conclusion (chapitre 5), cette thèse comprend un ensemble de trois articles interdépendants. Dans le premier article (chapitre 2), nous effectuons une recension des écrits portant sur le domaine de l’implantation de politiques (policy implementation) et la complexité des relations locales, nationales et internationales dans les systèmes éducatifs. Pour démystifier cette complexité, nous portons une attention particulière à la construction de sens des acteurs scolaires comme étant une dimension clé du processus de mise en œuvre des réformes. Dans le deuxième article (chapitre 3), nous cherchons à comprendre les processus sociaux qui façonnent les réponses stratégiques des acteurs scolaires à l’égard des politiques du district et de l’état et en lien avec la mise en œuvre d’un curriculum prescrit en mathématiques. Plus particulièrement, nous explorons les différentes situations dans lesquelles les acteurs scolaires argumentent au sujet des changements curriculaires et pédagogiques proposés par les administrateurs de district et des partenaires universitaires afin d’augmenter les résultats scolaires en mathématiques dans une école à faible performance. Dans le troisième article (chapitre 4), nous cherchons à démystifier les complexités liées à l’amélioration de l’enseignement dans un environnement de politiques à enjeux élevés. Pour ce faire, nous utilisons l'interaction entre les notions d'agentivité et la structure afin d'analyser la manière dont les conceptions d’imputabilité et les idées qui découlent de l'environnement politique et les activités quotidiennes jouent dans les interactions entre les acteurs scolaires concernant sur l’enseignement de la langue maternelle. Nous explorons trois objectifs spécifiques : 1) la manière dont les politiques à enjeux élevés façonnent les éléments de l’enseignement qui sont reproduits et ceux qui sont transformés au fil du temps ; 2) la manière dont la compréhension des leaders de l’imputabilité façonne les aspects des messages politiques que les acteurs scolaires remarquent à travers les interactions et les conversations et 3) la manière les acteurs scolaires portent une attention particulière à certaines messages au détriment d’autres. Dans le dernier chapitre de cette thèse, nous discutons les forces et les limites de l’analyse secondaire de données qualitatives, les implications des résultats pour le domaine d’études de l’implantation de politiques et les pistes futures de recherches.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pan-viral DNA array (PVDA) and high-throughput sequencing (HTS) are useful tools to identify novel viruses of emerging diseases. However, both techniques have difficulties to identify viruses in clinical samples because of the host genomic nucleic acid content (hg/cont). Both propidium monoazide (PMA) and ethidium bromide monoazide (EMA) have the capacity to bind free DNA/RNA, but are cell membrane-impermeable. Thus, both are unable to bind protected nucleic acid such as viral genomes within intact virions. However, EMA/PMA modified genetic material cannot be amplified by enzymes. In order to assess the potential of EMA/PMA to lower the presence of amplifiable hg/cont in samples and improve virus detection, serum and lung tissue homogenates were spiked with porcine reproductive and respiratory virus (PRRSV) and were processed with EMA/PMA. In addition, PRRSV RT-qPCR positive clinical samples were also tested. EMA/PMA treatments significantly decreased amplifiable hg/cont and significantly increased the number of PVDA positive probes and their signal intensity compared to untreated spiked lung samples. EMA/PMA treatments also increased the sensitivity of HTS by increasing the number of specific PRRSV reads and the PRRSV percentage of coverage. Interestingly, EMA/PMA treatments significantly increased the sensitivity of PVDA and HTS in two out of three clinical tissue samples. Thus, EMA/PMA treatments offer a new approach to lower the amplifiable hg/cont in clinical samples and increase the success of PVDA and HTS to identify viruses.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In recent years, we observed a significant increase of food fraud ranging from false label claims to the use of additives and fillers to increase profitability. Recently in 2013, horse and pig DNA were detected in beef products sold from several retailers. Mass spectrometry has become the workhorse in protein research and the detection of marker proteins could serve for both animal species and tissue authentication. Meat species authenticity will be performed using a well defined proteogenomic annotation, carefully chosen surrogate tryptic peptides and analysis using a hybrid quadrupole-Orbitrap mass spectrometer. Selected mammalian meat samples were homogenized, proteins were extracted and digested with trypsin. The samples were analyzed using a high-resolution mass spectrometer. The chromatography was achieved using a 30 minutes linear gradient along with a BioBasic C8 100 × 1 mm column at a flow rate of 75 µL/min. The mass spectrometer was operated in full-scan high resolution and accurate mass. MS/MS spectra were collected for selected proteotypic peptides. Muscular proteins were methodically analyzed in silico in order to generate tryptic peptide mass lists and theoretical MS/MS spectra. Following a comprehensive bottom-up proteomic analysis, we were able to detect and identify a proteotypic myoglobin tryptic peptide [120-134] for each species with observed m/z below 1.3 ppm compared to theoretical values. Moreover, proteotypic peptides from myosin-1, myosin-2 and -hemoglobin were also identified. This targeted method allowed a comprehensive meat speciation down to 1% (w/w) of undesired product.