908 resultados para complex eco-system
Resumo:
Eukaryotic cells generate energy in the form of ATP, through a network of mitochondrial complexes and electron carriers known as the oxidative phosphorylation system. In mammals, mitochondrial complex I (CI) is the largest component of this system, comprising 45 different subunits encoded by mitochondrial and nuclear DNA. Humans diagnosed with mutations in the gene NDUFS4, encoding a nuclear DNA-encoded subunit of CI (NADH dehydrogenase ubiquinone Fe-S protein 4), typically suffer from Leigh syndrome, a neurodegenerative disease with onset in infancy or early childhood. Mitochondria from NDUFS4 patients usually lack detectable NDUFS4 protein and show a CI stability/assembly defect. Here, we describe a recessive mouse phenotype caused by the insertion of a transposable element into Ndufs4, identified by a novel combined linkage and expression analysis. Designated Ndufs4(fky), the mutation leads to aberrant transcript splicing and absence of NDUFS4 protein in all tissues tested of homozygous mice. Physical and behavioral symptoms displayed by Ndufs4(fky/fky) mice include temporary fur loss, growth retardation, unsteady gait, and abnormal body posture when suspended by the tail. Analysis of CI in Ndufs4(fky/fky) mice using blue native PAGE revealed the presence of a faster migrating crippled complex. This crippled CI was shown to lack subunits of the "N assembly module", which contains the NADH binding site, but contained two assembly factors not present in intact CI. Metabolomic analysis of the blood by tandem mass spectrometry showed increased hydroxyacylcarnitine species, implying that the CI defect leads to an imbalanced NADH/NAD(+) ratio that inhibits mitochondrial fatty acid β-oxidation.
Resumo:
Green mould is a serious disease of commercially grown mushrooms, the causal agent being attributed to the filamentous soil fungus Triclzodenna aggressivum f. aggressivu11l and T. aggressivum f. ellropaellm. Found worldwide, and capable of devastating crops, this disease has caused millions of dollars in lost revenue within the mushroom industry. One mechanism used by TricllOdenlla spp. in the antagonism of other fungi, is the secretion of lytic enzymes such as chitinases, which actively degrade a host's cell wall. Therefore, the intent of this study was to examine the production of chitinase enzymes during the host-parasite interaction of Agaricus bisporus (commercial mushroom) and Triclzodemza aggressivum, focusing specifically on chitinase involvement in the differential resistance of white, off-white, and brown commercial mushroom strains. Chitinases isolated from cultures of A. bisporus and T. aggressivu11l grown together and separately, were identified following native PAGE, and analysis of fluorescence based on specific enzymatic cleavage of 4-methylumbelliferyl glucoside substrates. Results indicate that the interaction between T. aggressivulll and A. bisporus involves a complex enzyme battle. It was determined that T. aggressivum produces a number of chitinases that appear to correlate to those isolated in previous studies using biocontrol strains of T. Izarziallilm. A 122 kDa N-acetylglucosaminidase of T. aggressivu11l revealed the highest and most variable activity, and is therefore believed to be an important predictor of antifungal activity. Furthermore, results indicate that brown strain resistance of mushrooms may be related to high levels of a 96 kDa N-acetylglucosaminidase, which showed elevated activity in both solitary and dual cultures with T. aggressivum. Overall, each host-parasite combination produced unique enzyme profiles, with the majority of the differences seen between day 0 and day 6 for the extracellular chitinases. Therefore, it was concluded that the antagonistic behaviour of T. aggressivli1ll does not involve a typical response, always producing the same types and levels of enzymes, but that mycoparasitism, specifically in the form of chitinase production, may be induced and regulated based on the host presented.
Resumo:
Traditional psychometric theory and practice classify people according to broad ability dimensions but do not examine how these mental processes occur. Hunt and Lansman (1975) proposed a 'distributed memory' model of cognitive processes with emphasis on how to describe individual differences based on the assumption that each individual possesses the same components. It is in the quality of these components ~hat individual differences arise. Carroll (1974) expands Hunt's model to include a production system (after Newell and Simon, 1973) and a response system. He developed a framework of factor analytic (FA) factors for : the purpose of describing how individual differences may arise from them. This scheme is to be used in the analysis of psychometric tes ts . Recent advances in the field of information processing are examined and include. 1) Hunt's development of differences between subjects designated as high or low verbal , 2) Miller's pursuit of the magic number seven, plus or minus two, 3) Ferguson's examination of transfer and abilities and, 4) Brown's discoveries concerning strategy teaching and retardates . In order to examine possible sources of individual differences arising from cognitive tasks, traditional psychometric tests were searched for a suitable perceptual task which could be varied slightly and administered to gauge learning effects produced by controlling independent variables. It also had to be suitable for analysis using Carroll's f ramework . The Coding Task (a symbol substitution test) found i n the Performance Scale of the WISe was chosen. Two experiments were devised to test the following hypotheses. 1) High verbals should be able to complete significantly more items on the Symbol Substitution Task than low verbals (Hunt, Lansman, 1975). 2) Having previous practice on a task, where strategies involved in the task may be identified, increases the amount of output on a similar task (Carroll, 1974). J) There should be a sUbstantial decrease in the amount of output as the load on STM is increased (Miller, 1956) . 4) Repeated measures should produce an increase in output over trials and where individual differences in previously acquired abilities are involved, these should differentiate individuals over trials (Ferguson, 1956). S) Teaching slow learners a rehearsal strategy would improve their learning such that their learning would resemble that of normals on the ,:same task. (Brown, 1974). In the first experiment 60 subjects were d.ivided·into high and low verbal, further divided randomly into a practice group and nonpractice group. Five subjects in each group were assigned randomly to work on a five, seven and nine digit code throughout the experiment. The practice group was given three trials of two minutes each on the practice code (designed to eliminate transfer effects due to symbol similarity) and then three trials of two minutes each on the actual SST task . The nonpractice group was given three trials of two minutes each on the same actual SST task . Results were analyzed using a four-way analysis of variance . In the second experiment 18 slow learners were divided randomly into two groups. one group receiving a planned strategy practioe, the other receiving random practice. Both groups worked on the actual code to be used later in the actual task. Within each group subjects were randomly assigned to work on a five, seven or nine digit code throughout. Both practice and actual tests consisted on three trials of two minutes each. Results were analyzed using a three-way analysis of variance . It was found in t he first experiment that 1) high or low verbal ability by itself did not produce significantly different results. However, when in interaction with the other independent variables, a difference in performance was noted . 2) The previous practice variable was significant over all segments of the experiment. Those who received previo.us practice were able to score significantly higher than those without it. J) Increasing the size of the load on STM severely restricts performance. 4) The effect of repeated trials proved to be beneficial. Generally, gains were made on each successive trial within each group. S) In the second experiment, slow learners who were allowed to practice randomly performed better on the actual task than subjeots who were taught the code by means of a planned strategy. Upon analysis using the Carroll scheme, individual differences were noted in the ability to develop strategies of storing, searching and retrieving items from STM, and in adopting necessary rehearsals for retention in STM. While these strategies may benef it some it was found that for others they may be harmful . Temporal aspects and perceptual speed were also found to be sources of variance within individuals . Generally it was found that the largest single factor i nfluencing learning on this task was the repeated measures . What e~ables gains to be made, varies with individuals . There are environmental factors, specific abilities, strategy development, previous learning, amount of load on STM , perceptual and temporal parameters which influence learning and these have serious implications for educational programs .
Resumo:
Rats produce ultrasonic vocalizations that can be categorized into two types of ultrasonic calls based on their sonographic structure. One group contains 22-kHz ultrasonic vocalization (USVs), characterized by relatively constant (flat) frequency with peak frequency ranging from 19 to 28-kHz, and a call duration ranging between 100 – 3000 ms. These vocalization can be induced by cholinomimetic agents injected into the ascending mesolimbic cholinergic system that terminates in the anterior hypothalamic-preoptic area (AH-MPO) and lateral septum (LS). The other group of USVs contains 50-kHz USVs, characterized by high peak frequency, ranging from 39 to 90-kHz, short duration ranging from 10-90 ms, and varying frequency and complex sonographic morphology. These vocalizations can be induced by dopaminergic agents injected into the nucleus accumbens, the target area for the mesolimbic dopaminergic system. 22-kHz USVs are emitted in situations that are highly aversive, such as proximity of a predator or anticipation of a foot shock, while 50 kHz USVs are emitted in rewarding and appetitive situations, such as juvenile play behaviour or anticipation of rewarding electrical brain stimulation. The activities of these two mesolimbic systems were postulated to be antagonistic to each other. The current thesis is focused on the interaction of these systems indexed by emission of relevant USVs. It was hypothesized that emission of 22 kHz USVs will be antagonized by prior activation of the dopaminergic system while emission of 50 kHz will be antagonized by prior activation of the cholinergic system. It was found that injection of apomorphine into the shell of the nucleus accumbens significantly decreased the number of carbachol-induced 22 kHz USVs from both AH-MPO and LS. Injection of carbachol into the LS significantly decreased the number of apomorphine-induced 50 kHz USVs from the shell of the nucleus accumbens. The results of the study supported the main hypotheses that the mesolimbic dopaminergic and cholinergic systems function in antagonism to each other.
Resumo:
Picture Exchange Communication System (PECS) is an augmentative and alternative communicative system that improves communication and decreases problem behaviors in children with Developmental Disabilities and Autism. The mediator model is a validated approach that clinicians use to train parents to perform evidence-based interventions. Parental non-adherence to treatment recommendations is a documented problem. This qualitative study investigated clinician-perceived factors that influence parental adherence to PECS recommendations. Three focus groups (n=8) were conducted with Speech Language Pathologists and Behavior Therapists experienced in providing parents with PECS recommendations. Constant comparison analysis was used. In general, clinicians believed that PECS was complex to implement. Thirty-one bridges were identified to overcome complexity. Twenty-two barriers and 6 other factors also impacted parental adherence. Strategies to address these factors were proposed based on a review of the literature. Future research will be performed to validate these findings using parents and a larger sample size.
Resumo:
Complex networks can arise naturally and spontaneously from all things that act as a part of a larger system. From the patterns of socialization between people to the way biological systems organize themselves, complex networks are ubiquitous, but are currently poorly understood. A number of algorithms, designed by humans, have been proposed to describe the organizational behaviour of real-world networks. Consequently, breakthroughs in genetics, medicine, epidemiology, neuroscience, telecommunications and the social sciences have recently resulted. The algorithms, called graph models, represent significant human effort. Deriving accurate graph models is non-trivial, time-intensive, challenging and may only yield useful results for very specific phenomena. An automated approach can greatly reduce the human effort required and if effective, provide a valuable tool for understanding the large decentralized systems of interrelated things around us. To the best of the author's knowledge this thesis proposes the first method for the automatic inference of graph models for complex networks with varied properties, with and without community structure. Furthermore, to the best of the author's knowledge it is the first application of genetic programming for the automatic inference of graph models. The system and methodology was tested against benchmark data, and was shown to be capable of reproducing close approximations to well-known algorithms designed by humans. Furthermore, when used to infer a model for real biological data the resulting model was more representative than models currently used in the literature.
Resumo:
Multicoloured Asian Lady Beetles (MALB) and 7-spot Lady Beetles that infect vineyards can secrete alkyl-methoxypyrazines when they are processed with the grapes, resulting in wines containing a taint. The main methoxypyrazine associated with this taint is 3-isopropyl-2-methoxypyrazine (IPMP). The wines are described as having aroma and flavours of peanut butter, peanut shells, asparagus and earthy which collectively, have become known as “ladybug taint”. To date, there are no known fining agents used commercially added to juice or wine that are effective in removing this taint. The goal of this project was to use previously identified proteins with an ability to bind to methoxypyrazines at low pH, and subsequently develop a binding assay to test the ability of these proteins to bind to and remove methoxypyrazines from grape juice. The piglet odorant binding protein (plOBP) and mouse major urinary protein (mMUP) were identified, cloned and expressed in the Pichia pastoris expression system. Protein expression was induced using methanol and the proteins were subsequently purified from the induction media using anion exchange chromatography. The purified proteins were freeze-dried and rehydrated prior to use in the methoxypyrazine removal assay. The expression and purification system resulted in yields of approximately 78% of purified plOBP and 62% of purified mMUP from expression to rehydration. Purified protein values were 87 mg of purified plOPB per litre of induction media and 19 mg of purified mMUP per litre of induction medium. In order to test the ability of the protein to bind to the MPs, an MP removal assay was developed. In the assay, the purified protein is incubated with either IPMP or 3-isobutyl-2-methoxypyrazine (IBMP) for two hours in either buffer or grape juice. Bentonite is then used to capture the protein-MP complex and the bentonite-protein-MP complex is then removed from solution by filtration. Residual MP is measured in solution following the MP removal assay and compared to that in the starting solution by Gas Chromatography Mass Spectrometry (GC/MS). GC/MS results indicated that the mMUP was capable of removing IBMP and IPMP from 300 ng/L in buffer pH 4.0, buffer pH 3.5 and Riesling Juice pH 3.5 down to the limit of quantification of the instrument, which is 6ng/L and 2ng/L for IBMP and IPMP, respectively. The results for the plOBP showed that although it could remove some IBMP, it was only approximately 50-70 ng/L more than bentonite treatment followed by filtration, resulting in approximately 100 ng/L of the MPs being left in solution. pIOBP was not able to remove IPMP in buffer pH 3.5 using this system above that removed by bentonite alone. As well, the pIOBP was not able to remove any additional MPs from Chardonnay juice pH 3.5 above that already removed by the bentonite and filtration alone. The mouse MUP was shown to be a better candidate protein for removal of MPs from juice using this system.
Resumo:
Adaptive systems of governance are increasingly gaining attention in respect to complex and uncertain social-ecological systems. Adaptive co-management is one strategy to make adaptive governance operational and holds promise with respect to community climate change adaptation as it facilitates participation and learning across scales and fosters adaptive capacity and resilience. Developing tools which hasten the realization of such approaches are growing in importance. This paper describes explores the Social Ecological Inventory (SEI) as a tool to 'prime' a regional climate change adaptation network. The SEI tool draws upon the social-ecological systems approach in which social and ecological systems are considered linked. SEIs bridge the gap between conventional stakeholder analysis and biological inventories and take place through a six phase process. A case study describes the results of applying an SEI to prime an adaptive governance network for climate change adaptation in the Niagara Region of Canada. Lessons learned from the case study are discussed and highlight how the SEI catalyzed the adaptive co-management process in the case. Future avenues for SEIs in relation to climate change adaptation emerge from this exploratory work and offer opportunities to inform research and adaptation planning.
Object-Oriented Genetic Programming for the Automatic Inference of Graph Models for Complex Networks
Resumo:
Complex networks are systems of entities that are interconnected through meaningful relationships. The result of the relations between entities forms a structure that has a statistical complexity that is not formed by random chance. In the study of complex networks, many graph models have been proposed to model the behaviours observed. However, constructing graph models manually is tedious and problematic. Many of the models proposed in the literature have been cited as having inaccuracies with respect to the complex networks they represent. However, recently, an approach that automates the inference of graph models was proposed by Bailey [10] The proposed methodology employs genetic programming (GP) to produce graph models that approximate various properties of an exemplary graph of a targeted complex network. However, there is a great deal already known about complex networks, in general, and often specific knowledge is held about the network being modelled. The knowledge, albeit incomplete, is important in constructing a graph model. However it is difficult to incorporate such knowledge using existing GP techniques. Thus, this thesis proposes a novel GP system which can incorporate incomplete expert knowledge that assists in the evolution of a graph model. Inspired by existing graph models, an abstract graph model was developed to serve as an embryo for inferring graph models of some complex networks. The GP system and abstract model were used to reproduce well-known graph models. The results indicated that the system was able to evolve models that produced networks that had structural similarities to the networks generated by the respective target models.
Resumo:
Scientifiques, gouvernements, entreprises et consommateurs s’entendent aujourd’hui pour dire que le système naturel est déréglé, que l’activité industrielle en est la cause principale. L’éco-conception est une manière de concevoir des biens ou des services en diminuant leurs impacts sur l’environnement et la société. De plus en plus présente dans les grandes entreprises où, associée à une gestion intégrée de l’environnement, elle procure des bénéfices non négligeables et une image de marque, l’éco-conception a beaucoup de difficultés à s’implanter dans les petites et moyennes entreprises. Dans ce travail, nous avons cherché à comprendre les raisons de ces difficultés. Deux approches ont été utilisées, l’une basée sur une analyse documentaire des rapports de RSE de dix entreprises, grandes et petites, de différents secteurs d’activité, qui nous a permis de fixer le cadre et le formalisme de la démarche de recherche, l’autre sur le principe d’entretiens semi-dirigés à partir de questions ciblées. Après une présentation générale de ce qu’est l’éco-conception et quelle en est la problématique appliquée aux PME (chapitre 2), nous précisons le cadre méthodologique de la recherche (chapitre 3) et exposons ses résultats (chapitre 4). Nous montrons que les freins à l’adoption de l’éco-conception dans les PME sont multiples et complexes, tant la diversité de ces entreprises est grande et difficile à synthétiser. En soulignant les freins, les leviers, les risques et les opportunités liés à l’intégration des principes de développement durable dans ces entreprises, nous faisons un portrait global de la situation actuelle et des difficultés rencontrées par ces PME pour adhérer à ces principes.
Polysaccharide-based Polyion Complex Micelles as New Delivery Systems for Hydrophilic Cationic Drugs
Resumo:
Les micelles polyioniques ont émergé comme des systèmes prometteurs de relargage de médicaments hydrophiles ioniques. Le but de cette étude était le développement des micelles polyioniques à base de dextrane pour la relargage de médicaments hydrophiles cationiques utilisant une nouvelle famille de copolymères bloc carboxymethyldextran-poly(éthylène glycol) (CMD-PEG). Quatre copolymères CMD-PEG ont été préparés dont deux copolymères identiques en termes de longueurs des blocs de CMD et de PEG mais différent en termes de densité de charges du bloc CMD; et deux autres copolymères dans lesquels les blocs chargés sont les mêmes mais dont les blocs de PEG sont différents. Les propriétés d’encapsulation des micelles CMD-PEG ont été évaluées avec différentes molécules cationiques: le diminazène (DIM), un médicament cationique modèle, le chlorhydrate de minocycline (MH), un analogue semi-synthétique de la tétracycline avec des propriétés neuro-protectives prometteuses et différents antibiotiques aminoglycosidiques. La cytotoxicité des copolymères CMD-PEG a été évaluée sur différentes lignées cellulaires en utilisant le test MTT et le test du Bleu Alamar. La formation de micelles des copolymères de CMD-PEG a été caractérisée par différentes techniques telles que la spectroscopie RMN 1H, la diffusion de la lumière dynamique (DLS) et la titration calorimétrique isotherme (ITC). Le taux de relargage des médicaments et l’activité pharmacologique des micelles contenant des médicaments ont aussi été évalués. Les copolymères CMD-PEG n'ont induit aucune cytotoxicité dans les hépatocytes humains et dans les cellules microgliales murines (N9) après 24 h incubation pour des concentrations allant jusqu’à 15 mg/mL. Les interactions électrostatiques entre les copolymères de CMD-PEG et les différentes drogues cationiques ont amorcé la formation de micelles polyioniques avec un coeur composé du complexe CMD-médicaments cationiques et une couronne composée de PEG. Les propriétés des micelles DIM/CMDPEG ont été fortement dépendantes du degré de carboxyméthylation du bloc CMD. Les micelles de CMD-PEG de degré de carboxyméthylation du bloc CMD ≥ 60 %, ont incorporé jusqu'à 64 % en poids de DIM et ont résisté à la désintégration induite par les sels et ceci jusqu'à 400 mM NaCl. Par contre, les micelles de CMD-PEG de degré de carboxyméthylation ~ 30% avaient une plus faible teneur en médicament (~ 40 % en poids de DIM) et se désagrégeaient à des concentrations en sel inférieures (∼ 100 mM NaCl). Le copolymère de CMD-PEG qui a montré les propriétés micellaires les plus satisfaisantes a été sélectionné comme système de livraison potentiel de chlorhydrate de minocycline (MH) et d’antibiotiques aminoglycosidiques. Les micelles CMD-PEG encapsulantes de MH ou d’aminoglycosides ont une petite taille (< 200 nm de diamètre), une forte capacité de chargement (≥ 50% en poids de médicaments) et une plus longue période de relargage de médicament. Ces micelles furent stables en solution aqueuse pendant un mois; après lyophilisation et en présence d'albumine sérique bovine. De plus, les micelles ont protégé MH contre sa dégradation en solutions aqueuses. Les micelles encapsulant les drogues ont maintenu les activités pharmacologiques de ces dernières. En outre, les micelles MH réduisent l’inflammation induite par les lipopolysaccharides dans les cellules microgliales murines (N9). Les micelles aminoglycosides ont été quant à elles capable de tuer une culture bactérienne test. Toutefois les micelles aminoglycosides/CMDPEG furent instables dans les conditions physiologiques. Les propriétés des micelles ont été considérablement améliorées par des modifications hydrophobiques de CMD-PEG. Ainsi, les micelles aminoglycosides/dodecyl-CMD-PEG ont montré une taille plus petite et une meilleure stabilité aux conditions physiologiques. Les résultats obtenus dans le cadre de cette étude montrent que CMD-PEG copolymères sont des systèmes prometteurs de relargage de médicaments cationiques.
Resumo:
Le virus de l’immunodéficience humaine de type 1 (VIH-1), l’agent étiologique du SIDA, est un rétrovirus complexe arborant plusieurs protéines accessoires : Nef, Vif, Vpr, et Vpu. Celles-ci sont impliquées dans la modulation de la réplication virale, dans l’évasion immunitaire et dans la progression de la pathogenèse du SIDA. Dans ce contexte, il a été démontré que la protéine virale R (Vpr) induit un arrêt de cycle cellulaire en phase G2. Le mécanisme par lequel Vpr exerce cette fonction est l’activation, ATR (Ataxia telangiectasia and Rad3 related)-dépendante, du point de contrôle de dommage à l’ADN, mais les facteurs et mécanismes moléculaires directement impliqués dans cette activité demeurent inconnus. Afin d’identifier de nouveaux facteurs cellulaires interagissant avec Vpr, nous avons utilisé une purification d’affinité en tandem (TAP) pour isoler des complexes protéiques natifs contenant Vpr. Nous avons découvert que Vpr s’associait avec CRL4A(VprBP), un complexe cellulaire d’E3 ubiquitine ligase, comprenant les protéines Cullin 4A, DDB1 (DNA damage-binding protein 1) et VprBP (Vpr-binding protein). Nos études ont mis en évidence que le recrutement de la E3 ligase par Vpr était nécessaire mais non suffisant pour l’induction de l’arrêt de cycle cellulaire en G2, suggérant ainsi que des événements additionnels seraient impliqués dans ce processus. À cet égard, nous apportons des preuves directes que Vpr détourne les fonctions de CRL4A(VprBP) pour induire la polyubiquitination de type K48 et la dégradation protéosomale de protéines cellulaires encore inconnues. Ces événements d’ubiquitination induits par Vpr ont été démontrés comme étant nécessaire à l’activation d’ATR. Finalement, nous montrons que Vpr forme des foyers ancrés à la chromatine co-localisant avec VprBP ainsi qu’avec des facteurs impliqués dans la réparation de l’ADN. La formation de ces foyers représente un événement essentiel et précoce dans l’induction de l’arrêt de cycle cellulaire en G2. Enfin, nous démontrons que Vpr est capable de recruter CRL4A(VprBP) au niveau de la chromatine et nous apportons des preuves indiquant que le substrat inconnu ciblé par Vpr est une protéine associée à la chromatine. Globalement, nos résultats révèlent certains des ménanismes par lesquels Vpr induit des perturbations du cycle cellulaire. En outre, cette étude contribue à notre compréhension de la modulation du système ubiquitine-protéasome par le VIH-1 et son implication fonctionnelle dans la manipulation de l’environnement cellulaire de l’hôte.
Resumo:
Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).
Resumo:
Alors que l’Imagerie par résonance magnétique (IRM) permet d’obtenir un large éventail de données anatomiques et fonctionnelles, les scanneurs cliniques sont généralement restreints à l’utilisation du proton pour leurs images et leurs applications spectroscopiques. Le phosphore jouant un rôle prépondérant dans le métabolisme énergétique, l’utilisation de cet atome en spectroscopie RM présente un énorme avantage dans l’observation du corps humain. Cela représente un certain nombre de déEis techniques à relever dus à la faible concentration de phosphore et sa fréquence de résonance différente. L’objectif de ce projet a été de développer la capacité à réaliser des expériences de spectroscopie phosphore sur un scanneur IRM clinique de 3 Tesla. Nous présentons ici les différentes étapes nécessaires à la conception et la validation d’une antenne IRM syntonisée à la fréquence du phosphore. Nous présentons aussi l’information relative à réalisation de fantômes utilisés dans les tests de validation et la calibration. Finalement, nous présentons les résultats préliminaires d’acquisitions spectroscopiques sur un muscle humain permettant d’identiEier les différents métabolites phosphorylés à haute énergie. Ces résultats s’inscrivent dans un projet de plus grande envergure où les impacts des changements du métabolisme énergétique sont étudiés en relation avec l’âge et les pathologies.
Resumo:
Cette thèse présente une revue des réflexions récentes et plus traditionnelles provenant de la théorie des systèmes, de la créativité en emploi, des théories d’organisation du travail et de la motivation afin de proposer une perspective psychologique de la régulation des actions des individus au sein d’environnements de travail complexes et incertains. Des composantes de la Théorie de la Régulation de l’Action (Frese & Zapf, 1994) ainsi que de la Théorie de l’Auto-Détermination (Deci & Ryan, 2000) sont mises en relation afin d’évaluer un modèle définissant certains schémas cognitifs clés associés aux tâches individuelles et collectives en emploi. Nous proposons que ces schémas cognitifs, organisés de manière hiérarchique, jouent un rôle central dans la régulation d’une action efficace au sein d’un système social adaptatif. Nos mesures de ces schémas cognitifs sont basées sur des échelles de mesure proposées dans le cadre des recherches sur l’ambiguïté de rôle (eg. Sawyer, 1992; Breaugh & Colihan, 1994) et sont mis en relation avec des mesures de satisfaction des besoins psychologiques (Van den Broeck, Vansteenkiste, De Witte, Soenens & Lens, 2009) et du bien-être psychologique (Goldberg, 1972). Des données provenant de 153 employés à temps plein d’une compagnie de jeu vidéo ont été récoltées à travers deux temps de mesure. Les résultats révèlent que différents types de schémas cognitifs associés aux tâches individuelles et collectives sont liés à la satisfaction de différents types de besoin psychologiques et que ces derniers sont eux-mêmes liés au bien-être psychologique. Les résultats supportent également l’hypothèse d’une organisation hiérarchique des schémas cognitifs sur la base de leur niveau d’abstraction et de leur proximité avec l’exécution concrète de l’action. Ces résultats permettent de fournir une explication initiale au processus par lequel les différents types de schémas cognitifs développés en emplois et influencé par l’environnement de travail sont associés à l’attitude des employés et à leur bien-être psychologique. Les implications pratiques et théoriques pour la motivation, l’apprentissage, l’habilitation, le bien-être psychologique et l’organisation du travail dans les environnements de travail complexes et incertains sont discutés.