316 resultados para BAS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le virus de l’immunodéficience humaine ou VIH est l’agent qui cause le SIDA. Le VIH donne lieu à une dérégulation dans la production de certaines cytokines qui ont un rôle immunologique très important chez les patients infectés. L’IL-18, autrement nommé facteur inducteur d’IFN-γ, est une cytokine pro-inflammatoire qui affecte le système immunitaire de façon importante. Son activité est régulée par l’"IL-18 Binding Protein" (IL-18BP), une autre cytokine qui se lie avec l’IL-18 et inhibe son activité biologique. Des études ultérieures ont montré des niveaux élevés d’Il-18 chez les patients infectés par le VIH par rapport aux personnes saines. Cependant, aucune étude n’a été réalisée concernant la production d’IL-18BP chez ces patients. Due à sa relevance dans la régulation de l’IL-18, nous avons étudié l’effet de l’infection par le VIH sur l’équilibre entre ces deux facteurs et l’impact de cet équilibre sur l’homéostasie des cellules NK. Nous avons mesuré les taux de l’IL-18 et de l’IL-18BP circulantes dans les sérums des patients infectés par le VIH en les comparants avec le même nombre de personnes saines et séronégatives. Nous avons aussi déterminé le nombre total des différents sous-types de cellules NK et analysé l’activité des cellules NK (Natural Killer). Finalement nous avons cherché à déterminer si l’IL-18 pouvait induire l’apoptose des cellules NK en activant l’expression de Fas ligand. Nos résultats nous démontrent que les patients infectés par le VIH ont trois fois plus d’IL-18 que les donneurs sains. Cependant les niveaux d’IL-18BP sont plus bas chez les patients infectés comparés aux donneurs sains. Alors, le ratio IL-18/IL-18BP est augmenté chez les patients infectés, ce qui entraîne une grande quantité d’IL-18 libre et biologiquement active circulante dans leur organisme. Nos études démontrent que chez ces patients, les concentrations d’IL-18 sont en corrélation négative avec l’activité cytotoxique de leurs cellules NK. Nos études in vitro démontrent que le traitement des cellules NK par l’IL-18 induit de façon fratricide leur apoptose en augmentant l’expression de Fas ligand. Finalement, cette production non coordonnée de ces deux facteurs pourrait contribuer à une immunopathologie induite par l’IL-18 en entraînant une apoptose fratricide des cellules NK qui possèdent un rôle important dans la réponse antivirale. Le dérèglement de l’homéostasie des cellules NK pourrait donc contribuer à la pathogenèse induite par le VIH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il a été démontré que l’hétérotachie, variation du taux de substitutions au cours du temps et entre les sites, est un phénomène fréquent au sein de données réelles. Échouer à modéliser l’hétérotachie peut potentiellement causer des artéfacts phylogénétiques. Actuellement, plusieurs modèles traitent l’hétérotachie : le modèle à mélange des longueurs de branche (MLB) ainsi que diverses formes du modèle covarion. Dans ce projet, notre but est de trouver un modèle qui prenne efficacement en compte les signaux hétérotaches présents dans les données, et ainsi améliorer l’inférence phylogénétique. Pour parvenir à nos fins, deux études ont été réalisées. Dans la première, nous comparons le modèle MLB avec le modèle covarion et le modèle homogène grâce aux test AIC et BIC, ainsi que par validation croisée. A partir de nos résultats, nous pouvons conclure que le modèle MLB n’est pas nécessaire pour les sites dont les longueurs de branche diffèrent sur l’ensemble de l’arbre, car, dans les données réelles, le signaux hétérotaches qui interfèrent avec l’inférence phylogénétique sont généralement concentrés dans une zone limitée de l’arbre. Dans la seconde étude, nous relaxons l’hypothèse que le modèle covarion est homogène entre les sites, et développons un modèle à mélanges basé sur un processus de Dirichlet. Afin d’évaluer différents modèles hétérogènes, nous définissons plusieurs tests de non-conformité par échantillonnage postérieur prédictif pour étudier divers aspects de l’évolution moléculaire à partir de cartographies stochastiques. Ces tests montrent que le modèle à mélanges covarion utilisé avec une loi gamma est capable de refléter adéquatement les variations de substitutions tant à l’intérieur d’un site qu’entre les sites. Notre recherche permet de décrire de façon détaillée l’hétérotachie dans des données réelles et donne des pistes à suivre pour de futurs modèles hétérotaches. Les tests de non conformité par échantillonnage postérieur prédictif fournissent des outils de diagnostic pour évaluer les modèles en détails. De plus, nos deux études révèlent la non spécificité des modèles hétérogènes et, en conséquence, la présence d’interactions entre différents modèles hétérogènes. Nos études suggèrent fortement que les données contiennent différents caractères hétérogènes qui devraient être pris en compte simultanément dans les analyses phylogénétiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La légitimité d’une organisation est fondée sur sa mission, c’est-à-dire sur sa raison d’être. Des responsables des bibliothèques et de nombreux chercheurs craignent que la légitimité des bibliothèques publiques soit contestée dans la société de l’information. De plus, les textes officiels présentant les missions des bibliothèques publiques sont divers et les missions y sont délibérément non définies. Au Québec, où une grande majorité des bibliothèques publiques autonomes sont placées directement sous la tutelle des municipalités, les bibliothèques publiques doivent définir et légitimer leurs missions avec les élus municipaux. L’objectif principal de cette recherche est de comprendre, via les discours, le point de vue des élus municipaux québécois sur les missions des bibliothèques publiques autonomes, en comparaison avec les pratiques et les ressources des bibliothèques au plan local. Basé sur la théorie de la construction sociale de la réalité, un cadre conceptuel est proposé de manière à étudier non seulement les discours dans leur dimension textuelle, mais aussi à contextualiser ces discours et analyser l’écart entre ces discours et les pratiques des bibliothèques.La stratégie de recherche adoptée est une étude de cas multiples. L’objectif est de développer une analyse en profondeur de chaque cas et une analyse inter cas. Les douze cas (municipalités) ont été sélectionnés en fonction de deux critères de variation (la taille de la municipalité et le budget annuel alloué par la municipalité à la bibliothèque) et un critère discriminant (la distance par rapport à l’Université de Montréal). Des entrevues ont été menées auprès des élus municipaux présidant la commission ou le comité dont dépendent les bibliothèques publiques. Ces entrevues et les politiques culturelles ont fait l’objet d’une analyse de discours. Les entrevues auprès des responsables des bibliothèques et la documentation ont fait l’objet d’une analyse de contenu. Ces analyses ont permis la triangulation des méthodes et des sources de données.Les élus municipaux québécois, comme les professionnels, n’offrent pas un discours homogène sur les missions des bibliothèques publiques. Toutefois, un modèle de discours émerge. Il montre un discours « limité » par rapport à la littérature, dans lequel une image passive de la bibliothèque est présentée et dans lequel la tradition perdure malgré le contexte de la société de l’information. Mais l’analyse révèle aussi que les élus municipaux construisent leurs points de vue sur leurs propres convictions en tant qu’individus, sur leur rôle dans la gestion de la municipalité en tant qu’élus et sur l’image qu’ils ont des usagers des bibliothèques publiques. Enfin, l’analyse a révélé un axe de différenciation des points de vue selon que le discours s’appuie sur des valeurs fondamentales ou sur les usages (réels ou supposés) de la bibliothèque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur le rôle de l’espace dans l’organisation et dans la dynamique des communautés écologiques multi-espèces. Deux carences peuvent être identifiées dans les études théoriques actuelles portant sur la dimension spatiale des communautés écologiques : l’insuffisance de modèles multi-espèces représentant la dimension spatiale explicitement, et le manque d’attention portée aux interactions positives, tel le mutualisme, en dépit de la reconnaissance de leur ubiquité dans les systèmes écologiques. Cette thèse explore cette problématique propre à l’écologie des communautés, en utilisant une approche théorique s’inspirant de la théorie des systèmes complexes et de la mécanique statistique. Selon cette approche, les communautés d’espèces sont considérées comme des systèmes complexes dont les propriétés globales émergent des interactions locales entre les organismes qui les composent, et des interactions locales entre ces organismes et leur environnement. Le premier objectif de cette thèse est de développer un modèle de métacommunauté multi-espèces, explicitement spatial, orienté à l’échelle des individus et basé sur un réseau d’interactions interspécifiques générales comprenant à la fois des interactions d’exploitation, de compétition et de mutualisme. Dans ce modèle, les communautés locales sont formées par un processus d’assemblage des espèces à partir d’un réservoir régional. La croissance des populations est restreinte par une capacité limite et leur dynamique évolue suivant des mécanismes simples de reproduction et de dispersion des individus. Ces mécanismes sont dépendants des conditions biotiques et abiotiques des communautés locales et leur effet varie en fonction des espèces, du temps et de l’espace. Dans un deuxième temps, cette thèse a pour objectif de déterminer l’impact d’une connectivité spatiale croissante sur la dynamique spatiotemporelle et sur les propriétés structurelles et fonctionnelles de cette métacommunauté. Plus précisément, nous évaluons différentes propriétés des communautés en fonction du niveau de dispersion des espèces : i) la similarité dans la composition des communautés locales et ses patrons de corrélations spatiales; ii) la biodiversité locale et régionale, et la distribution locale de l’abondance des espèces; iii) la biomasse, la productivité et la stabilité dynamique aux échelles locale et régionale; et iv) la structure locale des interactions entre les espèces. Ces propriétés sont examinées selon deux schémas spatiaux. D’abord nous employons un environnement homogène et ensuite nous employons un environnement hétérogène où la capacité limite des communautés locales évoluent suivant un gradient. De façon générale, nos résultats révèlent que les communautés écologiques spatialement distribuées sont extrêmement sensibles aux modes et aux niveaux de dispersion des organismes. Leur dynamique spatiotemporelle et leurs propriétés structurelles et fonctionnelles peuvent subir des changements profonds sous forme de transitions significatives suivant une faible variation du niveau de dispersion. Ces changements apparaissent aussi par l’émergence de patrons spatiotemporels dans la distribution spatiale des populations qui sont typiques des transitions de phases observées généralement dans les systèmes physiques. La dynamique de la métacommunauté présente deux régimes. Dans le premier régime, correspondant aux niveaux faibles de dispersion des espèces, la dynamique d’assemblage favorise l’émergence de communautés stables, peu diverses et formées d’espèces abondantes et fortement mutualistes. La métacommunauté possède une forte diversité régionale puisque les communautés locales sont faiblement connectées et que leur composition demeure ainsi distincte. Par ailleurs dans le second régime, correspondant aux niveaux élevés de dispersion, la diversité régionale diminue au profit d’une augmentation de la diversité locale. Les communautés locales sont plus productives mais leur stabilité dynamique est réduite suite à la migration importante d’individus. Ce régime est aussi caractérisé par des assemblages incluant une plus grande diversité d’interactions interspécifiques. Ces résultats suggèrent qu’une augmentation du niveau de dispersion des organismes permet de coupler les communautés locales entre elles ce qui accroît la coexistence locale et favorise la formation de communautés écologiques plus riches et plus complexes. Finalement, notre étude suggère que le mutualisme est fondamentale à l’organisation et au maintient des communautés écologiques. Les espèces mutualistes dominent dans les habitats caractérisés par une capacité limite restreinte et servent d’ingénieurs écologiques en facilitant l’établissement de compétiteurs, prédateurs et opportunistes qui bénéficient de leur présence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse comprend deux parties distinctes, dans lesquelles seront décrits tout d’abord, le développement d’un procédé multicatalytique en un seul pot d’une réaction de méthylénation suivie d’un couplage de Heck, puis dans un second temps, une étude vers la synthèse de l’Hodgsonox. Le premier thème de la thèse correspond à la mise en place d’un procédé en un seul pot, basé sur la méthodologie de méthylénation catalysée par un métal de transition, développée au sein du groupe du Pr. Lebel, et sur des couplages de Heck. Différentes études de compatibilité des réactifs mis en présence sont abordées, ainsi que le choix des conditions optimales (Pd(OAc)2 et P(o-tol)3) pour la réalisation d’un tel système qui ne requiert aucun isolement du produit intermédiaire. Il a été démontré que la présence de triphénylphosphine en excès inhibe la réaction de couplage de Heck, ce qui a finalement orienté notre choix vers les sels de cuivre pour la catalyse de la réaction de méthylénation. Le tandem séquentiel a ensuite été appliqué à la synthèse de divers stilbènes, notamment des composés dérivés du Resvératrol, molécule d’intérêt thérapeutique pour les maladies cardiovasculaires, et à la synthèse d’indanes substitués, avec un couplage intramoléculaire, avec de bons rendements. La deuxième partie de cette thèse traite de l’étude menée vers la synthèse de l’Hodgsonox. Cette molécule correspond à une nouvelle classe de sesquiterpènes tricycliques, comportant un dihydropyrane doté d’une fonction éther diallylique. Cette molécule représente un défi synthétique pour le groupe du Pr. Lebel, qui envisage de synthétiser les deux doubles liaisons terminales au moyen de la méthodologie de méthylénation développée au sein du groupe. L’Hodgsonox, dont la biosynthèse utilise la voie MEP, a un potentiel insecticide pour la croissance de la larve de la mouche verte d’Australie, Lucilia cuprina. La synthèse envisagée au cours de ces travaux est basée sur la formation préalable d’un cycle à 5 chaînons, comportant 3 centres stéréogéniques, puis sur la cyclisation du cycle pyranique au moyen d’une réaction d’insertion dans un lien O H. Un dédoublement cinétique dynamique sur une δ butyrolactone substituée permet de fixer la stéréochimie relative de deux centres chiraux dès la première étape. Le cycle à 5 chaînons est ensuite formé par métathèse après 6 étapes avec un rendement de 37%. Une addition conjuguée suivie d’une réaction de Saegusa et d’une réaction d’hydrosilylation introduit le groupement isopropyle de manière syn. Après mise en place d’un groupement céto-ester, un transfert de groupement diazonium permet de préparer le précurseur pour la réaction d’insertion dans un lien O-H. Le bicycle correspondant à la structure de base de l’Hodgsonox a été préparé au moyen de 16 étapes linéaires avec un rendement global de 12%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le CS fait partie de la famille des SYSADOA (SYmptomatic Slow Acting Drugs for OsteoArthritis) et est utilisé par les patients avec de l’ostéoarthrose de façon chronique pour ses propriétés anti-inflammatoires. Étant donné que ces patients reçoivent d’autres médicaments, il était intéressant de documenter les effets du CS sur le cytochrome P450 et la NADPH-réductase (NADPH). Pour cette étude, deux modèles ont été utilisés: des lapins témoins (LT) et des lapins avec une réaction inflammatoire (LRI) afin de diminuer l’activité et l’expression du CYP. Six groupes contenant chacun cinq lapins ont été utilisés: un groupe sans CS et deux groupes qui ont pris oralement dans l’eau approximativement 20.5 mg/kg/jour de CS pendant 20 et 30 jours; les lapins des trois groupes restants ont pris du CS comme décrit plus haut, mais ont reçu 5 ml sous-cutanées de térébenthine afin de produire une réaction inflammatoire aseptique (RIA) deux jours avant leur sacrifice, c’est-à-dire aux jours -2, 18 et 28. Les hépatocytes ont été isolés pour évaluer l’activité et l’expression du CYP3A6, CYP1A2 et NADPH et aussi le ARNm de ces protéines. In vitro, nous avons étudié l’effet de différentes concentrations de CS-disaccharides sulfatés, 4S, 6S, et 4,6S de CS, sur l’activité et l’expression du CYP1A2 et du CYP3A6. Pour documenter la présence de la réaction inflammatoire, nous avons mesure les mucoprotéines, dans le sérum des lapins avec une réaction inflammatoire. Aussi nous avons mesuré la présence de l’oxide nitrique (NO) chez les hépatocytes de lapins contrôles et chez les hépatocytes des lapins avec une réaction inflammatoire. La translocation nucléaire du NF-κB a été etudiée par fluorescence chez les hépatocytes. Par comparaison aux lapins témoins, l’administration du CS pendant 20 et 30 jours n’affecte pas l’activité du CYP3A6 et du CYP1A2. La RIA a augmenté les mucoprotéines à 95,1±5,7 vs 8,4±1,6 mg/dl dans les lapins témoins (p<0,05). La RIA a diminué l’activité du CYP3A6 de 62% et l’activité du CYP 1A2 de 54%. Le CS n’empêché pas la diminution du CYP1A2 produite par la RIA. Par ailleurs, le CS n’affecte pas l’activité ni l’expression de la NADPH. La translocation nucléaire de NF-κB a été empêche par l’administration chronique de CS aux lapins avec RIA; en plus, la concentration de l’oxide nitrique n’a pas démontré une augmentation en présence de CS; par contre, CS n’empêche pas l’augmentation des séromucoïdes. Au contraire, CS affecte la diminution du CYP3A6 en fonction de temps et secondaire à la RIA. Dans ce group, CS a rétabli le niveau des protéines du CYP3A6 observé dans le group de lapins témoins. Pourtant cette croissance été independante de mRNA qui garde un niveau trés bas. Le plus remarcable a été la manière dont CS a augmenté la protéine du CYP3A6, sans avoir rétabli l’activité de cet isoforme. Finalement, in vitro, CS et ses trois disaccharides sulfatés (4S, 6S et 4,6S) n’affectent ni l’activité ni l’expression de CYP1A2, CYP3A6 et de la NADPH. En conclusion, l’administration chronique de CS n’affecte pas l’activité ni l’expression du CYP1A2, ou la diminution du CYP1A2 produite par la réaction inflammatoire. Le CS n’affecte pas l’activité ni l’expression du NADPH. Cependant, CS empêche la diminution du CYP3A6 en fonction de temps et secondaire à la RIA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La capture contingente de l’attention est un phénomène dans lequel les mécanismes d’orientation endogène et exogène de l’attention interagissent, de sorte qu’une propriété qui est pertinente à la tâche en cours, et donc qui fait l’objet de contrôles attentionnels descendants, endogènes, capture l’attention de façon involontaire, exogène, vers sa position spatiale. Dans cette thèse, trois aspects de ce phénomène ont été étudiés. Premièrement, en explorant le décours temporel de la capture contingente de l’attention et la réponse électrophysiologique à des distracteurs capturant ainsi l’attention, il a été établi que le déficit comportemental symptomatique de cette forme de capture était lié à un déploiement de l’attention visuospatiale vers la position du distracteur, et que ce traitement spatialement sélectif pouvait être modulé par le partage d’autres propriétés entre le distracteur et la cible. Deuxièmement, l’utilisation des potentiels liés aux événements a permis de dissocier l’hypothèse de capture contingente de l’attention et l’hypothèse de capture pure de l’attention. Selon cette interprétation, un stimulus ne peut capturer l’attention aux stades préattentifs de traitement que s’il présente le plus fort signal ascendant parmi tous les stimuli présents. Les contrôles attentionnels descendants ne serviraient donc qu’à désengager l’attention d’un tel stimulus. Les résultats présentés ici vont à l’encontre d’une telle interprétation, puisqu’un déploiement de l’attention visuospatiale, indexé par la présence d’une N2pc, n’a été observé que lorsqu’un distracteur périphérique possédait une caractéristique pertinente à la tâche en cours, même lorsque ses propriétés de bas niveau n’étaient pas plus saillantes que celles des autres items présents. Finalement, en utilisant un paradigme où la cible était définie en fonction de son appartenance à une catégorie alphanumérique, il a été démontré que des contrôles attentionnels en faveur d’un attribut conceptuel pouvaient guider l’attention visuospatiale de façon involontaire, rejetant une nouvelle fois l’hypothèse de la capture pure de l’attention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIF: Chez les Autochtones, la relation entre le degré d'éloignement et les issues de naissance est inconnue. L’objectif de cette étude est d’évaluer cet impact parmi les Premières Nations du Québec. MÉTHODE : Nous avons utilisé les données vitales de Statistique Canada pour la province du Québec pour la période 1991-2000. L’ensemble des naissances géocodées parmi les communautés des Premières Nations groupées en quatre zones en se basant sur le degré d'éloignement a été analysé. Nous avons utilisé la régression logistique multi-niveaux pour obtenir des rapports de cotes ajustés pour les caractéristiques maternelles. RESULTATS : Le taux de naissances prématurées varie en fonction de l’éloignement de la zone d’habitation (8,2% dans la zone la moins éloignée et 5,2% dans la Zone la plus éloignée, P<0,01). En revanche, plus la zone est éloignée, plus le taux de mortalité infantile est élevé (6,9 pour 1000 pour la Zone 1 et 16,8 pour 1000 pour la Zone 4, P<0,01). Le taux élevé de mortalité infantile dans la zone la plus éloignée pourrait être partiellement expliqué par le fort taux de mortalité post-natale. Le taux de mort subite du nourrisson est 3 fois plus élevé dans la zone 4 par rapport à la zone 1. Cependant la mortalité prénatale ne présente pas de différences significatives en fonction de la zone malgré une fréquence élevée dans la zone 4. La morbidité périnatale était semblable en fonction de la zone après avoir ajusté pour l’âge, l’éducation, la parité et le statut civil. CONCLUSIONS : Malgré de plus faibles taux d’enfants à haut risque (accouchements prématurés), les Premières Nations vivant dans les communautés les plus éloignées ont un risque plus élevé de mortalité infantile et plus spécialement de mortalité post-néonatale par rapport aux Premières Nations vivant dans des communautés moins éloignées. Il y existe un grand besoin d’investissement en services de santé et en promotion de la santé dans les communautés les plus éloignées afin de réduire le taux de mortalité infantile et surtout post-néonatale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comprendre le mode d’existence de l’organisation est certainement l’un des plus grands défis que se sont donnés les chercheurs qui s’intéressent à ce domaine d’étude. La littérature nous présente ainsi plusieurs images, métaphores et perspectives qui, combinées, dressent un portrait hybride de ce type de collectif. Je propose, dans cette thèse, de reconnaître et exploiter ce caractère hybride de l’organisation en partant d’une réflexion centrée sur l'espace. En m’inspirant particulièrement des travaux de la géographe Doreen Massey (1999, 2005), le concept d'espace auquel je souscris est celui d’un espace ouvert et dynamique (qui incorpore le temps), basé sur une relationalité matérielle et hétérogène, supposant des acteurs humains et non humains en interaction. L'espace peut donc être compris comme la coexistence d’ontologies hétérogènes, ce que Massey (2005) nomme une coexistence de trajectoires comme stories-so-far. Il s’agit ici d’une vision performative de l’espace organisationnel qui est constitué dans la relation de trajectoires distinctes qui coexistent, se rencontrent, s’affectent, entrent en conflit ou coopèrent (Massey, 1999). Je postule que pour assurer une certaine continuité et cohérence dans la coexistence de trajectoires hétérogènes, un travail d’alignement et d’ordonnancement est mis à l’oeuvre, et ce, par le suivi d’une trajectoire principale — ce que je nomme une trajectoire scriptée. Suivre cette trajectoire permet ainsi à l’organisation de s’étendre, de se rendre présente dans le temps et dans l’espace, sans pour autant perdre son identité : to be here and there at the same time, now and then at the same place. À partir de cette définition de l’espace, je propose d’« espacer l’organisation », et plus particulièrement d’« espacer » Explora, un programme d’éducation non formelle du gouvernement du Chili visant la diffusion et la valorisation de la science et de la technologie. Cette proposition est double : elle renvoie aux pratiques d’espacements — des pratiques hybrides, collectives et situées — des agents organisationnels (dans ce cas, aux pratiques des agents d’Explora impliqués dans l’organisation d’un projet, celui de la Semaine de la science 2006),mais aussi à une pratique de recherche. « Espacer l’organisation » veut donc dire déployer ces espaces pleins, déplier l’organisation, accroître la série des simultanéités-successions pour ainsi créer plus d’espace-temps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse se propose d’étudier les façons dont la pensée et l’imaginaire grec de l’époque archaïque se représentaient quelques pans du réel qui ne se laissaient jamais voir ni atteindre: l’éther, l’air et l’abîme marin. Vu le caractère insondable de ces espaces, l’imagination et l’abstraction se sont ingéniées à les appréhender par un discours spécifique et à les intégrer dans le système de connaissances et de croyances propre à l’époque en leur assignant une place dans le système de l’univers, en les rattachant à une hiérarchie de l’ordre cosmologique, en leur donnant une forme, en classant leurs objets et en les rapportant aux modèles du monde connu, en les aménageant par les moyens les plus divers. Une étude des formes d’expression de la pensée grecque archaïque, autant littéraires qu’iconographiques, permet de cerner les diverses formes de représentation des domaines inaccessibles et les modèles d’organisation spatiale issus de ce type de pensée. Grâce à la dialectique particulière qui ressort du rapport entre espace et mouvement, cette thèse se propose également d’interroger le corpus des sources grecques archaïques sous des angles jusqu’ici peu explorés: comment maîtrise-t-on l’espace par les déplacements physiques en dehors des parcours terrestres? Comment les schémas du mouvement dans l’espace se sont-ils forgés? Comment les dichotomies issues de la logique spatiale archaïque (haut/bas, droite/gauche, est/ouest, en deça/au-delà, etc.) influent-elles sur la structuration spatiale? Quelles espèces d’espace révèlent les déplacements à travers les différents niveaux du monde, que ce soit ceux des dieux, ceux des mortels et d’autres entités, forces physiques et substances privilégiées dans le commerce avec le divin et le monde d’en haut? Ces analyses mettent en valeur les façons dont l’imagination et l’abstraction plutôt que l’expérience vécue ont contribué, à leur façon, à structurer l’espace et à forger l’image du monde comme κόσμος, monde mis en ordre et soumis autant aux lois physiques qu’aux lois divines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présence de membres de la famille dans les milieux de soins critiques a augmentée graduellement au cours des dernières années. La présente recherche visait à décrire la perception que les membres de la famille avait eu à l’égard des comportements de caring des infirmières lors de leur visite aux soins intensifs. Plus spécifiquement, ce projet avait pour but d’explorer les différences entre les perceptions de membres de la famille dont le proche était hospitalisé pour une blessure traumatique versus une maladie grave non-traumatique. Les différences ont aussi été examinées selon certaines caractéristiques personnelles d’un membre de la famille soit leur genre, leur expérience antérieure de visites aux soins intensifs, leur âge et leur perception de la gravité du problème de santé de leur proche. Le cadre de référence de cette étude était basé sur les facteurs caratifs proposés par Watson (1985). L’importance et la satisfaction des membres de la famille à l’égard des comportements de caring de la part des infirmières ont été mesurées par les versions française et anglaise adaptées du Caring Behaviors Assessment (CBA) (Cronin & Harrison, 1988). Les données ont été analysées en utilisant les techniques d’analyse MANOVA et des tests de corrélation de Pearson. En général, les résultats indiquent que les membres de la famille rapportent des degrés d’importance et de satisfaction similaires selon que leur proche était hospitalisé pour une blessure traumatique ou une maladie grave non-traumatique. Peu de différences émergent selon les caractéristiques personnelles des membres de la famille. Un coefficient de corrélation significatif (0.36, p = 0.012) existe entre la perception des membres de la famille de la gravité du problème de santé, et l’importance de la dimension ‘réponses aux besoins’. Par ailleurs, les comportements de caring regroupés dans la dimension ‘réponses aux besoins’ ont été perçus comme étant les plus importants et les membres de familles étaient très satisfaits des comportements de caring des infirmières. Cette étude fournit des pistes pour l’enseignement, la clinique et la recherche et met en lumière la perception des membres de la famille des soins infirmiers humains chez des proches hospitalisés dans une unité de soins intensifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte. Les phénotypes ABO et Rh(D) des donneurs de sang ainsi que des patients transfusés sont analysés de façon routinière pour assurer une complète compatibilité. Ces analyses sont accomplies par agglutination suite à une réaction anticorps-antigènes. Cependant, pour des questions de coûts et de temps d’analyses faramineux, les dons de sang ne sont pas testés sur une base routinière pour les antigènes mineurs du sang. Cette lacune peut résulter à une allo-immunisation des patients receveurs contre un ou plusieurs antigènes mineurs et ainsi amener des sévères complications pour de futures transfusions. Plan d’étude et Méthodes. Pour ainsi aborder le problème, nous avons produit un panel génétique basé sur la technologie « GenomeLab _SNPstream» de Beckman Coulter, dans l’optique d’analyser simultanément 22 antigènes mineurs du sang. La source d’ADN provient des globules blancs des patients préalablement isolés sur papiers FTA. Résultats. Les résultats démontrent que le taux de discordance des génotypes, mesuré par la corrélation des résultats de génotypage venant des deux directions de l’ADN, ainsi que le taux d’échec de génotypage sont très bas (0,1%). Également, la corrélation entre les résultats de phénotypes prédit par génotypage et les phénotypes réels obtenus par sérologie des globules rouges et plaquettes sanguines, varient entre 97% et 100%. Les erreurs expérimentales ou encore de traitement des bases de données ainsi que de rares polymorphismes influençant la conformation des antigènes, pourraient expliquer les différences de résultats. Cependant, compte tenu du fait que les résultats de phénotypages obtenus par génotypes seront toujours co-vérifiés avant toute transfusion sanguine par les technologies standards approuvés par les instances gouvernementales, les taux de corrélation obtenus sont de loin supérieurs aux critères de succès attendus pour le projet. Conclusion. Le profilage génétique des antigènes mineurs du sang permettra de créer une banque informatique centralisée des phénotypes des donneurs, permettant ainsi aux banques de sang de rapidement retrouver les profiles compatibles entre les donneurs et les receveurs.