640 resultados para Fouille de données


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Communication présentée au Premier Congrès des milieux documentaires du Québec le 12 novembre 2009, Palais des congrès de Montréal. Comprend une annexe comportant un exemple d'élément RDA, des exemples de notices RCAA2 et RDA en MARC 21 ainsi qu'une bibliographie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La 1-β-D-arabinofuranosylcytosine (ara-C) demeure l’agent anticancéreux principalement utilisé dans le traitement de la leucémie myéloblastique aiguë (LMA), malgré sa dégradation et son élimination rapide après une administration parentérale. Son encapsulation dans des vecteurs pharmaceutiques, majoritairement des liposomes, a permis de surmonter ces inconvénients. L’objectif général de ce projet de doctorat était de développer deux systèmes à libération prolongée, à base de phospholipides, de cholestérol et de poly(éthylène glycol) (PEG) afin d’encapsuler l’ara-C et ultimement, d’améliorer son efficacité dans le traitement de la LMA. Des Sphérulites® (vésicules multilamellaires d’un type particulier) ont d’abord été étudiées pour leur forte capacité d’encapsulation, due à leur mode de préparation. Par la suite, une formulation liposomale capable, d’une part de cibler spécifiquement les cellules leucémiques et, d’autre part, de promouvoir la libération intracellulaire de l’ara-C grâce à sa sensibilité au pH, a été mise au point. Les deux formulations se devaient d’avoir un faible diamètre, une stabilité en présence de fluides biologiques et des temps de circulation prolongés chez l’animal. Une préparation de Sphérulites®, composée de Phospholipon 90G, de Solutol HS15 et de cholestérol, a permis d’obtenir des vésicules de 300 nm de diamètre. Un dérivé lipidique de PEG a pu être fixé à leur surface, sans modifier la disposition concentrique des lamelles, ni changer leur stabilité. Les Sphérulites® PEGylées ont été chargées d’ara-C et injectées chez le rat par la voie intraveineuse. Elles ont démontré des temps de circulation significativement prolongés comparativement aux Sphérulites® sans PEG. Cependant, l’ara-C s’est retrouvée éliminée de la circulation sanguine très rapidement, révélant une libération précoce du principe actif à partir de ces vésicules. Les liposomes sensibles au pH (~150 nm) ont été obtenus suite à l’insertion d’un copolymère à base de dioctadécyle, de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique. L’anticorps anti-CD33, soit complet soit son fragment Fab’, a été fixé à la surface des liposomes afin de cibler les cellules leucémiques. Les essais in vitro ont démontré la spécificité de la formulation pour différentes cellules leucémiques (CD33+), sa stabilité en présence de protéines plasmatiques et la libération intracellulaire d’un marqueur fluorescent et de l’ara-C. Enfin, des études menées chez la souris saine et immunodéprimée inoculée de cellules HL60 ont montré que la formulation exposant le fragment Fab’ possédait un profil pharmacocinétique et une biodistribution semblables à ceux des liposomes contrôles non-ciblés. L’encapsulation de l’ara-C a permis d’améliorer grandement ses temps de circulation après une administration intraveineuse. Cependant, bien que les immunoliposomes ont permis de prolonger la survie des souris leucémiques comparativement à l’ara-C libre, l’addition du polymère sensible au pH n’a pas permis d’apporter de réel avantage à la formulation lorsque administrée in vivo. Les résultats obtenus dans ce travail de thèse ont, dans un premier temps, mis en évidence que les Sphérulites® pourraient s’avérer utiles dans la vectorisation d’agents anticancéreux si leur capacité à retenir le principe actif in vivo était améliorée. Dans un second temps, les données présentées avec les immunoliposomes suggèrent qu’ils pourraient apporter un bénéfice notable dans le traitement de la LMA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur le financement public de l’enseignement supérieur au Pérou et ses impacts dans une perspective longitudinale couvant la période 1993-2003. Cette période est importante parce qu’elle a été témoin, dans ce pays, de changements majeurs aux plans du financement public et de la configuration du système d’enseignement supérieur. La recherche consiste principalement dans des analyses secondaires de données pertinentes publiées par des organismes nationaux et internationaux. Les analyses sont structurées à partir d’un schéma d’inputs et outputs. On considère comme inputs les ressources financières et les ressources humaines, lesquelles comprennent les professeurs et les étudiants, et comme outputs les taux de diplomation (efficacité interne) et la demande de diplômés par le marché du travail (efficacité externe). La théorie de la dépendance de ressources sert de cadre pour interpréter les rapports entre le financement public et ses incidences sur les réponses institutionnels et ses conséquences. Dans la période retenue, le financement du secteur public a décru de 32% en raison d’un désengagement progressif de l’État. Une conséquence majeure de la diminution du financement public a été la croissance rapide du secteur privé de l’enseignement supérieur. En effet, alors qu’en 1993 il y avait 24 institutions privées d’enseignement supérieur, il y en avait, en 2003, 46 institutions. La baisse du financement public et la croissance du secteur privé d’enseignement supérieur ont eu des incidences sur la sélectivité des étudiants, sur le statut des professeurs, sur l’implication des universités en recherche et sur les taux de diplomation. Le taux de sélectivité dans le secteur public a augmenté entre 1993 et 2003, alors que ce taux a diminué, dans la même période, dans le secteur privé. Ainsi, le secteur public répond à la diminution du financement en restreignant l’accès à l’enseignement supérieur. Le secteur privé, par contre, diminue sa sélectivité compensant ainsi l’augmentation de la sélectivité dans le secteur public et, par le fait même, augmente sa part de marché. Également, tant dans le secteur public que dans le secteur privé, les professeurs sont engagés principalement sur une base temporaire, ce qui se traduit, particulièrement dans le secteur privé, dans un moindre engagement institutionnel. Enfin, les universités publiques et privées du Pérou font peu de recherche, car elles favorisent, pour balancer leurs budgets, la consultation et les contrats au détriment de la recherche fondamentale. Paradoxalement, alors que, dans le secteur privé, les taux de sélectivité des étudiants diminuent, leurs taux de diplomation augmentent plus que dans le secteur public. Enfin, les formations avec plus d’étudiants inscrits, tant dans le secteur public que privé, sont les moins coûteuses en infrastructure et équipements. Dès lors, la pertinence de la production universitaire devient problématique. Cette recherche révèle que les organisations universitaires, face à un environnement où les ressources financières deviennent de plus en plus rares, développent des stratégies de survie qui peuvent avoir des incidences sur la qualité et la pertinence de l’enseignement supérieur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le maintien de la stabilité du génome est essentiel pour la propagation de l’information génétique et pour la croissance et la survie des cellules. Tous les organismes possèdent des systèmes de prévention des dommages et des réarrangements de l’ADN et nos connaissances sur ces processus découlent principalement de l’étude des génomes bactériens et nucléaires. Comparativement peu de choses sont connues sur les systèmes de protection des génomes d’organelles. Cette étude révèle l’importance des protéines liant l’ADN simple-brin de la famille Whirly dans le maintien de la stabilité du génome des organelles de plantes. Nous rapportons que les Whirlies sont requis pour la stabilité du génome plastidique chez Arabidopsis thaliana et Zea mays. L’absence des Whirlies plastidiques favorise une accumulation de molécules rearrangées produites par recombinaison non-homologue médiée par des régions de microhomologie. Ce mécanisme est similaire au “microhomology-mediated break-induced replication” (MMBIR) retrouvé chez les bactéries, la levure et l’humain. Nous montrons également que les organelles de plantes peuvent réparer les bris double-brin en utilisant une voie semblable au MMBIR. La délétion de différents membres de la famille Whirly entraîne une accumulation importante de réarrangements dans le génome des organelles suite à l’induction de bris double-brin. Ces résultats indiquent que les Whirlies sont aussi importants pour la réparation fidèle des génomes d’organelles. En se basant sur des données biologiques et structurales, nous proposons un modèle où les Whirlies modulent la disponibilité de l’ADN simple-brin, régulant ainsi le choix des voies de réparation et permettant le maintien de la stabilité du génome des organelles. Les divers aspects de ce modèle seront testés au cours d’expériences futures ce qui mènera à une meilleure compréhension du maintien de la stabilité du génome des organelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude a été réalisée dans le cadre d’une maîtrise en Aménagement. Elle s’efforce à démontrer que l’étape d’un projet que l’on appelle problématisation, c’est-à-dire l’étape de construction des problèmes à être résolus, permet de s’assurer que les actions entreprises soient en cohérence et en pertinence avec le contexte du projet. Nous constatons désormais que nous ne pouvons plus nous contenter d’évaluer les projets sur la seule base de son efficience, c’est-à-dire la concordance de ses résultats avec les objectifs prévus. Dans ces circonstances, nous émettons l’hypothèse que la problématisation fait appel à des compétences particulières et généralement peu utilisées par rapport à d’autres étapes de la réalisation d’un projet. À cet égard, nous avons réalisé un travail de recherche exploratoire sur ce thème en ayant comme objectif d’obtenir une compréhension des compétences mobilisées lors de la problématisation en situation de projet en général et d’identifier plus spécifiquement ces compétences dans une situation de projet en particulier, celle des projets de coopération internationale. Pour y arriver, nous avons procédé à la construction d’un référentiel d’emploi et d’activités pour en déduire un référentiel de compétences de la problématisation. Pour ce faire, nous avons réalisé une étude de cas sur les projets de stage de coopération internationale. L’utilisation de la technique de l’« instruction au sosie » et d’une rechercheintervention nous ont permis de dégager les principaux résultats suivant: la problématisation fait appel à des compétences particulières de gestion de l’information et de médiation. Les compétences générales de problématisation que les responsables des stages dans les organisations de coopération internationale v doivent maîtriser sont : être capable de générer les disponibilités de projets à partir de données primaires et secondaires; être capable de faire des choix et de justifier ces choix en fonction de l’analyse des données; être capable de présenter des informations écrites claires, respectueuses des idées des partenaires en fonction du langage de projet utilisé par le public auquel s’adresse la proposition; être capable d’utiliser les commentaires des évaluateurs pour améliorer un projet et être capable de mener à terme un projet. La contribution principale de ce travail de recherche réside dans la proposition d’un outil précieux pour le recrutement et la sélection, l’évaluation du rendement, la formation et le perfectionnement des acteurs de la problématisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les technologies de l’information entraînent de profondes transformations dans nos façons d’apprendre et de socialiser ; de lire et d’écrire. Ces changements ne sont pas sans conséquence sur de nombreuses institutions, juridiques ou non. Créées au fil du temps et adaptées à une réalité qu’elles avaient internalisée, elles doivent aujourd’hui comprendre et s’adapter au changement. L’écrit est une de ces institutions. Sa place dans le droit civil est le fruit de centaines d’années de cohabitation et le droit y a vu un allié stable. Mais autrefois facilitateur, l’écrit devient obstacle alors que les technologies de l’information, affranchies du papier, sont utilisées dans des situations juridiques. Comment adapter la notion d’écrit – et celles de l’original et de la signature – alors qu’il n’est question que de données abstraites sous forme numérique ? C’est là l’objet de ce mémoire. Suite à une étude de la notion d’écrit dans le temps, de son affirmation à son bouleversement, nous étudierons les outils juridiques (traditionnels ou récents, comme les principes de neutralité technologique et d’équivalence fonctionnelle) à la disposition du droit civil pour constamment s’adapter à des situations changeantes. Enfin, dans une perspective plus pratique, nous verrons le traitement qu’ont fait divers législateurs, de l’écrit électronique. Nous terminerons par une analyse plus précise des dispositions québécoises relatives à l’écrit électronique. Les principes étudiés dans ce mémoire sont susceptibles de s’appliquer à d’autres situations similaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : Plusieurs expositions résidentielles ont été associées à la prévalence de l’asthme. Toutefois, peu d’études populationnelles ont examiné la relation entre ces facteurs et un asthme mal maîtrisé chez l’enfant. Objectif : Évaluer les facteurs environnementaux résidentiels associés à un asthme mal maîtrisé chez les enfants montréalais âgés de 6 mois à 12 ans. Méthodes : Les données sont tirées d’une enquête transversale menée en 2006 sur la santé respiratoire d’enfants montréalais âgés de 6 mois à 12 ans (n=7980). La maîtrise de l’asthme a été évaluée chez les enfants avec un asthme actif au cours de l’année précédent l’enquête (n=980) selon des critères recommandés par les lignes directrices canadiennes sur l’asthme. Les rapports de prévalence (RP) et les intervalles de confiance (IC) à 95 % caractérisant l’association entre les facteurs environnementaux, incluant la présence d’allergènes, d’irritants, d’humidité et de moisissures, et le risque d’un asthme mal maîtrisé ont été estimés à l’aide de modèles de régression log-binomiale. Les sujets avec une maîtrise acceptable de l’asthme ont été comparés à ceux dont la maladie était mal maîtrisée. Résultats : Des 980 enfants avec un asthme actif au cours de l’année précédant l’enquête, 36 % ont rencontré au moins un des critères des lignes directrices canadiennes suggérant un asthme mal maîtrisé. Les caractéristiques de la population associées à un asthme mal maîtrisé sont : un plus jeune âge, des antécédents d’atopie parentale, une faible scolarisation de la mère, une mère d’origine étrangère et le statut de locataire. Après ajustement pour l’âge de l’enfant, l’atopie parentale et l’exposition à la fumée de tabac au domicile, une intensité de trafic élevée à proximité du domicile (RP, 1,35; IC 95 %, 1,00-1,81) et la localisation au sous-sol de la chambre de l’enfant ou de sa résidence (RP 1,30; IC 95 %, 1,01-1,66) étaient associées à un risque accru d’asthme mal maîtrisé. Conclusions : Une maîtrise sous-optimale de l’asthme semble être associée à l’exposition au trafic routier et à des conditions d’humidité excessive et probablement de moisissures. Cette dernière exposition étant plus fréquente, elle a probablement un plus grand impact en matière de santé publique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université Bordeaux 1 (France)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présence de membres de la famille dans les milieux de soins critiques a augmentée graduellement au cours des dernières années. La présente recherche visait à décrire la perception que les membres de la famille avait eu à l’égard des comportements de caring des infirmières lors de leur visite aux soins intensifs. Plus spécifiquement, ce projet avait pour but d’explorer les différences entre les perceptions de membres de la famille dont le proche était hospitalisé pour une blessure traumatique versus une maladie grave non-traumatique. Les différences ont aussi été examinées selon certaines caractéristiques personnelles d’un membre de la famille soit leur genre, leur expérience antérieure de visites aux soins intensifs, leur âge et leur perception de la gravité du problème de santé de leur proche. Le cadre de référence de cette étude était basé sur les facteurs caratifs proposés par Watson (1985). L’importance et la satisfaction des membres de la famille à l’égard des comportements de caring de la part des infirmières ont été mesurées par les versions française et anglaise adaptées du Caring Behaviors Assessment (CBA) (Cronin & Harrison, 1988). Les données ont été analysées en utilisant les techniques d’analyse MANOVA et des tests de corrélation de Pearson. En général, les résultats indiquent que les membres de la famille rapportent des degrés d’importance et de satisfaction similaires selon que leur proche était hospitalisé pour une blessure traumatique ou une maladie grave non-traumatique. Peu de différences émergent selon les caractéristiques personnelles des membres de la famille. Un coefficient de corrélation significatif (0.36, p = 0.012) existe entre la perception des membres de la famille de la gravité du problème de santé, et l’importance de la dimension ‘réponses aux besoins’. Par ailleurs, les comportements de caring regroupés dans la dimension ‘réponses aux besoins’ ont été perçus comme étant les plus importants et les membres de familles étaient très satisfaits des comportements de caring des infirmières. Cette étude fournit des pistes pour l’enseignement, la clinique et la recherche et met en lumière la perception des membres de la famille des soins infirmiers humains chez des proches hospitalisés dans une unité de soins intensifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette étude, la bile d’un porc canadien naturellement infecté par une souche du virus de l’hépatite E (VHE) a été utilisée afin d’inoculer deux groupes de porcelets. Dans l’étude précoce (E), 4 porcelets âgés de 4 semaines et exempts de pathogènes spécifiques (SPF), ont été suivis jusqu’à 14 jours post-inoculation (pi). Dans l’étude tardive (L), 9 porcelets ont été suivis à chaque semaine jusqu’à l’abattage, soit 120 jours pi. À la nécropsie, la présence du VHE a été évaluée dans différents organes à 7, 14 et 120 jours pi. Des porcelets témoins (E=2 et L=3) ont été inoculés par de la bile exempte de VHE. Le virus a persisté chez certains animaux jusqu’à 84 à 105 jours pi dans le sérum malgré la présence d’anticorps IgG anti-VHE dans le sang, suggérant une virémie prolongée. L’excrétion virale dans les fèces s’est étalée également sur une période de 105 jours pi chez certains animaux. De plus, la détection de l’ARN viral dans les organes évalués s’est révélée presque nulle à l’âge d’abattage à l’exception de quelques vésicules biliaires, alors qu’on retrouvait l’ARN viral dans plusieurs organes à 7 et 14 jours pi. Pour évaluer la distribution du VHE chez les porcs commerciaux du Québec, un échantillonnage de porcs de trois abattoirs a été réalisé. Environ 100 échantillons de sang, fèces, foies et bile provenant des mêmes animaux en processus d’abattage ont été prélevés dans chacun des abattoirs, sur des porcs destinés à la consommation humaine. La détection de l’ARN viral et des anticorps du VHE a été réalisée à l’aide d’une RT-PCR nichée et d’un test ELISA adapté pour déceler les anticorps porcins anti-VHE. Chez les porcs d’abattoir, 12,9 % des échantillons de bile contenaient de l’ARN viral du VHE, alors que la détection virale était moindre dans les autres organes. Une séroprévalence en IgG de 26,0 % a été obtenue pour les sérums porcins analysés. Une analyse phylogénétique des différentes souches isolées pendant l’étude a démontré qu’elles sont du génotype 3. Ces données indiquent une exposition potentielle des travailleurs de l’industrie porcine au VHE porcin, notamment par les fèces, le sang et les organes et également pour les consommateurs par le biais des foies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte. Les phénotypes ABO et Rh(D) des donneurs de sang ainsi que des patients transfusés sont analysés de façon routinière pour assurer une complète compatibilité. Ces analyses sont accomplies par agglutination suite à une réaction anticorps-antigènes. Cependant, pour des questions de coûts et de temps d’analyses faramineux, les dons de sang ne sont pas testés sur une base routinière pour les antigènes mineurs du sang. Cette lacune peut résulter à une allo-immunisation des patients receveurs contre un ou plusieurs antigènes mineurs et ainsi amener des sévères complications pour de futures transfusions. Plan d’étude et Méthodes. Pour ainsi aborder le problème, nous avons produit un panel génétique basé sur la technologie « GenomeLab _SNPstream» de Beckman Coulter, dans l’optique d’analyser simultanément 22 antigènes mineurs du sang. La source d’ADN provient des globules blancs des patients préalablement isolés sur papiers FTA. Résultats. Les résultats démontrent que le taux de discordance des génotypes, mesuré par la corrélation des résultats de génotypage venant des deux directions de l’ADN, ainsi que le taux d’échec de génotypage sont très bas (0,1%). Également, la corrélation entre les résultats de phénotypes prédit par génotypage et les phénotypes réels obtenus par sérologie des globules rouges et plaquettes sanguines, varient entre 97% et 100%. Les erreurs expérimentales ou encore de traitement des bases de données ainsi que de rares polymorphismes influençant la conformation des antigènes, pourraient expliquer les différences de résultats. Cependant, compte tenu du fait que les résultats de phénotypages obtenus par génotypes seront toujours co-vérifiés avant toute transfusion sanguine par les technologies standards approuvés par les instances gouvernementales, les taux de corrélation obtenus sont de loin supérieurs aux critères de succès attendus pour le projet. Conclusion. Le profilage génétique des antigènes mineurs du sang permettra de créer une banque informatique centralisée des phénotypes des donneurs, permettant ainsi aux banques de sang de rapidement retrouver les profiles compatibles entre les donneurs et les receveurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude traite du travail en équipe et de la coopération patronale-syndicale. Nous avons évalué l’influence de la coopération patronale-syndicale sur le fonctionnement et l’autonomie collective des équipes de travail. La méthodologie utilisée s’appuie sur une étude de cas contrastés du point de vue de la variable indépendante (l’intensité de la coopération patronale-syndicale), en neutralisant le plus grand nombre possible de variables de contrôle pouvant influencer la variable dépendante (fonctionnement et autonomie des équipes de travail). Des entrevues semi-structurées avec les représentants des deux usines sélectionnées ont confirmé que la coopération patronale-syndicale était élevée dans une usine et faible dans l’autre. L’analyse des données relatives à notre variable dépendante est basée principalement sur les résultats d’un questionnaire et les données obtenues indiquent que les répondants de l’usine d’Alma font des évaluations plus élevées des aspects liés aux dimensions de la variable dépendantes et celles-ci recouvrent des aspects axés sur la gestion des opérations alors que celles où les évaluations sont plus élevées à Kénogami concernent majoritairement des aspects plus secondaires. Notre hypothèse est essentiellement confirmée et démontre une relation positive entre un degré élevé de coopération patronale-syndicale et l’évaluation par les membres du fonctionnement et de l’autonomie collective de leur équipe. Cette relation positive est cependant mitigée, car elle ne se vérifie pas pour certaines dimensions qui renvoient à des aspects plus secondaires de l’autonomie collective des équipes de travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.