837 resultados para electronic indices


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de recherche

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper is a translation of the first part of an article published in Cahiers de propriété intellectuelle (2003).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Département de linguistique et de traduction

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La perception visuelle du mouvement est essentielle à l’exécution de déplacements sécuritaires ainsi qu’à l’interaction efficace avec notre environnement. C’est pourquoi il est nécessaire de comprendre la nature des mécanismes responsables de l’analyse de l’information sur le mouvement, ainsi que l’effet du vieillissement sur la réponse de ces mécanismes. Deux études seront présentées. La première avait pour but l’analyse des mécanismes responsables de la perception du mouvement de rotation fractale, nouveau stimulus introduit par Benton, O’Brien & Curran (2007). Ce type de stimulus a été créé afin d’isoler les mécanismes sensibles à la forme. Plusieurs auteurs ont suggéré que les mécanismes sensibles au mouvement de deuxième ordre utiliseraient les indices de position afin d’extraire l’information sur le mouvement (Seiffert & Cavanagh, 1998). Ainsi, la présente étude visait à déterminer si la rotation fractale est analysée par de tels mécanismes. Les résultats obtenus suggèrent que les mécanismes sensibles à la rotation fractale seraient basés sur l’orientation; tandis que ceux sensibles à la rotation de premier ordre, basés sur l’énergie. De plus, une certaine dissociation des mécanismes responsables du traitement de la rotation fractale et de premier ordre serait présente. La deuxième étude avait pour but, quant à elle, d’établir l’effet du vieillissement sur l’intégration du mouvement de premier et deuxième ordre. Les résultats indiquent que les mécanismes sensibles au mouvement de deuxième ordre seraient davantage affectés, comparativement à ceux de premier ordre. Ainsi, les fonctions visuelles requérant une intégration corticale de plus haut niveau seraient davantage affectées par l’effet du vieillissement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’insomnie, une condition fréquemment retrouvée dans la population, se caractérise d’abord par une difficulté à initier ou à maintenir le sommeil et/ou par des éveils précoces le matin ou encore par un sommeil non-réparateur. Lorsqu’elle n’est pas accompagnée par des troubles psychiatriques ou médicaux ou un autre trouble de sommeil et qu’elle perdure plus de 6 mois on parle alors d’insomnie primaire chronique. Selon certains, cette condition serait associée à un état d’hyperéveil caractérisé par une augmentation de l’activité autonome sympathique durant le sommeil et l’éveil. Le baroréflexe est un important mécanisme de contrôle à court terme des fluctuations de la tension artérielle (TA) et de la fréquence cardiaque agissant sur le cœur et les vaisseaux sanguins par l’entremise du système nerveux autonome. On appelle sensibilité baroréceptive (SBR) la capacité du baroréflexe de réagir et de contrôler les fluctuations de TA en modulant le rythme cardiaque. De manière générale, la SBR serait augmentée durant la nuit par rapport à la journée. Aussi, il semblerait que le baroréflexe soit impliqué dans le phénomène de baisse physiologique de la TA pendant la nuit. Or, des données de notre laboratoire ont démontré une augmentation de la TA systolique au cours de la nuit ainsi qu’une atténuation de la baisse nocturne de TA systolique chez des sujets avec insomnie primaire chronique comparé à des témoins bons dormeurs. De plus, il a été démontré que le baroréflexe était altéré de façon précoce dans plusieurs troubles cardiovasculaires et dans l’hypertension artérielle. Or, il semblerait que l’insomnie soit accompagnée d’un risque accru de développement de l’hypertension artérielle. Ces études semblent aller dans le sens d’une altération des mécanismes de régulation de la TA dans l’insomnie. Par ailleurs, une réduction de la SBR serait aussi impliquée dans des états associés à une augmentation de l’activité autonome sympathique. Ainsi, nous nous sommes demandé si le baroréflexe pouvait constituer un des mécanismes de contrôle de la TA qui serait altéré dans l’insomnie et pourrait être impliqué dans l’augmentation de l’activité sympathique qui semble accompagner l’insomnie. Jusqu’à présent, le baroréflexe reste inexploré dans l’insomnie. L’objectif principal de ce mémoire était d’évaluer de façon non-invasive la SBR à l’éveil et en sommeil chez 11 sujets atteints d’insomnie primaire chronique comparé à 11 témoins bons dormeurs. L’évaluation du baroréflexe a été effectuée de façon spontanée par la méthode de l’analyse en séquence et par le calcul du coefficient alpha obtenu par l’analyse spectrale croisée de l’intervalle RR et de la TA systolique. De façon concomitante, les paramètres de la variabilité de l’intervalle RR en sommeil et à l’éveil ont aussi été comparés chez ces mêmes sujets. Aucune différence significative n’a été notée au niveau des index de la SBR entre le groupe d’insomniaques et celui des bons dormeurs, à l’éveil ou en sommeil. Cependant, on observe des valeurs légèrement plus faibles de la SBR chez les insomniaques ayant mal dormi (efficacité de sommeil (ES) < 85%) comparés aux insomniaques ayant bien dormi (ES≥ 85%) à la nuit expérimentale durant l’éveil et en sommeil. Par ailleurs, aucune différence n’a été notée entre le groupe d’insomniaques et celui des bons dormeurs au niveau des paramètres de la variabilité RR considérés (intervalle RR, PNN50, LF et HF en valeurs normalisées). En effet, les insomniaques tout comme les bons dormeurs semblent présenter une variation normale de l’activité autonome en sommeil, telle que représentée par les paramètres de la variabilité RR. Ces résultats préliminaires semblent suggérer que les mécanismes du baroréflexe sont préservés chez les sujets atteints d’insomnie primaire chronique tels que diagnostiqués de manière subjective. Cependant, il est possible qu’une altération des mécanismes du baroréflexe ne se révèle chez les insomniaques que lorsque les critères objectifs d’une mauvaise nuit de sommeil sont présents.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Notre recherche a pour but de déterminer comment les genres textuels peuvent être exploités dans le design des environnements numériques de travail afin de faciliter l’accomplissement des pratiques textuelles de cadres et de secrétaires dans une municipalité et une administration fédérale canadiennes. À cet effet, le premier objectif consiste à évaluer l’aptitude des environnements numériques de travail à supporter les pratiques textuelles (lecture, écriture et manipulation des textes) de ces employés. Le deuxième objectif est de décrire les rôles des genres textuels au cours des pratiques textuelles. Avec l’exemple du courriel, le troisième objectif vise à examiner comment le genre peut être exploité dans une perspective d’assistance à la réalisation des pratiques textuelles dans les environnements numériques de travail. Cette recherche de nature qualitative comporte une méthodologie en deux étapes. La première étape consiste en un examen minutieux des pratiques textuelles, des difficultés rencontrées au cours de celles-ci, du rôle du genre dans les environnements numériques de travail, ainsi que des indices sollicités au cours de la gestion du courriel. Trois modes de collecte des données qualitatives sont utilisés auprès de 17 cadres et de 17 secrétaires issus de deux administrations publiques : l’entrevue semi-dirigée, le journal de bord et l’enquête cognitive. Les résultats sont examinés à l’aide de stratégies d’analyse de contenu qualitative. La deuxième phase comprend la mise au point d’une chaîne de traitement du courriel, visant à étayer notre réflexion sur le genre textuel et son exploitation dans la conception des environnements numériques de travail. Un corpus de 1703 messages est élaboré à partir d’un échantillon remis par deux cadres gouvernementaux. Les résultats permettent d’abord de dresser un portrait général des pratiques de lecture, d’écriture et de manipulation des textes communes et spécifiques aux cadres et aux secrétaires. L’importance du courriel, qui constitue environ 40% des systèmes notés dans les journaux de bord, est soulignée. Les difficultés rencontrées dans les environnements numériques de travail sont également décrites. Dans un deuxième temps, les rôles du genre au cours des pratiques textuelles sont examinés en fonction d’une matrice tenant à la fois compte de ses dimensions individuelles et collectives, ainsi que de ses trois principales facettes ; la forme, le contenu et la fonction. Ensuite, nous présentons un cadre d’analyse des indices affectant la gestion du courriel qui synthétise le processus d’interprétation des messages par le destinataire. Une typologie des patrons de catégorisation des cadres est également définie, puis employée dans une expérimentation statistique visant la description et la catégorisation automatique du courriel. Au terme de ce processus, on observe des comportements linguistiques marqués en fonction des catégories du courriel. Il s’avère également que la catégorisation automatique basée sur le lexique des messages est beaucoup plus performante que la catégorisation non lexicale. À l’issue de cette recherche, nous suggérons d’enrichir le paradigme traditionnel relevant de l’interaction humain-ordinateur par une sémiotique du genre dans les environnements numériques de travail. L’étude propose également une réflexion sur l’appartenance du courriel à un genre, en ayant recours aux concepts théoriques d’hypergenre, de genre et de sous-genre. Le succès de la catégorisation automatique du courriel en fonction de facettes tributaires du genre (le contenu, la forme et la fonction) offre des perspectives intéressantes sur l’application de ce concept au design des environnements numériques de travail en vue de faciliter l’accomplissement des pratiques textuelles par les employés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’analyse spectrale de la fréquence cardiaque, de la pression artérielle systolique, de la pression artérielle diastolique ainsi que de la respiration par la transformée de Fourier rapide, est considérée comme une technique non invasive pour la détermination de l’activité du système nerveux autonome (SNA). Dans une population de sujets normaux volontaires, nous avons obtenu à l’état basal, des oscillations de basses fréquences (0,05-0,15Hz) reliées au système nerveux sympathique autonome et des oscillations de hautes fréquences (0,2Hz) représentant sur les intervalles entre chaque ondes R de l’électrocardiogramme (RR), l’arythmie sinusale respiratoire correspondant à une activité vagale. Nous avons comparé les tests de stimulation du système nerveux sympathique autonome déclenché par le passage de la position de repos (en décubitus dorsal), à la position orthostatique volontaire et le passage de la position de repos à la position orthostatique avec la table basculante à 60o. Nous avons également comparé un groupe normotendu à un groupe hypertendu qui a été soumis au passage du repos à l’orthostation volontaire et pour lesquels nous avons évalué la sensibilité du baroréflexe et la réponse sympathique par la mesure des catécholamines circulantes. Dans un groupe de sujets ayant une hypertension artérielle essentielle, nous avons évalué l’effet de la thérapie hypotensive, par le Trandolapril qui est un Inhibiteur de l’enzyme de conversion (IEC) de l`angiotensine. Dans ce groupe hypertendu, nous avons procédé, en plus de la stimulation sympathique par l’orthostation volontaire, à un exercice isométrique de trois minutes à 30 % de la force maximale. Nous avons également complété notre évaluation par la mesure de la densité de récepteurs ß2 adrénergiques sur lymphocytes et par la mesure des indices de contractilité à l’aide de l’échocardiographie en M mode. Les résultats ont montré, dans les groupes normaux volontaires, dans les deux types de stimulation du système nerveux sympathique par la position orthostatique, une augmentation significative des catécholamines plasmatiques avec une augmentation de la fréquence cardiaque et des basses fréquences de RR, confirmant ainsi que l’on est en état de stimulation sympathique. On observe en même temps une diminution significative des hautes fréquences de RR, suggérant un retrait vagal lors de cette stimulation. On a observé au test de la table basculante six cas d’hypotension orthostatique. On a comparé la position orthostatique volontaire entre le groupe de sujets normaux et le groupe de sujets hypertendus. L’analyse spectrale croisée de RR et de la pression artérielle systolique a permis d’évaluer dans l’hypertension artérielle (HTA), essentielle une sensibilité du baroréflexe atténuée, accompagnée d’une réactivité vagale réduite en présence d’une activité et d’une réactivité sympathique augmentées suggérant une altération sympathovagale dans l’HTA. Dans le groupe de sujets hypertendus traités (Trandolapril 2mg/jour), nous avons identifié un groupe de répondeurs au traitement par le Trandolapril et un groupe de non répondeurs à ce type de thérapie anti-hypertensive. Le groupe répondeur avait un profil hyper-adrénergique avec une hyper-réactivité sympathique, une fréquence cardiaque et des pressions artérielles diastolique et systolique plus élevées au repos. Dans le groupe total traité au Trandolapril, la densité des récepteurs ß2 adrénergiques a doublé, après thérapie, alors que la réactivité des basses fréquences obtenues à l’analyse spectrale a augmenté. Nous avons montré dans notre étude qu’un IECA a pu inhiber le mécanisme facilitateur de l’angII sur les terminaisons nerveuses sympathiques et a permis ainsi de réduire l’hyperactivité sympathique et le mécanisme de « down regulation » des récepteurs ß2 adrénergiques rendant ainsi l’expression de l’influence du SNA post synaptique plus efficace. Dans l’ensemble de nos protocoles cliniques, par l’utilisation de l’analyse spectrale des signaux RR, de la pression artérielle systolique,de la pression artérielle diastolique et de la respiration, nous avons montré que cette technique non invasive permet de décrire et de mieux comprendre les mécanismes physiologiques, physiopathologiques et pharmacologiques reliés au système nerveux autonome et à l’hypertension artérielle essentielle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le développement ainsi que l’amélioration des différentes techniques de purification sont des défis importants pour la chimie d’aujourd’hui. Certaines des méthodes actuelles, tel que le greffage d’un réactif sur un support solide permettant d’accéder à un produit pur par simple filtration du milieu, comportent toutefois certains inconvénients. En effet, les propriétés de solubilité de ces polymères rendent la mise en œuvre des réactions plus difficiles. C’est dans ce contexte que le groupe du Pr. Charette a rapporté l’utilisation de réactifs liés à un sel de tétraarylphosphonium (TAP). Ces sels peuvent être solubilisés dans un solvant tel que le dichlorométhane et aisément retirés du milieu réactionnel par précipitation à l’aide d’éther diéthylique (Chapitre 1). L’un des objectifs de cette thèse a donc été lié à la découverte de deux méthodes complémentaires qui, jusqu’à présent, sont considérées comme des méthodes de choix pour la synthèse des sels de TAP fonctionnalisés (Chapitre 2). L’une d’entre elles est utilisée par Soluphase inc., une entreprise qui commercialise ces sels de TAP. L’efficacité des sels en tant que support dans la synthèse de petites molécules a été démontrée lors de la synthèse d’un produit naturel, la (–)-coniine (Chapitre 3). L’isolement des intermédiaires synthétiques instables par simple précipitation à l’aide d’un support de TAP a permis de rendre cette synthèse plus efficace que celle déjà connue. Dans le deuxième volet de cette thèse, plusieurs problèmes reliés à la synthèse de dérivés cyclopropaniques 1,1-disubstitués ont été étudiés. Ces derniers font partie intégrale de plusieurs produits naturels et de médicaments. Cependant, leur formation par une réaction de cyclopropanation d’alcènes utilisant des réactifs diazoïques possédant deux groupements de type accepteur n’est pas tâche facile (Chapitre 4). En effet, cette réaction souffre d’un faible contrôle diastéréosélectif. Par le fait même, très peu de méthodologies de synthèse ont rapporté l’utilisation de ce type de réactifs diazoïques dans des réactions de cyclopropanation stéréosélectives. L’étude du mécanisme de la réaction de cyclopropanation catalysée au Rh(II) a proposé des indices favorisant un modèle ayant des précédents dans la littérature (Chapitre 5). Ces études nous ont mené à la découverte de la «capacité trans-directrice» du groupement amide lors des réactions de cyclopropanation d’oléfines. Nous avons donc utilisé cette propriété afin de résoudre plusieurs problèmes rencontrés dans la littérature. Nous avons montré qu’elle permet l’accès à des dérivés cyclopropaniques possédant deux groupements carboxyliques géminaux avec des sélectivités élevées (Chapitre 6). Ces produits étaient accessibles que par des séquences synthétiques nécessitant plusieurs étapes. De plus, nous avons démontrés que ces nouveaux dérivés cyclopropaniques sont des outils synthétiques fort utiles dans la synthèse de produits naturels d’intérêt biologique. Cette formidable «capacité trans-directrice» du groupement amide nous a permi de résoudre le problème de la synthèse asymétrique de dérivés carboxyliques α-cyano cyclopropaniques (Chapitre 7). De plus, ce projet nous a menées à la découverte de l’effet de divers additif achiraux permettant d’augmenter la sélectivité dans certaines réactions. Cette réaction possède une vaste étendue et l’utilité de ces nouveaux dérivés cyclopropaniques a été démontrée par plusieurs transformations de groupements fonctionnels.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La zeitgesit contemporaine sur la reconnaissance des visages suggère que le processus de reconnaissance reposerait essentiellement sur le traitement des distances entre les attributs internes du visage. Il est toutefois surprenant de noter que cette hypothèse n’a jamais été évaluée directement dans la littérature. Pour ce faire, 515 photographies de visages ont été annotées afin d’évaluer l’information véhiculée par de telles distances. Les résultats obtenus suggèrent que les études précédentes ayant utilisé des modifications de ces distances ont présenté 4 fois plus d’informations que les distances inter-attributs du monde réel. De plus, il semblerait que les observateurs humains utilisent difficilement les distances inter-attributs issues de visages réels pour reconnaître leurs semblables à plusieurs distances de visionnement (pourcentage correct maximal de 65%). Qui plus est, la performance des observateurs est presque parfaitement restaurée lorsque l’information des distances inter-attributs n’est pas utilisable mais que les observateurs peuvent utiliser les autres sources d’information de visages réels. Nous concluons que des indices faciaux autre que les distances inter-attributs tel que la forme des attributs et les propriétés de la peau véhiculent l’information utilisée par le système visuel pour opérer la reconnaissance des visages.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent mémoire a pour objet les formes, les caractéristiques et les défis de la gouvernance des déchets électroniques. L’auteure explore les impactes socioéconomiques et environnementales de divers types d’instruments conçus pour mitiger les risques à la santé humaine et à l’environnement que présentent les produits électroniques en fin de vie, notamment: les traités multilatéraux qui visent à prohiber le transfert des déchets hasardeux au pays en développement, les législations régionales, nationales et provinciales mettant en vigueur des systèmes de recyclage obligatoire des déchets électroniques, ainsi que d’autres initiatives, publics et privées, basées sur le principe de la responsabilité élargie des producteurs (REP). L’objectif de ce travail est de comprendre comment les acteurs impliqués dans le commerce de l’équipement électronique peuvent modeler les systèmes de production, d’usage et du traitement fin de vie des technologies contemporaines pour que ces dernières puissent continuer à faire élever les standards de vie et à avancer le développement des communautés humaines, en respectant simultanément le principe international de l’équité globale, l’environnement naturel et la qualité de vie des générations futures.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Des études ont observé que le statut socio-économique (SSE) est inversement associé avec le risque de cancer du poumon. Cette thèse approfondit différents aspects de la relation entre le SSE et le risque de cancer du poumon afin de contribuer à la compréhension des facteurs influençant le risque de cette maladie. Son objectif général consiste à étudier les associations entre le SSE et le risque de cancer du poumon en fonction à la fois : 1) de l’indicateur du SSE ; 2) des types d’ajustement pour le tabagisme, et ; 3) des facteurs de risque intermédiares potentiels de l’association entre le SSE et le cancer du poumon. Les données d’une vaste étude cas-témoins menée à Montréal entre 1996 et 2002 et portant sur l’identification de facteurs environnementaux impliqués dans l’étiologie du cancer du poumon ont été utilisées. L’échantillon analysé était constitué de 1203 cas (738 hommes et 465 femmes) diagnostiqués en 1996-1997 dans les 18 principaux hôpitaux du Grand Montréal et 1513 témoins (899 hommes et 614 femmes). Les témoins, recrutés au hasard à partir de la liste électorale, ont été appariés aux cas selon l’âge, le sexe et le district électoral. Les sujets ont été interviewés afin de colliger de l’information entre autres sur les caractéristiques sociodémographiques et économiques, les habitudes de tabagisme, l‘histoire professionnelle et l’alimentation. Une collecte de données additionnelle a été effectuée spécifiquement pour la présente thèse. En effet, l’évaluation foncière de la résidence correspondant à l’adresse de chacun des sujets à l’entrevue a été obtenue à partir des bases de données publiques de la ville de Montréal. Le premier article portait sur la comparaison de différents indices de disponibilité financière chacun en 5 catégories: un indice de valeur résidentielle, le revenu médian issu des données du recensement et le revenu familial auto-rapporté. En comparant au revenu familial auto-rapporté, une très bonne concordance a été obtenue pour 73% et 64% des individus respectivement pour l’indice de valeur résidentielle et le revenu du recensement. Le Kappa pondéré était plus élevé pour la comparaison du revenu familial auto-rapporté avec l’indice de valeur résidentielle (Kappap=0.36, IC 95%: 0.31-0.40) qu’avec le revenu médian issu du recensement (Kappap=0.22, IC 95%: 0.17-0.27). Le choix d’un indice dépend toutefois des objectifs et de la faisabilité de son utilisation dans la population étudiée. Le deuxième article présentait les associations entre les trois indices de disponibilité financière et le risque de cancer du poumon. Les fortes associations observées initialement sont disparues après un ajustement pour plusieurs dimensions du tabagisme. Ce dernier jouait un rôle de grande importance dans la relation entre le SSE et le risque de cancer du poumon. Finalement, les facteurs de risque intermédiares des associations entre trois différentes dimensions du SSE – éducation, revenu, classe professionnelle – ont été étudiés. Les résultats ont suggéré que les 3 facteurs de risque intermédiares potentiels étudiés: tabagisme, consommation de fruits et légumes riches en caroténoïdes, expositions professionnelles avaient un effet médiateur indépendant dans la relation entre le SSE et le cancer du poumon. Le plus important médiateur était le tabagisme, suivi de l’alimentation et à un degré moindre, les expositions professionnelles. Il nous paraît particulièrement pertinent d‘évaluer différents indicateurs du SSE lorsque possible, et d’effectuer un ajustement détaillé pour le tabagisme lorsque la relation entre le SSE et le risque de cancer du poumon est étudiée. Une bonne connaissance et la prise en compte des facteurs de risque intermédiares sont essentielles à la formulation des mesures de prévention du cancer du poumon.