384 resultados para Haut représentant
Resumo:
Le VPH-16 de même que certains VPH, dont le VPH-18, causent le cancer du col utérin. Son intégration dans le génome humain pourrait être un marqueur de progression de l’infection. Les charges virales totale et intégrée sont présentement mesurées en quantifiant par PCR en temps réel les gènes E6 (RT-E6) et E2 (RT-E2-1) du VPH-16. Nous avons évalué l’impact du polymorphisme du gène E2 sur la quantification de l’ADN du VPH-16 dans des spécimens cliniques. Dans un premier temps, le gène E2 de 135 isolats de VPH-16 (123 appartenaient au clade Européen et 12 à des clades non- Européens) fut séquencé. Ensuite, un test de PCR en temps réel ciblant les séquences conservées dans E2 (RT-E2-2) fut développé et optimisé. Cent trente-neuf spécimens (lavages cervicaux et vaginaux) provenant de 74 participantes (58 séropositives pour le VIH, 16 séronégatives pour le VIH) ont été étudiés avec les trois tests E2 (RT-E2-2), E6 (RT-E6) et E2 (RT-E2-1). Les ratios de la quantité d’ADN de VPH-16 mesuré avec RT-E2-2 et RT-E2-1 dans les isolats Européens (médiane, 1.02; intervalle, 0.64-1.80) et Africains 1 (médiane, 0.80; intervalle, 0.53-1.09) sont similaires (P=0.08). Par contre, les ratios mesurés avec les isolats Africains 2 (médiane, 3.23; intervalle, 1.92-3.49) ou Asiatique- Américains (médiane, 3.78; intervalle, 1.47-37) sont nettement supérieurs à ceux obtenus avec les isolats Européens (P<0.02 pour chaque comparaison). Les distributions des quantités de E2 contenues dans les 139 échantillons mesurées avec RT-E2-2 (médiane, 6150) et RT-E2-1 (médiane, 8960) étaient statistiquement différentes (P<0.0001). Nous avons observé que les charges virales totale (odds ratio (OR) OR, 2.16 95% intervalle de confiance (IC) 1.11-4.19), et épisomale du VPH-16 (OR, 2.14 95% IC 1.09-4.19), mais pas la présence de formes intégrées (OR, 3.72 95% IC 1.03-13.4), sont associées aux néoplasies intraepitheliales cervicales de haut grade (CIN-2,3), et ce, en contrôlant pour des facteurs confondants tels que l’âge, le taux de CD4 sanguin, l’infection au VIH, et le polymorphisme de VPH-16. La proportion des échantillons ayant un ratio E6/E2 > 2 pour les femmes sans lésion intraépithéliale (7 de 35) est similaire à celle des femmes avec CIN-2,3 (5 de 11, p=0.24) ou avec CIN- 1 (4 de14, P=0.65). Le polymorphisme du gène E2 est un facteur qui influence la quantification des charges intégrées de VPH-16.
Resumo:
Contexte. Les phénotypes ABO et Rh(D) des donneurs de sang ainsi que des patients transfusés sont analysés de façon routinière pour assurer une complète compatibilité. Ces analyses sont accomplies par agglutination suite à une réaction anticorps-antigènes. Cependant, pour des questions de coûts et de temps d’analyses faramineux, les dons de sang ne sont pas testés sur une base routinière pour les antigènes mineurs du sang. Cette lacune peut résulter à une allo-immunisation des patients receveurs contre un ou plusieurs antigènes mineurs et ainsi amener des sévères complications pour de futures transfusions. Plan d’étude et Méthodes. Pour ainsi aborder le problème, nous avons produit un panel génétique basé sur la technologie « GenomeLab _SNPstream» de Beckman Coulter, dans l’optique d’analyser simultanément 22 antigènes mineurs du sang. La source d’ADN provient des globules blancs des patients préalablement isolés sur papiers FTA. Résultats. Les résultats démontrent que le taux de discordance des génotypes, mesuré par la corrélation des résultats de génotypage venant des deux directions de l’ADN, ainsi que le taux d’échec de génotypage sont très bas (0,1%). Également, la corrélation entre les résultats de phénotypes prédit par génotypage et les phénotypes réels obtenus par sérologie des globules rouges et plaquettes sanguines, varient entre 97% et 100%. Les erreurs expérimentales ou encore de traitement des bases de données ainsi que de rares polymorphismes influençant la conformation des antigènes, pourraient expliquer les différences de résultats. Cependant, compte tenu du fait que les résultats de phénotypages obtenus par génotypes seront toujours co-vérifiés avant toute transfusion sanguine par les technologies standards approuvés par les instances gouvernementales, les taux de corrélation obtenus sont de loin supérieurs aux critères de succès attendus pour le projet. Conclusion. Le profilage génétique des antigènes mineurs du sang permettra de créer une banque informatique centralisée des phénotypes des donneurs, permettant ainsi aux banques de sang de rapidement retrouver les profiles compatibles entre les donneurs et les receveurs.
Resumo:
Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.
Resumo:
Cette thèse est consacrée à la complexité basée sur le paradigme des preuves interactives. Les classes ainsi définies ont toutes en commun qu’un ou plusieurs prouveurs, infiniment puissants, tentent de convaincre un vérificateur, de puissance bornée, de l’appartenance d’un mot à un langage. Nous abordons ici le modèle classique, où les participants sont des machines de Turing, et le modèle quantique, où ceux-ci sont des circuits quantiques. La revue de littérature que comprend cette thèse s’adresse à un lecteur déjà familier avec la complexité et l’informatique quantique. Cette thèse présente comme résultat la caractérisation de la classe NP par une classe de preuves interactives quantiques de taille logarithmique. Les différentes classes sont présentées dans un ordre permettant d’aborder aussi facilement que possible les classes interactives. Le premier chapitre est consacré aux classes de base de la complexité ; celles-ci seront utiles pour situer les classes subséquemment présentées. Les chapitres deux et trois présentent respectivement les classes à un et à plusieurs prouveurs. La présentation du résultat ci-haut mentionné est l’objet du chapitre quatre.
Resumo:
L’objectif de cette étude était d’obtenir une meilleure compréhension du concept de force mentale appliqué dans un contexte sportif. Pour se faire, des entrevues ont été réalisées avec dix athlètes québécois francophones de niveau universitaire. L’analyse des données s’est effectuée en suivant les principes de la version abrégée de la théorisation ancrée. Les résultats appuient globalement la littérature scientifique. En somme, la force mentale serait composée de caractéristiques de base interreliées, telles que la motivation internalisée, la confiance en soi, la maturité et la détermination. La force mentale serait sollicitée non seulement lorsque l’athlète fait face à des situations difficiles comme l’adversité, mais également lorsque le contexte dans lequel il évolue est exempt de complications (à l’entraînement ou lors de victoire). Les résultats des entrevues indiquent que face à ces deux types de situation, les athlètes forts mentalement possèderaient un mode réactionnel tridimensionnel (dimension cognitive, affective et comportementale) se caractérisant par la gestion et le contrôle de l’attention, l’interprétation optimiste des situations, le contrôle de l’activation et du langage corporel, la gestion des émotions et la résilience. Contrairement à la littérature, les résultats suggèrent que la force mentale ne serait pas nécessairement liée aux athlètes performants au plus haut niveau de leur sport, mais à la capacité des athlètes à donner de bonnes performances en fonction de leur potentiel individuel. Cette étude constitue le premier pas vers le développement d’un instrument de mesure permettant d’évaluer le niveau de force mentale chez les athlètes francophones.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Les sites apuriniques/apyrimidinique (AP) représentent une forme de dommage à l’ADN hautement mutagène et ce type de dommage peut survenir spontanément ou être induit par une variété d’agents. Afin de préserver la stabilité génomique, deux familles d’endonucléases de type AP, endo-IV et exo-III, sont nécessaires pour contrecarrer les effets mutagènes des sites AP. Malgré l’identification de membres des deux familles dans plusieurs organismes unicellulaire tels que E.coli et S. cerevisiae, aucun membre de la famille endo-IV n’a été identifié chez les organismes multicellulaires à l’exception de C. elegans et de C. briggsae. Nous avons donc décidé d’investiguer l’importance biologique de APN-1 chez C. elegans par l’utilisation d’une approche de knockdown du gène. Dans notre étude, nous avons montré que le knockdown du gène apn-1 chez C. elegans, en utilisant des ARN d’interférence (ARNi), cause une accumulation de mutations spontanées et induites par des drogues résultant en un délai de l’éclosion des œufs ainsi que par une diminution de la survie et de la longévité des vers adultes. De plus, nous avons montré que cette accumulation de mutations mène à un délai dans la progression du cycle cellulaire durant l’embryogénèse, représentant possiblement une explication du délai dans l’éclosion des œufs. Nous avons montré qu’il y avait une augmentation du niveau de mutations dans la gorge des vers, sans toutefois pouvoir confirmer la distribution de APN-1 qui possède une étiquette GFP. Les animaux transgéniques APN-1-GFP n’exprimaient pas suffisamment de la protéine de fusion pour permettre une visualisation à l’aide d’un microscope à fluorescence, mais la protéine a été détectée par immunobuvardage de type western. Les animaux transgéniques APN-1-GFP étaient instables et avaient des phénotypes concordants avec les défauts génétiques. En conclusion, il semble que C. elegans aie évolué afin de retenir un niveau de base de APN-1 jouant ainsi un rôle versatile afin de maintenir l’intégrité génétique d’autant plus que cet organisme semble manquer plusieurs enzymes de la voie de réparation par excision de base.
Resumo:
Cette recherche porte sur le renforcement des sentiments de compétence professionnelle et d’auto-efficacité des enseignants du secondaire envers les habiletés techniques dans la formation aux TIC. Elle fait suite à un projet d’intégration pédagogique des TIC au lycée initié par le Campus numérique de Niamey. Après une formation des enseignants de lycée participant au projet d’alphabétisation informatique, notre étude est venue par la suite pour apprécier l’impact de cette formation aux TIC, via le CNF, sur le processus d’adoption de ces technologies par les enseignants. Les objectifs de la recherche sont les suivants : 1) évaluer l’impact de la formation aux TIC des enseignants du secondaire sur le processus d’adoption de ces technologies ; 2) décrire et analyser le cheminement parcouru par les enseignants ayant atteint un niveau élevé d’adoption des TIC ; 3) mieux comprendre l’impact de la formation aux TIC sur le sentiment de compétence professionnelle des enseignants (sentiments de compétence personnelle et générale) ; 4) Valider le Computer Self-Efficacy Scale (CSE) en français ; 5) Comprendre l’impact de la formation aux TIC sur le sentiment d’auto-efficacité à l’égard de l’utilisation de l’ordinateur des enseignants. Une enquête par questionnaires auprès de 69 enseignants représentant l’ensemble des enseignants de trois lycées de Niamey, et par des entrevues semi-dirigées auprès de six enseignants a permis de réaliser les objectifs de recherche. La thèse se fonde sur un mode de présentation par articles. Chaque article est en lien avec un ou deux objectifs de la recherche, suivant l’ordre précité. Les résultats révèlent une absence de relation entre la formation aux TIC des enseignants dispensée par le Campus numérique et les niveaux de l’innovation technologique en milieu scolaire de la typologie de Hall et Hord (1987). Les disparités dans les utilisations que font les enseignants des TIC témoignent de ce manque d’association. Par ailleurs, il apparaît que l’adoption des TIC dans l’éducation est embryonnaire au Niger. Cela fait que seuls quelques-uns de nos participants ont atteint les niveaux de sensibilisation et d’utilisation professionnelle constituant les deux premiers stades de l’usage pédagogique de la typologie de Raby (2005) qui en compte quatre. À la lumière des résultats, le sentiment de compétence personnelle est différent dans les deux groupes (enseignants formés et non formés), mais celui de compétence générale est apprécié de la même façon. Entre les enseignants formés aux TIC par les soins du campus numérique de Niamey et les autres, les résultats montrent une différence significative dans les niveaux d’habiletés techniques à l’égard de l’usage de l’ordinateur. Les forces et les limites de la recherche sont analysées et différentes recommandations sont proposées aux responsables éducatifs.
Resumo:
Ce mémoire traite des Saturnales de Macrobe, haut fonctionnaire du 5ième siècle après J.C. et encyclopédiste latin. Malgré l’opinion reçue, selon laquelle les Saturnales dépendraient presque exclusivement d’un nombre très restreint de sources, souvent copiées mot à mot, on a reconnu depuis longtemps que Macrobe remanie de son propre chef l’une de ces sources, les Propos de Table de Plutarque, dans son septième livre. Ce mémoire démontre que ce modèle, tout comme les sources mineures, latines et grecques, avec lesquelles Macrobe le complète, lui était assez familier pour servir à l’articulation d’une vision propre; les Saturnales ne peuvent donc être cités comme preuve de la décadence de leur époque. Ce mémoire fournit une traduction et un commentaire des chapitres 7.1-3 des Saturnales, avec une explication de leurs rapports avec les Propos de Table 1.1 et 2.1 de Plutarque ainsi que des éléments propre à Macrobe, afin de reconstruire sa méthode de composition et de déterminer ses attentes par rapport à son lecteur de l’empire tardif. Le commentaire est précédé d’une introduction de l’auteur, de l’œuvre, et du septième livre.
Resumo:
Les cellules épithéliales des voies aériennes respiratoires sécrètent du Cl- via le canal CFTR. La fibrose kystique est une maladie génétique fatale causée par des mutations de ce canal. La mutation la plus fréquente en Amérique du Nord, ∆F508, met en péril la maturation de la protéine et affecte les mécanismes d’activation du canal. Au cours des dernières années, plusieurs molécules ont été identifiées par criblage à haut débit qui peuvent rétablir l’activation de protéines CFTR mutées. Ces molécules sont nommées potentiateurs. Les canaux K+ basolatéraux, dont KCa3.1, jouent un rôle bien documenté dans l’établissement d’une force électromotrice favorable à la sécrétion de Cl- par CFTR dans les cellules épithéliales des voies aériennes respiratoires. Il a par exemple été démontré que l’application de 1-EBIO, un activateur de KCa3.1, sur des monocouches T84 résulte en une augmentation soutenue de la sécrétion de Cl- et que cette augmentation était réversible suite à l’application de CTX, un inhibiteur de KCa3.1(Devor et al., 1996). Dans le cadre d’une recherche de potentiateurs efficaces en conditions physiologiques et dans un contexte global de transport trans-cellulaire, il devient essentiel de considérer les effets des potentiateurs de CFTR sur KCa3.1. Une caractérisation électrophysiologique par la méthode du patch clamp et structurelle via l’utilisation de canaux modifiés par mutagenèse dirigée de différents potentiateurs de CFTR sur KCa3.1 fut donc entreprise afin de déterminer l’action de ces molécules sur l’activité de KCa3.1 et d’en établir les mécanismes. Nous présentons ici des résultats portant sur les effets sur KCa3.1 de quelques potentiateurs de CFTR possédant différentes structures. Un criblage des effets de ces molécules sur KCa3.1 a révélé que la genisteine, le SF-03, la curcumine et le VRT-532 ont des effets inhibiteurs sur KCa3.1. Nos résultats suggèrent que le SF-03 pourrait agir sur une protéine accessoire et avoir un effet indirect sur KCa3.1. La curcumine aurait aussi une action inhibitrice indirecte, probablement via la membrane cellulaire. Nos recherches sur les effets du VRT-532 ont montré que l’accessibilité au site d’action de cette v molécule est indépendante de l’état d’ouverture de KCa3.1. L’absence d’effets inhibiteurs de VRT-532 sur le mutant constitutivement actif V282G indique que cette molécule pourrait agir via l’interaction CaM-KCa3.1 et nécessiter la présence de Ca2+ pour agir. Par ailleurs, un autre potentiateur de CFTR, le CBIQ, a des effets potentiateurs sur KCa3.1. Nos résultats en canal unitaire indiquent qu’il déstabilise un état fermé du canal. Nos travaux montrent aussi que CBIQ augmente la probabilité d’ouverture de KCa3.1 en conditions sursaturantes de Ca2+, ainsi que son affinité apparente pour le Ca2+. Des expériences où CBIQ est appliqué en présence ou en absence de Ca2+ ont indiqué que l’accessibilité à son site d’action est indépendante de l’état d’ouverture de KCa3.1, mais que la présence de Ca2+ est nécessaire à son action. Ces résultats sont compatibles avec une action de CBIQ déstabilisant un état fermé du canal. Finalement, des expériences en Ba2+ nous ont permis d’investiguer la région du filtre de sélectivité de KCa3.1 lors de l’action de CBIQ et nos résultats pointent vers une action de CBIQ dans cette région. Sur la base de nos résultats nous concluons que CBIQ, un potentiateur de CFTR, aurait un effet activateur sur KCa3.1 via la déstabilisation d’un état fermé du canal à travers une action sur sa ‘gate’ au niveau du filtre de sélectivité. De plus, les potentiateurs de CFTR ayant montré des effets inhibiteurs sur KCa3.1 pourraient agir via la membrane ou via une protéine accessoire du canal ou sur l’interaction CaM-KCa3.1. Dans l’optique de traitements potentiels de la fibrose kystique, nos résultats indiquent que le CBIQ pourrait être un potentiateur efficace pusiqu’il est capable de trimuler à la fois KCa3.1 et CFTR. Par contre, dans les cas du VRT-532 et du SF-03, une inhibition de KCa3.1 pourraient en faire des potentiateurs moins efficaces.
Resumo:
Ce mémoire vise à recenser les avantages et les inconvénients de l'utilisation du langage de programmation fonctionnel dynamique Scheme pour le développement de jeux vidéo. Pour ce faire, la méthode utilisée est d'abord basée sur une approche plus théorique. En effet, une étude des besoins au niveau de la programmation exprimés par ce type de développement, ainsi qu'une description détaillant les fonctionnalités du langage Scheme pertinentes au développement de jeux vidéo sont données afin de bien mettre en contexte le sujet. Par la suite, une approche pratique est utilisée en effectuant le développement de deux jeux vidéo de complexités croissantes: Space Invaders et Lode Runner. Le développement de ces jeux vidéo a mené à l'extension du langage Scheme par plusieurs langages spécifiques au domaine et bibliothèques, dont notamment un système de programmation orienté objets et un système de coroutines. L'expérience acquise par le développement de ces jeux est finalement comparée à celle d'autres développeurs de jeux vidéo de l'industrie qui ont utilisé Scheme pour la création de titres commerciaux. En résumé, l'utilisation de ce langage a permis d'atteindre un haut niveau d'abstraction favorisant la modularité des jeux développés sans affecter les performances de ces derniers.
Resumo:
Cette thèse porte sur le comportement des élites politiques durant les périodes de crise nationale et plus particulièrement sur leurs réactions aux attentats terroristes. Elle démontre que les crises terroristes sont tout comme les conflits militaires ou diplomatiques propices aux unions nationales et notamment aux ralliements des partis d’opposition auprès du gouvernement. L’analyse statistique d’actes terroristes s’étant produits dans cinq états démocratiques (Allemagne, Espagne, États-Unis d’Amérique, France et Royaume-Uni) entre 1990 et 2006 révèle que l’ampleur d’un attentat en termes de pertes humaines ainsi que la répétition de ces attentats influencent dans une large mesure la réaction des élites politiques. Ainsi plus l’ampleur d’un attentat est élevée, plus la probabilité d’un ralliement est grande. En revanche, la multiplication des attentats augmente la possibilité de dissension entre l’opposition et le gouvernement. Par ailleurs, l’opposition est plus susceptible de se rallier au gouvernement lorsque l’attentat est perpétré par des terroristes provenant de l’étranger. L’analyse quantitative indique également que l’existence d’un accord formel de coopération dans la lutte antiterroriste entre le gouvernement et l’opposition favorise l’union des élites. Enfin, les données analysées suggèrent que la proportion des ralliements dans les cinq pays est plus importante depuis les attentats du 11 septembre 2001. Une analyse qualitative portant exclusivement sur la France et couvrant la période 1980-2006 confirme la validité des variables identifiées dans la partie quantitative, mais suggère que les élites réagissent au nombre total de victimes (morts mais aussi blessés) et que la répétition des actes terroristes a moins d’impact lors des vagues d’attentats. Par ailleurs, les analyses de cas confirment que les élites politiques françaises sont plus susceptibles de se rallier quand un attentat vise un haut-fonctionnaire de l’État. Il apparaît également que les rivalités et rancœurs politiques propre à la France (notamment suite à l’arrivée de la gauche au pouvoir en 1981) ont parfois empêché le ralliement des élites. Enfin, cette analyse qualitative révèle que si l’extrême gauche française soutient généralement le gouvernement, qu’il soit de gauche ou de droite, en période de crise terroriste, l’extrême droite en revanche saisit quasi systématiquement l’opportunité offerte par l’acte terroriste pour critiquer le gouvernement ainsi que les partis de l’establishment. La thèse est divisée en sept chapitres. Le premier chapitre suggère que le comportement des élites politiques en période de crises internationales graves (guerres et conflits diplomatiques) est souvent influencé par la raison d’État et non par l’intérêt électoral qui prédomine lors des périodes plus paisibles. Le second chapitre discute du phénomène terroriste et de la littérature afférente. Le troisième chapitre analyse les causes du phénomène d’union nationale, soumet un cadre pour l’analyse de la réaction des élites aux actes terroristes, et présente une série d’hypothèses. Le quatrième chapitre détaille la méthodologie utilisée au cours de cette recherche. Les chapitres cinq et six présentent respectivement les résultats des analyses quantitatives et qualitatives. Enfin, le chapitre sept conclut cette thèse en résumant la contribution de l’auteur et en suggérant des pistes de recherche.
Resumo:
Trois expériences ont été menées dans le but de déterminer quels codes sous-tendant la représentation de l’organisation spatiale des composantes des formes complexes contribuent aux discriminations d’objets complexes. Les trois expériences ont utilisé une tâche d’appariement simultané d’objets complexes. Aux essais négatifs, les objets pouvaient avoir des différences catégorielles de configuration, des différences métriques de configuration, des différences métriques de configuration et du rôle des parties ou des différences du rôle des parties seulement. La distance angulaire 2D ou 3D entre les stimuli pouvait varier. À l’expérience 1, les stimuli étaient présentés avec stéréoscopie et avaient une surface avec un gradient de texture de haut contraste. L’expérience 2 constitue une réplication de l’expérience 1 hormis pour l’utilisation de stimuli dont le contraste était réduit. Le but de cette manipulation était de vérifier si les résultats de l’expérience 1 sont répliqués avec une tâche dont le niveau de difficulté est plus élevé. Les stimuli de la troisième expérience avaient une surface gris mat et étaient présentés sans stéréoscopie. Les trois expériences ont montré que des codes catégoriel et pertinent aux rôles des parties contribuent à la discrimination d’objets complexes. Toutefois, ces codes sont dépendants aux orientations 2D et 3D, et ce, peu importe la richesse de l’information de profondeur présente dans les stimuli. De plus, nos résultats démontrent une plus grande sensibilité aux différences catégorielles de configuration qu’aux différences métriques. Enfin, un code métrique contribue également aux discriminations. Toutefois, la contribution de ce code disparaît lorsque la quantité d’information de profondeur est réduite.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Ce papier utilise des données empiriques sur le Ghana afin d’examiner comment, le genre, en tant que système social, génère des dilemmes moraux dans le secteur public. Les hommes et les femmes se sentent obligées de choisir des conditions privées de moralité dans le secteur de l’éthique publique. Ce papier démontre que les références qui délimitent les personnalités comportementales sexuées et qui sont utilisées pour justifier le plus haut degré de standard éthique des femmes peut aussi être potentiellement source de corruption, si les femmes essaient de respecter les attentes en matière de genre dans la conduite des obligations publiques. Fondamentalement, le papier argumente que l’éthique sexuée- supposant la division entre éthique de la compassion et éthique de la justice- pourrait perpétuer des comportements qui nient l’éthique du secteur public, mais se conforme à l’éthique sociale. En utilisant les travaux de Carol Gilligan (1982) sur la théorie du développement moral, il conclut, inter alia, que le recrutement des femmes dans le secteur public devrait être promu en tant que droit plutôt qu’à partir de leur probité morale présumée supérieure. Promouvoir les femmes dans le services publics sur la base de leur éthique supérieure pourrait s’avérer contre-productif si les espoirs étaient déçus.