976 resultados para Contexte institutionnel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur le financement public de l’enseignement supérieur au Pérou et ses impacts dans une perspective longitudinale couvant la période 1993-2003. Cette période est importante parce qu’elle a été témoin, dans ce pays, de changements majeurs aux plans du financement public et de la configuration du système d’enseignement supérieur. La recherche consiste principalement dans des analyses secondaires de données pertinentes publiées par des organismes nationaux et internationaux. Les analyses sont structurées à partir d’un schéma d’inputs et outputs. On considère comme inputs les ressources financières et les ressources humaines, lesquelles comprennent les professeurs et les étudiants, et comme outputs les taux de diplomation (efficacité interne) et la demande de diplômés par le marché du travail (efficacité externe). La théorie de la dépendance de ressources sert de cadre pour interpréter les rapports entre le financement public et ses incidences sur les réponses institutionnels et ses conséquences. Dans la période retenue, le financement du secteur public a décru de 32% en raison d’un désengagement progressif de l’État. Une conséquence majeure de la diminution du financement public a été la croissance rapide du secteur privé de l’enseignement supérieur. En effet, alors qu’en 1993 il y avait 24 institutions privées d’enseignement supérieur, il y en avait, en 2003, 46 institutions. La baisse du financement public et la croissance du secteur privé d’enseignement supérieur ont eu des incidences sur la sélectivité des étudiants, sur le statut des professeurs, sur l’implication des universités en recherche et sur les taux de diplomation. Le taux de sélectivité dans le secteur public a augmenté entre 1993 et 2003, alors que ce taux a diminué, dans la même période, dans le secteur privé. Ainsi, le secteur public répond à la diminution du financement en restreignant l’accès à l’enseignement supérieur. Le secteur privé, par contre, diminue sa sélectivité compensant ainsi l’augmentation de la sélectivité dans le secteur public et, par le fait même, augmente sa part de marché. Également, tant dans le secteur public que dans le secteur privé, les professeurs sont engagés principalement sur une base temporaire, ce qui se traduit, particulièrement dans le secteur privé, dans un moindre engagement institutionnel. Enfin, les universités publiques et privées du Pérou font peu de recherche, car elles favorisent, pour balancer leurs budgets, la consultation et les contrats au détriment de la recherche fondamentale. Paradoxalement, alors que, dans le secteur privé, les taux de sélectivité des étudiants diminuent, leurs taux de diplomation augmentent plus que dans le secteur public. Enfin, les formations avec plus d’étudiants inscrits, tant dans le secteur public que privé, sont les moins coûteuses en infrastructure et équipements. Dès lors, la pertinence de la production universitaire devient problématique. Cette recherche révèle que les organisations universitaires, face à un environnement où les ressources financières deviennent de plus en plus rares, développent des stratégies de survie qui peuvent avoir des incidences sur la qualité et la pertinence de l’enseignement supérieur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, il sera question de la formation de dérivés pipéridines en utilisant la fragmentation de Grob. Tout d’abord, une introduction sur les alcaloïdes ainsi que sur l’expertise du groupe Charette associée à leur formation démontrera l’importance de ces composés dans le domaine de la chimie organique. Cela sera suivi par un résumé de la fragmentation de Grob incluant les conditions de réactions utilisées, l’importance de la structure de la molécule initiale, les prérequis stéréoélectroniques ainsi que les modifications qui y ont été apportées. Le chapitre 2 sera dédié au développement de la méthodologie c’est-à-dire, à l’optimisation de tous les paramètres jouant un rôle dans la fragmentation de Grob. Par la suite, l’étendue de la réaction ainsi que des explications sur la régiosélectivité et la diastéréosélectivité de la réaction seront fournies. La méthodologie peut être exploitée dans un contexte de synthèse qui sera démontré dans le chapitre 3. De plus, elle servira pour une étude mécanistique qui est encore d’actualité à partir du concept d’effet frangomérique. Finalement, quelques projets futurs, notamment des améliorations possibles de la méthodologie, seront présentés dans le dernier chapitre. Le tout sera suivi d’une conclusion résumant l’ensemble des travaux effectués.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude a été réalisée dans le cadre d’une maîtrise en Aménagement. Elle s’efforce à démontrer que l’étape d’un projet que l’on appelle problématisation, c’est-à-dire l’étape de construction des problèmes à être résolus, permet de s’assurer que les actions entreprises soient en cohérence et en pertinence avec le contexte du projet. Nous constatons désormais que nous ne pouvons plus nous contenter d’évaluer les projets sur la seule base de son efficience, c’est-à-dire la concordance de ses résultats avec les objectifs prévus. Dans ces circonstances, nous émettons l’hypothèse que la problématisation fait appel à des compétences particulières et généralement peu utilisées par rapport à d’autres étapes de la réalisation d’un projet. À cet égard, nous avons réalisé un travail de recherche exploratoire sur ce thème en ayant comme objectif d’obtenir une compréhension des compétences mobilisées lors de la problématisation en situation de projet en général et d’identifier plus spécifiquement ces compétences dans une situation de projet en particulier, celle des projets de coopération internationale. Pour y arriver, nous avons procédé à la construction d’un référentiel d’emploi et d’activités pour en déduire un référentiel de compétences de la problématisation. Pour ce faire, nous avons réalisé une étude de cas sur les projets de stage de coopération internationale. L’utilisation de la technique de l’« instruction au sosie » et d’une rechercheintervention nous ont permis de dégager les principaux résultats suivant: la problématisation fait appel à des compétences particulières de gestion de l’information et de médiation. Les compétences générales de problématisation que les responsables des stages dans les organisations de coopération internationale v doivent maîtriser sont : être capable de générer les disponibilités de projets à partir de données primaires et secondaires; être capable de faire des choix et de justifier ces choix en fonction de l’analyse des données; être capable de présenter des informations écrites claires, respectueuses des idées des partenaires en fonction du langage de projet utilisé par le public auquel s’adresse la proposition; être capable d’utiliser les commentaires des évaluateurs pour améliorer un projet et être capable de mener à terme un projet. La contribution principale de ce travail de recherche réside dans la proposition d’un outil précieux pour le recrutement et la sélection, l’évaluation du rendement, la formation et le perfectionnement des acteurs de la problématisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans l’historiographie du cinéma québécois, un certain manque est notable concernant le cinéma populaire du début des années 1970 (1968-1975). Historiens et chercheurs accordèrent peu d’importance à cette section de notre cinématographie par déni d’un type de cinéma populaire exploitant la sexualité. Ce qui fut péjorativement appelé la vague de « films de fesses » n’eut droit à aucune étude académique sérieuse et nous proposons, donc, de la revisiter afin de mieux comprendre son apparition et son existence. Dans ce dessein, nous suggérons de l’aborder sous l’angle du cinéma d’exploitation, cinéma populaire méconnu et controversé. Pour cela, nous devrons expliquer les contours de ce cinéma puisque, lui aussi, souffre d’un léger manque d’études sérieuses et approfondies. Nous ferons au premier chapitre un panorama de la norme cinématographique qu’est le cinéma hollywoodien, afin de bien cerner, au deuxième chapitre, le cinéma d’exploitation qui selon nous s’efforce d’être en constante opposition avec le cinéma mainstream. Par la suite, nous mettrons en place le contexte socio-historique et cinématographique qui permit l’apparition d’un cinéma d’exploitation québécois et nous ferons l’énumération des différents titres qui se retrouvent dans ce corpus filmique. Les chapitres IV et V présenteront les analyses de différentes œuvres qui, selon nous, récupèrent de façon partielle ou totale des éléments du cinéma d’exploitation afin de créer une résistance culturelle quant au cinéma dominant américain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis 20 ans, certains patients porteurs d’une carcinose péritonéale sont traités par une chirurgie de cytoréduction combinée avec une chimiohyperthermie intrapéritonéale (CHIP). Bien que l’oxaliplatine (OX) soit couramment utilisée lors de CHIP, une telle utilisation chez l’humain n’est supportée que par des études de phase II et il n’y a pas d’études précliniques caractérisant les propriétés de l’OX dans le contexte d’administration intrapéritonéale. L’objectif de ce projet de maîtrise est d’étudier l’effet de la température sur l’absorption tissulaire et systémique de l’OX administrée par voie intrapéritonéale chez le rat. Nous avons procédé à une perfusion intrapéritonéale de 3 différentes doses d’OX à 3 différentes températures pendant 25 minutes chez une total 35 rats Sprague-Dawley, puis effectué le dosage des concentrations d’OX dans différents compartiments. Nous avons observé une augmentation linéaire (p<0,05) entre la dose d’OX administrée et sa concentration dans tous les compartiments (péritoine, mésentère, sang portal et systémique). De plus, avec l’augmentation de la température de perfusion, nous avons observé une augmentation de la concentration d’OX dans le péritoine mais une diminution de sa concentration dans les compartiments systémique et portal (p<0,05). Ces résultats démontrent donc que la dose et l’hyperthermie augmentent indépendamment la pénétration tissulaire de l’OX et que l’hyperthermie limite son absorption systémique. Ces observations suggèrent que l’hyperthermie pourrait réduire la toxicité systémique de l’OX. Pour connaître la cinétique de l’OX, des études subséquentes doivent être faites.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré les problèmes que pose la délinquance juvénile au Sénégal, les réponses des décideurs semblent inefficaces, surtout pour les filles déviantes. Ainsi, l’objectif de notre étude est de déterminer les caractéristiques familiales, scolaires et des amis des adolescentes judiciarisées à Dakar en les comparant à celles de Montréal. Les enquêtes se sont déroulées à Dakar sur trente adolescentes interrogées avec un instrument adapté du MASPAQ. Les similitudes entre les échantillons concernent l’âge moyen et le statut judiciaire quasi-identiques, le milieu socio-économique défavorisé et la structure familiale en majorité monoparentale matricentrique. Les autres résultats concernent surtout les liens sociaux plus forts chez les dakaroises alors que l’activité marginale est plus importante chez les montréalaises. Les liens sociaux des dakaroises constitueraient une protection contre la déviance. Le contexte culturel également, en favorisant un contrôle social, pousserait à développer plus de contraintes internes, autre protection contre la déviance. Des perspectives sont envisagées notamment utiliser l’instrument avec des garçons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte. Les phénotypes ABO et Rh(D) des donneurs de sang ainsi que des patients transfusés sont analysés de façon routinière pour assurer une complète compatibilité. Ces analyses sont accomplies par agglutination suite à une réaction anticorps-antigènes. Cependant, pour des questions de coûts et de temps d’analyses faramineux, les dons de sang ne sont pas testés sur une base routinière pour les antigènes mineurs du sang. Cette lacune peut résulter à une allo-immunisation des patients receveurs contre un ou plusieurs antigènes mineurs et ainsi amener des sévères complications pour de futures transfusions. Plan d’étude et Méthodes. Pour ainsi aborder le problème, nous avons produit un panel génétique basé sur la technologie « GenomeLab _SNPstream» de Beckman Coulter, dans l’optique d’analyser simultanément 22 antigènes mineurs du sang. La source d’ADN provient des globules blancs des patients préalablement isolés sur papiers FTA. Résultats. Les résultats démontrent que le taux de discordance des génotypes, mesuré par la corrélation des résultats de génotypage venant des deux directions de l’ADN, ainsi que le taux d’échec de génotypage sont très bas (0,1%). Également, la corrélation entre les résultats de phénotypes prédit par génotypage et les phénotypes réels obtenus par sérologie des globules rouges et plaquettes sanguines, varient entre 97% et 100%. Les erreurs expérimentales ou encore de traitement des bases de données ainsi que de rares polymorphismes influençant la conformation des antigènes, pourraient expliquer les différences de résultats. Cependant, compte tenu du fait que les résultats de phénotypages obtenus par génotypes seront toujours co-vérifiés avant toute transfusion sanguine par les technologies standards approuvés par les instances gouvernementales, les taux de corrélation obtenus sont de loin supérieurs aux critères de succès attendus pour le projet. Conclusion. Le profilage génétique des antigènes mineurs du sang permettra de créer une banque informatique centralisée des phénotypes des donneurs, permettant ainsi aux banques de sang de rapidement retrouver les profiles compatibles entre les donneurs et les receveurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les différents commentateurs de Lovecraft se sont au fil du XXe siècle jusqu’à nos jours entendus sur un point : l’originalité de son oeuvre. Impossible à cataloguer dans un genre littéraire précis, offrant de multiples couches d’interprétation, celle-ci fut analysée à la fois sous l’angle psychanalytique et sous l’angle philosophique et scientifique. Cependant, la dimension purement esthétique semble, peut-être par négligence, avoir été oubliée. Notre mémoire propose une investigation de l’esthétique dans l’oeuvre de Lovecraft. Notre hypothèse de recherche repose sur les analogies évidentes et pourtant peu approfondies par la critique entre l’esthétique de celle-ci et l’esthétique cosmogonique de l’Antiquité. Dans un premier temps, nous situerons l’œuvre dans son contexte littéraire, c’est-à-dire que nous nous pencherons sur les rapports évidents qu’elle entretient avec des auteurs tels que J.R.R. Tolkien et Arthur Conan Doyle et sur les différences moins évidentes qui la distinguent d’autres d’auteurs tels que H.G. Wells et William Hope Hodgson. Ensuite, nous mettrons en perspective les différences qui la séparent logiquement de la cosmogonie hébraïque et de la tradition théologique et philosophique qu’elle inaugure, entre autres, tel qu’elle se cristallise dans La Divine Comédie de Dante. Finalement, nous démontrerons à partir d’une comparaison serrée de motifs analogues, présents dans la longue nouvelle de Lovecraft, At the Mountains of Madness et dans le poème d’Hésiode, La Théogonie, le parallèle révélateur entre leurs esthétiques respectives; leurs esthétiques qui découlent de paradigmes du réel historiquement et essentiellement distincts, mais non pas opposés ou contradictoires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les commotions cérébrales subies en contexte sportif constituent un sujet préoccupant. Il est estimé qu’aux États-Unis, environ cinq pourcent de l’ensemble des athlètes subiront une commotion cérébrale. Celle-ci est considérée comme une blessure transitoire dans la majorité des cas. Dans le domaine de la commotion cérébrale sportive, le phénomène de risque accru chez des athlètes ayant subi préalablement des commotions cérébrales est bien documenté. Cet aspect remet en question l’aspect transitoire de la blessure. Les techniques d’imagerie fonctionnelle offrent un grand potentiel dans la compréhension de cette pathologie en montrant notamment les différences fonctionnelles chez des participants ayant subi un traumatisme crânio-cérébral léger en l’absence de résultats comportementaux. Il est probable que des altérations fonctionnelles persistent au-delà de la phase de récupération postsymptômes. L’électrophysiologie, en particulier les potentiels évoqués cognitifs sont un outil de choix pour étudier la question en raison de leur sensibilité et de la mesure fonctionnelle qu’ils permettent d’obtenir. Les potentiels évoqués cognitifs consistent en une réponse électrique cérébrale moyenne générée lors de l’accomplissement d’une tâche. Il est possible d’identifier différentes composantes dans le tracé d’un potentiel évoqué; ces composantes sont associées à différents aspects de l’activité électrique cérébrale durant le traitement perceptuel et cognitif.Les articles scientifiques inclus dans cette thèse se penchent sur les effets de commotions cérébrales multiples chez des athlètes plusieurs mois après la dernière commotion. Dans un premier temps, l’aspect temporel est évalué par le biais de la mesure de la P3a et la P3b dans différents groupes d’athlètes. Ces composantes sont liées aux processus de mémoire et d’attention. Les résultats suggèrent que, malgré un fonctionnement normal, les athlètes ayant subi des commotions cérébrales éprouveraient de probables changements cognitifs sous-cliniques persistants se traduisant par une atténuation des P3a et P3b. Des altérations seraient aussi présentes quelques années après la dernière commotion, mais de façon plus subtile. La deuxième étude soumise s’intéresse aux processus électrophysiologiques liés au maintien de l’information en mémoire de travail visuel chez des athlètes ayant subi plusieurs commotions cérébrales. La mesure utilisée est la SPCN (sustained posterior controlateral negativity), une composante ERP spécifique au processus cognitif étudié. Les résultats montrent non seulement une composante atténuée chez les athlètes ayant subi trois commotions cérébrales ou plus, mais aussi une modulation de la composante en fonction du nombre de commotions cérébrales subies. Ces résultats pourraient contribuer à expliquer le risque accru de subir des commotions cérébrales subséquentes observées chez ces athlètes. En lien avec la littérature, ces données pourraient s’expliquer par la présence de déficits cognitifs sous-cliniques ou encore par la mise en place de mécanismes compensatoires. Enfin, ces résultats invitent à une grande prudence dans la gestion des cas de commotions cérébrales ainsi qu’à un effort d’éducation plus poussé chez les jeunes athlètes afin qu’ils puissent prendre les meilleures décisions concernant leur avenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Les répercussions du sida sur la communauté intellectuelle préfiguraient un changement certain dans l’esthétique littéraire contemporaine. Le témoignage de l’expérience individuelle de l’écrivain, à cet instant de désarroi collectif et de répression sociale à l’égard de la communauté homosexuelle, cherchait à provoquer une reconfiguration de l’espace de l’aveu par la projection du sujet privé dans la sphère publique. Cette posture de mise à nu avait déjà vu le jour dans les écrits féministes des années 70, mais elle a subi dans les années 80 et 90 une transformation importante puisque c’est le sujet masculin qui s’est exposé par la médiation du corps dans le récit de la maladie à l’heure du sida. Les discours de l’intime tentaient de rapprocher les espaces social et littéraire tout en affirmant des formes définies par des éthiques et des esthétiques hétérogènes. La période d’écriture de la maladie, qui clôt l’oeuvre de Guibert, est caractérisée par l’ancrage du contexte social de l’épidémie du sida. Par conséquent, les trois récits qui la fondent, soit À l’ami qui ne m’a pas sauvé la vie (1990), Le protocole compassionnel (1991) et Cytomégalovirus (1992), constituent le triptyque sur lequel s’appuiera ma réflexion, auquel s’ajoute le journal tenu par Guibert depuis son adolescence jusqu’à sa mort, Le mausolée des amants (2001), qui a été publié dix ans après la disparition de l’auteur. Cette oeuvre s’inscrit en partie dans cette mouvance du témoignage de la maladie, qui prend place entre 1987 et 1991, période pendant laquelle l’écrivain sent sa vulnérabilité sur le plan de sa santé. Il est proposé d’étudier à travers ces écrits l’écriture de l’aveu et de la dénonciation, telle qu’elle est pensée chez Guibert. Il s’agira de réfléchir sur les stratégies et les fonctions du témoignage littéraire d’une telle expérience à travers la mise en récit du sujet. Une problématique traverse toutefois cette posture de mise en danger individuelle où la nécessité de se révéler est l’objet d’un non-consensus. Or, cette recherche d’intensité par l’aveu, qui repose sur la maladie, la sexualité et la mort, veut dépasser sa dimension apocalyptique en tentant d’inscrire l’oeuvre dans une éthique sociale. De ce fait, le dévoilement, sur le mode de la dénonciation, s’oriente sur la dimension collective en prenant à partie la société et la communauté.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet ouvrage traite principalement de la synthèse de motifs polypropionates de type stéréopentade ainsi qu’une application à la synthèse d’une molécule naturelle possèdant des propriétés biologiques. La stratégie envisagée pour l’élaboration de ces motifs récurrents dans plusieurs structures d’origine naturelle fait appel à la chimie des radicaux. Cette thèse se divise en différents chapitres dans lesquels la versatilité de la méthodologie développée sera démontrée. En premier lieu, il sera question de présenter l’importance de la synthèse de motifs polypropionates. Le domaine couvert par la chimie de ces molécules complexes hautement fonctionnalisées a contribué énormément à l’avancement de nos connaissances en synthèse organique, particulièrement dans le contexte des réactions impliquant des molécules acyliques. Une brève description des méthodes connues est présentée afin de saisir l’étendue des défis restants pour construire efficacement tous les isomères possibles des polypropionates de type stéréopentade. La stratégie proposée est basée sur une approche contrôlée entièrement par le substrat. Ce contrôle s’appuie sur le choix judicieux de l’acide de Lewis activant les deux réactions impliquées, soit la réaction de Mukaiyama et le transfert d’hydrogène. La seconde section de cette thèse concerne principalement le développement d’une réaction de Mukaiyama impliquant un éther d’énol silylé portant un lien pouvant être homolytiquement brisé dans la réaction suivante et un aldéhyde de type propionate. Le contrôle de l’aldolisation provient de la nature de l’acide de Lewis. Une espèce monodentate (BF3·OEt2) génère une relation 3,4-syn selon le modèle dit Felkin-Anh tandis que les acides de Lewis bidentates mènent à la relation 3,4-anti via un état de transition définit comme Cram-chélate. Une optimisation des conditions réactionnelles en variant l’acidité et la stoechiométrie de l’acide de Lewis de titane a permis de construire diastéréosélectivement le produit de Mukaiyama ayant une relation 3,4-anti. En outre, la nature des complexes impliqués dans ces réactions a été élucidée par des études RMN 13C à basse température. Une fois les précurseurs radicalaires synthétisés, notre méthodologie de réduction par transfert d’hydrogène contrôlée également par les acides de Lewis s’avère très efficace. Les acides de Lewis dérivés d’aluminium mènent sélectivement à la relation 2,3-syn selon un contrôle endocyclique tandis que les acides de Lewis de bore permettent la création des relations 2,3-anti en se basant sur une stabilisation par les divers facteurs de contrôle de molécules acycliques. Cette stratégie novatrice nous a ainsi permis de construire efficacement les 16 diastéréoisomères possibles. Le chapitre suivant concerne l’application de cette méthodologie à la synthèse de l’hémisphère ouest de la salinomycine et de la narasine. Plusieurs défis synthétiques ont été relevés à cette occasion par la présence de nombreux centres stéréogènes contigus. Nous avons réalisé que la relation stéréochimique 2,3-anti de la salinomycine n’est pas accessible sélectivement par la chimie des radicaux via l’effet exocyclique. Des études ont été entreprises afin de comprendre cette perte de sélectivité. Les conclusions suggèrent que les substituants sur le cycle imposent un biais conformationnel conduisant à des faibles sélectivités. Une alternative utilisant un réactif de crotylsilane chiral a été développée pour arriver à la molécule cible. Cette situation est différente dans le cas de la narasine où la présence du méthyle sur le carbone en position β du radical bloque efficacement l’approche d’une des faces d’attaque par l’hydrure. Des sélectivités impressionnantes nous ont permis de construire le fragment C1-C9 de la narasine de manière expéditive et efficace. Finalement, l’élongation sélective utilisant à nouveau la séquence d’aldolisation de Mukaiyama/réduction radicalaire suivie d’un couplage de type aldol stéréosélectif conduit au fragment C1-C17 de la narasine (hémisphère ouest)en 19 étapes avec un rendement global de l’ordre de 7 %. En dernier lieu, nous nous sommes penchés sur la réactivité des α-bromo-β- alkoxycétones lors de transfert d’hydrogène. Nous avons découvert que la chimie de ces derniers pourrait s’avérer utile dans le contexte de la synthèse de motifs complexes polypropionates. La présence d’un centre stéréogène de l’autre coté de la cétone semble avoir un impact sur la sélectivité.