987 resultados para Contrôle classique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’insécurité routière chez les conducteurs âgés est attribuable en partie, aux effets délétères du vieillissement normal sur le fonctionnement cognitif. Les méthodes d’évaluation neuropsychologique par les tests ayant montré une certaine efficacité dans le cas du dépistage des habiletés de conduite chez les conducteurs âgés atteints d’affections neurologiques pathologiques, la présente thèse vise à évaluer la pertinence de cette approche chez les conducteurs vieillissants de la population générale. Le principal objectif de cette thèse est ainsi d’obtenir une vue d’ensemble sur le rôle et la sensibilité des mesures neuropsychologiques dans la prédiction des habiletés et habitudes de conduite automobile sécuritaire chez les conducteurs âgés. Dans la même perspective, la thèse explore d’autre part le rôle de variables sociodémographiques et psychologiques. L’article 1 évalue la validité prédictive de sept tests des fonctions visuo-attentionnelles et de la mémoire de travail en regard des habiletés de détection périphérique chez 50 conducteurs âgés de 62 à 83 ans. L’étude sur simulateur de conduite comprend une condition de conduite simple et une condition plus soutenue incluant une distraction téléphonique de type « mains-libres ». Selon les résultats, certains tests cognitifs prédisent bien les temps de détection. En outre, la validité prédictive des tests est plus importante dans la situation de conduite plus exigeante. Cela dit, les résultats de l’article 2 révèlent que le recours aux stratégies d’évitement des situations exigeantes est plus prononcé chez les individus qui présentent des faiblesses à certains des tests neuropsychologiques proposés. Les résultats indiquent en outre que l’utilisation des stratégies d’évitement routier est plus fréquente chez les conducteurs ayant tendance à déprécier leurs habiletés de conduite générales, à exprimer une moindre perception de contrôle ainsi qu’une attitude défavorable à l’endroit des situations de conduite complexes ou risquées. Les stratégies d’évitement se révèlent donc comme des réponses autorégulatrices proportionnelles aux limitations cognitives et aux perceptions individuelles. Dans les deux études, l’âge ne permet pas d’expliquer les différences individuelles, ceci ni en termes d’habiletés de détection périphérique ni de tendances autorégulatrices. Le rôle du genre est cependant plus nuancé. Ainsi, le principal apport de la présente thèse réside dans la constatation que si d’une part, certaines limitations neuropsychologiques sont associées à une réduction des habiletés de détection périphérique, ces mêmes limitations s’accompagnent aussi de mesures autorégulatrices qui peuvent contribuer à réduire le risque routier. Il appert conséquemment que les méthodes de dépistage de l’insécurité routière chez les conducteurs âgés se basant sur l’évaluation des limitations cognitives et attentionnelles doivent également rechercher et évaluer la teneur de leurs comportements routiers autorégulateurs. Dans le contexte de vieillissement de la population, des interventions pourront également miser sur le renforcement de ces comportements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré la politique d’ouverture à l’immigration, à la diversité et au multiculturalisme du Québec, les immigrants récents rencontrent de nombreuses barrières sur le marché du travail. Selon la vision néo-classique, le capital humain détermine l’intégration des immigrants et leur degré de déqualification. Bien que l’origine puisse influencer les caractéristiques professionnelles et personnelles des immigrants qualifiés, certains d’entre eux peuvent être de même origine mais avoir des caractéristiques différentes. L’expérience migratoire, définie comme le fait pour un individu d’avoir émigré une 1ère fois de son pays d’origine vers un pays étranger, avant d’émigrer de nouveau de ce pays vers un 3ème, pourrait modifier ces caractéristiques du capital humain et qui influence l’intégration des immigrants ainsi que leur degré de déqualification. Arrivés d’un pays très diversifié, étant instruits, et allophones, les immigrants d’ex-URSS se constituent un groupe représentatif pour cette étude. De surcroît, certains immigrants de ce groupe possèdent une expérience migratoire. Cette recherche a pour but d’examiner le rôle de l’expérience migratoire antérieure dans l’intégration des immigrants russophones sur le marché du travail québécois et de voir son impact sur la présence et le degré de déqualification. L’approche qualitative adoptée pour ce travail permet d’observer pleinement les opinions des immigrants quant à leur intégration professionnelle et d’examiner l’effet de l’expérience migratoire. Nous avons découvert que l’expérience migratoire peut modifier la situation des immigrants sur le marché du travail. D’une part, elle leur permet d’acquérir un diplôme et une expérience de pays économiquement développés, ce qui a plus de valeur au Québec que les diplômes et l’expérience de pays d’ex-URSS. En plus, cette expérience permet aux immigrants d’améliorer leurs compétences linguistiques. D’autre part, l’expérience migratoire peut modifier les caractéristiques comportementales, telles que les méthodes de recherche d’emploi ou l’adoption d’un comportement ouvert et flexible qui peut aider à l’intégration. De surcroît, l’amélioration des caractéristiques professionnelles et personnelles par une expérience migratoire peut avoir un effet de compensation qui diminue l’effet de la stratégie familiale sur la présence et le degré de déqualification. En somme, nous pouvons conclure que l’expérience migratoire antérieure a un effet sur l’intégration des immigrants russophones sur le marché du travail québécois, et particulièrement, sur la présence et le degré de déqualification.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que ce soit un procédé industriel répandu, les films de copolymères à blocs préparés par trempage (« dip-coating ») sont moins étudiés que ceux obtenus par tournette (« spin-coating »). Pourtant, il est possible grâce à cette technique de contrôler précisément les caractéristiques de ces films. Au-delà de la méthode de fabrication, la capacité de modifier la morphologie des films trempés à l’aide d’autres facteurs externes est un enjeu primordial pour leur utilisation dans les nanotechnologies. Nous avons choisi, ici, d’étudier l’influence d’une petite molécule sur la morphologie de films supramoléculaires réalisés par « dip-coating » à partir de solutions de poly(styrène-b-4-vinyl pyridine) (PS-P4VP) dans le tétrahydrofurane (THF). En présence de 1-naphtol (NOH) et d’1-acide napthoïque (NCOOH), qui se complexent par pont hydrogène au bloc P4VP, ces films donnent, respectivement, une morphologie en nodules (sphères) et en stries (cylindres horizontaux). Des études par spectroscopie infrarouge ont permis de mesurer la quantité de petite molécule dans ces films minces, qui varie avec la vitesse de retrait mais qui s’avère être identique pour les deux petites molécules, à une vitesse de retrait donnée. Cependant, des études thermiques ont montré qu’une faible fraction de petite molécule est dispersée dans le PS (davantage de NOH que de NCOOH à cause de la plus faible liaison hydrogène du premier). La vitesse de retrait est un paramètre clé permettant de contrôler à la fois l’épaisseur et la composition du film supramoléculaire. L’évolution de l’épaisseur peut être modélisée par deux régimes récemment découverts. Aux faibles vitesses, l’épaisseur décroît (régime de capillarité), atteint un minimum, puis augmente aux vitesses plus élevées (régime de drainage). La quantité de petite molécule augmente aux faibles vitesses pour atteindre un plateau correspondant à la composition de la solution aux vitesses les plus élevées. Des changements de morphologie, à la fois liés à l’épaisseur et à la quantité de petite molécule, sont alors observés lorsque la vitesse de retrait est modifiée. Le choix du solvant est aussi primordial dans le procédé de « dip-coating » et a été étudié en utilisant le chloroforme, qui est un bon solvant pour les deux blocs. Il s’avère qu’à la fois la composition ainsi que la morphologie des films de PS-P4VP complexés sont différentes par rapport aux expériences réalisées dans le THF. Premièrement, la quantité de petite molécule reste constante avec la vitesse de retrait mais les films sont plus riches en NCOOH qu’en NOH. Deuxièmement, la morphologie des films contenant du NOH présente des stries ainsi que des lamelles à plat, tandis que seules ces dernières sont observables pour le NCOOH. Ce comportement est essentiellement dû à la quantité différente de petite molécule modulée par leur force de complexation différente avec le P4VP dans le chloroforme. Enfin, ces films ont été utilisés pour l’adsorption contrôlée de nanoparticules d’or afin de guider leur organisation sur des surfaces recouvertes de PS-P4VP. Avant de servir comme gabarits, un recuit en vapeurs de solvant permet soit d’améliorer l’ordre à longue distance des nodules de P4VP, soit de modifier la morphologie des films selon le solvant utilisé (THF ou chloroforme). Ils peuvent être ensuite exposés à une solution de nanoparticules d’or de 15 nm de diamètre qui permet leur adsorption sélective sur les nodules (ou stries) de P4VP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les liposomes sont des nanovecteurs polyvalents et prometteurs quant à leur utilisation dans plusieurs domaines. Il y a une décennie, un nouveau type de liposome constitué d’amphiphiles monoalkylés et de stérols est né fortuitement dans notre groupe. Ils sont nommés Stérosomes puisqu’ils contiennent une grande proportion de stérols, entre 50 et 70 mol %. Les objectifs de cette thèse sont de développer de nouvelles formulations de Stérosomes ayant des caractéristiques spécifiques et d’acquérir une compréhension plus profonde des règles physicochimiques qui dictent leur comportement de phase. Nous avons spécifiquement examiné le rôle de motifs moléculaires des stérols, de la charge interfaciale et de la capacité à former des liaisons H dans les interactions intermoléculaires menant à l’autoassemblage. Le comportement de phase a été caractérisé par calorimétrie différentielle à balayage (DSC), par spectroscopie infrarouge (IR) et par spectroscopie de résonance magnétique nucléaire du deutérium (²H NMR). Premièrement, nous avons établi certaines corrélations entre la structure des stérols, leur tendance à former des bicouches fluides en présence d'amphiphile monoalkylé et la perméabilité des grandes vésicules unilamellaires (LUV) formées. La nature des stérols module les propriétés de mélange avec de l’acide palmitique (PA). Les stérols portant une chaîne volumineuse en position C17 sont moins aptes à induire des bicouches fluides que ceux qui ont une chaîne plus simple, comme celle du cholestérol. Un grand ordre de la chaîne alkyle de PA est un effet commun à tous les stérols investigués. Il a été démontré que la perméabilité des LUV peut être contrôlée en utilisant des stérols différents. Cependant, ces stérols n’ont aucun impact significatif sur la sensibilité des Stérosomes au pH. Afin de créer des liposomes qui sont sensibles au pH et qui ont une charge positive à la surface, des Stérosomes composés de stéarylamine et de cholestérol (Chol) ont été conçus et caractérisés. Il a été conclu que l’état de protonation de l’amine, dans ce travail, ou du groupe carboxylique, dans un travail précédent, confère une sensibilité au pH et détermine la charge à la surface du liposome. Les premiers Stérosomes complètement neutres ont été fabriqués en utilisant un réseau de fortes liaisons H intermoléculaires. Le groupe sulfoxyde est capable de former de fortes liaisons H avec le cholestérol et les molécules d’eau. Une bicouche fluide métastable a été obtenue, à la température de la pièce, à partir d'un mélange équimolaire d’octadécyl méthyl sulfoxyde (OMSO) et de Chol. Ce comportement distinct a permis d’extruder le mélange pour former des LUV à la température de la pièce. Après 30 h, le temps de vie de la phase métastable, des Stérosomes stables et imperméables existaient toujours sous une forme solide. Un diagramme de température-composition a été proposé afin de résumer le comportement de phase des mélanges d’OMSO/Chol. Finalement, nous avons élaboré des Stérosomes furtifs en incorporant du polyéthylène glycol (PEG) avec une ancre de cholestérol (PEG-Chol) à l’interface de Stérosomes de PA/Chol. Jusqu’à 20 mol % de PEG-Chol peut être introduit sans perturber la structure de la bicouche. La présence du PEG-Chol n’a aucun impact significatif sur la perméabilité de la LUV. L'encapsulation active de la doxorubicine, un médicament contre le cancer, a été réalisée malgré la faible perméabilité de ces LUV et la présence du PEG à l’interface. L’inclusion de PEG a modifié considérablement les propriétés de l’interface et a diminué la libération induite par la variation de pH observée avec des LUV nues de PA/Chol. Cette formulation inédite est potentiellement utile pour l’administration intraveineuse de médicaments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Les mutations du gène RAS sont présentes dans plusieurs types de cancers et ont une influence sur la réponse à la chimiothérapie. Excision repair cross- complementation group 1 (ERCC1) est un gène impliqué dans la réparation de l’acide désoxyribonucléique (ADN), et son polymorphisme au codon 118 est également associé à la réponse au traitement. Le peu d’études pronostiques portant sur ces deux gènes dans les cancers oto-rhino-laryngologiques (ORL) ne permet de tirer des conclusions claires. Objectifs: Déterminer l’influence des mutations de K-RAS codons 12 et 13 et du polymorphisme de ERCC1 codon 118 dans le traitement des cancers épidermoïdes avancés tête et cou traités par chimioradiothérapie concomitante à base de sels de platine. Méthode: Extraction de l’ADN provenant de spécimens de biopsie de patients traités par chimioradiothérapie concomitante pour des cancers avancés tête et cou, et ayant un suivi prospectif d’au moins deux ans. Identification des mutations de K-RAS codons 12 et 13 et du polymorphisme de ERCC1 au codon 118 dans les spécimens et corrélation de ces marqueurs avec la réponse au traitement. Résultats: Les mutations de K-RAS codon 12 sont associées à un moins bon contrôle loco-régional par rapport aux tumeurs ne démontrant pas la mutation (32% vs 83% p=0.03), sans affecter pour autant la survie globale. Aucune mutation de K-RAS codon 13 n’a été identifiée. Les différents polymorphismes de ERCC1 n’ont pas eu d’impact sur la réponse au traitement. Conclusion: Les mutations de K-RAS codons 12 et 13 et le polymorphisme de ERCC1 au codon 118 ne semblent pas mettre en évidence les patients qui bénéficieraient d’une autre modalité thérapeutique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur le langage cinématographique (ou mode de représentation) adopté par Mizoguchi en contraste avec le style classique hollywoodien. Notre hypothèse est que le refus de Mizoguchi de recourir au découpage classique et au gros-plan procurerait au spectateur une expérience de perception qui tendrait à se rapprocher de celle vécue par un spectateur de théâtre ou le témoin d’une action se déroulant dans notre monde physique. Mizoguchi a débuté son métier au début des années 1920. Le cinéma japonais venait tout juste de prendre la voie d’un art nouveau en quittant son statut de simple captation de spectacles théâtraux. L’industrie cinématographique japonaise était alors en incubation marquée par diverses influences occidentales. Nous nous pencherons plus particulièrement sur les questions stylistiques à partir du moment où le cinéma japonais s’engageait dans le parlant en imitant le style classique hollywoodien. Ce cinéma dominant devenait une norme que Mizoguchi décida de ne pas suivre pour préférer un style caractérisé par des plans-séquences. Ce style plus « neutre » et «objectif » allait être encensé par Bazin après la guerre au moment où ce dernier découvrit notamment Welles et Wyler. À partir de plusieurs extraits filmiques, nous analysons le plan-séquence mizoguchien comme substitution à une série de plans rapprochés qui se serait imposé normalement avec le style classique hollywoodien. Et ce, afin de discuter des enjeux de réalisme et de théâtralité soulevés par Bazin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le glaucome représente la première cause de cécité irréversible à l’échelle mondiale. C’est une maladie neuro-dégénérative caractérisée traditionnellement par une pression intraoculaire (PIO) élevée, un dommage du nerf optique et un défaut du champ visuel correspondant. En fait, la PIO élevée constitue le facteur de risque central associé au développement du glaucome. Cependant, en dépit d’un contrôle adéquat de la PIO, la maladie continue à progresser chez certains patients. Cela montre qu’il existe d’autres facteurs impliqués dans la pathogenèse du glaucome. Des études récentes indiquent qu’un dérèglement de l’oxygène est associé à son développement. En utilisant une nouvelle technologie multi-spectrale capable de mesurer la saturation en oxygène (SaO2) dans les structures capillaires de la rétine, cette étude tentera de déterminer si un état d’oxygénation anormal pourrait se retrouver à la papille optique des patients souffrant de glaucome. Une meilleure compréhension du rôle de l’oxygène pourrait aider à améliorer le pronostic du glaucome. Les résultats de l’étude indiquent que le facteur de position (supérieure, temporale et inférieure de la papille optique) n’a aucun effet sur la mesure SaO2 ainsi que sa variabilité chez les patients normaux. La comparaison de la SaO2 entre les sujets normaux et glaucomateux ne montre pas de différence statistiquement significative. En conclusion, la SaO2 «normale» mesurée dans les yeux glaucomateux n'exclut pas nécessairement que l'hypoxie ne soit pas impliquée dans la pathogenèse. Au moment de l’étude, la PIO était bien contrôlée par des médicaments topiques, ce qui pourrait influencer l’oxygénation à la papille optique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse montre la présence et le rôle de la métaphysique dans Vérité et méthode. Elle tente de démontrer que Gadamer s'inspire du néoplatonisme pour surmonter le subjectivisme de la modernité et propose une métaphysique à cette fin. Après avoir expliqué comment Gadamer se réapproprie l’héritage de la pensée grecque pour critiquer la modernité en situant son interprétation de Platon par rapport à celle de Heidegger, je montre que Gadamer s’approprie la conception de l’être de Plotin de façon telle qu’il peut s’y appuyer pour penser l’autoprésentation de l’être dans l’expérience herméneutique de la vérité. L’art va, pour ce faire, redevenir sous la conduite du néoplatonisme source de vérité. Gadamer redonne en effet une dignité ontologique à l’art grâce à la notion d’émanation, notion qui permet de penser qu’il y a une présence réelle du représenté dans sa représentation, celle-ci émanant du représenté sans l’amoindrir, mais lui apportant au contraire un surcroît d’être. La notion d’émanation permet ensuite à Gadamer d’affirmer le lien indissoluble qui unit les mots aux choses. En effet, la doctrine du verbe intérieur de Thomas d’Aquin implique ce lien que Platon avait occulté en réduisant le langage, comme la logique, à n’être qu’un instrument de domination du réel. L’utilisation de la notion néoplatonicienne d’émanation permet donc de dépasser la philosophie grecque du logos et de mieux rendre compte de l’être de la langue. Je montre ensuite comment Gadamer radicalise sa pensée en affirmant que l’être qui peut être compris est langage, ce qui veut dire que l’être, comme chez Plotin, est autoprésentation de soi-même. Pour ce faire, Gadamer rattache l’être du langage à la métaphysique néoplatonicienne de la lumière. Les dernières pages de Vérité et méthode rappellent en effet que la splendeur du beau est manifestation de la vérité de l’être. On rattachera alors le concept de vérité herméneutique à ses origines métaphysiques. La vérité est une manifestation de l’être dont on ne peut avoir part que si on se laisse submerger par sa lumière. Loin d’être affaire de contrôle méthodique, l’expérience de la vérité exige de se laisser posséder par ce qui est à comprendre. Je démontre ainsi que Gadamer a découvert dans le néoplatonisme des éléments permettant de s’opposer à la dictature du sujet moderne, dictature qui doit être renversée, car elle masque le réel rapport de l’homme à la vérité en faisant abstraction de la finitude de son existence concrète. La critique du subjectivisme moderne sous la conduite du néoplatonisme ouvre ainsi le chemin vers une métaphysique de la finitude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En lien avec l’avancée rapide de la réduction de la taille des motifs en microfabrication, des processus physiques négligeables à plus grande échelle deviennent dominants lorsque cette taille s’approche de l’échelle nanométrique. L’identification et une meilleure compréhension de ces différents processus sont essentielles pour améliorer le contrôle des procédés et poursuivre la «nanométrisation» des composantes électroniques. Un simulateur cellulaire à l’échelle du motif en deux dimensions s’appuyant sur les méthodes Monte-Carlo a été développé pour étudier l’évolution du profil lors de procédés de microfabrication. Le domaine de gravure est discrétisé en cellules carrées représentant la géométrie initiale du système masque-substrat. On insère les particules neutres et ioniques à l’interface du domaine de simulation en prenant compte des fonctions de distribution en énergie et en angle respectives de chacune des espèces. Le transport des particules est effectué jusqu’à la surface en tenant compte des probabilités de réflexion des ions énergétiques sur les parois ou de la réémission des particules neutres. Le modèle d’interaction particule-surface tient compte des différents mécanismes de gravure sèche telle que la pulvérisation, la gravure chimique réactive et la gravure réactive ionique. Le transport des produits de gravure est pris en compte ainsi que le dépôt menant à la croissance d’une couche mince. La validité du simulateur est vérifiée par comparaison entre les profils simulés et les observations expérimentales issues de la gravure par pulvérisation du platine par une source de plasma d’argon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pléthysmographie pénienne est reconnue comme la méthode la plus rigoureuse pour l’évaluation des intérêts sexuels. Cet instrument pourrait cependant bénéficier d’amélioration au niveau de sa validité écologique et de sa vulnérabilité aux tentatives de falsification. Cet outil est également confronté aux contraintes éthiques et légales liées à la présentation de stimuli produits à partir de modèle humain pour susciter l’excitation sexuelle. La présente thèse doctorale propose de pallier aux lacunes de la procédure pléthysmographique en la combinant à des stimuli générés par ordinateur présentés en immersion virtuelle et à la vidéo-oculographie. Dans le cadre d’une première étude empirique, il s’agit de déterminer si l’usage de stimuli générés par ordinateur présentés en immersion virtuelle est préférable à la modalité auditive actuellement utilisée. Les réponses érectiles d’agresseurs sexuels d’enfants et d’hommes sans paraphilie connue sont enregistrées et la capacité des deux modalités à produire des profils d’excitation sexuels et des indices de déviance propres aux intérêts sexuels est comparée. Dans le cadre d’une seconde étude expérimentale, les mouvements oculaires sont analysés afin de détecter les tentatives de contrôle volontaire de la réponse érectile lors d’une procédure d’évaluation pléthysmographique. Les réponses érectiles et les mouvements oculaires d’hommes sans dossier judiciaire sont enregistrés lors du visionnement de stimuli sous trois différentes conditions, dont une tâche de suppression de la réponse érectile. Dans l’ensemble, les résultats démontrent que les stimuli générés par ordinateur présentés en immersion virtuelle génèrent des profils d’excitation sexuelle ainsi que des indices de déviance ayant une précision de classification et de discrimination significativement supérieure à la modalité auditive. D’autre part, les résultats soulignent la capacité des mouvements oculaires à identifier une signature oculaire propre à l’utilisation d’une stratégie cognitive d’inhibition de la réponse érectile qui se caractérise notamment par la mise à l’écart du contenu sexuel et le ralentissement global du processus d’exploration visuel. Ce projet de recherche souligne les avantages inhérents à la présentation en immersion virtuelle de stimuli générés par ordinateur ainsi qu’à l’étude des mouvements oculaires lors de l’évaluation pléthysmographique et vient appuyer l’implantation progressive de cette modalité dans les milieux d’évaluations cliniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sécrétion de mélatonine chez des patients atteints du syndrome d’impatience musculaire de l’éveil (SIME) débute approximativement 2 heures avant l’aggravation des symptômes en soirée (Michaud et al., 2004). Le but de ce projet était de préciser le rôle de la mélatonine dans l’augmentation de la sévérité des symptômes en soirée. Huit sujets atteints de SIME primaire ont été étudiés dans trois conditions : contrôle, avec administration de mélatonine, avec exposition à la lumière vive. La sévérité des symptômes a été évaluée par l’administration de tests d’immobilisation suggérée (TIS). Les résultats ont démontré une augmentation significative des mouvements périodiques des jambes durant l’éveil (MPJE) lorsque de la mélatonine avait été administrée comparativement à la condition contrôle et celle où les sujets étaient exposés à la lumière vive. La lumière vive n’a pas eu d’effet significatif sur les symptômes moteurs comparativement à la condition contrôle mais elle a amélioré significativement les symptômes sensoriels comparativement à la condition contrôle. Ainsi, bien que la mélatonine exogène ait un effet aggravant sur les symptômes moteurs du SIME, l’augmentation de la sécrétion endogène au cours de la soirée ne saurait expliquer à elle seule les variations de la sévérité des symptômes du SIME.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’équipe de travail représente, de nos jours, une forme d’organisation du travail incontournable pour accroître la performance des entreprises. Il est maintenant largement reconnu que la composition d’une équipe de travail est susceptible d’affecter son efficacité et, plus particulièrement, la qualité des relations interpersonnelles au sein de l’équipe et la performance de ses membres. Des études se sont donc attardées à isoler certaines caractéristiques individuelles permettant d’influencer le contexte des équipes de travail. Ainsi, l’effet de la composition des équipes a été étudié sous l’angle des traits de personnalité des membres, de leurs attitudes et de leurs valeurs, ou encore en fonction des habiletés cognitives démontrées par chacun des coéquipiers. Malgré quelques invitations répétées à étudier davantage la motivation des équipes de travail et de leurs membres, peu de travaux ont porté sur la composition motivationnelle de ce contexte collectif. Dans la foulée des études portant sur les équipes de travail, on observe une tendance à ne considérer que la performance des équipes et des coéquipiers comme unique critère d’évaluation de leur efficacité. Devant les données alarmantes concernant les problèmes de santé psychologique vécus par les travailleurs, il appert qu’il est essentiel de se pencher sur les conditions nécessaires à mettre en place dans ce contexte de travail interpersonnel pour contribuer à la fois au bien-être et à la performance des coéquipiers. Avec l’utilisation du cadre d’analyse proposé par la théorie de l’autodétermination, la présente thèse vise à répondre à ces enjeux. Le premier article de la thèse propose un modèle théorique qui définit en quoi la composition d’une équipe de travail, en regard des styles de régulations individuelles des membres de l’équipe, est susceptible d’affecter les relations interpersonnelles au sein de l’équipe et d’avoir un impact sur la performance et le bien-être des membres. S’appuyant sur les mécanismes d’émergence proposés par les théories multiniveaux, ce cadre théorique suggère également que, sous certaines conditions, la composition motivationnelle d’une équipe de travail puisse entraîner la formation d’un phénomène singulier de motivation d’équipe. Les mécanismes favorisant cette émergence sont présentés dans l’article. Le second article de la thèse représente une première vérification empirique de certaines des propositions de l’article théorique. À partir d’un échantillon de 138 équipes, regroupant 680 travailleurs, il a été possible de vérifier, à partir d’analyses multiniveaux, l’impact de la composition autonome ou contrôlée d’une équipe sur la satisfaction au travail des participants. Les résultats de l’étude montrent qu’une forme de composition d’équipe de nature plus autonome est positivement reliée à la satisfaction des travailleurs. Plus encore, on observe une interaction entre la régulation autonome individuelle et la régulation autonome d’équipe quant à la satisfaction vécue au travail. Ainsi, la satisfaction au travail est plus élevée pour les participants dont le style de régulation est plus autonome et qui évoluent dans une équipe à composition motivationnelle plus autonome. Parallèlement, les résultats montrent que la composition motivationnelle plus contrôlée est négativement reliée à la satisfaction au travail. De façon générale, la présente thèse souligne la pertinence de considérer le contexte sociomotivationnel émergeant de la composition de l’équipe en regard des styles de régulations individuelles des membres qui la composent. Cette thèse permet de considérer, avec un regard nouveau, la motivation des équipes de travail et les variables de motivation à évaluer dans la formation des équipes de travail au sein de nos organisations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La régulation post-transcriptionnelle joue un rôle de premier plan dans le contrôle fin de l’expression génique en permettant une modulation de la synthèse de protéines dans le temps et l’espace, en fonction des besoins de la cellule. Ainsi, des protéines reconnaissant des éléments d’ARN présents sur des transcrits peuvent influencer toutes les étapes de leur existence, soit leur épissage, leur export nucléaire, leur localisation subcellulaire, leur traduction et leur dégradation. Staufen1 (Stau1) est un membre de la famille des protéines liant l’ARN double-brin qui contribue à la régulation post-transcriptionnelle par son implication dans des mécanismes qui vont promouvoir l’épissage alternatif, le transport, la dé-répression de la traduction et l’induction de la dégradation d’ARN messagers (ARNm) spécifiques. L’identité des cibles potentielles de Stau1 est maintenant connue puisqu’une étude à l’échelle du génome a montré que la protéine s’associe à près de 7% du transcriptome des cellules HEK293T. Ces ARNm se classent dans un large éventail de catégories fonctionnelles, mais il est tout de même intéressant de noter qu’une grande proportion d’entre eux code pour des protéines reliées au métabolisme cellulaire et à la régulation de processus cellulaires. En considérant toutes ces informations, nous avons émis l’hypothèse que les différentes activités de Stau1 puissent être modulées afin de contrôler adéquatement l’expression des transcrits liés par la protéine. Dans la mesure où certains ARNm faisant partie des complexes définis par la présence de Stau1 codent pour des régulateurs clés de la prolifération cellulaire, nous avons voulu examiner si l’expression de la protéine varie au cours du cycle de division cellulaire. Nous avons montré que l’abondance de Stau1 est maximale en début de mitose et qu’elle diminue ensuite lorsque les cellules complètent la division cellulaire. Nous avons ensuite découvert que cette baisse d’expression de Stau1 en sortie de mitose dépend du complexe promoteur d’anaphase/cyclosome (APC/C). En soutien à l’idée que Stau1 soit une cible de cette ubiquitine ligase de type E3, nous avons de plus démontré que Stau1 est ubiquitiné et dégradé par le protéasome. Ce contrôle des niveaux de Stau1 semble important puisque la surexpression de la protéine retarde la sortie de mitose et entraîne une diminution importante de la prolifération cellulaire. Par ailleurs, nous avons supposé que les différentes fonctions de Stau1 puissent également être sujettes à une régulation. Compte tenu que les activités de nombreuses protéines liant l’ARN peuvent être contrôlées par des modifications post-traductionnelles telles que la phosphorylation, nous avons voulu tester la possibilité que Stau1 soit phosphorylé. L’immunopurification de Stau1 et son analyse par spectrométrie de masse nous a permis d’identifier trois phosphosites dans la protéine. L’évaluation du rôle de ces événements de phosphorylation à l’aide de mutants phoshomimétiques ou non-phoshorylables a révélé que la modification de Stau1 pourrait compromettre son association à la protéine UPF1. Comme cette interaction est nécessaire pour déstabiliser les transcrits liés par Stau1, nos résultats suggèrent fortement que la fonction de Stau1 dans la dégradation d’ARNm est régulée négativement par sa phosphorylation. Toutes ces données mettent en lumière l’importance des modifications post-traductionnelles telles que l’ubiquitination et la phosphorylation dans la modulation de l’expression et des fonctions de Stau 1. Somme toute, il est vraisemblable que ces mécanismes de contrôle puissent avoir un impact significatif sur le destin des ARNm liés par Stau1, particulièrement dans un contexte de progression dans le cycle cellulaire.