30 resultados para utilisation du temps
Resumo:
Pour être performant au plus haut niveau, les athlètes doivent posséder une capacité perceptivo-cognitive supérieure à la moyenne. Cette faculté, reflétée sur le terrain par la vision et l’intelligence de jeu des sportifs, permet d’extraire l’information clé de la scène visuelle. La science du sport a depuis longtemps observé l’expertise perceptivo-cognitive au sein de l’environnement sportif propre aux athlètes. Récemment, des études ont rapporté que l’expertise pouvait également se refléter hors de ce contexte, lors d’activités du quotidien par exemple. De plus, les récentes théories entourant la capacité plastique du cerveau ont amené les chercheurs à développer des outils pour entraîner les capacités perceptivo-cognitives des athlètes afin de les rendre plus performants sur le terrain. Ces méthodes sont la plupart du temps contextuelles à la discipline visée. Cependant, un nouvel outil d’entraînement perceptivo-cognitif, nommé 3-Dimensional Multiple Object Tracking (3D-MOT) et dénué de contexte sportif, a récemment vu le jour et a fait l’objet de nos recherches. Un de nos objectifs visait à mettre en évidence l’expertise perceptivo-cognitive spécifique et non-spécifique chez des athlètes lors d’une même étude. Nous avons évalué la perception du mouvement biologique chez des joueurs de soccer et des non-athlètes dans une salle de réalité virtuelle. Les sportifs étaient systématiquement plus performants en termes d’efficacité et de temps de réaction que les novices pour discriminer la direction du mouvement biologique lors d’un exercice spécifique de soccer (tir) mais également lors d’une action issue du quotidien (marche). Ces résultats signifient que les athlètes possèdent une meilleure capacité à percevoir les mouvements biologiques humains effectués par les autres. La pratique du soccer semble donc conférer un avantage fondamental qui va au-delà des fonctions spécifiques à la pratique d’un sport. Ces découvertes sont à mettre en parallèle avec la performance exceptionnelle des athlètes dans le traitement de scènes visuelles dynamiques et également dénuées de contexte sportif. Des joueurs de soccer ont surpassé des novices dans le test de 3D-MOT qui consiste à suivre des cibles en mouvement et stimule les capacités perceptivo-cognitives. Leur vitesse de suivi visuel ainsi que leur faculté d’apprentissage étaient supérieures. Ces résultats confirmaient des données obtenues précédemment chez des sportifs. Le 3D-MOT est un test de poursuite attentionnelle qui stimule le traitement actif de l’information visuelle dynamique. En particulier, l’attention sélective, dynamique et soutenue ainsi que la mémoire de travail. Cet outil peut être utilisé pour entraîner les fonctions perceptivo-cognitives des athlètes. Des joueurs de soccer entraînés au 3D-MOT durant 30 sessions ont montré une amélioration de la prise de décision dans les passes de 15% sur le terrain comparés à des joueurs de groupes contrôles. Ces données démontrent pour la première fois un transfert perceptivo-cognitif du laboratoire au terrain suivant un entraînement perceptivo-cognitif non-contextuel au sport de l’athlète ciblé. Nos recherches aident à comprendre l’expertise des athlètes par l’approche spécifique et non-spécifique et présentent également les outils d’entraînements perceptivo-cognitifs, en particulier le 3D-MOT, pour améliorer la performance dans le sport de haut-niveau.
Resumo:
La circulation extracorporelle (CEC) est une technique utilisée en chirurgie cardiaque effectuée des milliers de fois chaque jour à travers le monde. L’instabilité hémodynamique associée au sevrage de la CEC difficile constitue la principale cause de mortalité en chirurgie cardiaque et l’hypertension pulmonaire (HP) a été identifiée comme un des facteurs de risque les plus importants. Récemment, une hypothèse a été émise suggérant que l'administration prophylactique (avant la CEC) de la milrinone par inhalation puisse avoir un effet préventif et faciliter le sevrage de la CEC chez les patients atteints d’HP. Toutefois, cette indication et voie d'administration pour la milrinone n'ont pas encore été approuvées par les organismes réglementaires. Jusqu'à présent, la recherche clinique sur la milrinone inhalée s’est principalement concentrée sur l’efficacité hémodynamique et l'innocuité chez les patients cardiaques, bien qu’aucun biomarqueur n’ait encore été établi. La dose la plus appropriée pour l’administration par nébulisation n'a pas été déterminée, de même que la caractérisation des profils pharmacocinétiques (PK) et pharmacodynamiques (PD) suite à l'inhalation. L'objectif de notre recherche consistait à caractériser la relation exposition-réponse de la milrinone inhalée administrée chez les patients subissant une chirurgie cardiaque sous CEC. Une méthode analytique par chromatographie liquide à haute performance couplée à un détecteur ultraviolet (HPLC-UV) a été optimisée et validée pour le dosage de la milrinone plasmatique suite à l’inhalation et s’est avérée sensible et précise. La limite de quantification (LLOQ) était de 1.25 ng/ml avec des valeurs de précision intra- et inter-dosage moyennes (CV%) <8%. Des patients souffrant d’HP pour lesquels une chirurgie cardiaque sous CEC était prévue ont d’abord été recrutés pour une étude pilote (n=12) et, par la suite, pour une étude à plus grande échelle (n=28) où la milrinone (5 mg) était administrée par inhalation pré-CEC. Dans l'étude pilote, nous avons comparé l'exposition systémique de la milrinone peu après son administration avec un nébuliseur pneumatique ou un nébuliseur à tamis vibrant. L’efficacité des nébuliseurs en termes de dose émise et dose inhalée a également été déterminée in vitro. Dans l'étude à plus grande échelle conduite en utilisant exclusivement le nébuliseur à tamis vibrant, la dose inhalée in vivo a été estimée et le profil pharmacocinétique de la milrinone inhalée a été pleinement caractérisé aux niveaux plasmatique et urinaire. Le ratio de la pression artérielle moyenne sur la pression artérielle pulmonaire moyenne (PAm/PAPm) a été choisi comme biomarqueur PD. La relation exposition-réponse de la milrinone a été caractérisée pendant la période d'inhalation en étudiant la relation entre l'aire sous la courbe de l’effet (ASCE) et l’aire sous la courbe des concentrations plasmatiques (ASC) de chacun des patients. Enfin, le ratio PAm/PAPm a été exploré comme un prédicteur potentiel de sortie de CEC difficile dans un modèle de régression logistique. Les expériences in vitro ont démontré que les doses émises étaient similaires pour les nébuliseurs pneumatique (64%) et à tamis vibrant (68%). Cependant, la dose inhalée était 2-3 fois supérieure (46% vs 17%) avec le nébuliseur à tamis vibrant, et ce, en accord avec les concentrations plasmatiques. Chez les patients, en raison des variations au niveau des facteurs liés au circuit et au ventilateur causant une plus grande dose expirée, la dose inhalée a été estimée inférieure (30%) et cela a été confirmé après récupération de la dose de milrinone dans l'urine 24 h (26%). Les concentrations plasmatiques maximales (Cmax: 41-189 ng/ml) et l'ampleur de la réponse maximale ΔRmax-R0 (0-65%) ont été observées à la fin de l'inhalation (10-30 min). Les données obtenues suite aux analyses PK sont en accord avec les données publiées pour la milrinone intraveineuse. Après la période d'inhalation, les ASCE individuelles étaient directement reliées aux ASC (P=0.045). Enfin, notre biomarqueur PD ainsi que la durée de CEC ont été identifiés comme des prédicteurs significatifs de la sortie de CEC difficile. La comparaison des ASC et ASCE correspondantes a fourni des données préliminaires supportant une preuve de concept pour l'utilisation du ratio PAm/PAPm comme biomarqueur PD prometteur et justifie de futures études PK/PD. Nous avons pu démontrer que la variation du ratio PAm/PAPm en réponse à la milrinone inhalée contribue à la prévention de la sortie de CEC difficile.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
La spectrométrie de masse mesure la masse des ions selon leur rapport masse sur charge. Cette technique est employée dans plusieurs domaines et peut analyser des mélanges complexes. L’imagerie par spectrométrie de masse (Imaging Mass Spectrometry en anglais, IMS), une branche de la spectrométrie de masse, permet l’analyse des ions sur une surface, tout en conservant l’organisation spatiale des ions détectés. Jusqu’à présent, les échantillons les plus étudiés en IMS sont des sections tissulaires végétales ou animales. Parmi les molécules couramment analysées par l’IMS, les lipides ont suscité beaucoup d'intérêt. Les lipides sont impliqués dans les maladies et le fonctionnement normal des cellules; ils forment la membrane cellulaire et ont plusieurs rôles, comme celui de réguler des événements cellulaires. Considérant l’implication des lipides dans la biologie et la capacité du MALDI IMS à les analyser, nous avons développé des stratégies analytiques pour la manipulation des échantillons et l’analyse de larges ensembles de données lipidiques. La dégradation des lipides est très importante dans l’industrie alimentaire. De la même façon, les lipides des sections tissulaires risquent de se dégrader. Leurs produits de dégradation peuvent donc introduire des artefacts dans l’analyse IMS ainsi que la perte d’espèces lipidiques pouvant nuire à la précision des mesures d’abondance. Puisque les lipides oxydés sont aussi des médiateurs importants dans le développement de plusieurs maladies, leur réelle préservation devient donc critique. Dans les études multi-institutionnelles où les échantillons sont souvent transportés d’un emplacement à l’autre, des protocoles adaptés et validés, et des mesures de dégradation sont nécessaires. Nos principaux résultats sont les suivants : un accroissement en fonction du temps des phospholipides oxydés et des lysophospholipides dans des conditions ambiantes, une diminution de la présence des lipides ayant des acides gras insaturés et un effet inhibitoire sur ses phénomènes de la conservation des sections au froid sous N2. A température et atmosphère ambiantes, les phospholipides sont oxydés sur une échelle de temps typique d’une préparation IMS normale (~30 minutes). Les phospholipides sont aussi décomposés en lysophospholipides sur une échelle de temps de plusieurs jours. La validation d’une méthode de manipulation d’échantillon est d’autant plus importante lorsqu’il s’agit d’analyser un plus grand nombre d’échantillons. L’athérosclérose est une maladie cardiovasculaire induite par l’accumulation de matériel cellulaire sur la paroi artérielle. Puisque l’athérosclérose est un phénomène en trois dimension (3D), l'IMS 3D en série devient donc utile, d'une part, car elle a la capacité à localiser les molécules sur la longueur totale d’une plaque athéromateuse et, d'autre part, car elle peut identifier des mécanismes moléculaires du développement ou de la rupture des plaques. l'IMS 3D en série fait face à certains défis spécifiques, dont beaucoup se rapportent simplement à la reconstruction en 3D et à l’interprétation de la reconstruction moléculaire en temps réel. En tenant compte de ces objectifs et en utilisant l’IMS des lipides pour l’étude des plaques d’athérosclérose d’une carotide humaine et d’un modèle murin d’athérosclérose, nous avons élaboré des méthodes «open-source» pour la reconstruction des données de l’IMS en 3D. Notre méthodologie fournit un moyen d’obtenir des visualisations de haute qualité et démontre une stratégie pour l’interprétation rapide des données de l’IMS 3D par la segmentation multivariée. L’analyse d’aortes d’un modèle murin a été le point de départ pour le développement des méthodes car ce sont des échantillons mieux contrôlés. En corrélant les données acquises en mode d’ionisation positive et négative, l’IMS en 3D a permis de démontrer une accumulation des phospholipides dans les sinus aortiques. De plus, l’IMS par AgLDI a mis en évidence une localisation différentielle des acides gras libres, du cholestérol, des esters du cholestérol et des triglycérides. La segmentation multivariée des signaux lipidiques suite à l’analyse par IMS d’une carotide humaine démontre une histologie moléculaire corrélée avec le degré de sténose de l’artère. Ces recherches aident à mieux comprendre la complexité biologique de l’athérosclérose et peuvent possiblement prédire le développement de certains cas cliniques. La métastase au foie du cancer colorectal (Colorectal cancer liver metastasis en anglais, CRCLM) est la maladie métastatique du cancer colorectal primaire, un des cancers le plus fréquent au monde. L’évaluation et le pronostic des tumeurs CRCLM sont effectués avec l’histopathologie avec une marge d’erreur. Nous avons utilisé l’IMS des lipides pour identifier les compartiments histologiques du CRCLM et extraire leurs signatures lipidiques. En exploitant ces signatures moléculaires, nous avons pu déterminer un score histopathologique quantitatif et objectif et qui corrèle avec le pronostic. De plus, par la dissection des signatures lipidiques, nous avons identifié des espèces lipidiques individuelles qui sont discriminants des différentes histologies du CRCLM et qui peuvent potentiellement être utilisées comme des biomarqueurs pour la détermination de la réponse à la thérapie. Plus spécifiquement, nous avons trouvé une série de plasmalogènes et sphingolipides qui permettent de distinguer deux différents types de nécrose (infarct-like necrosis et usual necrosis en anglais, ILN et UN, respectivement). L’ILN est associé avec la réponse aux traitements chimiothérapiques, alors que l’UN est associé au fonctionnement normal de la tumeur.
Resumo:
Les maladies cardiovasculaires sont la première cause de mortalité dans le monde et les anévrismes de l’aorte abdominale (AAAs) font partie de ce lot déplorable. Un anévrisme est la dilatation d’une artère pouvant conduire à la mort. Une rupture d’AAA s’avère fatale près de 80% du temps. Un moyen de traiter les AAAs est l’insertion d’une endoprothèse (SG) dans l’aorte, communément appelée la réparation endovasculaire (EVAR), afin de réduire la pression exercée par le flux sanguin sur la paroi. L’efficacité de ce traitement est compromise par la survenue d’endofuites (flux sanguins entre la prothèse et le sac anévrismal) pouvant conduire à la rupture de l’anévrisme. Ces flux sanguins peuvent survenir à n’importe quel moment après le traitement EVAR. Une surveillance par tomodensitométrie (CT-scan) annuelle est donc requise, augmentant ainsi le coût du suivi post-EVAR et exposant le patient à la radiation ionisante et aux complications des contrastes iodés. L’endotension est le concept de dilatation de l’anévrisme sans la présence d’une endofuite apparente au CT-scan. Après le traitement EVAR, le sang dans le sac anévrismal coagule pour former un thrombus frais, qui deviendra progressivement un thrombus plus fibreux et plus organisé, donnant lieu à un rétrécissement de l’anévrisme. Il y a très peu de données dans la littérature pour étudier ce processus temporel et la relation entre le thrombus frais et l’endotension. L’étalon d’or du suivi post-EVAR, le CT-scan, ne peut pas détecter la présence de thrombus frais. Il y a donc un besoin d’investir dans une technique sécuritaire et moins coûteuse pour le suivi d’AAAs après EVAR. Une méthode récente, l’élastographie dynamique, mesure l’élasticité des tissus en temps réel. Le principe de cette technique repose sur la génération d’ondes de cisaillement et l’étude de leur propagation afin de remonter aux propriétés mécaniques du milieu étudié. Cette thèse vise l’application de l’élastographie dynamique pour la détection des endofuites ainsi que de la caractérisation mécanique des tissus du sac anévrismal après le traitement EVAR. Ce projet dévoile le potentiel de l’élastographie afin de réduire les dangers de la radiation, de l’utilisation d’agent de contraste ainsi que des coûts du post-EVAR des AAAs. L’élastographie dynamique utilisant le « Shear Wave Imaging » (SWI) est prometteuse. Cette modalité pourrait complémenter l’échographie-Doppler (DUS) déjà utilisée pour le suivi d’examen post-EVAR. Le SWI a le potentiel de fournir des informations sur l’organisation fibreuse du thrombus ainsi que sur la détection d’endofuites. Tout d’abord, le premier objectif de cette thèse consistait à tester le SWI sur des AAAs dans des modèles canins pour la détection d’endofuites et la caractérisation du thrombus. Des SGs furent implantées dans un groupe de 18 chiens avec un anévrisme créé au moyen de la veine jugulaire. 4 anévrismes avaient une endofuite de type I, 13 avaient une endofuite de type II et un anévrisme n’avait pas d’endofuite. Des examens échographiques, DUS et SWI ont été réalisés à l’implantation, puis 1 semaine, 1 mois, 3 mois et 6 mois après le traitement EVAR. Une angiographie, un CT-scan et des coupes macroscopiques ont été produits au sacrifice. Les régions d’endofuites, de thrombus frais et de thrombus organisé furent identifiées et segmentées. Les valeurs de rigidité données par le SWI des différentes régions furent comparées. Celles-ci furent différentes de façon significative (P < 0.001). Également, le SWI a pu détecter la présence d’endofuites où le CT-scan (1) et le DUS (3) ont échoué. Dans la continuité de ces travaux, le deuxième objectif de ce projet fut de caractériser l’évolution du thrombus dans le temps, de même que l’évolution des endofuites après embolisation dans des modèles canins. Dix-huit anévrismes furent créés dans les artères iliaques de neuf modèles canins, suivis d’une endofuite de type I après EVAR. Deux gels embolisants (Chitosan (Chi) ou Chitosan-Sodium-Tetradecyl-Sulfate (Chi-STS)) furent injectés dans le sac anévrismal pour promouvoir la guérison. Des examens échographiques, DUS et SWI ont été effectués à l’implantation et après 1 semaine, 1 mois, 3 mois et 6 mois. Une angiographie, un CT-scan et un examen histologique ont été réalisés au sacrifice afin d’évaluer la présence, le type et la grosseur de l’endofuite. Les valeurs du module d’élasticité des régions d’intérêts ont été identifiées et segmentées sur les données pathologiques. Les régions d’endofuites et de thrombus frais furent différentes de façon significative comparativement aux autres régions (P < 0.001). Les valeurs d’élasticité du thrombus frais à 1 semaine et à 3 mois indiquent que le SWI peut évaluer la maturation du thrombus, de même que caractériser l’évolution et la dégradation des gels embolisants dans le temps. Le SWI a pu détecter des endofuites où le DUS a échoué (2) et, contrairement au CT-scan, détecter la présence de thrombus frais. Finalement, la dernière étape du projet doctoral consistait à appliquer le SWI dans une phase clinique, avec des patients humains ayant déjà un AAA, pour la détection d’endofuite et la caractérisation de l’élasticité des tissus. 25 patients furent sélectionnés pour participer à l’étude. Une comparaison d’imagerie a été produite entre le SWI, le CT-scan et le DUS. Les valeurs de rigidité données par le SWI des différentes régions (endofuite, thrombus) furent identifiées et segmentées. Celles-ci étaient distinctes de façon significative (P < 0.001). Le SWI a détecté 5 endofuites sur 6 (sensibilité de 83.3%) et a eu 6 faux positifs (spécificité de 76%). Le SWI a pu détecter la présence d’endofuites où le CT-scan (2) ainsi que le DUS (2) ont échoué. Il n’y avait pas de différence statistique notable entre la rigidité du thrombus pour un AAA avec endofuite et un AAA sans endofuite. Aucune corrélation n’a pu être établie de façon significative entre les diamètres des AAAs ainsi que leurs variations et l’élasticité du thrombus. Le SWI a le potentiel de détecter les endofuites et caractériser le thrombus selon leurs propriétés mécaniques. Cette technique pourrait être combinée au suivi des AAAs post-EVAR, complémentant ainsi l’imagerie DUS et réduisant le coût et l’exposition à la radiation ionisante et aux agents de contrastes néphrotoxiques.
Resumo:
La frontière entre le politique et l'intellectualisme militant est, d'ordinaire, ténue. Tout univers politico-constitutionnel est ainsi susceptible de faire les frais d'un martèlement doctrinal qui, à maints égards, relève davantage du construit que du donné. Résultante directe d'une construction parfois intéressée, le récit identitaire, à force de répétition, s'installera confortablement sur les sièges de l'imaginaire populaire. Il accèdera, au fil du temps, au statut de mythe pur et simple. Ce dernier, politiquement parlant, revêt de puissants effets aphrodisiaques. La présente thèse doctorale s'intéresse plus particulièrement aux mythes créés, depuis 1982, par un segment de la doctrine québécoise : en matière de droits linguistiques, objet principal de notre étude, Charte canadienne des droits et libertés et Cour suprême, toutes deux liguées contre le Québec, combineront leurs efforts afin d'assurer le recul du fait français dans la Belle Province. Quant aux francophones hors Québec, ceux-ci, depuis l'effritement du concept de nation canadienne-française, sont dorénavant exclus de l'équation, expurgés de l'échiquier constitutionnel. En fait, l'adoption d'un nationalisme méthodologique comme nouvelle orthodoxie politique et doctrinale rend ardue, en plusieurs sens, la conciliation de leur existence avec les paradigmes et épistémologie maintenant consacrés. Ainsi, et selon la logique du tiers exclu, une victoire francophone hors Québec signifiera, du fait d'une prétendue symétrie interprétative, un gain pour la communauté anglo-québécoise. Cette thèse vise à discuter de la teneur de diverses allégories établies et, le cas échéant, à reconsidérer la portée réelle de la Charte canadienne en matière linguistique. Il sera alors démontré que plusieurs lieux communs formulés par les milieux intellectuels québécois échouent au moins partiellement, le test de l'analyse factuelle. Celui-ci certifiera de l'exclusion, par la doxa, de toute décision judiciaire ou autre vérité empirique ne pouvant cadrer à même les paramètres, voire les prismes, de l'orthodoxie suggérée.
Resumo:
L’isolement avec ou sans contention (IC) en milieu psychiatrique touche près d’un patient sur quatre au Québec (Dumais, Larue, Drapeau, Ménard, & Giguère-Allard, 2011). Il est pourtant largement documenté que cette pratique porte préjudice aux patients, aux infirmières et à l’organisation (Stewart, Van der Merwe, Bowers, Simpson, & Jones, 2010). Cette mesure posant un problème éthique fait l’objet de politiques visant à la restreindre, voire à l’éliminer. Les études sur l’expérience de l’isolement du patient de même que sur la perception des infirmières identifient le besoin d'un retour sur cet évènement. Plusieurs équipes de chercheurs proposent un retour post-isolement (REPI) intégrant à la fois l’équipe traitante, plus particulièrement les infirmières, et le patient comme intervention afin de diminuer l’incidence de l’IC. Le REPI vise l’échange émotionnel, l’analyse des étapes ayant mené à la prise de décision d’IC et la projection des interventions futures. Le but de cette étude était de développer, implanter et évaluer le REPI auprès des intervenants et des patients d’une unité de soins psychiatriques aigus afin d’améliorer leur expérience de soins. Les questions de recherche étaient : 1) Quel est le contexte d’implantation du REPI? 2) Quels sont les éléments facilitants et les obstacles à l’implantation du REPI selon les patients et les intervenants? 3) Quelle est la perception des patients et des intervenants des modalités et retombées du REPI?; et 4) L’implantation du REPI est-elle associée à une diminution de la prévalence et de la durée des épisodes d’IC? Cette étude de cas instrumentale (Stake, 1995, 2008) était ancrée dans une approche participative. Le cas était celui de l’unité de soins psychiatriques aigus pour premier épisode psychotique où a été implanté le REPI. En premier lieu, le développement du REPI a d’abord fait l’objet d’une documentation du contexte par une immersion dans le milieu (n=56 heures) et des entretiens individuels avec un échantillonnage de convenance (n=3 patients, n=14 intervenants). Un comité d’experts (l’étudiante-chercheuse, six infirmières du milieu et un patient partenaire) a par la suite développé le REPI qui comporte deux volets : avec le patient et en équipe. L’évaluation des retombées a été effectuée par des entretiens individuels (n= 3 patients, n= 12 intervenants) et l’examen de la prévalence et de la durée des IC six mois avant et après l’implantation du REPI. Les données qualitatives ont été examinées selon une analyse thématique (Miles, Huberman, & Saldana, 2014), tandis que les données quantitatives ont fait l’objet de tests descriptifs et non-paramétriques. Les résultats proposent que le contexte d’implantation est défini par des normes implicites et explicites où l’utilisation de l’IC peut générer un cercle vicieux de comportements agressifs nourris par un profond sentiment d’injustice de la part des patients. Ceux-ci ont l’impression qu’ils doivent se conformer aux attentes du personnel et aux règles de l’unité. Les participants ont exprimé le besoin de créer des opportunités pour une communication authentique qui pourrait avoir lieu lors du REPI, bien que sa pratique soit variable d’un intervenant à un autre. Les résultats suggèrent que le principal élément ayant facilité l’implantation du REPI est l’approche participative de l’étude, alors que les obstacles rencontrés relèvent surtout de la complexité de la mise en œuvre du REPI en équipe. Lors du REPI avec le patient, les infirmières ont pu explorer ses sentiments et son point de vue, ce qui a favorisé la reconstruction de la relation thérapeutique. Quant au REPI avec l’équipe de soins, il a été perçu comme une opportunité d’apprentissage, ce qui a permis d’ajuster le plan d’intervention des patients. Suite à l’implantation du REPI, les résultats ont d’ailleurs montré une réduction significative de l’utilisation de l’isolement et du temps passé en isolement. Les résultats de cette thèse soulignent la possibilité d’outrepasser le malaise initial perçu tant par le patient que par l’infirmière en systématisant le REPI. De plus, cette étude met l’accent sur le besoin d’une présence authentique pour atteindre un partage significatif dans la relation thérapeutique, ce qui est la pierre d’assise de la pratique infirmière en santé mentale. Cette étude contribue aux connaissances sur la prévention des comportements agressifs en milieu psychiatrique en documentant le contexte dans lequel se situe l’IC, en proposant un REPI comportant deux volets de REPI et en explorant ses retombées. Nos résultats soutiennent le potentiel du développement d’une prévention tertiaire qui intègre à la fois la perspective des patients et des intervenants.
Resumo:
Avec l’apparition de plus en plus de souches de bactérie résistante aux antibiotiques, le développement de nouveaux antibiotiques est devenu une important problématique pour les agences de santé. C’est pour cela que la création de nouvelles plateformes pour accélérer la découverte de médicaments est devenu un besoin urgent. Dans les dernières décennies, la recherche était principalement orientée sur la modification de molécules préexistantes, la méta-analyse d’organismes produisant des molécules activent et l’analyse de librairies moléculaires pour trouver des molécules synthétiques activent, ce qui s’est avéré relativement inefficace. Notre but était donc de développer de nouvelles molécules avec des effets thérapeutiques de façon plus efficace à une fraction du prix et du temps comparé à ce qui se fait actuellement. Comme structure de base, nous avons utilisé des métabolites secondaires qui pouvaient altérer le fonctionnement des protéines ou l’interaction entre deux protéines. Pour générer ces molécules, j’ai concentré mes efforts sur les terpènes, une classe de métabolites secondaires qui possède un large éventail d’activités biologiques incluant des activités antibactériennes. Nous avons développé un système de chromosome artificiel de levure (YAC) qui permet à la fois l’assemblage directionnel et combinatoire de gènes qui permet la création de voies de biosynthèse artificielles. Comme preuve de concept, j’ai développé des YACs qui contiennent les gènes pour l’expression des enzymes impliquées dans la biosynthèse de la -carotène et de l’albaflavenone et produit ces molécules avec un haut rendement. Finalement, Des YACs produits à partir de librairies de gènes ont permis de créer une grande diversité de molécules.
Resumo:
Les accidents sont la cause la plus fréquente de décès chez l’enfant, la plupart du temps à cause d’un traumatisme cranio-cérébrale (TCC) sévère ou d’un choc hémorragique. Malgré cela, la prise en charge de ces patients est souvent basée sur la littérature adulte. Le mannitol et le salin hypertonique (3%) sont des traitements standards dans la gestion de l’hypertension intracrânienne, mais il existe très peu d’évidence sur leur utilité en pédiatrie. Nous avons entrepris une revue rétrospective des traumatismes crâniens sévères admis dans les sept dernières années, pour décrire l’utilisation de ces agents hyperosmolaires et leurs effets sur la pression intracrânienne. Nous avons établi que le salin hypertonique est plus fréquemment utilisé que le mannitol, qu’il ne semble pas y avoir de facteurs associés à l’utilisation de l’un ou l’autre, et que l’effet sur la pression intracrânienne est difficile à évaluer en raison de multiples co-interventions. Il faudra mettre en place un protocole de gestion du patient avec TCC sévère avant d’entreprendre des études prospectives. La transfusion sanguine est employée de façon courante dans la prise en charge du patient traumatisé. De nombreuses études soulignent les effets néfastes des transfusions sanguines suggérant des seuils transfusionnels plus restrictifs. Malgré cela, il n’y a pas de données sur les transfusions chez l’enfant atteint de traumatismes graves. Nous avons donc entrepris une analyse post-hoc d’une grosse étude prospective multicentrique sur les pratiques transfusionnelles des enfants traumatisés. Nous avons conclu que les enfants traumatisés sont transfusés de manière importante avant et après l’admission aux soins intensifs. Un jeune âge, un PELOD élevé et le recours à la ventilation mécanique sont des facteurs associés à recevoir une transfusion sanguine aux soins intensifs. Le facteur le plus prédicteur, demeure le fait de recevoir une transfusion avant l’admission aux soins, élément qui suggère probablement un saignement continu. Il demeure qu’une étude prospective spécifique des patients traumatisés doit être effectuée pour évaluer si une prise en charge basée sur un seuil transfusionnel restrictif serait sécuritaire dans cette population.
Resumo:
Cette recherche explore comment l’infrastructure et les utilisations d’eBird, l’un des plus grands projets de science citoyenne dans le monde, se développent et évoluent dans le temps et l’espace. Nous nous concentrerons sur le travail d’eBird avec deux de ses partenaires latino-américains, le Mexique et le Pérou, chacun avec un portail Web géré par des organisations locales. eBird, qui est maintenant un grand réseau mondial de partenariats, donne occasion aux citoyens du monde entier la possibilité de contribuer à la science et à la conservation d’oiseaux à partir de ses observations téléchargées en ligne. Ces observations sont gérées et gardées dans une base de données qui est unifiée, globale et accessible pour tous ceux qui s’intéressent au sujet des oiseaux et sa conservation. De même, les utilisateurs profitent des fonctionnalités de la plateforme pour organiser et visualiser leurs données et celles d’autres. L’étude est basée sur une méthodologie qualitative à partir de l’observation des plateformes Web et des entrevues semi-structurées avec les membres du Laboratoire d’ornithologie de Cornell, l’équipe eBird et les membres des organisations partenaires locales responsables d’eBird Pérou et eBird Mexique. Nous analysons eBird comme une infrastructure qui prend en considération les aspects sociaux et techniques dans son ensemble, comme un tout. Nous explorons aussi à la variété de différents types d’utilisation de la plateforme et de ses données par ses divers utilisateurs. Trois grandes thématiques ressortent : l’importance de la collaboration comme une philosophie qui sous-tend le développement d’eBird, l’élargissement des relations et connexions d’eBird à travers ses partenariats, ainsi que l’augmentation de la participation et le volume des données. Finalement, au fil du temps on a vu une évolution des données et de ses différentes utilisations, et ce qu’eBird représente comme infrastructure.
Resumo:
Considérée plus manifestement comme une analyse de la perception et du temps et de l’espace vécus, la Phénoménologie de la perception de Merleau-Ponty fait en outre droit à une réflexion naissante – mais aussi peut-être, plus essentielle – sur le phénomène de l’expression et l’horizon englobant de la question du sens. En effet, le problème de l’expression n’est pas à comprendre comme un épiphénomène de l’existence humaine : il témoigne plus holistiquement des liens profonds qui unissent subjectivité et intersubjectivité, rattache notre existence à un passé humain et décrit plus généralement la complicité de notre corps avec le monde. Cette recherche se propose de comprendre intérieurement la toile des liens intimes qui unissent corporéité et expression, afin d’éclairer le rôle constitutif du corps dans la reprise d’intentions de signification et l’institution créative de nouveaux actes expressifs.
Resumo:
Notre système visuel extrait d'ordinaire l'information en basses fréquences spatiales (FS) avant celles en hautes FS. L'information globale extraite tôt peut ainsi activer des hypothèses sur l'identité de l'objet et guider l'extraction d'information plus fine spécifique par la suite. Dans les troubles du spectre autistique (TSA), toutefois, la perception des FS est atypique. De plus, la perception des individus atteints de TSA semble être moins influencée par leurs a priori et connaissances antérieures. Dans l'étude décrite dans le corps de ce mémoire, nous avions pour but de vérifier si l'a priori de traiter l'information des basses aux hautes FS était présent chez les individus atteints de TSA. Nous avons comparé le décours temporel de l'utilisation des FS chez des sujets neurotypiques et atteints de TSA en échantillonnant aléatoirement et exhaustivement l'espace temps x FS. Les sujets neurotypiques extrayaient les basses FS avant les plus hautes: nous avons ainsi pu répliquer le résultat de plusieurs études antérieures, tout en le caractérisant avec plus de précision que jamais auparavant. Les sujets atteints de TSA, quant à eux, extrayaient toutes les FS utiles, basses et hautes, dès le début, indiquant qu'ils ne possédaient pas l'a priori présent chez les neurotypiques. Il semblerait ainsi que les individus atteints de TSA extraient les FS de manière purement ascendante, l'extraction n'étant pas guidée par l'activation d'hypothèses.
Resumo:
Tout médicament administré par la voie orale doit être absorbé sans être métabolisé par l’intestin et le foie pour atteindre la circulation systémique. Malgré son impact majeur sur l’effet de premier passage de plusieurs médicaments, le métabolisme intestinal est souvent négligé comparativement au métabolisme hépatique. L’objectif de ces travaux de maîtrise est donc d’utiliser, caractériser et développer différents outils in vitro et in vivo pour mieux comprendre et prédire l’impact du métabolisme intestinal sur l’effet de premier passage des médicaments comparé au métabolisme hépatique. Pour se faire, différents substrats d’enzymes du métabolisme ont été incubés dans des microsomes intestinaux et hépatiques et des différences entre la vitesse de métabolisme et les métabolites produits ont été démontrés. Afin de mieux comprendre l’impact de ces différences in vivo, des études mécanistiques chez des animaux canulés et traités avec des inhibiteurs enzymatiques ont été conduites avec le substrat métoprolol. Ces études ont démontré l’impact du métabolisme intestinal sur le premier passage du métoprolol. De plus, elles ont révélé l’effet sur la vidange gastrique du 1-aminobenzotriazole, un inhibiteur des cytochromes p450, évitant ainsi une mauvaise utilisation de cet outil dans le futur. Ces travaux de maîtrise ont permis d’améliorer les connaissances des différents outils in vitro et in vivo pour étudier le métabolisme intestinal tout en permettant de mieux comprendre les différences entre le rôle de l’intestin et du foie sur l’effet de premier passage.
Resumo:
Ce mémoire a été effectué dans le cadre d'une étude pour le Ministère des Transports.
Resumo:
L’objectif de cette thèse est de réfléchir aux enjeux d’une histoire du jeu de stratégie en temps réel (STR). Il s’agit de mieux comprendre les contextes dans lesquels le genre prend sens pour historiciser son émergence et sa période classique. Cette thèse cherche à documenter, d’une part, la cristallisation du STR en tant qu’objet ayant une forme relativement stable et en tant que corpus précis et identifié et, d’autre part, l’émergence des formes de jouabilité classiques des STR. La première partie est consacrée à décrire l’objet de cette recherche, pour mieux comprendre la complexité du terme « stratégie » et de la catégorisation « jeu de stratégie ». La seconde partie met en place la réflexion épistémologique en montrant comment on peut tenir compte de la jouabilité dans un travail historien. Elle définit le concept de paradigme de jouabilité en tant que formation discursive pour regrouper différents énoncés actionnels en une unité logique qui n’est pas nécessairement l’équivalent du genre. La troisième partie cartographie l’émergence du genre entre les wargames des années 1970 et les jeux en multijoueur de la décennie suivante. Deux paradigmes de jouabilité se distinguent pour former le STR classique : le paradigme de décryptage et le paradigme de prévision. La quatrième partie explique et contextualise le STR classique en montrant qu’il comporte ces deux paradigmes de jouabilité dans deux modes de jeu qui offrent des expériences fondamentalement différentes l’une de l’autre.