479 resultados para Mta
Resumo:
En inhibant la formation de caillots dans le sang, les médicaments antiplaquettaires diminuent de façon importante le risque d’événements ischémiques aigus. Cependant, une sous-population de patients souffrant de maladie coronarienne présente une inhibition inadéquate de la fonction plaquettaire malgré la prise quotidienne d’acide acétylsalicylique (AAS). Le premier volet de cette thèse démontre qu’une régénération plaquettaire accélérée pourrait expliquer en partie la variabilité dans la persistance de l’effet antiplaquettaire de l’AAS chez certains sujets souffrant de maladie coronarienne. Ces données suggèrent qu’une augmentation de la fréquence d’administration d’AAS d’une à deux fois par jour pourrait être bénéfique chez ces sujets. Des méta-analyses ont suggéré qu’une réponse plaquettaire inadéquate à l’AAS pourrait augmenter le risque d’événements ischémiques récurrents. La nature rétrospective de ces analyses ne permet pas d’établir la causalité. Dans le deuxième volet de cette thèse, les résultats d’une étude prospective visant à comparer la pertinence clinique de 6 tests de fonction plaquettaire fréquemment utilisés pour évaluer la réponse plaquettaire à l’AAS est présentée. Les résultats démontrent qu’aucun des tests de fonction plaquettaire couramment employés ne prédit la survenue d’événements ischémiques aigus chez des patients souffrant de maladie coronarienne stable. Toutefois, la cessation de la prise d’AAS est un prédicteur important d’événements thrombotiques. La cessation de médicaments antiplaquettaires a souvent été associée à la survenue d’événements thrombotiques dans les jours suivant l’interruption. À savoir si la survenue de ces événements est attribuable uniquement au retrait d’un médicament protecteur ou plutôt à une sensibilisation plaquettaire, constitue un débat d’actualité. Dans le troisième volet de cette thèse, des données sont présentées démontrant que la cessation de clopidogrel après la période recommandée par les lignes directrices actuelles provoque une sensibilisation des plaquettes nouvellement formées aux stimuli plaquettaires physiologiques. Ces résultats encouragent la recherche sur différentes modalités pour atténuer le risque thrombotique accru chez ces patients souffrant de maladie coronarienne. En conclusion, cet ouvrage présente des études visant à identifier les sous-populations de patients qui sont plus à risque de complications cardiovasculaires récurrentes. Dans ce contexte, la personnalisation de traitement est une avenue thérapeutique prometteuse, où chaque patient pourra recevoir un traitement ciblé en fonction de ses besoins et de ses contre-indications. Ce changement de paradigme d’une thérapie empirique issue d’études de grande envergure sur des données populationnelles à une thérapie ajustée aux besoins individuels représente un vaste champ de recherche, où la majorité des découvertes sont à faire.
Resumo:
Le principe de précaution est devenu une véritable méta-norme, censée encadrer les décisions concernant certains choix scientifiques et technologiques en situation d’incertitudes cumulées et de controverses. Il lie des dimensions scientifique, éthique et politique. Puisqu’il est souvent associé au principe de participation, voire parfois au pluralisme, l’objet principal de cet article est d’analyser les différentes interprétations, souvent partielles, et parfois contradictoires, qui lui furent attribuées lors d’un débat national organisé par le Conseil Economique et Social (français), « Débat sur les OGM et les essais au champ » (2002). Il est vrai que ce principe doit normalement s’appliquer dans des circonstances spécifiques, notamment dans le cas d’une forte incertitude due aux limites de l’expertise scientifique qui ne peut pas servir d’excuses pour ne pas prendre les décisions appropriées, face à des risques qui pourraient provoquer des dommages graves et/ou irréversibles. En 2002 il était déjà formulé dans des lois françaises, censées connues par les principaux protagonistes de ce débat. Plutôt que de raisonner sur le principe de précaution in abstracto, nous allons analyser comment il est « mis à l’épreuve » dans ce cadre institutionnel très original, puisqu’il réunissait experts, étudiants, et quatre “sages”.
Resumo:
Résumé en français Objectifs : Ce mémoire propose d’explorer l’assiduité aux interventions psychosociales chez les personnes atteintes de troubles psychotiques en répondant à trois questions : 1- Quels sont les facteurs influençant l’assiduité aux interventions psychosociales pour une clientèle atteinte de troubles psychotiques? 2- Sont-ils comparables aux facteurs influençant l’observance à la médication? 3- Quel est le taux d’abandon des interventions psychosociales et quels sont les facteurs qui font varier ce taux? Méthodes : Cette étude a permis de faire la synthèse des facteurs influençant l’observance à la médication à partir des revues systématiques publiées sur le sujet, et d’établir les facteurs influençant l’assiduité aux interventions psychosociales à partir des raisons d’abandon citées dans les essais cliniques randomisés publiés. Une méta-analyse a permis de combiner les essais cliniques rapportant les abandons et ainsi d’en établir un taux. Résultats : Nous avons répertorié 92 essais cliniques randomisés sur les interventions psychosociales avec les personnes atteintes de troubles psychotiques. De ce nombre, 43 ont permis de répertorier les raisons d’abandon. Les raisons d’abandon s’avèrent principalement liées à la maladie et liées à l’accessibilité, la continuité et la qualité des soins et services. Un taux d’abandon de 13% a été obtenu à partir de l’agrégation de 74 études dans la méta-analyse. Des facteurs faisant varier ce taux ont été identifiés. Conclusion : Plusieurs facteurs (personnels, lié aux traitements, sociaux) influençant l’assiduité aux interventions psychosociales chez les personnes atteintes de troubles psychotiques ont été identifiés. De plus, le faible taux d’abandon obtenu démontre bien la faisabilité clinique de ce type d’intervention. S’ajoutant à l’efficacité déjà bien démontrée de certaines modalités d’intervention psychosociales, le taux d’assiduité à ces mêmes modalités constitue un argument supplémentaire pour en assurer la disponibilité aux personnes atteintes d’un trouble psychotique.
Resumo:
Résumé Les premières études électrophysiologiques et anatomiques ont établi le rôle crucial du cortex somatosensoriel primaire et secondaire (SI et SII) dans le traitement de l'information somatosensorielle. Toutefois, les récentes avancées en techniques d’imagerie cérébrale ont mis en question leur rôle dans la perception somatosensorielle. La réorganisation du cortex somatosensoriel est un phénomène qui a été proposé comme cause de la douleur du membre fantôme chez les individus amputés. Comme la plupart des études se sont concentrées sur le rôle du SI, une étude plus approfondie est nécessaire. La présente série d'expériences implique une exploration du rôle des régions somatosensorielles dans la perception des stimuli douleureux et non-douleureux chez des volontaires sains et patients avec des douleurs de membre fantôme. La première étude expérimentale présentée dans le chapitre 3 est une méta-analyse des études de neuro-imagerie employant des stimuli nociceptifs chez des volontaires sains. En comparaison aux précédentes, la présente étude permet la génération de cartes quantitatives probabilistes permettant la localisation des régions activées en réponse à des stimuli nociceptifs. Le rôle du cortex somatosensoriel dans la perception consciente de stimuli chauds a été étudié dans le chapitre 4 grâce à une étude d'imagerie par résonance magnétique fonctionnelle, dans laquelle des stimuli thermiques douloureux et non-douloureux ont été administrés de manière contrebalancée. Grâce à cette procédure, la perception de la chaleur fut atténuée par les stimuli douloureux, ce qui permit la comparaison des stimuli consciemment perçus avec ceux qui ne le furent pas. Les résultats ont montrés que les stimulations chaudes perçues ont engendré l’activation de l’aire SI controlatérale, ainsi que de la région SII. Grâce à l’évaluation clinique de patients amputés présentant une altération de leurs perceptions somatosensorielles, il est également possible de dessiner un aperçu des régions corticales qui sous-tendent ces modifications perceptuelles. Dans le chapitre 5 nous avons émis l'hypothèse proposant que les sensations du membre fantôme représentent un corrélat perceptuel de la réorganisation somatotopique des représentations sensorielles corticales. En effet, la réorganisation des sensations peut donner des indices sur les régions impliquées dans la genèse des sensations référées. Ainsi, un protocole d’évaluation sensoriel a été administré à un groupe de patients affligés de douleur au niveau du membre fantôme. Les résultats ont montré que, contrairement aux études précédentes, les sensations diffèrent grandement selon le type et l'intensité des stimuli tactiles, sans évidence de la présence d’un modèle spatialement localisé. Toutefois, les résultats actuels suggèrent que les régions corticales à champs récepteurs bilatéraux présentent également des modifications en réponse à une déafférentation. Ces études présentent une nouvelle image des régions corticales impliquées dans la perception des stimuli somatosensoriels, lesquelles comprennent les aires SI et SII, ainsi que l'insula. Les résultats sont pertinents à notre compréhension des corrélats neurologiques de la perception somatosensorielle consciente.
Resumo:
Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie
Resumo:
Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.
Resumo:
It is in a way easier to imagine evil actions than we often suppose, but what it is thus relatively easy to do is not what we want to understand about evil. To argue for this conclusion I distinguish between imagining why someone did something and imagining how they could have done it, and I try to grasp partial understanding, in part by distinguishing different imaginative perspectives we can have on an act. When we do this we see an often unnoticed asymmetry: we do not put the same demands on our understanding of wrongdoing as on that of most everyday, morally acceptable, actions. Il est relativement facile d’imaginer des actes maléfiques, plus facile que ce que nous sommes prêts à supposer. Mais ce qui est ainsi facile à imaginer n’est pas ce que nous souhaitons comprendre à propos des actes maléfiques. Pour étayer cette conclusion, je distingue entre comprendre pourquoi quelqu'un fait ce qu'il fait et imaginer comment cette personne aurait fait une telle chose; j'essaie aussi de saisir ce qu'est la compréhension partielle, du moins en partie, en distinguant entre elles les différentes perspectives imaginaires d’un même acte. C’est ainsi qu’apparaît une asymétrie qui passe souvent inaperçue: nous n'imposons pas les mêmes exigences à l'égard de notre compréhension d’actes répréhensibles qu'à l’égard d’actions quotidiennes moralement acceptables.
Resumo:
It is often argued that the ability to imagine what others think and feel is central to moral functioning. In this paper, I consider to what extent this is true. I argue that neither the ability to think of others as having representational mental states, nor the ability to imagine being in their position, is necessary for moral understanding or moral motivation. I go on to argue that the area in which thinking about others’ thoughts and feelings appears to play the largest role is that of supererogatory actions. Being able to get on well with others seems to be importantly predicated on our ability to think about their thoughts and feelings and being able to take up their perspective. However, when it comes to grosser moral norms and restrictions, such as harm norms, there is little reason to think that thinking about others’ thoughts and feelings plays a central role in understanding such norms or being motivated by them.
Resumo:
L'empathie est un mode émotionnel qui associe le point de vue d'autrui à des sensations physiologiques. Ce phénomène a tendance à être plus important envers certaines personnes qu'envers d'autres. Or, il existe parfois de bonnes raisons morales de promouvoir une empathie plus égalitaire. Notre hypothèse de psychologie morale est qu'il est possible d'utiliser l'imagination, et en particulier sa dimension volontaire et sa transparence aux émotions, pour corriger certains biais empathiques.
Resumo:
Les récits de fiction comportant une moralité déviante posent parfois problème quant à la détermination de ce qui est « vrai dans l’histoire ». Si par exemple on a aucune difficulté à considérer comme vrai dans le monde imaginaire que « Giselda a tué son bébé », les choses sont différentes lorsqu’il s’agit d’imaginer une situation dans laquelle nos valeurs morales sont remises en question. Confronté à un récit comportant l’énoncé « Giselda a fait la bonne chose en tuant son bébé, après tout, c’était une fille », on aura tendance à questionner l’autorité de l’auteur : celui-ci peut bien penser que l’infanticide féminin est moralement justifié, mais en fait c’est faux, même dans l’histoire. Les conditions qui donnent lieu au phénomène ont été articulées de diverses façons, l’objectif étant habituellement de parvenir à une formulation qui dépasse le cadre plus étroitement moral. On invoque par exemple une distinction plus générale entre l’évaluatif et le descriptif. Après avoir caractérisé plus précisément les notions d’imagination et d’imaginabilité, j’examinerai brièvement la littérature sur le sujet et défendrai une solution reposant sur les règles de modification de l’extension et de l’intension des prédicats imaginaires. D’après cette analyse, ce qui se produit dans les récits moraux déviants s’explique par un principe plus général qui s’applique autant à l’évaluatif qu’au descriptif.
Resumo:
Les médecins qui écrivent sont nombreux à travers le monde, mais les relations entre expérience professionnelle des soignants et écriture de fiction sont plus largement étudiés et reconnus dans le monde littéraire et médical anglophone que dans l'espace francophone. À travers l'examen de quatre romans d'un médecin-écrivain français publiant depuis 1989 et à la faveur d'un entretien inédit, cet article s'interroge sur la manière dont l'expérience professionnelle d'un praticien peut nourrir ses fictions et y transmettre les conceptions de l'auteur sur l'éthique du soin.
Resumo:
Cette thèse porte sur les problèmes de tournées de véhicules avec fenêtres de temps où un gain est associé à chaque client et où l'objectif est de maximiser la somme des gains recueillis moins les coûts de transport. De plus, un même véhicule peut effectuer plusieurs tournées durant l'horizon de planification. Ce problème a été relativement peu étudié en dépit de son importance en pratique. Par exemple, dans le domaine de la livraison de denrées périssables, plusieurs tournées de courte durée doivent être combinées afin de former des journées complètes de travail. Nous croyons que ce type de problème aura une importance de plus en plus grande dans le futur avec l'avènement du commerce électronique, comme les épiceries électroniques, où les clients peuvent commander des produits par internet pour la livraison à domicile. Dans le premier chapitre de cette thèse, nous présentons d'abord une revue de la littérature consacrée aux problèmes de tournées de véhicules avec gains ainsi qu'aux problèmes permettant une réutilisation des véhicules. Nous présentons les méthodologies générales adoptées pour les résoudre, soit les méthodes exactes, les méthodes heuristiques et les méta-heuristiques. Nous discutons enfin des problèmes de tournées dynamiques où certaines données sur le problème ne sont pas connues à l'avance. Dans le second chapitre, nous décrivons un algorithme exact pour résoudre un problème de tournées avec fenêtres de temps et réutilisation de véhicules où l'objectif premier est de maximiser le nombre de clients desservis. Pour ce faire, le problème est modélisé comme un problème de tournées avec gains. L'algorithme exact est basé sur une méthode de génération de colonnes couplée avec un algorithme de plus court chemin élémentaire avec contraintes de ressources. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. Le troisième chapitre propose donc une méthode de recherche adaptative à grand voisinage qui exploite les différents niveaux hiérarchiques du problème (soit les journées complètes de travail des véhicules, les routes qui composent ces journées et les clients qui composent les routes). Dans le quatrième chapitre, qui traite du cas dynamique, une stratégie d'acceptation et de refus des nouvelles requêtes de service est proposée, basée sur une anticipation des requêtes à venir. L'approche repose sur la génération de scénarios pour différentes réalisations possibles des requêtes futures. Le coût d'opportunité de servir une nouvelle requête est basé sur une évaluation des scénarios avec et sans cette nouvelle requête. Enfin, le dernier chapitre résume les contributions de cette thèse et propose quelques avenues de recherche future.
Resumo:
La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.
Resumo:
La perception est décrite comme l’ensemble des processus permettant au cerveau de recueillir et de traiter l’information sensorielle. Un traitement perceptif atypique se retrouve souvent associé au phénotype autistique habituellement décrit en termes de déficits des habilités sociales et de communication ainsi que par des comportements stéréotypés et intérêts restreints. Les particularités perceptives des autistes se manifestent à différents niveaux de traitement de l’information; les autistes obtiennent des performances supérieures à celles des non autistes pour discriminer des stimuli simples, comme des sons purs, ou encore pour des tâches de plus haut niveau comme la détection de formes enchevêtrées dans une figure complexe. Spécifiquement pour le traitement perceptif de bas niveau, on rapporte une dissociation de performance en vision. En effet, les autistes obtiennent des performances supérieures pour discriminer les stimuli définis par la luminance et inférieures pour les stimuli définis par la texture en comparaison à des non autistes. Ce pattern dichotomique a mené à l’élaboration d’une hypothèse suggérant que l’étendue (ou complexité) du réseau de régions corticales impliquées dans le traitement des stimuli pourrait sous-tendre ces différences comportementales. En effet, les autistes obtiennent des performances supérieures pour traiter les stimuli visuels entièrement décodés au niveau d’une seule région corticale (simples) et inférieures pour les stimuli dont l’analyse requiert l’implication de plusieurs régions corticales (complexes). Un traitement perceptif atypique représente une caractéristique générale associée au phénotype autistique, avec de particularités rapportées tant dans la modalité visuelle qu’auditive. Étant donné les parallèles entre ces deux modalités sensorielles, cette thèse vise à vérifier si l’hypothèse proposée pour expliquer certaines particularités du traitement de l’information visuelle peut possiblement aussi caractériser le traitement de l’information auditive dans l’autisme. Le premier article (Chapitre 2) expose le niveau de performance des autistes, parfois supérieur, parfois inférieur à celui des non autistes lors du traitement de l’information auditive et suggère que la complexité du matériel auditif à traiter pourrait être en lien avec certaines des différences observées. Le deuxième article (Chapitre 3) présente une méta-analyse quantitative investiguant la représentation au niveau cortical de la complexité acoustique chez les non autistes. Ce travail confirme l’organisation fonctionnelle hiérarchique du cortex auditif et permet d’identifier, comme en vision, des stimuli auditifs pouvant être définis comme simples et complexes selon l’étendue du réseau de régions corticales requises pour les traiter. Le troisième article (Chapitre 4) vérifie l’extension des prédictions de l’hypothèse proposée en vision au traitement de l’information auditive. Spécifiquement, ce projet compare les activations cérébrales sous-tendant le traitement des sons simples et complexes chez des autistes et des non autistes. Tel qu’attendu, les autistes montrent un patron d’activité atypique en réponse aux stimuli complexes, c’est-à-dire ceux dont le traitement nécessitent l’implication de plusieurs régions corticales. En bref, l’ensemble des résultats suggèrent que les prédictions de l’hypothèse formulée en vision peuvent aussi s’appliquer en audition et possiblement expliquer certaines particularités du traitement de l’information auditive dans l’autisme. Ce travail met en lumière des différences fondamentales du traitement perceptif contribuant à une meilleure compréhension des mécanismes d’acquisition de l’information dans cette population.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.