280 resultados para Éviter-minimiser-compenser


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Les anti-infectieux sont parmi les médicaments les plus utilisés pendant la grossesse. Les indications pour l’utilisation de ces médicaments, telles que les infections bactériennes, figurent parmi les facteurs de risque les plus importants pour la prématurité et les enfants nés petits pour l'âge gestationnel («Small-for-gestational-age », SGA). Ces complications de la grossesse peuvent avoir des incidences sur la santé du nouveau né et sur son développement futur. Compte tenu des impacts sur la santé de la mère et de l’enfant, la prise en charge et le traitement efficace de ces infections sont impératifs. Cependant, l'utilisation des anti-infectieux, pour éviter des issues de grossesse défavorables, fait l’objet d’une controverse dans la littérature. Cette controverse est en partie liée à la qualité méthodologique discutable des études disponibles sur le sujet. Les quatre études présentées dans cette thèse ont donc pour objectif d’investiguer l’utilisation des anti-infectieux durant la grossesse ainsi que d’évaluer le risque de prématurité et de SGA après utilisation de ces médicaments en période gestationnelle. Une révision systématique de la littérature sur l’utilisation du métronidazole durant la grossesse est également présentée. Nous avons utilisé, comme source de données le Registre des Grossesses du Québec, une cohorte longitudinale conçue à partir du jumelage de trois bases de données administratives de la province du Québec (RAMQ, Med-Echo et ISQ). Le registre fournit des informations sur les prescriptions, les services pharmaceutiques et médicaux, ainsi que des donnés sur les soins d’hospitalisation de courte durée et démographiques. Les deux premières études présentées dans cette thèse ont eu pour objectif d’évaluer la prévalence, les tendances, les indications et les prédicteurs de l’utilisation des anti-infectieux dans une cohorte, extraite du registre, de 97 680 femmes enceintes. A l’aide d’un devis cas-témoins, les 2 dernières études ont mesuré l’association entre l’utilisation d’anti-infectieux durant les 2 derniers trimestres de grossesse et le risque de prématurité et de SGA, respectivement. Un cas de prématurité a été défini comme un accouchement survenu avant 37 semaines de gestation. Un cas de SGA a été défini comme l’accouchement d’un enfant dont le poids à la naissance se situe sous le 10ème percentile du poids normalisé à la naissance (compte tenu de l’âge gestationnel et du sexe du bébé). Les données ont été recueillies pour les agents systémiques oraux, ainsi que pour les classes et les agents individuels. Nos résultats ont montré que la prévalence de l’utilisation des anti-infectieux durant la grossesse était comparable à celle d’autres études déjà publiées (25%). Nous avons observé une augmentation de l’utilisation des agents plus anciens et ayant des profils d’innocuité connus. Les prédicteurs de l’usage en début de grossesse identifiés sont : avoir eu plus de deux différentes prescriptions (OR ajusté = 3,83, IC 95% : 3,3-4,3), avoir eu un diagnostic d’infection urinaire (OR= 1,50, IC 95% : 1,3-1,8) et un diagnostic d’infection respiratoire (OR= 1,40, IC 95% : 1,2-1,6). L’utilisation des macrolides a été associée à une diminution du risque de prématurité (OR =0,65, IC 95% : 0,50-0,85). En revanche, les femmes ayant été exposées au métronidazole ont vu leur risque augmenté de 80% (OR=1,81, IC 95% : 1,30-2,54). L’utilisation d’azithromycine a été associée à une diminution importante du risque chez les femmes ayant un diagnostic de rupture prématurée des membranes (OR=0,31, IC 95% : 0,10-0,93). Cependant, l'utilisation de sulfaméthoxazole-triméthoprime (SXT) a été significativement associée à une augmentation du risque de SGA (OR= 1,61, IC 95% : 1,16-2,23), tandis que celle des anti-infectieux urinaires a été associée à une diminution du risque (OR= 0,80, 95%CI : 0.65-0.97). Les conclusions de nos travaux suggèrent que l’utilisation des macrolides et des pénicillines diminuent le risque de prématurité et de SGA. Nous devons considérer l'utilisation de différents choix thérapeutiques tels que l’azithromycine, lors de la prise en charge des infections pouvant induire la prématurité et le SGA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude avait pour but d’explorer les modulations fonctionnelles putaminales du signal de spectroscopie par résonance magnétique (SRM) combiné du glutamate et de la glutamine (Glx), ainsi que de l’acide γ-aminobutyrique (GABA) en lien avec l’apprentissage d’une séquence motrice. Nous avons émis l’hypothèse que les concentrations de Glx seraient spécifiquement augmentées pendant et après la pratique d’une telle tâche, et ce comparativement à une condition d’exécution motrice simple conçue pour minimiser l’apprentissage. La tâche d’appuis séquentiels des doigts (« finger taping task ») utilisée est connue pour induire un apprentissage moteur évoluant en phases, avec une progression initialement rapide lors de la première session d’entraînement (phase rapide), puis lente lors de sessions subséquentes (phase lente). Cet apprentissage est également conçu comme dépendant de processus « on-line » (pendant la pratique) d’acquisition et « off-line » (entre les périodes de pratique) de consolidation de la trace mnésique de l’habilité motrice. Une grande quantité de données impliquent le système de neurotransmission glutamatergique, principalement par l’action de ses récepteurs N-Méthyl-D-aspartate (NMDAR) et métabotropiques (mGluR), dans une multitude de domaine de la mémoire. Quelques-unes de ces études suggèrent que cette relation s’applique aussi à des mémoires de type motrice ou dépendante du striatum. De plus, certains travaux chez l’animal montrent qu’une hausse des concentrations de glutamate et de glutamine peut être associée à l’acquisition et/ou consolidation d’une trace mnésique. Nos mesures de SRM à 3.0 Tesla, dont la qualité ne s’est avérée satisfaisante que pour le Glx, démontrent qu’une telle modulation des concentrations de Glx est effectivement détectable dans le putamen après la performance d’une tâche motrice. Elles ne nous permettent toutefois pas de dissocier cet effet putativement attribuable à la plasticité du putamen associée à l’apprentissage moteur de séquence, de celui de la simple activation neuronale causée par l’exécution motrice. L’interprétation de l’interaction non significative, montrant une plus grande modulation par la tâche motrice simple, mène cependant à l’hypothèse alternative que la plasticité glutamatergique détectée est potentiellement plus spécifique à la phase lente de l’apprentissage, suggérant qu’une seconde expérience ainsi orientée et utilisant une méthode de SRM plus sensible au Glx aurait donc de meilleures chances d’offrir des résultats concluants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dépression est une pathologie grave qui, malgré de multiples stratégies thérapeutiques, demeure résistante chez un tiers des patients. Les techniques de stimulation cérébrale sont devenues une alternative intéressante pour les patients résistants à diverses pharmacothérapies. La stimulation du nerf vague (SNV) a ainsi fait preuve de son efficacité en clinique et a récemment été approuvée comme traitement additif pour la dépression résistante. Cependant, les mécanismes d’action de la SNV en rapport avec la dépression n’ont été que peu étudiés. Cette thèse a donc eu comme premier objectif de caractériser l’impact de la SNV sur les différents systèmes monoaminergiques impliqués dans la pathophysiologie de la dépression, à savoir la sérotonine (5-HT), la noradrénaline (NA) et la dopamine (DA), grâce à l’utilisation de techniques électrophysiologiques et de la microdialyse in vivo chez le rat. Des études précliniques avaient déjà révélé qu’une heure de SNV augmente le taux de décharge des neurones NA du locus coeruleus, et que 14 jours de stimulation sont nécessaires pour observer un effet comparable sur les neurones 5-HT. Notre travail a démontré que la SNV modifie aussi le mode de décharge des neurones NA qui présente davantage de bouffées, influençant ainsi la libération terminale de NA, qui est significativement augmentée dans le cortex préfrontal et l’hippocampe après 14 jours. L’augmentation de la neurotransmission NA s’est également manifestée par une élévation de l’activation tonique des récepteurs postsynaptiques α2-adrénergiques de l’hippocampe. Après lésion des neurones NA, nous avons montré que l’effet de la SNV sur les neurones 5-HT était indirect, et médié par le système NA, via l’activation des récepteurs α1-adrénergiques présents sur les neurones du raphé. Aussi, tel que les antidépresseurs classiques, la SNV augmente l’activation tonique des hétérorécepteurs pyramidaux 5-HT1A, dont on connait le rôle clé dans la réponse thérapeutique aux antidépresseurs. Par ailleurs, nous avons constaté que malgré une diminution de l’activité électrique des neurones DA de l’aire tegmentale ventrale, la SNV induit une augmentation de la DA extracellulaire dans le cortex préfrontal et particulièrement dans le noyau accumbens, lequel joue un rôle important dans les comportements de récompense et l’hédonie. Un deuxième objectif a été de caractériser les paramètres optimaux de SNV agissant sur la dépression, en utilisant comme indicateur le taux de décharge des neurones 5-HT. Des modalités de stimulation moins intenses se sont avérées aussi efficaces que les stimulations standards pour augmenter l’activité électrique des neurones 5-HT. Ces nouveaux paramètres de stimulation pourraient s’avérer bénéfiques en clinique, chez des patients ayant déjà répondu à la SNV. Ils pourraient minimiser les effets secondaires reliés aux périodes de stimulation et améliorer ainsi la qualité de vie des patients. Ainsi, ces travaux de thèse ont caractérisé l’influence de la SNV sur les trois systèmes monoaminergiques, laquelle s’avère en partie distincte de celle des antidépresseurs classiques tout en contribuant à son efficacité en clinique. D’autre part, les modalités de stimulation que nous avons définies seraient intéressantes à tester chez des patients recevant la SNV, car elles devraient contribuer à l’amélioration des bénéfices cliniques de cette thérapie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le trouble comportemental en sommeil paradoxal (TCSP) idiopathique est caractérisé par une activité motrice indésirable et souvent violente au cours du sommeil paradoxal. Le TCSP idiopathique est considéré comme un facteur de risque de certaines maladies neurodégénératives, particulièrement la maladie de Parkinson (MP) et la démence à corps de Lewy (DCL). La dépression et les troubles anxieux sont fréquents dans la MP et la DCL. L’objectif de cette étude est d’évaluer la sévérité des symptômes dépressifs et anxieux dans le TCSP idiopathique. Cinquante-cinq patients avec un TCSP idiopathique sans démence ni maladie neurologique et 63 sujets contrôles ont complété la seconde édition du Beck Depression Inventory (BDI-II) et le Beck Anxiety Inventory (BAI). Nous avons aussi utilisé le BDI for Primary Care (BDI-PC) afin de minimiser la contribution des facteurs confondant dans les symptômes dépressifs. Les patients avec un TCSP idiopathique ont obtenu des scores plus élevés que les sujets contrôles au BDI-II (9.63 ± 6.61 vs. 4.32 ± 4.58; P < 0.001), au BDI-PC (2.20 ± 2.29 vs. 0.98 ± 1.53; P = 0.001) et au BAI (8.37 ± 7.30 vs. 3.92 ± 5.26; P < 0.001). Nous avons également trouvé une proportion plus élevée des sujets ayant des symptômes dépressifs (4/63 ou 6% vs. 12/55 ou 22%; P = 0.03) ou anxieux (9/50 or 18% vs. 21/43 ou 49%; P = 0.003) cliniquement significatifs. La proportion des sujets ayant des symptômes dépressifs cliniquement significatifs ne change pas en utilisant le BDI-PC (11/55 or 20%) Les symptômes dépressifs et anxieux sont fréquents dans le TCSP idiopathique. L’examen de routine des patients avec un TCSP idiopathique devrait inclure un dépistage systématique des symptômes dépressifs et anxieux afin de les prévenir ou les traiter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les questions d'évaluation et de couverture des options dans un modèle exponentiel-Lévy avec changements de régime. Un tel modèle est construit sur un processus additif markovien un peu comme le modèle de Black- Scholes est basé sur un mouvement Brownien. Du fait de l'existence de plusieurs sources d'aléa, nous sommes en présence d'un marché incomplet et ce fait rend inopérant les développements théoriques initiés par Black et Scholes et Merton dans le cadre d'un marché complet. Nous montrons dans cette thèse que l'utilisation de certains résultats de la théorie des processus additifs markoviens permet d'apporter des solutions aux problèmes d'évaluation et de couverture des options. Notamment, nous arrivons à caracté- riser la mesure martingale qui minimise l'entropie relative à la mesure de probabilit é historique ; aussi nous dérivons explicitement sous certaines conditions, le portefeuille optimal qui permet à un agent de minimiser localement le risque quadratique associé. Par ailleurs, dans une perspective plus pratique nous caract érisons le prix d'une option Européenne comme l'unique solution de viscosité d'un système d'équations intégro-di érentielles non-linéaires. Il s'agit là d'un premier pas pour la construction des schémas numériques pour approcher ledit prix.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L‟utilité de la théorie de la dissuasion est régulièrement remise en question pour expliquer la relation entre les peines et la criminalité puisque les propriétés objectives de la peine ne semblent pas affecter les taux de criminalité, les perceptions que s‟en font les individus et la récidive des délinquants. Trois limites conceptuelles des auteurs qui remettent en question la dissuasion sont soulevées. Premièrement, les unités spatiales utilisées sont des territoires sur lesquels plusieurs corps policiers sont en fonction. Il y a donc peu de chances que tous les citoyens présents soient exposés au même message pénal. Deuxièmement, les chercheurs ont mesuré le risque objectif d‟être arrêté à l‟aide d‟un ratio entre le nombre d‟arrestations et le nombre de crimes rapportés. Cette conceptualisation est problématique puisque les résultats d‟autres études suggèrent que les citoyens ont peu de connaissances des propriétés objectives et qu‟il serait, ainsi, intéressant de se référer aux stimuli dissuasifs pour conceptualiser la notion de risques. Troisièmement, pour plusieurs chercheurs, la délinquance est considérée comme une activité pour laquelle les délits impunis découlent du hasard. Pourtant, les délinquants utilisent fréquemment des stratégies pour éviter les autorités policières. Ils sont donc proactifs dans leur impunité. De ces limites découlent quatre propositions : 1) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les territoires utilisés dans les études doivent représenter des juridictions sur lesquelles un seul corps policier opère; 2) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les études doivent être effectuées avec des données provenant d‟une juridiction dans laquelle les activités de répression sont augmentées significativement par rapport à leur seuil antérieur et maintenue sur une période de temps suffisamment longue; 3) les stimuli dissuasifs observés doivent être considérés comme des expériences vicariantes ; 4) l‟impunité doit être définie comme étant une expérience recherchée par les délinquants. Deux études ont été réalisées dans le cadre de cette thèse. D‟abord, une étude a été réalisée à l‟aide de données issues des rapports policiers de collisions et des constats d‟infraction rendus. Les résultats montrent que l‟augmentation de la répression policière ii sur le territoire du Service de Police de la Ville de Montréal a fait diminuer le nombre de collisions. Au même moment, les collisions sont demeurées stables sur le territoire desservis par le Service de police de la Ville de Québec. Dans un deuxième temps, une étude perceptuelle a été réalisée avec un échantillon d‟étudiants universitaires. Les résultats démontrent des effets mitigés des stimuli dissuasifs sur les perceptions que se font les individus de leurs risques d‟être arrêté et sur leurs comportements délinquants. Chez les moins délinquants, les stimuli dissuasifs font augmenter la perception que les délinquants se font de leurs risques. Par contre, les plus motivés à commettre des délits de la route développent des stratégies en réaction aux opérations policières plutôt que d‟en craindre les représailles. Ces tactiques d‟évitement n‟assurent pas une impunité totale, ni une perception moins élevée des risques de recevoir une contravention, mais elles retardent le moment où le délinquant sera confronté à la punition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les deux fonctions principales de la main sont la manipulation d’objet et l’exploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour l’exécution de ces deux fonctions. Durant la manipulation d’objet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que l’objet ne tombe. À l’opposé, le glissement est un aspect essentiel à l’exploration tactile puisqu’il favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant qu’il y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. C’est pourquoi nous avons enregistré l’activité unitaire des neurones du cortex somatosensoriel primaire (S1) durant l’exécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. L’ensemble de ces vecteurs préférés s’étendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à l’intensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à l’intensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et l’intensité des forces même en l’absence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche d’une cible tactile, sans feedback visuel. Durant l’exploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle qu’ils appliquent durant l’exploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche d’exploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que l’autre composante orthogonale avait peu ou pas d’influence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de l’intensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à l’intensité des forces. L’exploration de trois ou quatre différentes surfaces a permis d’évaluer l’impact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec l’augmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification d’adaptation rapide ou lente des neurones de S1 n’a pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode l’intensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement d’une importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation d’objets. Ce système de référence s’applique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que l’activité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant l’exploration tactile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de notre étude était de déterminer des variables du modus operandi de meurtres sexuels prédisant la résolution de l’enquête policière. Notre échantillon incluait 265 homicides sexuels de femmes codifiés dans le ViCLAS. La comparaison entre des meurtres sexuels résolus (N=178) et des meurtres sexuels non résolus (N=87), devait également permettre d’identifier les différences entre les issues de l’enquête, les stratégies du meurtrier pour éviter l’appréhension ainsi que les facteurs prédisant la résolution. D’après l’analyse de régression logistique, les prédicteurs tels que l’utilisation d’une arme, l’utilisation d’un bandeau/bâillon et l’agression impliquant une introduction par effraction ou un vol augmentent les probabilités que l’agresseur soit appréhendé. Au contraire, lorsque l’agresseur emporte un objet et que la victime est piétinée, les chances de résoudre l’enquête diminuent. Ces variables du modus operandi traduisent un déficit des compétences criminelles du meurtrier qui peut le pousser à multiplier les erreurs. De manière générale notre étude nous apprend que le contact rapproché entre l’agresseur et la victime favorise la dispersion d’indices propices à la résolution de l’enquête. Le nombre de ces indices est décuplé lorsqu’il y a pénétration vaginale ou anale et lorsque la victime est battue ou mordue. En outre, des contraintes intrinsèques à l’utilisation de stratégies d’évitement expliquent le fait que ces moyens, entravant l’avancée de l’enquête, ne sont que rarement exploités. Enfin, la faible proportion d’actes sexuels et violents observés dans ce genre de crime entrave le processus de résolution. Il en va de même pour l’impact limité des bases de données et de la spécialisation du meurtrier sexuel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Co-auteurs de l'article: Karine Morin, Jacalyn Guy, Claudine Habak, Hugh, R. Wilson, Linda S.Pagani, Laurent Mottron, Armando Bertone

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude vise à identifier et classer les difficultés d’ordre grammatical rencontrées chez les immigrants adultes allophones dans l’apprentissage du français langue seconde. Nous avons d’une part analysé les examens finaux de 98 apprenants inscrits dans les cours de francisation à l’Université de Montréal afin de décrire leurs erreurs grammaticales fréquentes commises. Nous avons décrit les erreurs grammaticales fréquentes produites par les apprenants de chaque niveau de francisation d’une manière précise afin que les apprenants puissent bien éviter l’usage de formes erronées et bien développer des compétences linguistiques en français langue seconde. D’autre part, nous avons collecté les opinions personnelles de cinq professeurs principaux de francisation à l’égard de l’importance de l’enseignement de la grammaire dans les cours de langue seconde, du traitement des erreurs grammaticales, et de la persistance des erreurs à travers différents niveaux, etc. En précisant les points grammaticaux à apprendre de chaque niveau de francisation et en fusionnant les résultats des apprenants et des professeurs, nous pouvons offrir aux apprenants adultes allophones des tableaux simples des points grammaticaux et des erreurs grammaticales correspondantes de chaque niveau. Ces derniers pourraient les exploiter pour favoriser la maîtrise du français langue seconde ainsi leur intégration à la société québécoise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Mali, une loi hospitalière a été adoptée en 2002 pour définir le cadre institutionnel d’une réforme majeure. Cette loi a décrété des transformations substantielles de la structure interne, tant administrative que clinique des établissements publics hospitaliers notamment l’implication des populations locales dans la prise de décision de l’établissement, l’autonomie administrative et financière à travers la délégation budgétaire et l’implication des professionnels de santé à la gestion, l’intégration des services de spécialité et la participation du secteur privé au service public hospitalier. Cependant, la capacité des hôpitaux à réussir les transformations prévues a été remise en question par la majorité des acteurs internes et externes. L’objectif de cette thèse a été d’étudier de quelle manière l’hôpital malien se transforme sous la pression de la décentralisation des pouvoirs de l’État et d’étudier comment les groupes d’acteurs réagissent face à ces changements à partir de deux cadres d’analyse. Le premier cadre intègre les caractéristiques essentielles des transformations hospitalières en termes de différents types de décentralisation et le second cadre inspiré des travaux de Crozier et coll. (1977) analyse les jeux de pouvoir entre les groupes d’acteurs hospitaliers selon deux niveaux à savoir un niveau stratégique et systémique. Pour cela, nous avons conduit une étude multiple de deux cas et utilisé trois modes de collecte des données à savoir les entrevues semi-structurées auprès des informateurs clés, l’analyse documentaire, et l’observation lors de réunions. Dans un premier temps, les analyses ont révélé pour les changements intervenus dans la structure, selon l’importance des responsabilités attribuées à l’hôpital public, (1) plusieurs variantes de la décentralisation. Globalement, l’intention politique était focalisée sur une délégation puis une déconcentration et une dévolution; les mécanismes mis en place ont penché plus vers une déconcentration puis une délégation et une dévolution tandis que les transformations réellement effectuées dans les établissements publics hospitaliers ont plutôt confirmé une déconcentration en plus d’une délégation particulièrement dans le cas de l’implication des populations locales dans la gestion hospitalière. Tandis que l’hôpital public pouvait faire des recettes à partir du recouvrement partiel des coûts des soins auprès des usagers, l’État gardait une main forte sur la gestion financière et la gestion du personnel, et définissait les directives et les objectifs à poursuivre. (2) Les analyses apportent une compréhension des liens existant entre les différents éléments du processus de réforme, le type de mécanisme mis en place dans le cadre de la réforme semble déterminer le type de transformation effectué selon les fonctions que peut assurer l’hôpital public. La logique traduit le passage de la délégation vers une déconcentration qui est jugée comme étant la forme la moins poussée d’une décentralisation. Dans un deuxième temps, les résultats confirment la présence de conflit entre les normes professionnelles établies et reconnues par les professionnels de santé et les normes organisationnelles et institutionnelles mises en avant par la réforme. Elles sont défendues par la majorité des gestionnaires qui sont imputables face aux autorités alors que les normes professionnelles dominent dans les services cliniques. Les deux cas ont mis en évidence le soutien de leur direction générale, il existait une tension dans les réactions des médecins, qui a été variable selon le type de changement structurel visé, tandis que les infirmiers se sont montrés plutôt accessibles face aux nouvelles mesures introduites par la réforme. L’une des originalités de cette thèse tient au fait que très peu de travaux sur les pays en développement ont tenté d’opérationnaliser de façon multidimensionnelle les concepts de décentralisation avant d’analyser les variantes susceptibles d’exister entre eux et les stratégies développées par les groupes d’acteurs de l’hôpital. En outre, alors que la pertinence de la prise en compte des caractéristiques du contexte organisationnel dans la mise en place des réformes des systèmes de soins est au cœur des préoccupations, ce travail est l’un des premiers à analyser l’influence de l’interaction entre le processus de réforme hospitalière et les prises de position des acteurs. Les résultats de cette thèse fournissent des recommandations aux décideurs politiques et aux gestionnaires quant aux modes de changement structurel à privilégier ou en éviter dans la planification, l’exécution et la mise en œuvre du processus de réforme hospitalière en fonction des caractéristiques du contexte organisationnel sanitaire. La planification de la réforme est essentielle : Élaborer un projet d’établissement discuté et validé par l’ensemble des acteurs de l’hôpital. Ce projet doit être compatible avec les objectifs du schéma d’organisation sanitaire nationale et déterminer les moyens en personnel et en équipements, dont l’hôpital doit disposer pour réaliser ses objectifs. Concevoir un cadre budgétaire et financier hospitalier flexible (qui va alléger la chaine de prise de décision), sur lequel reposera le nouveau système de gestion des hôpitaux. La capacité de mobilisation et d’exécution des ressources hospitalières devrait renforcer l’autonomie de gestion. Enfin, promouvoir une culture de l’évaluation et faciliter les évaluations périodiques de la mise en œuvre de la réforme hospitalière par des organismes d’évaluation externes et indépendants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’eau a longtemps été considérée comme une ressource commune non susceptible d’appropriation et accessible à tous. De nos jours, toutefois, face à l’inégale répartition de l’eau sur la planète, à l’augmentation constante de la population et à la multiplication des usages qui entraînent la surexploitation et la pollution des ressources hydriques, l’eau prend une valeur nouvelle. L’eau devient de plus en plus un enjeu stratégique, politique et commercial. En conséquence, la redéfinition du statut juridique de l’eau devient un objet de débat important. Ce débat est avant tout un débat rhétorique et une « bataille » idéologique entre des groupes qui soutiennent différentes approches et qui cherchent à obtenir le monopole de la nouvelle réalité et créer ainsi le nouveau droit. Deux grandes approches s’affrontent pour redéfinir la ressource. La première, celle qui envisage l’eau comme un bien économique, soutient que pour éviter les problèmes de gaspillage et de pollution, l’eau doit être soumise aux lois de l’offre et de la demande. La deuxième, celle qui considère l’eau comme une chose commune, non appropriable et hors commerce, soutient que la valeur d’une ressource aussi vitale que l’eau ne peut être établie par les lois du marché puisque cette alternative ne permet pas d’assurer l’accès à l’eau aux plus démunis de la société. Cette approche prône également la reconnaissance d’un droit humain à l’eau. Notre thèse tente de déterminer comment s’effectue le choix du statut juridique de l’eau, et ce, tant au Québec qu’au Mexique. Notre question de recherche est traitée selon une perspective constructiviste en vertu de laquelle le statut juridique de l’eau serait une réalité « construite » et le nouveau droit serait le résultat des luttes, des oppositions et des compromis entre les acteurs sociaux impliqués. Notre terrain d’étude est le Québec et le Mexique. En effet, ce sont des territoires intégrés économiquement par le biais de l’ALENA où l’on observe des variations importantes en termes de ressources, de prélèvements et de consommation. Au Québec, nous analysons le débat qui a eu lieu lors de la Consultation sur la gestion de l’eau au Québec (1999), notamment les discours concernant le statut de l’eau, la gestion publique/privée des services d’eau et l’exportation en vrac de la ressource. Au Mexique, nous analysons les représentations des acteurs sociaux à l’occasion de l’adoption de la Loi des eaux nationales de 1992, notamment les questions qui comportent un lien étroit avec la symbolique de l’eau. Or, nous avons remarqué que le résultat de ces constructions sociales au sein de ces territoires est complètement différent. Au Québec, on a confirmé le statut de l’eau en tant que chose commune, tandis qu’au Mexique, c’est plutôt la symbolique de l’eau en tant que bien économique qui a été adoptée dans la nouvelle législation portant sur l’eau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grâce aux nanotechnologies, l’être humain peut maîtriser la matière à l’échelle du nanomètre — soit au niveau des atomes et des molécules. Les matériaux obtenus suite à ces manipulations présentent des propriétés nouvelles qui les rendent très intéressants pour nombre d’applications techniques, et ce dans tous les domaines technoscientifiques. Ainsi, les nanotechnologies sont souvent considérées comme les prémisses d’une profonde révolution technologique et sociale. Toutefois, si les nanotechnologies intéressent investisseurs, gouvernement, entreprises et universités, elles soulèvent aussi des questions éthiques, notamment au sujet de leur toxicité, de leurs retombées et de la modification de l’être humain. À ces questions s’ajoutent plusieurs interrogations sur la gouvernance des nanotechnologies : comment, en effet, encadrer en amont le développement de celles-ci pour éviter d’éventuelles conséquences néfastes en aval? Parmi ces interrogations, le rôle des médias dans les relations entre les développeurs de nanotechnologies et le public est souvent mentionné. Certains voient dans les médias un acteur auquel les chercheurs pourraient recourir pour établir un dialogue avec le public afin d’assurer un développement harmonieux des nanotechnologies. Si cette recommandation semble très pertinente, il n’existe, à notre connaissance, aucune étude empirique pour en vérifier la faisabilité auprès des acteurs concernés (chercheurs, médias, etc.). Dans le cadre de cette thèse, nous avons donc voulu examiner et analyser les perceptions des chercheurs et des journalistes québécois envers des initiatives médiatiques pour baliser le développement des nanotechnologies. Pour ce faire, nous avons procédé à une étude qualitative auprès de vingt (20) chercheurs en nanobiotechnologies/nanomédecine et dix (10) journalistes spécialisés en vulgarisation scientifique. L’analyse des entretiens avec les répondants a révélé que si les acteurs rencontrés sont favorables envers de telles initiatives, il existe plusieurs contraintes pouvant gêner une telle entreprise. Suite à l’examen de ces contraintes, nous avons suggéré des initiatives concrètes que les chercheurs québécois pourraient mettre en place pour mieux baliser le développement des nanotechnologies à l’aide d’un dialogue avec le public. Ces suggestions consistent notamment à créer des médias privés pour les chercheurs, à recourir aux médias indépendants et à investir le web. De telles initiatives, cependant, ne peuvent s’obtenir qu’au prix d’un remaniement des priorités des chercheurs.