374 resultados para Identification des victimes


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Rapport de stage présenté en vue de l’obtention du grade Maître ès sciences (M.Sc.) en criminologie option stage en intervention clinique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures En vue de l'obtention du grade de Maîtrise en droit (L.L.M)"

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans ce mémoire, nous nous interrogeons sur de nouvelles règles de preuve du Code criminel pour déterminer si elles ont complètement éliminé le phénomène de victimisation des plaignantes dans les procédures en matière d'agression sexuelle. Nous émettons l'hypothèse qu'elles n'ont pas éliminé le traitement inéquitable des victimes dans le procès pénal et que ce traitement inéquitable nuit autant à la recherche de la vérité qu'au respect des droits des plaignantes. Nous examinons d'abord les droits constitutionnels respectifs de la plaignante et de l'accusé dans le procès en matière de crimes sexuels et leur interaction avec des règles qui portent sur la réputation et l'état de santé des deux protagonistes dans de telles affaires. Nous observons que ces règles de preuve offriraient une symétrie apparente au sujet du traitement de la mauvaise réputation de l'accusé et de la réputation sexuelle et la santé mentale de la victime dans la procédure. Cette symétrie serait toutefois imparfaite, inappropriée ou biaisée par le caractère adversaire du procès et la priorité accordée aux droits constitutionnels de l'inculpé et ce, parfois même au détriment de la vérité et de la justice. Enfin, nous proposons des modifications aux règles actuelles de preuve et de procédure en matière d'agression sexuelle pour favoriser une meilleure recherche de la vérité et un respect accru des droits constitutionnels des victimes

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le sous-continent latino-américain vit dans une pauvreté endémique où la lutte pour la survie est au quotidien. Les peuples deviennent de plus en plus pauvres et la vie de la personne humaine est méprisée. Est-il question d’une carence de biens matériels ou d’une mauvaise répartition de la richesse? Nous affirmons qu’il s’agit d’une situation de domination, d’oppression et d’injustice institutionnalisée. Ce mémoire tend à faire une lecture de l’éthique théologique de la libération d’Enrique Dussel dans une perspective émancipatoire. Nous partons du principe que cette éthique matérielle de la vie peut donner une réponse à la morale dominatrice établie et peut contribuer à la transformation de la situation injuste. L’éthique théologique de la libération dusselienne analyse l’être latino-américain considéré comme autre par le système en vigueur et cherche à changer qualitativement les conditions réelles de vie de chaque personne en communauté. Pour ce faire, elle repense de façon critique la totalité des principes de la morale dominatrice à partir de la négation de la vie des victimes et propose une alternative qui doit se réaliser ici maintenant dans l’histoire : la libération des victimes dans n’importe quel système de domination. Ce projet tient compte de la dimension spirituelle du peuple latino-américain. Un sous-continent dit majoritairement chrétien se questionne sur la présence de Dieu et de son agir dans la lutte quotidienne pour la libération. Il se demande comment vivre la foi en Dieu dans une situation d’oppression et de lutte pour la libération. C’est à ce parcours que ce mémoire nous convie en nous rappelant constamment qu’un monde meilleur est possible et que le Dieu de la vie n’abandonne pas sa création.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Une multitude de recherches évaluatives ont démontré que les victimes de crime, qu’elles soient victimes d’un crime contre les biens ou contre la personne, apprécient l’approche réparatrice. Cependant, nous sommes toujours à la recherche des facteurs théoriques qui expliqueraient la satisfaction des victimes en ce qui concerne leur expérience avec les interventions réparatrices. La recherche décrite dans cette thèse concerne l’exploration des facteurs contribuant à la satisfaction des victimes de crime avec l’approche réparatrice ainsi que ses liens avec la théorie de justice procédurale. Selon la théorie de justice procédurale, la perception de justice n’est pas uniquement associée à l’appréciation du résultat d’une intervention, mais également à l’appréciation de la procédure, et que la procédure et le résultat peuvent être évalués de façon indépendante. Les procédures qui privilégient la confiance, la neutralité et le respect, ainsi que la participation et la voix des parties sont plus appréciées. Notre objectif de recherche était d’explorer l’analogie entre l’appréciation de la justice réparatrice et le concept de justice procédurale. En outre, nous avons voulu déterminer si la justice réparatrice surpasse, en termes de satisfaction, ceux prévus par la théorie de justice procédurale. Nous avons également examiné la différence dans l’appréciation de l’approche réparatrice selon le moment de l’application, soit avant ou après adjudication pénale. Ainsi, nous avons exploré le rôle d’une décision judiciaire dans l’évaluation de l’approche réparatrice. Pour répondre à nos objectifs de recherche, nous avons consulté des victimes de crime violent au sujet de leur expérience avec l’approche réparatrice. Nous avons mené des entrevues semi-directives avec des victimes de crime violent qui ont participé à une médiation auteur-victime, à une concertation réparatrice en groupe ou aux rencontres détenus-victimes au Canada (N=13) et en Belgique (N=21). Dans cet échantillon, 14 répondants ont participé à une intervention réparatrice avant adjudication judiciaire et 14 après adjudication. Nous avons observé que l’approche réparatrice semble être en analogie avec la théorie de justice procédurale. D’ailleurs, l’approche réparatrice dépasse les prémisses de la justice procédurale en étant flexible, en offrant de l’aide, en se concentrant sur le dialogue et en permettant d’aborder des raisons altruistes. Finalement, le moment de l’application, soit avant ou après adjudication, ne semble pas affecter l’appréciation des interventions réparatrices. Néanmoins, le rôle attribué à l’intervention réparatrice ainsi que l’effet sur l’évaluation du système judiciaire diffèrent selon le moment d’application. Les victimes suggèrent de continuer à développer l’approche réparatrice en tant que complément aux procédures judiciaires, plutôt qu’en tant que mesure alternative. Les témoignages des victimes servent la cause de l’offre réparatrice aux victimes de crime violent. L’offre réparatrice pourrait aussi être élargie aux différentes phases du système judiciaire. Cependant, la préférence pour l’approche réparatrice comme complément aux procédures judiciaires implique la nécessité d’investir également dans la capacité du système judiciaire de répondre aux besoins des victimes, tant sur le plan de la procédure que sur le plan du traitement par les autorités judiciaires.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Comme les études sur la couverture médiatique ont démontré qu’elle influence pratiquement toute personne qu’elle touche, des consommateurs aux jurés aux témoins, les deux études de cette thèse doctorale ont respectivement examiné l’opinion du public sur l’imposition de restrictions sur les médias dans les palais des justices et l’impact de la couverture médiatique sur la santé mentale des victimes de crime. Le gouvernement québécois a récemment introduit des restrictions sur les médias dans les palais de justice afin de minimiser l’influence des journalistes et des caméramans. Bien que l’affaire a atteint la Cour suprême du Canada, une étude préliminaire a trouvé que le public est largement favorable à ces restrictions (Sabourin, 2006). La première partie de cette thèse doctorale cherchait à approfondir ce sujet avec un échantillon plus représentatif de la population. Deux cent quarante-trois participants comprenant six groupes expérimentaux ont rempli des questionnaires mesurant leur opinion de ces restrictions. Les participants ont été divisé en deux conditions expérimentales où ils ont visionné soit des clips audiovisuels démontrant une atmosphère de débordement dans des palais de justice ou des clips plutôt calmes. Un troisième groupe n’a visionné aucun clip audiovisuel. De plus, il y avait deux versions du questionnaire ayant 20 items où les questions ont été présenté en sens inverse. L’étude a trouvé qu’une grande majorité des participants, soit presque 79 pourcent, ont supporté la restriction des médias dans les palais de justice. Il est intéressant de noter qu’un des groupes n’a pas supporté les restrictions – le groupe contrôle qui a lu les énoncés supportant l’absence des restrictions en premier. La deuxième composante de cette thèse doctorale a examiné l’impact des médias sur les victimes de crime. De nombreuses études expérimentales ont démontré que les victimes de crime sont particulièrement susceptibles à des problèmes de santé mentale. En effet, elles ont trois fois plus de chances de développer un trouble de stress post-traumatique (TSPT) que la population générale. Une étude a confirmé cette conclusion et a trouvé que les victimes de crimes qui avaient une impression plutôt négative de leur couverture médiatique avaient les taux les plus élévés de TSPT (Maercker & Mehr, 2006). Dans l’étude actuelle, vingt-trois victimes de crimes ont été interviewé en utilisant une technique narrative et ont complété deux questionnaires mésurant leur symptômes du TSPT et d’anxiété, respectivement. Une grande proportion des participantes avaient des symptômes de santé mentale et des scores élévés sur une échelle évaluant les symptômes du TSPT. La majorité des narratives des participants étaient négatives. Les thèmes les plus communs incluent dans ces narratives étaient l’autoculpabilisation et une méfiance des autres. La couverture médiatique ne semblaient pas être liée à des symptômes de santé mentale, quoique des facteurs individuels pourraient expliquer pourquoi certains participants ont été favorables envers leur couverture médiatique et d’autres ne l’été pas. Les résultats de ces deux études suggèrent que le public approuve la restriction des médias dans les palais de justice et que des facteurs individuels pourraient expliqués comment la couverture médiatique affecte les victimes de crime. Ces résultats ajoutent à la littérature qui questionne les pratiques actuelles qu’utilisent les médias.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introduction: Bien que l'importance de transférer les données de la recherche à la pratique a été largement démontrée, ce processus est toujours lent et fait face à plusieurs défis tels que la conceptualisation des évidences, la validité interne et externe de la recherche scientifique et les coûts élevés de la collecte de grandes quantités de données axées sur le patient. Les dossiers dentaires des patients contiennent des renseignements valables qui donneraient aux chercheurs cliniques une opportunité d'utiliser un large éventail d'informations quantitatives ou qualitatives. La standardisation du dossier clinique permettrait d’échanger et de réutiliser des données dans différents domaines de recherche. Objectifs: Le but de cette étude était de concevoir un dossier patient axé sur la recherche dans le domaine de la prosthodontie amovible à la clinique de premier cycle de l’Université de Montréal. Méthodes: Cette étude a utilisé des méthodes de recherche-action avec 4 étapes séquentielles : l'identification des problèmes, la collecte et l'interprétation des données, la planification et l’évaluation de l'action. Les participants de l'étude (n=14) incluaient des professeurs, des chercheurs cliniques et des instructeurs cliniques dans le domaine de la prosthodontie amovible. La collecte des données a été menée à l’aide d’une revue de littérature ciblée et complète sur les résultats en prosthodontie ainsi que par le biais de discussions de groupes et d’entrevues. Les données qualitatives ont été analysées en utilisant QDA Miner 3.2.3. Résultats: Les participants de l'étude ont soulevé plusieurs points absents au formulaire actuel de prosthodontie à la clinique de premier cycle. Ils ont partagé leurs idées pour la conception d'un nouveau dossier-patient basé sur 3 objectifs principaux: les objectifs cliniques, éducatifs et de recherche. Les principaux sujets d’intérêt en prosthodontie amovibles, les instruments appropriés ainsi que les paramètres cliniques ont été sélectionnés par le groupe de recherche. Ces résultats ont été intégrés dans un nouveau formulaire basé sur cette consultation. La pertinence du nouveau formulaire a été évaluée par le même groupe d'experts et les modifications requises ont été effectuées. Les participants de l'étude ont convenu que le cycle de recherche-action doit être poursuivi afin d'évaluer la faisabilité d’implémentation de ce dossier modifié dans un cadre universitaire. Conclusion: Cette étude est une première étape pour développer une base de données dans le domaine de la prothodontie amovible. La recherche-action est une méthode de recherche utile dans ce processus, et les éducateurs académiques sont bien placés pour mener ce type de recherche.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

De l’avis de nombreux observateurs, le monde a connu en 2008 une crise économique sans précédent depuis la Grande dépression des années trente. Au premier chef des victimes de ces dérives de l’économie globale figurent les travailleurs du monde entier. Investie depuis 1919 d’un mandat de protection à l’égard de ces derniers, l’Organisation internationale du Travail (OIT) se doit d’être une force de propositions en ces périodes difficiles. La présente étude se propose d’analyser l’évolution des réponses normatives produites par l’OIT au lendemain des crises économiques et financières mondiales depuis sa création. Il s’agira également de mettre en corrélation le degré d’audace de l’Organisation et la composition de la scène internationale qui préside à chacune des époques considérées. Le premier chapitre sera pour nous l’occasion de montrer comment l’OIT, née dans un contexte de crise économique dans les années vingt puis confrontée en 1930 à une autre crise majeure, a su tirer profit de ces situations qui confirment sa raison d’être et la pousse à s’enquérir de nouvelles compétences (chapitre I). Nous ferons ensuite étape dans une époque marquée par la prolifération de nouvelles organisations internationales avec lesquelles l’OIT entre en concurrence : l’ère onusienne. Nous verrons comment la position de l’Organisation sur la scène internationale influe sur sa réactivité face aux crises économiques et politiques du moment (chapitre II). Forts de ces considérations historiques, nous serons enfin à même de comprendre la souplesse normative caractérisant la réaction de l’OIT face à la crise de 2008. Nous serons également en mesure de comprendre comment cette crise historique a modifié l’ordre mondial et influé sur la position de l’Organisation dans l’agencement international (chapitre III).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Travail réalisé à l'EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6111 - Politique de gestion des archives, à l'automne 2012.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette étude a pour objectif de comprendre les significations que les jeunes en situation de rue à Montréal accordent à leurs relations intimes. Si la plupart des travaux empiriques misent essentiellement sur les risques que présentent les activités sexuelles pour la santé des jeunes en situation de rue, peu d’entre eux tentent de comprendre, à partir du point de vue des jeunes eux-mêmes, le sens qu’ils donnent à leurs relations intimes. C’est à la lumière de ces travaux que cette étude propose de dépasser une lecture réductrice de l’intimité de ces jeunes en appréhendant l’articulation entre leurs expériences intimes et leurs expériences de rue. Inspirée de la sociologie de l’expérience de Dubet (1994), cette étude s’intéresse à la construction de l’expérience intime des jeunes en situation de rue dans un rapport dynamique entre leur espace d’autonomie et les conditions sociales qui les encadrent. Ce cadre d’analyse permet de rompre avec les travaux qui présentent ces jeunes soit comme des victimes passives des conditions de vie précaires de la situation de rue, soit comme des êtres imprudents ou insouciants en matière de sexualité. S’inscrivant dans une méthodologie qualitative, des entrevues individuelles ont été réalisées auprès de trente-deux jeunes en situation de rue (18 femmes et 14 hommes) âgés de 18 à 27 ans (moyenne = 22 ans). Les témoignages de ces jeunes ont été analysés à partir d’une méthode typologique (Schnapper, 2005) qui a permis d’élaborer des types-idéaux d’expériences intimes en situation de rue, les « figures de l’intimité ». L’analyse des témoignages a permis de dégager cinq figures de l’intimité en situation de rue: la réussite criminelle, le retrait, la survie, l’engagement et l’enfermement. Si chacune de ces figures propose des articulations singulières entre les expériences intimes et les expériences de rue des jeunes à Montréal, cette analyse permet néanmoins de soulever des recoupements théoriques entre les types-idéaux identifiés dans cette étude. Il est possible de constater que les jeunes des figures de la réussite criminelle et de l’engagement tissent une expérience intégrée de la situation de rue par la construction d’un sentiment d’appartenance à un groupe de pairs, tandis que ceux des figures du retrait et de la survie témoignent d’une expérience de rejet où la situation de rue est considérée comme disqualifiante. Également, l’analyse des témoignages illustre que les jeunes des figures du retrait et de l’engagement rapportent une subjectivation des partenaires intimes par un engagement affectif et émotionnel, tandis que ceux des figures de la réussite criminelle et de la survie décrivent une objectivation de la sexualité pour répondre à différents besoins. Cette étude met donc en lumière l’importance d’appréhender l’articulation entre les relations intimes des jeunes et le rapport qu’ils entretiennent à l’égard de la situation de rue afin de saisir la pluralité et la complexité de leurs expériences de vie.