926 resultados para impact du changement
Resumo:
L’intérêt pour les hélicènes s’est accru au fur et à mesure que de nouvelles applications pour ce genre de molécules ont été découvertes. Par contre, la recherche dans ce domaine a été limitée par le petit nombre de voies de synthèse de ces molécules, la plupart nécessitant une étape de résolution ou de séparation des énantiomères par HPLC à la fin de la synthèse. Le présent projet de recherche propose d’utiliser la réaction de fermeture de cycle asymétrique par métathèse d’oléfines (asymmetric ring closing metathesis, ARCM) pour effectuer une synthèse d’hélicène à la fois catalytique et énantiosélective. La synthèse énantiosélective du [7]hélicène a été effectuée à l’aide d’une résolution cinétique du précurseur racémique. Au cours de cette synthèse, nous avons été en mesure de démontrer l’efficacité de différents catalyseurs de métathèse chiraux en plus de démontrer l’effet de l’ajout de simples oléfines comme additifs à la réaction. De plus, nous avons formulé une hypothèse expliquant cet effet à l’aide du mécanisme de la réaction. Finalement, nous avons aussi montré l’effet du changement de solvant sur la sélectivité de la réaction. Au cours de ces travaux, nous avons également développé une nouvelle méthode de synthèse de binaphtols à l’aide d’une réaction de couplage oxydatif impliquant un catalyseur de cuivre. À l’aide d’études de réactivité, nous avons été en mesure de démontrer que le métal portait deux ligands N-hétérocycliques (NHC). Nous avons aussi observé que le catalyseur favorisait la formation de binaphtol non symétrique avec un groupement naphtol avec une densité électronique élevée et un autre groupement naphtol avec une faible densité électronique.
Resumo:
L’objectif de ce mémoire est d’examiner l’accès à l’eau d’un point de vue non pas technologique mais social. Toute société humaine a eu à régler la question de l’accès à l’eau. C’est particulièrement le cas des populations vivant sous un climat aride comme au Sahel, où cette ressource est rare. Le village d’étude est situé au nord du Burkina Faso, dans la région du Yatenga. J’examinerai d’abord la répartition temporelle et spatiale des groupes et des puits sur le territoire, puis la question de la régulation de l’accès à l’eau en tant qu’enjeu politique au sein des structures traditionnelles. Je montrerai qu’il permet tantôt de renforcer les hiérarchies sociales existantes, et tantôt de les dépasser. J’examinerai enfin l’accès à l’eau de différents groupes d’usagers : femmes, hommes, jeunes, vieux, agriculteurs, éleveurs. Je montrerai que leur condition d’accès est implicitement régulée, et limite les possibilités d’expansion économique de certains d’entre eux. Dans cette société en mutation, les usagers désavantagés peuvent développer des tactiques leur permettant de contourner ces contraintes. L’accès à l’eau est alors pris dans un jeu de stratégies antagonistes, celle de la reproduction sociale et celle du changement.
Resumo:
Face aux pressions continues que subissent les systèmes de santé, de nombreuses réformes sont perpétuellement en cours pour améliorer le processus de soins et par conséquent, offrir des soins de qualité et accroître le niveau de santé des populations. Les réformes que connaissent actuellement les systèmes de santé visent à optimiser l’impact des services sur la santé de la population en introduisant le concept de la responsabilité populationnelle. Par ailleurs, il existe de plus en plus un consensus sur la nécessité d’établir une relation directe et durable entre les prestataires et la population des territoires desservies pour être en mesure de tenir compte des contextes personnels et sociaux des patients et de leurs familles et pour assurer la continuité des soins dans le temps et d’un service à l’autre. Cette thèse porte sur la Programmation régionale de services ambulatoires (PRSA) de Laval. Elle analyse cette programmation comme une solution innovatrice dans la mise en œuvre de la responsabilisation populationnelle des soins. La stratégie de recherche combine à la fois une revue intégrative de la littérature qui vise à analyser le bien-fondé de la PRSA; une étude quasi-expérimentale pour examiner ses effets; et enfin, une recherche synthétique de cas pour comprendre l’évolution de la PRSA et analyser l’institutionnalisation du changement dans les organisations de la santé. Dans le premier article, nous nous sommes employés à analyser le bien fondé c’est-à-dire la plausibilité des mécanismes causaux présumés. La PRSA est un modèle d’intégration régionale basée sur une approche populationnelle. La stratégie de réseaux intégrés de soins et de case management combinée avec une approche populationnelle telle que mise de l’avant par le PRSA sont trois éléments essentiels en faveur d’une responsabilité populationnelle des soins. À l’aide d’une revue intégrative de la littérature, nous avons démontré qu’il s’agit d’une programmation capable de consolider une intégration régionale en mettant de l’avant une approche populationnelle permettant de bien cibler les besoins des populations du territoire à desservir. Le deuxième article examine les effets populationnels de la PRSA en termes de réduction de la durée moyenne de séjour et de l’augmentation de la rétention régionale. Une approche quasi expérimentale a été utilisée. En ce qui concerne la durée moyenne de séjour, on n’observe aucune diminution pour l’asthme ni pour la démence. Par contre, il est plausible que l’implantation de la PRSA ait permis une diminution de la durée moyenne de séjour pour les maladies coronariennes, les MPOC, l’embolie pulmonaire et le cancer du sein. Pour la rétention régionale, aucun effet n’a été observé pour les MPOC, l’embolie pulmonaire et la démence. Une augmentation de la rétention régionale a été observée pour les maladies coronariennes, l’asthme et le cancer du sein. Cette augmentation pourrait être attribuée à la PRSA. Dans le troisième article, nous avons examiné les facteurs susceptibles d’expliquer l’évolution de la PRSA. En partant du point de vue des responsables de la programmation de la PRSA et les gestionnaires actuels de la programmation de services de la région de Laval, nous avons tenté de mieux cerner les facteurs qui ont provoqué la suspension du déploiement de la PRSA. Les résultats indiquent que les changements fréquents dans les structures dirigeantes du réseau de la santé ainsi que l’interférence de plusieurs autres réformes ont été un obstacle dans le maintien de la PRSA. Dans le contexte actuel des réformes en santé où l’approche de réseaux intégrés de soins et de responsabilité populationnelle sont mises de l’avant, les résultats de cette thèse apportent un éclairage certain sur l’opérationnalisation de ces orientations.
Resumo:
Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.
Resumo:
L’ostéoarthrose (OA) est une maladie articulaire dont l’incidence augmente avec le vieillissement de la population. Elle se caractérise par une détérioration progressive du cartilage articulaire accompagnée du remodelage de l’os sous-chondral et du changement des tissus mous de l’articulation. La douleur et le dysfonctionnement de l’articulation affectée sont généralement attribués à l’inflammation et l’épanchement de la synovie. Plusieurs évidences indiquent que l’inflammation de la membrane synoviale contribue grandement à la pathogenèse de l’OA. En effet, la synthèse et l’expression des enzymes protéolytiques qui dégradent la matrice cartilagineuse sont régulées par de nombreuses cytokines retrouvées au sein de ce foyer inflammatoire. Deux d’entre elles, l’interleukine-1 beta (IL-1β) et le «tumor necrosis factor » alpha (TNF-α), jouent un rôle majeur dans le déclenchement de l’inflammation associée à l’OA. Ces cytokines pro-inflammatoires agissent notamment sur les synoviocytes et les chondrocytes en activant NF-κB qui, à son tour, active les gènes de cytokines. Cette boucle de régulation positive amplifie et perpétue la réponse inflammatoire. Récemment, il a été rapporté que l’activation de NF-κB par TNF-α peut être potentialisée par EXTL3, un récepteur transmembranaire ; mais le mécanisme sous-jacent de cet effet demeure inconnu. Toutefois, les niveaux important d’EXTL3 et de son ligand Reg1B chez les patients arthrosiques, laissent croire que ces protéines jouent un rôle dans le développement de l’OA. Notre objectif était d’étudier le mécanisme par lequel EXTL3 amplifie l’activation de NF-κB par TNF-α et d’examiner si ce phénomène se produit aussi avec l’IL-1β. Nous avons utilisé les cellules C28/I2, une lignée cellulaire de chondrocytes, comme modèle d’étude. Les transfections transitoires avec un vecteur d’expression, les techniques d’immunofluorescence (IF), d’immunoprécipitation (IP) et d’immunobuvardage de type Western (IB); ont été utilisées dans le cadre de diverses approches expérimentales. Les résultats obtenus par transfection ont révélé que la protéine EXTL3 potentialisait l’activation de NF-κB aussi bien par IL-1β que par TNF-α. Ce résultat signifie que la potentialisation de l’activité NF-κB par EXTL3 n’est pas spécifique à TNF-α. D’autre part, l’IP avec TNFRI et TRAF2 a révélé la présence d’EXTL3 dans le complexe TNF-α/TNFRI/TRAF2 qui se forme au niveau de la membrane plasmique. De plus, ceci a été confirmé in vivo par microscopie confocale montrant la co-localisation de TNFRI-TRAF2-EXTL3 dans la membrane nucléaire, suggérant ainsi la formation d’un complexe identique au niveau des membranes plasmique et nucléaires. Toutefois, la présence du ligand Reg1B et/ou de la glucosamine inhibait la formation de ce complexe au niveau de la membrane plasmique, tout comme ils abolissaient la potentialisation de l’activité NF-κB par EXTL3. Ces résultats suggèrent non seulement que le recrutement d’EXTL3 libre dans le complexe TNF-α/TNFR1 est requis pour amplifier l’activation de NF-κB par TNF-α, mais aussi la capacité du ligand Reg1B et de la glucosamine à moduler cette activation à travers la baisse ou l’inhibition de l’interaction EXTL3-TNFR1. Les données de cette étude constituent une avancée majeure dans la compréhension des événements moléculaires qui contrôlent l’activation de NF-κB par les cytokines pro-inflammatoires. Ces résultats pourraient conduire au développement de nouvelles approches thérapeutiques pour le traitement de l’inflammation associée à l’OA et impliquant une activation incessante de NF-κB.
Resumo:
Le travail de nuit est associé avec plusieurs problèmes de santé. Le désalignement entre la phase circadienne et le cycle éveil-sommeil cause une désynchronie interne considérée comme la principale source de ces problèmes. L’ajustement circadien au travail de nuit est proposé comme contremesure. Normalement, l’ajustement circadien complet n’est pas recommandé puisqu’il engendre un désalignement circadien lors du retour à l’horaire de jour, causant des changements de phase répétés et la désynchronie interne. L’ajustement circadien partiel est alors proposé comme compromis afin de stabiliser les rythmes circadiens des travailleurs de nuit. Cependant, l’ampleur de l’ajustement circadien partiel nécessaire à l’amélioration du sommeil et de la vigilance demeure vague. Les ajustements partiels obtenus par délai ou avance de phase sont quantifiés non seulement par la phase du début de la sécrétion de mélatonine en lumière tamisée, mais également par le recoupement de l’épisode de sécrétion de mélatonine avec les périodes d’éveil et de sommeil. Les effets sur le sommeil et la vigilance d’un petit ajustement circadien partiel significatifs sont investigués dans une simulation de travail de nuit en laboratoire pour déterminer leurs implications cliniques. Les effets modestes suggèrent qu’un petit délai de phase peut réduire l’accumulation de la dette de sommeil, alors que l’avance de phase améliore subjectivement la vigilance et l’humeur nocturne. L’ampleur absolue du changement de phase est associée à une amélioration subjective de la vigilance et de l’humeur nocturne. Des études en milieux de travail permettraient de déterminer si ces stratégies sont applicables et bénéfiques aux travailleurs de nuit.
Resumo:
Le besoin pour des biocapteurs à haute sensibilité mais simples à préparer et à utiliser est en constante augmentation, notamment dans le domaine biomédical. Les cristaux colloïdaux formés par des microsphères de polymère ont déjà prouvé leur fort potentiel en tant que biocapteurs grâce à l’association des propriétés des polymères et à la diffraction de la lumière visible de la structure périodique. Toutefois, une meilleure compréhension du comportement de ces structures est primordiale avant de pouvoir développer des capteurs efficaces et polyvalents. Ce travail propose d’étudier la formation et les propriétés des cristaux colloïdaux résultant de l’auto-assemblage de microsphères de polymère en milieu aqueux. Dans ce but, des particules avec différentes caractéristiques ont été synthétisées et caractérisées afin de corréler les propriétés des particules et le comportement de la structure cristalline. Dans un premier temps, des microsphères réticulées de polystyrène anioniques et cationiques ont été préparées par polymérisation en émulsion sans tensioactif. En variant la quantité de comonomère chargé, le chlorure de vinylbenzyltriméthylammonium ou le sulfonate styrène de sodium, des particules de différentes tailles, formes, polydispersités et charges surfaciques ont été obtenues. En effet, une augmentation de la quantité du comonomère ionique permet de stabiliser de façon électrostatique une plus grande surface et de diminuer ainsi la taille des particules. Cependant, au-dessus d’une certaine concentration, la polymérisation du comonomère en solution devient non négligeable, provoquant un élargissement de la distribution de taille. Quand la polydispersité est faible, ces microsphères chargées, même celles non parfaitement sphériques, peuvent s’auto-assembler et former des cristaux colloïdaux diffractant la lumière visible. Il semble que les répulsions électrostatiques créées par les charges surfaciques favorisent la formation de la structure périodique sur un grand domaine de concentrations et améliorent leur stabilité en présence de sel. Dans un deuxième temps, le besoin d’un constituant stimulable nous a orientés vers les structures cœur-écorce. Ces microsphères, synthétisées en deux étapes par polymérisation en émulsion sans tensioactif, sont formées d’un cœur de polystyrène et d’une écorce d’hydrogel. Différents hydrogels ont été utilisés afin d’obtenir des propriétés différentes : le poly(acide acrylique) pour sa sensibilité au pH, le poly(N-isopropylacrylamide) pour sa thermosensibilité, et, enfin, le copolymère poly(N-isopropylacrylamide-co-acide acrylique) donnant une double sensibilité. Ces microsphères forment des cristaux colloïdaux diffractant la lumière visible à partir d’une certaine concentration critique et pour un large domaine de concentrations. D’après les changements observés dans les spectres de diffraction, les stimuli ont un impact sur la structure cristalline mais l’amplitude de cet effet varie avec la concentration. Ce comportement semble être le résultat des changements induits par la transition de phase volumique sur les interactions entre particules plutôt qu’une conséquence du changement de taille. Les interactions attractives de van der Waals et les répulsions stériques sont clairement affectées par la transition de phase volumique de l’écorce de poly(N-isopropylacrylamide). Dans le cas des microsphères sensibles au pH, les interactions électrostatiques sont aussi à considérer. L’effet de la concentration peut alors être mis en relation avec la portée de ces interactions. Finalement, dans l’objectif futur de développer des biocapteurs de glucose, les microsphères cœur-écorce ont été fonctionnalisées avec l’acide 3-aminophénylboronique afin de les rendre sensibles au glucose. Les effets de la fonctionnalisation et de la complexation avec le glucose sur les particules et leur empilement périodique ont été examinés. La structure cristalline est visiblement affectée par la présence de glucose, même si le mécanisme impliqué reste à élucider.
Resumo:
La reconnaissance du pluralisme du système de santé, et donc des interdépendances unissant l’État aux acteurs participant à l’offre des services de santé, pose non seulement la question de la capacité de l’État à gouverner selon ses objectifs, mais aussi celle de la forme des interventions entreprises à cette fin. Cette thèse vise à comprendre comment se développe la participation de l’État à la gouverne d’un secteur de services de santé, et plus particulièrement comment ses interactions avec les acteurs impliqués dans l’offre des services affectent, au fil du temps, les possibilités d’actions étatiques sous-jacentes à la sélection d’instruments de gouverne spécifiques. Elle propose pour ce faire un modèle théorique qui s’inspire de la littérature traitant des instruments de gouverne ainsi que de la théorie de la pratique (Bourdieu). La participation de l’État à la gouverne y est conçue comme le résultat d’un processus historique évolutif, marqué alternativement par des périodes de stabilité et de changement en regard des instruments mobilisés, qui se succèdent selon l’articulation des interactions et des contextes affectant les possibilités d’action que les acteurs perçoivent avoir. Ce modèle a été appliqué dans le cadre d’une étude de cas portant sur le secteur génétique québécois (1969-2010). Cette étude a impliqué l’analyse processuelle et interprétative de données provenant de sources documentaires et d’entrevues réalisées auprès de représentants du ministère de la Santé et des Services sociaux ainsi que de médecins et chercheurs œuvrant dans le secteur de la génétique. Ces analyses font émerger quatre périodes de stabilité en regard des instruments de gouverne mobilisés, entrecoupées de périodes de transition au cours desquelles le Ministère opère une hybridation entre les instruments jusque là employés et les nouvelles modalités d’intervention envisagées. Ces résultats révèlent également que l’efficacité de ces instruments - c’est-à-dire la convergence entre les résultats attendus et produits par ceux-ci - perçue par le Ministère constitue un facteur de première importance au regard de la stabilisation et du changement des modalités de sa participation à la gouverne de ce secteur. En effet, lorsque les instruments mobilisés conduisent les médecins et chercheurs composant le secteur de la génétique à agir et interagir de manière à répondre aux attentes du Ministère, les interventions ministérielles tendent à se stabiliser autour de certains patterns de gouverne. À l’inverse, le Ministère tend à modifier ses modes d’intervention lorsque ses interactions avec ces médecins et chercheurs le conduisent à remettre en cause l’efficacité de ces patterns. On note cependant que ces changements sont étroitement liés à une évolution particulière du contexte, amenant une modification des possibilités d’action dont disposent les acteurs. Ces résultats révèlent enfin certaines conditions permettant au Ministère de rencontrer ses objectifs concernant la gouverne du secteur de la génétique. Les instruments qui impliquent fortement les médecins et chercheurs et qui s’appuient sur des expertises qu’ils considèrent légitimes semblent plus susceptibles d’amener ces derniers à agir dans le sens des objectifs ministériels. L’utilisation de tels instruments suppose néanmoins que le Ministère reconnaisse sa propre dépendance vis-à-vis de ces médecins et chercheurs.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Traduction du titre en anglais: Making sense of governance in non-formal education : A critical analysis of the Senegalese faire faire strategy
Resumo:
L’étude de la gestion du changement s’attache à identifier ce qui peut être agissant dans l’organisation, la faisant évoluer dans un sens favorable ou défavorable aux objectifs définis par ceux qui en ont la charge. La présente étude a pour objet de comparer les propositions d’une approche ventriloque de la communication, telle qu’elle est formulée par François Cooren dans Action and agency in dialogue (2010) avec deux ouvrages traitant du changement organisationnel : The knowledge-creating company (Notaka & Takeuchi, 1995) et La Danse du changement (Senge, 1999). L’objectif est d’examiner dans quelle mesure la perspective ventriloque permet une meilleure compréhension de la nature et des contributions de ces différentes formes d’agentivité. A travers cet examen comparatif, l’ambition de ce travail est aussi d’offrir un point de vue sur la ventriloquie elle-même qui mette en exergue ses aspects les plus novateurs et démontre ainsi l’avancée représentée notamment par l’agentivité non humaine et la dislocalité de l’interaction.
Resumo:
En Argentine, la mise en place des lois internationales sur les droits humains dans les tribunaux locaux et son impact ne peuvent être séparés de l’histoire récente, qui a vu commettre des crimes massifs pendant la dictature de 1976 à 1983. En 1987, la Cour suprême a voté « la loi de l’Obéissance due » aussi appelée « loi de l’impunité ». Puis, en 2005, cette loi a été déclarée invalide par une nouvelle décision de la Cour suprême, car contraire à celles sur les droits humains. Les principes de la loi internationale ont prévalu pour permettre une justice efficace, ce changement soulignant le rôle de la société civile. Étant donné les réclamations grandissantes pour plus de justice dans la société argentine, le rôle de la société civile est essentiel pour comprendre la transformation et l’accroissement de la valeur normative des lois sur les droits humains dans les Cours suprêmes argentines. L’action de la société civile internationale est liée aux processus sud-américains de démocratisation, surtout dans le domaine des droits humains. La lutte contre l’impunité n’a été rendue publique que très récemment, soit seulement à partir de 2003. Elle se traduit aujourd’hui dans le rôle grandissant de l’expertise juridique et éthique dans la mise en place des politiques publiques. En fait, l’influence de la nouvelle stratégie dépend largement de la transparence des administrations bureaucratiques, des valeurs et de la volonté politique du gouvernement. Le changement légal peut être analysé selon l’acteur à l’origine du changement, le mécanisme par lequel le changement se fait et le contexte qui fournit l’opportunité pour ce changement. Dans le présent article, nous nous concentrons sur les stratégies argumentatives présentées par les juges dans la description des évènements entourant la décision de 2005. Le but de cet article est d’essayer de lier les stratégies des sociétés civiles avec l’argumentation légale dans la décision de 2005. Ces stratégies poussent à surmonter l’obstacle juridique : le fait que les crimes contre l’humanité n’étaient pas codifiés dans la loi nationale quand ils se sont déroulés (et ne le sont toujours pas.)
Resumo:
La littérature scientifique s’intéressant aux adolescents agresseurs sexuels démontre qu’il s’agit d’une population qui apparait souvent résistante au changement (Rich, 2003). Il importe ainsi d’identifier les facteurs qui favorisent ou compromettent le déroulement de l’intervention auprès de cette clientèle. L’alliance thérapeutique et la motivation au changement figurent d’ailleurs parmi ces facteurs ayant démontré leur influence positive. Toutefois, considérant le caractère dynamique de ces dernières, peu d’études ont documenté les particularités de leur développement respectif, spécialement dans un contexte d’autorité tel que celui des adolescents agresseurs sexuels. La présente recherche permet donc de mieux comprendre la contribution de caractéristiques individuelles et environnementales sur le développement de l’alliance thérapeutique et le processus de changement chez cette clientèle juvénile. Basés sur une collecte de données quantitatives auprès de 166 adolescents agresseurs sexuels suivis dans différents centres de traitement spécialisés en délinquance sexuelle au Québec, les résultats obtenus à partir d’analyses corrélationnelles et multivariées illustrent de nombreuses relations significatives entre un ensemble de caractéristiques individuelles et environnementales et le développement de l’alliance thérapeutique et de la motivation au changement. En effet, différents traits de personnalité, les distorsions cognitives, les habiletés sociales, la détresse post-traumatique et les stratégies de coping sont plus ou moins associés à l’établissement d’une relation d’aide et d’une motivation à changer de comportement. De plus, les caractéristiques de l’environnement institutionnel et la perception du soutien social reçu se veulent des facteurs qui influencent généralement de façon positive les variables à l’étude. L’utilisation du Modèle transthéorique du changement permet de nuancer les résultats en ce sens que les facteurs explicatifs de la motivation peuvent différer d’une étape à l’autre dans le cycle du changement. Ainsi, les services offerts aux adolescents ayant commis une agression sexuelle doivent tenir compte du degré de motivation puisque celui-ci semble être associé à des caractéristiques individuelles et environnementales spécifiques. Finalement, il est important de mentionner que les conclusions de cette étude ne permettent pas d’établir des relations causales entre les variables à l’étude. Néanmoins, les résultats indiquent l’importance de porter attention aux facteurs de changement, qui peuvent différer d’une étape à l’autre dans le cycle du changement, et ceux associés au développement de l’alliance thérapeutique.
Resumo:
Le travail de modélisation a été réalisé à travers EGSnrc, un logiciel développé par le Conseil National de Recherche Canada.
Resumo:
Peu différenciées à la naissance, les émotions deviendraient intelligibles en étant élevées à la conscience par le développement d’une sensibilité aux sensations internes accompagnant l’émotion, sa représentation et sa symbolisation (Gergely & Watson, 1996). La théorie du miroir affectif-parental du biofeedback social de Gergely & Watson (1996), poussée plus loin par Fonagy, Gergely, Jurist et Target (2002), explique comment une interaction de biofeedback social complexe, innée, et probablement implicite, s’établit entre parent et nouveau-né pour aider ce dernier à différencier les somatosensations accompagnant l’expérience d’une émotion, au travers d’un comportement parental de miroir. Le but de cette thèse est de réviser cette théorie, et plus particulièrement l’hypothèse du miroir « marqué » (markedness), qui serait nécessaire pour dissocier le miroir parental du parent, et permettre l’appropriation de son contenu informationnel par l’enfant. Ce processus de sensibilisation est conçu comme partie intégrante du travail de symbolisation des émotions chez les enfants autant que chez les adultes. Cependant, le miroir marqué se manifestant par une expression exagérée ou « voix de bébé » (motherese) nécessiterait l’utilisation par le thérapeute d’une « voix de patient » (therapese) (Fonagy, 2010) pour être appliqué à la psychothérapie adulte, une proposition difficile à soutenir. La révision examine comment la sensibilisation d’une émotion est accomplie : par un mécanisme d’internalisation nécessitant un miroir « marqué » ou par un mécanisme de détection de la contingence de l’enfant. Elle démontre que le détecteur de contingence du nouveau-né (d’un fonctionnement semblable au système d’entraînement par biofeedback pour adultes) est le médiateur des fonctions de sensibilisation, de représentation, et de symbolisation de la ii sensation d’une émotion par ses processus de détection de la covariance-invariance, de la maximisation, et du contrôle contingent du miroir parental. Ces processus permettent à l’émotion de devenir consciente, que le miroir parental soit ‘marqué’ ou non. Le modèle révisé devient donc applicable à la thérapie des adultes. Une vignette clinique analysée à l’aide de la perspective du Boston Change Process Study Group sur le changement est utilisée pour contraster et illustrer les processus de sensibilisation et de symbolisation des émotions, et leur application à la psychothérapie adulte. Cette thèse considère les implications cliniques du nouveau modèle, et elle spécule sur les conséquences de difficultés parentales vis-à-vis de la disponibilité requise par les besoins de biofeedback social du nouveau-né, et sur les conséquences de traumatismes déconnectant des émotions déjà sensibilisées de leurs représentations. Finalement, elle suggère que le miroir sensible des émotions en thérapie puisse remédier à ces deux sortes de difficultés, et que le modèle puisse être utilisé concurremment à d’autres modèles du changement, en facilitant la génération d’états internes ressentis et symbolisés pouvant être utilisés pour communiquer avec soi-même et les autres pour la réparation de difficultés émotionnelles et relationnelles chez les enfants et les adultes.