479 resultados para Théorie de contrôle de la force


Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’éthique du care est confrontée à un problème qui a des allures de paradoxe: bien que sa politisation paraisse nécessaire, l’éthique du care ne semble pas pouvoir trouver en elle-même les ressources suffisantes à la formulation d’une théorie politique compréhensive. Il ne semble pas exister de théorie politique du care à part entière. Cet article examine la fécondité d’un rapprochement entre éthique du care et théorie néorépublicaine de la non-domination. Le résultat, non négligeable, serait de garantir des formes importantes de protections aux activités de care, mais il cela n’empêcherait pas nécessairement les représentations négatives de ces activités, dont on peut supposer qu’elle est l’un des facteurs de la marginalisation et de la répartition inégale qui les affecte. Pour bloquer ces représentations dégradantes, il faudrait que le care soit discuté et défini dans l’espace public non seulement comme un lieu possible de la domination, mais comme un aspect fondamental et positif de la vie individuelle et collective.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Malgré les problèmes que pose la délinquance juvénile au Sénégal, les réponses des décideurs semblent inefficaces, surtout pour les filles déviantes. Ainsi, l’objectif de notre étude est de déterminer les caractéristiques familiales, scolaires et des amis des adolescentes judiciarisées à Dakar en les comparant à celles de Montréal. Les enquêtes se sont déroulées à Dakar sur trente adolescentes interrogées avec un instrument adapté du MASPAQ. Les similitudes entre les échantillons concernent l’âge moyen et le statut judiciaire quasi-identiques, le milieu socio-économique défavorisé et la structure familiale en majorité monoparentale matricentrique. Les autres résultats concernent surtout les liens sociaux plus forts chez les dakaroises alors que l’activité marginale est plus importante chez les montréalaises. Les liens sociaux des dakaroises constitueraient une protection contre la déviance. Le contexte culturel également, en favorisant un contrôle social, pousserait à développer plus de contraintes internes, autre protection contre la déviance. Des perspectives sont envisagées notamment utiliser l’instrument avec des garçons.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec la faculté de droit de l'Université d'Orléans en France.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Bien qu'elle constitue toujours l'orthodoxie en philosophie de l'esprit, la théorie humienne de la motivation (selon laquelle la motivation origine toujours d'un désir et jamais d'une croyance seule) a été plusieurs fois critiquée au cours des dernières décennies. Je passe ici en revue les principaux arguments avancés à la fois pour appuyer et rejeter cette théorie. Du côté humien, j'examine l'argument des croyances identiques, l'argument de la direction d'ajustement et l'argument de l'uniformité théorique. Du côté anti-humien, l'objection voulant que la notion de direction d'ajustement soit circulairement caractérisée, l'objection des croyances irrationnelles et l'objection selon laquelle certains états mentaux présenteraient deux directions d'ajustement. Je conclus qu'aucune de ces objections ne devrait nous conduire à rejeter la théorie humienne, mais aussi que cette dernière trouve son principal appui du côté des considérations relatives à l'uniformité théorique et non du côté de l'argument de la direction d'ajustement comme le pensent plusieurs.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dans le présent mémoire, je revisite l’oeuvre de Foucault à la lumière des analyses qu’il offre entre 1981 et 1984 dans ses derniers cours au Collège de France. À l’encontre de l’avis qui voit une rupture dans la pensée foucaldienne – opinion justifiée par la transition radicale qu’opère Foucault depuis l’étude de la relation entre pouvoir et savoir à l’analyse des techniques de subjectivation dans l’Antiquité – j’illustre qu’il y a continuité et complémentarité entre ses analyses des années 1970 et ses démonstrations des années 1980. Foucault trouve, au fondement de la pratique politique gréco-romaine, une éthique définie comme travail de soi sur soi. Aussi tente-t il, au travers de ses dernières analyses, de réactualiser l’askêsis comme fondement oublié de l’éthique, et l’êthos comme condition d’efficacité de la politique. Si, jusqu’en 1980, Foucault s’intéresse aux mécanismes et aux dispositifs permettant le gouvernement de la population, à partir de 1980, c’est la question du gouvernement de soi comme condition nécessaire du gouvernement des autres qui investit ses analyses. L’objectif de ce mémoire est d’illustrer, à partir de la redéfinition foucaldienne de l’éthique, la présence d’une nouvelle théorie de la résistance dans ses derniers cours au Collège de France. Par voie de conséquence, je propose implicitement des éclaircissements sur la fonction qu’occupent L’Usage des plaisirs et le Souci de soi, ultimes publications de l’auteur, au sein de son oeuvre.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cette thèse s’intéresse à la gouvernance de changements en contextes pluralistes. Nous souhaitons mieux comprendre l’exercice de gouvernance déployé pour développer et implanter un changement par le biais d’une politique publique visant la transformation d’organisations pluralistes. Pour ce faire, nous étudions l’émergence et l’implantation de la politique encadrant la création de groupes dedecine de famille (GMF) à l’aide d’études de cas correspondant à cinq GMF. Les cas sont informés par plus de cents entrevues réalisées en deux vagues ainsi que par une analyse documentaire et des questionnaires portant sur l’organisation du GMF. Trois articles constituent le cœur de la thèse. Dans le premier article, nous proposons une analyse de l’émergence et de l’implantation de la politique GMF à l’aide d’une perspective processuelle et contextuelle développée à partir du champ du changement organisationnel, tel qu’étudié en théorie des organisations. Les résultats démontrent que la gestion du changement en contexte pluraliste est liée à de multiples processus prescrits et construits. Nous avons qualifié ce phénomène de régulation de l’action social (regulation of collective action). La conceptualisation développée et les résultats de l’analyse permettent de mieux comprendre les interactions entre les processus, le contexte et la nature du changement. Le deuxième article propose une conceptualisation de la gouvernance permettant l’étude de la gouvernance en contextes pluralistes. La conceptualisation de la gouvernance proposée tire profit de plusieurs courants des sciences politiques et de l’administration publique. Elle considère la gouvernance comme un ensemble de processus auxquels participent plusieurs acteurs détenant des capacités variables de gouvernance. Ces processus émergent des actions des acteurs et des instruments qu’ils mobilisent. Ils permettent la réalisation des fonctions de la gouvernance (la prospective, la prise de décisions ainsi que la régulation) assurant la coordination de l’action collective. Le troisième article propose, comme le premier, une analyse de l’émergence et de l’implantation de la politique mais cette fois à l’aide de la conceptualisation de la gouvernance développée dans l’article précédent. Nos résultats permettent des apprentissages particuliers concernant les différentes fonctions de la gouvernance et les processus permettant leur réalisation. Ils révèlent l’influence du pluralisme sur les différentes fonctions de gouvernance. Dans un tel contexte, la fonction de régulation s’exerce de façon indirecte et est étroitement liée aux fonctions de prospective et de prise de décisions. Ces fonctions rendent possibles les apprentissages et le développement de consensus nécessaires à l’action collective. L’analyse des actions et des instruments a permis de mieux comprendre les multiples formes qu’ils prennent, en lien avec les contextes dans lesquels ils sont mobilisés. Les instruments indirects permettent les interactions (p. ex. commission d’étude, comité ou réunion) et la formalisation d’ententes entre acteurs (p. ex. des contrats ou des protocoles de soins). Ils se sont révélés fondamentaux pour coordonner les différents acteurs participant à la gouvernance, et ce tant aux niveaux organisationnel qu’inter organisationnel. Les résultats démontrent que les deux conceptualisations contribuent à l’étude de la gouvernance du changement. Nous avons développé deux perspectives inspirées par les sciences politiques, l’administration publique et la théorie des organisations et les analyses qu’elles ont permises ont révélé leur complémentarité. Les résultats permettent de mieux comprendre les processus impliqués dans un tel changement ainsi que leur lien avec les efforts déployés aux différents niveaux par les acteurs mobilisant leurs capacités de gouvernance pour influencer et construire la politique GMF.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Contexte et objectifs. En 1995, le gouvernement canadien a promulgué la Loi C-68, rendant ainsi obligatoire l’enregistrement de toutes les armes à feu et affermissant les vérifications auprès des futurs propriétaires. Faute de preuves scientifiques crédibles, le potentiel de cette loi à prévenir les homicides est présentement remis en question. Tout en surmontant les biais potentiels retrouvés dans les évaluations antérieures, l’objectif de ce mémoire est d’évaluer l’effet de la Loi C-68 sur les homicides au Québec entre 1974 et 2006. Méthodologie. L’effet de la Loi C-68 est évalué à l’aide d’une analyse des bornes extrêmes. Les effets immédiats et graduels de la Loi sont évalués à l’aide de 372 équations. Brièvement, il s’agit d’analyses de séries chronologiques interrompues où toutes les combinaisons de variables indépendantes sont envisagées afin d’éviter les biais relatifs à une spécification arbitraire des modèles. Résultats. L’introduction de la Loi C-68 est associée à une baisse graduelle des homicides commis à l’aide d’armes longues (carabines et fusils de chasse), sans qu’aucun déplacement tactique ne soit observé. Les homicides commis par des armes à feu à autorisation restreinte ou prohibées semblent influencés par des facteurs différents. Conclusion. Les résultats suggèrent que le contrôle des armes à feu est une mesure efficace pour prévenir les homicides. L’absence de déplacement tactique suggère également que l’arme à feu constitue un important facilitateur et que les homicides ne sont pas tous prémédités. D’autres études sont toutefois nécessaires pour clairement identifier les mécanismes de la Loi responsables de la baisse des homicides.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Centrée sur une réflexion des droits de l’homme à partir de l’expérience historique de la Shoah, la thèse porte sur l’enjeu fondamental du statut du religieux en modernité. Trois parties la composent, correspondant au génocide, à la modernité politique et à l’histoire du Salut : la première propose une interprétation de l’Holocauste en ayant recours aux catégories empruntées à l’historiographie, à la réflexion philosophique et à la tradition théologique. Elle rend compte de deux lectures concurrentes des Lumières, du renversement de la théologie chrétienne du judaïsme au XXe siècle, de la généalogie idéologique du nazisme ainsi que du contexte explosif de l’entre-deux-guerres. La seconde partie de la thèse avance une théorie des trois modernités, selon laquelle les États-Unis, la France et Vatican II représenteraient des interprétations divergentes et rivales des droits. Enfin, la troisième partie reprend les deux précédentes thématiques de la Shoah et de la modernité, mais à la lumière de la Révélation, notamment de l’Incarnation et de la Croix. La Révélation est présentée comme un double dévoilement simultané de l’identité de Dieu et de la dignité humaine – comme un jeu de miroir où la définition de l’homme est indissociable de celle de la divinité. En provoquant l’effondrement de la Chrétienté, la sécularisation aurait créé un vide existentiel dans lequel se serait engouffré le nazisme comme religion politique et idéologie néo-païenne de substitution. Négation de l'élection d'Israël, du Décalogue et de l’anthropologie biblique, l’entreprise nazie d’anéantissement est comprise comme la volonté d’éradication de la Transcendance et du patrimoine spirituel judéo-chrétien, la liquidation du Dieu juif par l’élimination du peuple juif. Le judéocide pourrait dès lors être qualifié de «moment dans l’histoire du Salut» en ce sens qu’il serait porteur d’un message moral en lien avec le contenu de la Révélation qui interpellerait avec force et urgence la conscience moderne. L’Holocauste constituerait ainsi un kairos, une occasion à saisir pour une critique lucide des apories de la modernité issue des Lumières et pour un renouvellement de la pensée théologico-politique, une invitation à une refondation transcendante des droits fondamentaux, dont la liberté religieuse ferait figure de matrice fondationnelle. La Shoah apporterait alors une réponse au rôle que la Transcendance pourrait jouer dans les sociétés modernes. Mémorial de Sang refondateur des droits de la personne, l'Holocauste rendrait témoignage, il lancerait une mise en garde et poserait les conditions nécessaires d'un enracinement biblique à la préservation de la dignité de l’être humain. Aux Six Millions de Défigurés correspondrait la Création de l'Homme du Sixième Jour. En conclusion, un triangle synergique nourricier est soutenu par l’extermination hitlérienne (1941-1945), la Déclaration universelle des droits de l’homme (1948) et le Concile Vatican II (1962-1965) comme les trois piliers d’une nouvelle modernité, située au-dedes paradigmes américain (1776) et français (1789). La Shoah inaugurerait et poserait ainsi les fondements d'un nouvel horizon civilisationnel; elle pointerait vers un nouveau départ possible pour le projet de la modernité. L'expérience génocidaire n'invaliderait pas la modernité, elle ne la discréditerait pas, mais la relancerait sur des bases spirituelles nouvelles. Cette refondation des droits fondamentaux offrirait alors une voie de sortie et de conciliation à la crise historique qui opposait depuis près de deux siècles en Europe les droits de l'homme et la Transcendance, Dieu et la liberté – modèle susceptible d’inspirer des civilisations non occidentales en quête d’une modernité respectueuse de leur altérité culturelle et compatible avec la foi religieuse.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’étude scientifique des réseaux criminels démontre, de plus en plus, que leur structure est flexible et dynamique et que la thèse du contrôle ou de la centralisation des marchés criminels est discutable. Pourtant, devant la présence d’une organisation criminelle dite «traditionnelle» dans un marché criminel, autant la population que les milieux médiatiques, politiques, policiers et judiciaires, peuvent percevoir le marché comme étant contrôlé par cette organisation. Le fait de surévaluer la menace réelle de certains groupes criminels et de considérer que la centralisation des marchés criminels existent au détriment de la collaboration entre différents individus et groupes d’un réseau, peut notamment influencer les stratégies policières. D’une part, les autorités policières peuvent orienter leurs stratégies en tenant pour acquis que la structure dont s’est doté une présumée organisation criminelle se transpose dans le marché criminel dans lequel ses membres opèrent. D’autre part, cette organisation devient la première cible des autorités et les autres participants du réseau se voient accorder une moins grande importance dans les activités du marché. La recherche qui suit présente les résultats d’une analyse de réseau effectuée à partir des transcriptions de surveillances électroniques et physiques issues d’une importante opération policière visant la lutte aux motards criminalisés : l’opération Printemps 2001. À l’aide de ces données, un réseau de 349 individus a été créé. Bien que la cible principale de l’opération policière ait été l’organisation des Hell’s Angels, plus précisément, le chapitre Nomads et son club-école, les Rockers, d’autres groupes et d’autres individus ont été interceptés par les surveillances policières. Il ressort des analyses de la position occupée par l’ensemble des groupes et des individus identifiés, que les principales cibles des autorités policières n’étaient pas celles qui occupaient les positions les plus stratégiques pour être influentes et durer dans la portion du marché ciblée par l’opération.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

PHEX est une protéine importante dans le processus de minéralisation osseuse. Des mutations ou la délétion d’une partie de ce gène causent l’hypophosphatémie liée au chromosome X (XLH). Cette maladie est caractérisée par une hypophosphatémie, accompagnée de défauts de minéralisation, de rachitisme et de lésions ostéomalaciques. Avec l’hypophosphatémie, les taux circulants de vitamine D devraient être augmentés, ce qui n’est pas le cas d’où une régulation anormale de la production de vitamine D a lieu. Cependant, malgré le fait que cette protéine soit une peptidase, aucun substrat physiologique n’a encore été répertorié pour PHEX. PHEX est une protéine membranaire de type II de la famille M13 des métalloendopeptidases à zinc possédant un court domaine N-terminal cytosolique, un segment transmembrannaire d’environ 20 acides aminés et une large portion C-terminale extracellulaire où se trouve le site actif de l’enzyme. PHEX est exprimée de façon majoritaire dans les os et dans les dents et elle apparaît à l’initiation de la minéralisation. Les patients souffrant de XLH et la souris Hyp, qui est un modèle animal de la maladie humaine, montrent des quantités importantes de la protéine FGF23. De plus, FGF23 est impliqué dans une autre maladie reliée au métabolisme du phosphate, l’hypophosphatémie rachitique autosomale dominante (ADHR) où des mutations de FGF23 causent sensiblement les mêmes symptômes que XLH. FGF23 est produit principalement par les ostéoblastes et les ostéocytes. FGF23 cause une hypophosphatémie par la diminution de l’expression du cotransporteur NaPi de type II, responsable de la réabsorption du phosphate rénal. L’hypothèse proposée dans la littérature serait que PHEX activerait ou inactiverait des peptides importants pour la minéralisation osseuse. Plus spécifiquement, l’activation ou l’inactivation de ces peptides aurait pour rôle de réguler les quantités de FGF23. Selon l’hypothèse mentionnée précédemment, la régulation de PHEX pourrait donc avoir un effet sur la minéralisation. Une quantité croissante de données sur la régulation de PHEX sont maintenant disponibles. Par exemple, la vitamine D diminue l’expression de PHEX tandis que les glucocorticoïdes et l’hormone de croissance augmentent son expression. Dans une première étude, nous avons voulu déterminer si un peptide relié à la minéralisation osseuse, le PTHrP1-34, pouvait réguler l’expression de PHEX. Nous avons déterminé que le PTHrP1-34 peut réguler de façon négative l’expression de PHEX dans les cellules UMR-106, une lignée cellulaire ostéoblastique. Cette régulation passe par la voie de l’AMPc/protéine kinase A. De plus, cette diminution d’expression est également observée au jour 7 dans des cultures primaires d’ostéoblastes de rat en minéralisation. Par la suite, nous avons étudié un mutant de PHEX, le mutant E4Q retrouvé chez un patient souffrant de XLH, où la mutation se retrouve dans le domaine cytosolique de PHEX. Cette mutation n’interfère pas avec le site catalytique de l’enzyme puisque ce mutant de PHEX peut tout aussi bien cliver un substrat synthétique que la protéine sauvage. Il a été déterminé que cette mutation annule un motif di-acide. Nous avons démontré que ce motif di-acide est responsable de la liaison de PHEX à COPII, responsable de la formation de vésicules de sécrétion. De plus, il semblerait que ce motif soit important, probablement par son interaction avec COPII, à l’incorporation de PHEX dans des vésicules de calcification, lesdites vésicules étant importantes dans le processus de minéralisation. Finalement, des essais de compétitions ont démontré que la minéralisation pouvait être perturbée lorsque l’on surexprimait la queue cytosolique sauvage de PHEX, contrairement à la queue mutée. Ceci suggère possiblement que l’interaction avec COPII menant à l’incorporation de PHEX dans les vésicules de calcification ou d’autres protéines comprenant de tels motifs pourrait être importante pour la minéralisation. Finalement, la dernière étude porte sur la protéine FGF23. Nous avons démontré, par la surexpression de FGF23 dans la lignée MC3T3 d’ostéoblastes de souris, que cette surexpression a un effet sur la sénescence de ces cellules. En effet, des essais de sénescence ont montré l’augmentation de celle-ci lorsque FGF23 est surexprimé. Par contre, la prolifération n’est pas altérée. De plus, il semblerait que la différenciation soit plus rapide, tel qu’observé par une minéralisation survenant plus tôt, mais n’étant pas plus importante. Bref, la surexpression de FGF23 semblerait faire en sorte que les ostéoblastes se différencient plus rapidement et passent donc à un état de sénescence prématuré comparativement aux cellules sauvages. Ceci est en accord avec la littérature où KLOTHO, un cofacteur de FGF23 permettant sa liaison avec une plus grande affinité sur son récepteur, lorsqu’inactivé démontre un phénotype similaire au vieillissement incluant un phénotype de sénescence.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Plusieurs travaux suggèrent que les personnes atteintes d’une maladie mentale grave représentent un risque plus élevé de passage à l’acte violent que les personnes de la population en générale. Les raisons pour lesquelles ces personnes seraient plus enclines à commettre des gestes violents restent toutefois souvent contradictoires. En 1994, Link et Stueve suggéraient qu’une personne atteinte de symptômes de type menace/atteintes aux mécanismes de contrôle (TCO), était significativement plus à risque de commettre un geste violent. Les résultats de ces travaux furent par la suite reproduits dans le cadre d’autres études. L’objectif de ce rapport de stage est de mieux comprendre la relation entre les symptômes TCO et le passage à l’acte agressif en cours d’hospitalisation. Pour ce faire, les informations concernant la symptomatologie et les passages à l’acte violents de deux résidents de l’Institut Philippe-Pinel de Montréal (IPPM) sont présentées sous forme d’études de cas. L’analyse du contenu clinique des études de cas suggère qu’une approche nomothétique ne permet de comprendre qu’en partie l’association entre le passage à l’acte agressif et les symptômes TCO. Une telle approche ne permet pas d’intégrer d’autres facteurs cliniques tels les hallucinations ou les idées de violence, à l’étude du passage à l’acte agressif. Une approche phénoménologique où l’on s’intéresse à la compréhension qu’a la personne de son environnement et aux moyens qu’elle envisage afin d’y répondre semble offrir davantage de pistes afin de comprendre le passage à l’acte violent chez la personne atteinte d’une maladie mentale grave.