972 resultados para Méthode de partage des coûts
Resumo:
L'Accord sur le commerce intérieur est un accord de libre-échange pancanadien visant l'abaissement des barrières non tarifiaires au commerce interprovincial. La notion de barrières au commerce interprovincial, en soi, suscite maintes controverses. Aucun consensus n'existe à savoir quelles sont les barrières au commerce, quelles en sont leurs coûts, mais surtout, s'il faut les abaisser. La grande majorité des experts concoivent que beaucoup de ces barrières non tarifaires au commerce se retrouvent dans le secteur des produits agroalimentaires. À ce titre, ce domaine est, depuis plusieurs décennies, traditionnellement protectionniste et constitue donc un marché des plus difficiles à intégrer. Cette réalité prévaut tant au niveau international qu'interprovincial. Au Canada, l'outil privilégié après des années de négociations constitutionnelles infructueuses fut l'Accord sur le commerce intérieur. Cet accord, aux allures de traité international, vise l'intégration graduelle du marché interne canadien. La volonté de devenir un marché intégré et compétitif au niveau mondial se heurte à la détermination des provinces de protéger leur souveraineté législative. Ainsi, l'outil d'ouverture du marché que constitue l'Accord sur le commerce intérieur, qui navigue entre ces positions antagonistes, fut rédigé de manière assez complexe et peu accessible. Le contexte politique et constitutionnel particulier dans lequel se sont inscrites les négociations de cet accord a ainsi teinté le texte de l'accord et sa rédaction. En plus de sa simplification, plusieurs solutions intervenant sous plusieurs facettes de l'Accord sur le commerce intérieur permettraient à ce dernier de se voir plus efficace dans sa mission d'intégration du marché interprovincial canadien, en plus d'augmenter sa notoriété, sa crédibilité et de permettre une meilleure mise en œuvre.
Resumo:
Il existe un discours, qui gagne chaque jour en popularité dans les milieux académiques et professionnels, qui se reproduit dans le quotidien familial et socioculturel, sur une adolescence qui est perçue comme un problème, une étape de crise avec laquelle il est difficile de négocier. À partir des écrits de Foucault (1976) on peut penser que cette inquiétude s’inscrit dans la construction du dispositif occidental de la sexualité. À partir de ce concept, l’objectif de cette recherche était de dégager les constructions possibles d’un ou de dispositifs de sexualité chez des adolescents(es) vivant en situation de pauvreté au Brésil (Belém-Pará). La méthode de recherche choisie a été un devis qualitatif selon une approche ethnographique qui consiste à décrire et à interpréter un système ou un groupe socioculturel (Creswell, 1998). La principale technique de cueillette des données, en plus des techniques d’observation ethnographique et l’analyse documentaire, a été l’entrevue en profondeur, en face à face, à partir de questions ouvertes. Quatorze adolescent(e)s vivant dans le même quartier pauvre de Belém ont été observé(e)s et interviewé(e)s, de même que leurs parents. L’analyse des données, effectuée selon l’analyse de contenu proposée par Bardin (1977) ont révélé un dispositif de sexualité présent tant chez les adolescents, parents et professeurs rencontrés, et s’appuyant sur l’école, les églises, les médias et l’État, qui a été décrit comme un dispositif du sexe sécuritaire alors qu’un dispositif d’alliance, au sens de Foucault, a été décrit après analyses et confirmation des données comme l’alliance des puissants. Ces résultats, avec en plus des informations nouvelles sur la sexualité amazonienne à partir des légendes locales du Boto et d’Iara, permettent de voir sous un nouvel angle la question de la construction sociale de la sexualité chez des adolescent(e)s vivant en situation de pauvreté à Belém (Pará) au Brésil et ont conduit à des recommandations spécifiques pour améliorer la recherche et les pratiques professionnelles.
Resumo:
Les biomarqueurs plasmatiques constituent des outils essentiels, mais rares, utilisés pour diagnostiquer les maladies, comme les maladies cardiovasculaires (MCV), et stratifier le niveau de risque associé. L’identification de nouveaux biomarqueurs plasmatiques susceptibles d’améliorer le dépistage et le suivi des MCV représente ainsi un enjeu majeur en termes d’économie et de santé publique. Le projet vise à identifier de nouveaux biomarqueurs plasmatiques prédictifs ou diagnostiques des MCV, à déterminer le profil protéomique plasmatique de patients atteints de MCV et à développer des méthodes innovantes d’analyse d’échantillon plasmatique. L’étude a été effectuée sur une large banque de plasma provenant de 1006 individus de souche Canadienne-Française recrutés à différents stades de la MCV et qui ont été suivis sur une période de 5 ans. Des séries de déplétions ont été réalisées afin de dépléter les 14 protéines majoritaires (colonne IgY14TM) de l’échantillon avant son analyse par trois approches effectuées en parallèle: 1) Une chromatographie liquide (LC) en 2 dimensions qui fractionne les protéines selon le point isoélectrique puis selon le degré d’hydrophobicité, via le système PF2D, suivie par une chromatographie liquide couplée avec une spectrométrie de masse en tandem (LC-MS/MS). 2) Une séparation classique sur gel 1D-SDS-PAGE suivie d’une LC-MS/MS; 3) Par une déplétion plus poussée du plasma avec l’utilisation en tandem avec la colonne IgY14TM d’une colonne SupermixTM permettant de dépléter également les protéines de moyenne abondance, suivie d’une séparation sur gel 1D-SDS-PAGE et d’une analyse LC-MS/MS de la portion déplétée (3a) et de la portion liée à la SupermixTM (3b). Les résultats montrent que le système PF2D permet d’identifier plusieurs profils protéiques spécifiques au groupe MCV. Sur un total de 1156 fractions (équivalent à 1172 pics protéiques pour le groupe contrôle et 926 pics pour le groupe MCV) recueillies, 15 fractions (23 pics protéiques) présentaient des différences quantitativement significatives (p<0,05) entre les 2 groupes. De plus, 6 fractions (9 pics) sont uniquement présentes dans un groupe, représentant d’autres signatures protéomiques et biomarqueurs potentiellement intéressants. Les méthodes 2, 3a et 3b ont permis l’identification de 108, 125 et 91 protéines respectivement avec des chevauchements partiels (31% entre la méthode 2 et 3a, 61% entre 2 et 3b et 19% entre 3a et 3b). Les méthodes 2 et 3 ont permis l’identification de 12 protéines qui présentaient des différences quantitatives significatives entre les 2 groupes. L’utilisation de plusieurs approches protéomiques complémentaires nous ont d’ores et déjà permis d’identifier des candidats biomarqueurs des angines instables avec récidive d’infarctus du myocarde (IM).
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M.Sc.) option expertise-conseil en soins infirmiers
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.
Resumo:
Durant la dernière décennie, les développements technologiques en radiothérapie ont transformé considérablement les techniques de traitement. Les nouveaux faisceaux non standard améliorent la conformité de la dose aux volumes cibles, mais également complexifient les procédures dosimétriques. Puisque des études récentes ont démontré l’invalidité de ces protocoles actuels avec les faisceaux non standard, un nouveau protocole applicable à la dosimétrie de référence de ces faisceaux est en préparation par l’IAEA-AAPM. Le but premier de cette étude est de caractériser les facteurs responsables des corrections non unitaires en dosimétrie des faisceaux non standard, et ainsi fournir des solutions conceptuelles afin de minimiser l’ordre de grandeur des corrections proposées dans le nouveau formalisme de l’IAEA-AAPM. Le deuxième but de l’étude est de construire des méthodes servant à estimer les incertitudes d’une manière exacte en dosimétrie non standard, et d’évaluer les niveaux d’incertitudes réalistes pouvant être obtenus dans des situations cliniques. Les résultats de l’étude démontrent que de rapporter la dose au volume sensible de la chambre remplie d’eau réduit la correction d’environ la moitié sous de hauts gradients de dose. Une relation théorique entre le facteur de correction de champs non standard idéaux et le facteur de gradient du champ de référence est obtenue. En dosimétrie par film radiochromique, des niveaux d’incertitude de l’ordre de 0.3% sont obtenus par l’application d’une procédure stricte, ce qui démontre un intérêt potentiel pour les mesures de faisceaux non standard. Les résultats suggèrent également que les incertitudes expérimentales des faisceaux non standard doivent être considérées sérieusement, que ce soit durant les procédures quotidiennes de vérification ou durant les procédures de calibration. De plus, ces incertitudes pourraient être un facteur limitatif dans la nouvelle génération de protocoles.
Resumo:
Les données manquantes sont fréquentes dans les enquêtes et peuvent entraîner d’importantes erreurs d’estimation de paramètres. Ce mémoire méthodologique en sociologie porte sur l’influence des données manquantes sur l’estimation de l’effet d’un programme de prévention. Les deux premières sections exposent les possibilités de biais engendrées par les données manquantes et présentent les approches théoriques permettant de les décrire. La troisième section porte sur les méthodes de traitement des données manquantes. Les méthodes classiques sont décrites ainsi que trois méthodes récentes. La quatrième section contient une présentation de l’Enquête longitudinale et expérimentale de Montréal (ELEM) et une description des données utilisées. La cinquième expose les analyses effectuées, elle contient : la méthode d’analyse de l’effet d’une intervention à partir de données longitudinales, une description approfondie des données manquantes de l’ELEM ainsi qu’un diagnostic des schémas et du mécanisme. La sixième section contient les résultats de l’estimation de l’effet du programme selon différents postulats concernant le mécanisme des données manquantes et selon quatre méthodes : l’analyse des cas complets, le maximum de vraisemblance, la pondération et l’imputation multiple. Ils indiquent (I) que le postulat sur le type de mécanisme MAR des données manquantes semble influencer l’estimation de l’effet du programme et que (II) les estimations obtenues par différentes méthodes d’estimation mènent à des conclusions similaires sur l’effet de l’intervention.
Resumo:
Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.
Resumo:
L’objectif principal du présent mémoire est d’observer le processus de traduction d’un texte de nature juridique mis en oeuvre par deux groupes d’étudiants, cinq étudiants inscrits au baccalauréat en traduction et quatre inscrits au baccalauréat en droit. Tout d’abord, nous analyserons les différences qui existent entre les deux groupes dans leur utilisation des ouvrages de référence. Nous observerons entre autres la diversité générale des ouvrages consultés et la connaissance antérieure des ouvrages papier, la répartition par type d’ouvrages (dictionnaire bilingue, monolingue ou autres), la répartition par support d’ouvrages (électronique ou papier), l’utilisation des correcteurs, l’intensité des recherches effectuées et, finalement, le premier ouvrage consulté selon le type et le support. Ces données seront recueillies grâce à la méthode de verbalisation à voix haute et à l’enregistrement de l’écran d’ordinateur, au moyen du logiciel WebEx. Ensuite, nous évaluerons la qualité des traductions en faisant une distinction entre deux types d’erreurs, soit les erreurs de traduction et les erreurs de langue. Nous tenterons par la suite d’établir des liens entre l’utilisation des ouvrages de référence et la qualité des traductions. Nous observerons que les deux groupes utilisent les ouvrages de référence différemment et que les traducteurs ont semblé mieux outillés que les juristes pour remettre une traduction de qualité.
Resumo:
Introduction: Le principal objectif de cette étude est de mesurer l’effet du GDF-5 sur l’homéostasie du cartilage. Le GDF-5 est un gène de susceptibilité de l’OA faisant partie de la famille des BMPs et qui favorise la synthèse du cartilage. Le but de notre étude a été de déterminer l’effet du GDF-5 sur le métabolisme catabolique ainsi que sur l’équilibre global des chondrocytes, principalement au niveau de l’Aggrécan. Méthode : Des chondrocytes arthrosiques canins et humains OA ont été exposés au GDF-5. L’expression des ARNm et des protéines a été analysée afin d’évaluer la production de l’Aggrécan et le ratio Col-II/Col-I au niveau des facteurs anaboliques et du phénotype. Pour le catabolisme, l’expression et l’activité des aggrécanases ADAMTS-4 et ADAMTS-5 ont été mesurées. Les épitopes NITEGE et CTX-II ont aussi été quantifiés dans le liquide synovial canin après des injections intraarticulaires de GDF-5. Résultats : Le GDF-5 provoque une augmentation de l’activité cellulaire des chondrocytes canins et humains. Pour les ARNm et l’expression protéique, le GDF-5 augmente l’expression de l’Aggrécan alors que les facteurs cataboliques le diminuent. Le phénotype reste inchangé en présence du produit, sauf à haute dose où on augmente le ColI. L’activité des aggrécanases diminue puisque l’épitope NITEGE diminue alors que le CTX-II augmente dans l’articulation. Conclusion : En somme, les facteurs anaboliques du cartilage sont favorisés, alors que les facteurs cataboliques sont diminués par le GDF-5. Cette action double permet d’illustrer l’effet du GDF-5, le classant comme un potentiel médicament modifiant la maladie de l’OA qui mérite d’être étudiée.
Resumo:
Objectif: Ce mémoire avait pour objectif d’examiner le contenu cognitif du discours d’agresseurs sexuels d’enfants dans un échantillon d’hommes francophones afin de déterminer s’il est possible de reproduire les catégories de théories implicites telles que proposées par Ward et Keenan (1999). Le but était également d’investiguer la possibilité de retrouver de nouvelles théories implicites. Méthode: 20 entrevues semi-structurées ont été réalisées auprès d’un échantillon d’agresseurs sexuels d’enfants judiciarisés (Centre hospitalier Robert-Giffard, Établissement Montée St-François). À partir de ces entrevues, 2 juges indépendants ont sélectionné le contenu cognitif du discours des agresseurs sexuels. Ce contenu a ensuite été classé thématiquement. Chacun des thèmes émergents a fait l’objet d’une analyse indépendante afin de déterminer si les catégories permettaient une classification optimale des distorsions cognitives. Les juges ont donc repris 3 entrevues et ont recodifié les données afin de comparer la codification. Les données ont été analysées à l’aide de NVivo, un logiciel d’analyse de données qualitatives. Les résultats ont été discutés et comparés aux résultats de Ward et Keenan (1999). Résultats: Les analyses ont permis de trouver 6 théories implicites. Les théories Le droit d’agir à sa guise, Le monde est incontrôlable et L’agression ne cause pas de tort aux enfants étaient identiques à leur version originale. La théorie Le monde est dangereux variait de sa version originale car aucun lien causal n’a été trouvé entre la perception des adultes et des enfants. Deux visions uniques et indépendantes l’une de l’autre ont plutôt été observées. Aussi, les résultats ont montré que les agresseurs partageaient une image dichotomique de la femme. D’ailleurs, ce résultat est consistant avec la théorie implicite Les femmes sont dangereuses de Polaschek et Ward (2004). La théorie Les enfants sont des êtres sexuels variait de sa version originale quant à sa conceptualisation. Les enfants sont des partenaires de vie est une nouvelle théorie implicite n’ayant pas été discutée par Ward et Keenan. Ce résultat est consistant avec les recherches de Wilson (1999) sur la congruence émotionnelle envers les enfants des agresseurs sexuels.
Resumo:
Ce mémoire de maîtrise porte sur la contribution que pourrait apporter l’Enseignement à distance par radio (EADR) dans la réduction du taux d’échec aux examens du baccalauréat 1ère partie en Haïti. De manière spécifique, nous souhaitions élaborer un programme d’ « Enseignement à distance par radio » (EADR) afin d’aider l’ensemble des candidats bacheliers des classes de Rhéto à préparer les examens du bac 1ère partie. En Haïti, l’Enseignement à distance (EAD) est pratiquement absent. De nombreux pays ayant eu des situations similaires à Haïti ont mis en place des programmes de « Formations ouvertes et à distance » (FOAD) en complémentarité avec le mode d’enseignement classique ou en mode présentiel. La complexité de la situation exige d’envisager diverses pistes pour sortir le système éducatif haïtien de cette léthargie. Si l’on ne peut considérer l’EAD comme l’unique perspective, il est par contre pertinent et souhaitable de l’envisager comme une alternative non négligeable (Lubérisse, 2003). En nous appuyant sur les principales conditions d’efficacité des FOAD définies par Karsenti (2003), les principes théoriques de type R & D (Van der Maren, 2003?), le cadre théorique de la méthodologie de l’évaluation des besoins de Chagnon et Paquette (Institut universitaire des Centres Jeunesses de Montréal, 2005) et de Roegiers, Wouters & Gerard (1992), nous avons élaboré les grandes lignes générales de ce programme d’EADR et les avons soumises à douze (12) acteurs clés du système éducatif haïtien (4 élèves, 3 parents, 2 enseignants et 3 spécialistes de la radio ou de l’EADR). Cette ébauche de programme comportait principalement les objectifs du programme d’EADR, la méthode pédagogique, le contenu et les conditions de mise en œuvre. Des données recueillies par le biais d’entrevues individuelles il ressort que l’implantation d’un programme d’EADR peut être bénéfique au système éducatif haïtien, particulièrement sur les résultats d’examens officiels du baccalauréat 1ère partie. Les douze participants à notre recherche, croient que l’objectif poursuivi par le programme d’EADR est tout à fait réalisable et important pour le public cible. Tout en notant l’aspect positif du programme d’EADR proposé, les participants réclament certaines modifications quant à la méthode pédagogique, au contenu et aux conditions de mise en œuvre. Ainsi, les recommandations faites par les douze acteurs clés du système éducatif, jointes à notre recension nous ont permis d’élaborer un nouveau programme d’EADR revu et corrigé qui pourra servir de base à une évaluation plus large.
Resumo:
Malgré l’acceptation théorique et pratique que l’astrologie médiévale rencontre au 13e siècle latin, son statut philosophique ambigu tient, au moins en partie, à son double partage en art mécanique et en science libérale. Plus mystérieux encore reste le fait qu’elle apparaisse en Occident sans devoir violenter les cadres philosophiques où elle s’inscrit, aussi chrétiens soient-ils. Du point de vue de l’histoire de la philosophie, ce que cette arrivée en douceur passe sous silence, c’est l’enracinement conceptuel toujours déjà préétabli du projet astrologique à l’intérieur d’un contexte philosophique plus global, dans et par lequel l’idée d’influence astrale valide sa raison d’être. En passant par la philosophie naturelle et la métaphysique de Thomas d’Aquin, ce travail veut montrer comment l’astrologie médiévale survient en terres chrétiennes à partir de la rencontre de la hiérarchie causale de l’être propre à l’arabo-aristotélisme néo-platonisant avec une théologie de la providence divine. D’aporie en aporie, la déconstruction de ce que toute astrologie présuppose prend place, de sorte qu’il devient possible de comprendre l’aspect rationnel et proprement philosophique de l’entreprise astrologique au Moyen Âge.
Resumo:
INTRODUCTION : En milieu urbain, l’amélioration de la sécurité des piétons pose un défi de santé publique. Pour chaque décès attribuable aux collisions routières, il y a des centaines de personnes blessées et, dans les pays riches, la diminution du nombre annuel de piétons décédés s’expliquerait en partie par la diminution de la marche. Les stratégies préventives prédominantes n’interviennent pas sur le volume de circulation automobile, un facteur pourtant fondamental. De plus, les interventions environnementales pour améliorer la sécurité des infrastructures routières se limitent habituellement aux sites comptant le plus grand nombre de décès ou de blessés. Cette thèse vise à décrire la contribution des volumes de circulation automobile, des pratiques locales de marche et de la géométrie des routes au nombre et à la répartition des piétons blessés en milieu urbain, et d’ainsi établir le potentiel d’une approche populationnelle orientée vers la reconfiguration des environnements urbains pour améliorer la sécurité des piétons. MÉTHODE : Le devis est de type descriptif et transversal. Les principales sources de données sont les registres des services ambulanciers d’Urgences-santé (blessés de la route), l’enquête Origine-Destination (volumes de circulation automobile), la Géobase du réseau routier montréalais (géométrie des routes) et le recensement canadien (pratiques locales de marche, position socioéconomique). Les analyses descriptives comprennent la localisation cartographique (coordonnées x,y) de l’ensemble des sites de collision. Des modèles de régression multi-niveaux nichent les intersections dans les secteurs de recensement et dans les arrondissements. RÉSULTATS : Les analyses descriptives démontrent une grande dispersion des sites de collision au sein des quartiers. Les analyses multivariées démontrent les effets significatifs, indépendants du volume de circulation automobile, de la présence d’artère(s) et d’une quatrième branche aux intersections, ainsi que du volume de marche dans le secteur, sur le nombre de piétons blessés aux intersections. L’analyse multi-niveaux démontre une grande variation spatiale de l’effet du volume de circulation automobile. Les facteurs environnementaux expliquent une part substantielle de la variation spatiale du nombre de blessés et du gradient socioéconomique observé. DISCUSSION : La grande dispersion des sites de collision confirme la pertinence d’une approche ne se limitant pas aux sites comptant le plus grand nombre de blessés. Les résultats suggèrent que des stratégies préventives basées sur des approches environnementales et populationnelle pourraient considérablement réduire le nombre de piétons blessés ainsi que les inégalités observées entre les quartiers.