871 resultados para validation de contenu


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le Mouvement Desjardins, institution phare du Québec moderne caractérisé par un nationalisme civique et une intégration accrue des immigrants à la majorité francophone, demeure encore aujourd'hui, fortement identifié à ce même groupe. Ce mémoire a pour objet les représentations sociales de la pluriethnicité québécoise chez Desjardins. Une analyse du contenu de la Revue Desjardins de 1998 à 2005 permet de saisir le discours ainsi qu'un point de rupture spatio-temporel établi à l'année 2003, année où l'espace du discours s'élargit pour y inclure l'ouest de l'île de Montréal majoritairement anglophone. D'abord axée sur l'intégration au Mouvement et à la société québécoise dans le souci d'une plus grande représentativité de la population, l'institution passe à une orientation davantage pluraliste favorisant son adaptation à des marchés potentiellement lucratifs. Les catégories linguistiques «anglophone» et «allophone» sont alors davantage utilisées pour aborder l'enjeu pluriethnique banalisant ainsi la spécificité des groupes ethniques qui les composent. Alors que la première période est surtout caractérisée par des perceptions et des orientations générales, l'ouverture en 2003 d'un centre de service destiné à la clientèle allophone et anglophone de l'ouest de l'île constitue l'aboutissement d'un processus de représentation sociale ayant pour fonction l'orientation des pratiques. L'ensemble du discours est nuancé par des obstacles à l'adaptation à la pluriethnicité ainsi que des lacunes internes à l'institution. La concept d'ethnicité est peu utilisé et souvent abordé sous le terme «communauté culturelle» qui peut englober des communautés de nature autre qu'ethnique et qui réduit l'ethnicité à sa seule dimension culturelle. Il omet également de considérer les membres d'un groupe ethnique qui ne s'identifient pas à la communauté. En conclusion, l'étude permet de confirmer l'existence d'un discours sur la pluriethnicité québécoise maintenant bien ancré chez Desjardins et davantage orienté vers l'adaptation de l'institution en offrant des services en anglais et dans d'autres langues.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette étude vise à estimer l’apport en glutamine (Gln) alimentaire chez des athlètes soumis à un protocole de supplémentation en glutamine ainsi qu’à clarifier les informations diffusées au grand public en ce qui concerne les sources alimentaires de glutamine. Des études cliniques ont démontré que la supplémentation en glutamine pouvait réduire la morbidité et la mortalité chez des sujets en phase critique (grands brulés, chirurgie…). Le mécanisme en cause semble impliquer le système immunitaire. Cependant, les études chez les sportifs, dont le système immunitaire a de fortes chances d’être affaibli lors de périodes d’entraînement prolongées impliquant des efforts longs et intenses, n’ont pas été concluantes. Or, ces études négligent systématiquement l’apport alimentaire en glutamine, si bien qu’il est probable que les résultats contradictoires observés puissent en partie être expliqués par les choix alimentaires des sujets. Puisque la méthode conventionnelle de dosage des acides aminés dans les protéines alimentaires transforme la glutamine en glutamate, les tables de composition des aliments présentent la glutamine et le glutamate ensemble sous la dénomination « glutamate » ou « Glu », ce qui a comme conséquence de créer de l’ambiguïté. La dénomination « Glx » devrait être utilisée. Partant de la probabilité qu’un apport en Glx élevé soit un bon indicateur de l’apport en glutamine, nous avons créé un calculateur de Glx et avons évalué l’alimentation de 12 athlètes faisant partie d’une étude de supplémentation en glutamine. Nous avons alors constaté que l’apport en Glx était directement proportionnel à l’apport en protéines, avec 20,64 % ± 1,13 % de l’apport protéique sous forme de Glx. Grâce à quelques données sur la séquence primaire des acides aminés, nous avons pu constater que le rapport Gln/Glx pouvait être très variable d’un type de protéine à l’autre. Alors que le ratio molaire Gln/Glx est de ~95 % pour les α et β-gliadines, il n’est que de ~43 % pour la caséine, de ~36 % pour la β-lactoglobuline, de ~31 % pour l’ovalbumine et de ~28 % pour l’actine. Il est donc possible que certaines protéines puissent présenter des avantages par rapport à d’autres, à quantité égale de Glx.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les pyréthrinoïdes et les pyréthrines sont des insecticides neurotoxiques auxquels on attribue également des effets néfastes sur les systèmes immunitaire, hormonal et reproducteur. Ils sont abondamment utilisés en agriculture, mais aussi en horticulture, en extermination et dans le traitement d’infestations parasitaires humaines et animales (gale, poux). Il y a donc un intérêt en santé environnementale à connaître l’ampleur de l’exposition humaine à ces pesticides. La mesure des métabolites urinaires des pyréthrinoïdes et des pyréthrines apparaît une approche de choix pour arriver à cette fin puisqu’elle permet, en théorie, d’obtenir un portrait global de l’exposition. Or,traditionnellement et par soucis de simplicité les concentrations volumiques ou ajustées pour la créatinine) de ces biomarqueurs dans des urines ponctuelles sont déterminées, mais l’effet de l’utilisation de ces unités sur la validité des estimations de dose quotidienne absorbée n’a jamais été vérifié. L’objectif général de cette thèse était donc de développer, appliquer et valider une nouvelle stratégie de mesure et d’analyse de biomarqueurs pour améliorer la précision et la fiabilité des évaluations de l’exposition individuelles et populationnelles aux pyréthrinoïdes et pyréthrines. Les objectifs spécifiques étaient : i) de caractériser l’exposition humaine à ces contaminants en région urbaine et rurale au Québec et ii) de comparer la validité de la nouvelle stratégie de mesure et d’analyse de biomarqueurs urinaires proposée avec les autres méthodes plus usuelles utilisées pour estimer l’exposition individuelle et populationnelle et les doses absorbées de pyréthrinoïdes. Des adultes et des enfants, recrutés dans la population de l’Île de Montréal et de la Montérégie ont recueilli leurs urines pendant une période d’au moins douze heures et complété un questionnaire documentant les sources potentielles d’exposition. Les quantités de métabolites de pyréthrinoïdes et pyréthrines (pmol) mesurées dans les urines ont été ajustées pour une période de douze heures exactement et pour le poids corporel. Les quantités excrétées en région urbaine ont été comparées à celles excrétées en région rurale et les données individuelles et populationnelles ont été comparées à celles qui auraient été obtenues si des concentrations volumiques ou ajustées pour la créatinine avaient été mesurées. Les résultats montrent que l’exposition à ces pesticides est ubiquiste puisque plus de 90% des participants excrétaient les principaux métabolites de pyréthrinoïdes et pyréthrines à un niveau supérieur au seuil de détection analytique. Les résultats suggèrent que l’alimentation pourrait être à l’origine de ce niveau de base puisque les autres sources d’exposition connues n’ont été que rarement rapportées. Au Québec, l’exposition en milieu rural apparaissait légèrement plus importante qu’en milieu urbain et certains facteurs d’exposition, comme l’utilisation de pesticides domestiques, ont été rapportés plus fréquemment en milieu rural. Enfin, il a été démontré que la mesure des concentrations volumiques ou ajustées pour la créatinine de biomarqueurs est une approche qui peut entraîner des biais importants (jusqu’à 500% d’erreur et plus) en particulier lors de l’évaluation de l’exposition individuelle. Il est évident que les autorités de santé publique et de santé environnementale employant des biomarqueurs urinaires afin d’évaluer l’exposition aux pyréthrinoïdes et aux pyréthrines (ainsi qu’à d’autres molécules ayant des demi-vies d’élimination similaire)devraient diriger leurs efforts vers la mesure des quantités excrétées pendant une période d’au moins douze heures pour obtenir un portrait le plus valide possible de l’exposition. Il serait aussi souhaitable de mieux documenter la toxicocinétique de ces molécules chez l’humain afin d’établir avec une plus grande confiance la relation entre les quantités excrétées de biomarqueurs et les doses absorbées de ces contaminants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les étudiants gradués et les professeurs (les chercheurs, en général), accèdent, passent en revue et utilisent régulièrement un grand nombre d’articles, cependant aucun des outils et solutions existants ne fournit la vaste gamme de fonctionnalités exigées pour gérer correctement ces ressources. En effet, les systèmes de gestion de bibliographie gèrent les références et les citations, mais ne parviennent pas à aider les chercheurs à manipuler et à localiser des ressources. D'autre part, les systèmes de recommandation d’articles de recherche et les moteurs de recherche spécialisés aident les chercheurs à localiser de nouvelles ressources, mais là encore échouent dans l’aide à les gérer. Finalement, les systèmes de gestion de contenu d'entreprise offrent les fonctionnalités de gestion de documents et des connaissances, mais ne sont pas conçus pour les articles de recherche. Dans ce mémoire, nous présentons une nouvelle classe de systèmes de gestion : système de gestion et de recommandation d’articles de recherche. Papyres (Naak, Hage, & Aïmeur, 2008, 2009) est un prototype qui l’illustre. Il combine des fonctionnalités de bibliographie avec des techniques de recommandation d’articles et des outils de gestion de contenu, afin de fournir un ensemble de fonctionnalités pour localiser les articles de recherche, manipuler et maintenir les bibliographies. De plus, il permet de gérer et partager les connaissances relatives à la littérature. La technique de recommandation utilisée dans Papyres est originale. Sa particularité réside dans l'aspect multicritère introduit dans le processus de filtrage collaboratif, permettant ainsi aux chercheurs d'indiquer leur intérêt pour des parties spécifiques des articles. De plus, nous proposons de tester et de comparer plusieurs approches afin de déterminer le voisinage dans le processus de Filtrage Collaboratif Multicritère, de telle sorte à accroître la précision de la recommandation. Enfin, nous ferons un rapport global sur la mise en œuvre et la validation de Papyres.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Différentes méthodes ayant pour objectif une utilisation optimale d'antennes radio-fréquences spécialisées en imagerie par résonance magnétique sont développées et validées. Dans un premier temps, il est démontré qu'une méthode alternative de combinaison des signaux provenant des différents canaux de réception d'un réseau d'antennes mène à une réduction significative du biais causé par la présence de bruit dans des images de diffusion, en comparaison avec la méthode de la somme-des-carrés généralement utilisée. Cette réduction du biais engendré par le bruit permet une amélioration de l'exactitude de l'estimation de différents paramètres de diffusion et de diffusion tensorielle. De plus, il est démontré que cette méthode peut être utilisée conjointement avec une acquisition régulière sans accélération, mais également en présence d'imagerie parallèle. Dans une seconde perspective, les bénéfices engendrés par l'utilisation d'une antenne d'imagerie intravasculaire sont étudiés. Suite à une étude sur fantôme, il est démontré que l'imagerie par résonance magnétique intravasculaire offre le potentiel d'améliorer significativement l'exactitude géométrique lors de mesures morphologiques vasculaires, en comparaison avec les résultats obtenus avec des antennes de surface classiques. Il est illustré qu'une exactitude géométrique comparable à celle obtenue grâce à une sonde ultrasonique intravasculaire peut être atteinte. De plus, plusieurs protocoles basés sur une acquisition de type balanced steady-state free-precession sont comparés dans le but de mettre en évidence différentes relations entre les paramètres utilisés et l'exactitude géométrique obtenue. En particulier, des dépendances entre la taille du vaisseau, le rapport signal-sur-bruit à la paroi vasculaire, la résolution spatiale et l'exactitude géométrique atteinte sont mises en évidence. Dans une même optique, il est illustré que l'utilisation d'une antenne intravasculaire permet une amélioration notable de la visualisation de la lumière d'une endoprothèse vasculaire. Lorsque utilisée conjointement avec une séquence de type balanced steady-state free-precession utilisant un angle de basculement spécialement sélectionné, l'imagerie par résonance magnétique intravasculaire permet d'éliminer complètement les limitations normalement engendrées par l'effet de blindage radio-fréquence de l'endoprothèse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesis (Doctor en Filosofía con Orientación en Trabajo Social y Políticas Comparadas de Bienestar Social) UANL, 2011.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'évolution des soins médicaux auprès de la population ayant une lésion médullaire (LM) s'est traduite par une amélioration du profil fonctionnel des personnes atteintes. Ainsi une proportion importante retrouve une capacité à se tenir debout et à marcher qu'il convient d'évaluer adéquatement. Si quelques outils spécifiques à la population lésée médullaire existent pour évaluer leur ambulation, aucune évaluation de l'équilibre debout n'a été validée auprès de cette clientèle. L'échelle de Berg est un outil recommandé auprès de diverses populations, entre autres celles possédant des pathologies d'origine neurologique; et le score obtenu semble lié au niveau d'autonomie à la marche ainsi qu'aux aides techniques utilisées. L'objectif de ce projet de recherche était donc d'établir la validité concomitante de l'échelle de Berg auprès de la population LM et d'explorer les liens entre le score Berg et l'aide technique utilisée. Pour ce faire, trente-deux sujets BM ASIA D ont été recrutés parmi la clientèle hospitalisée de l'Institut de réadaptation Gingras-Lindsay de Montréal. L'évaluation de l'équilibre debout a été réalisée à l'aide de l'échelle de Berg ainsi que des tests statiques, dynamiques et des limites de stabilité du Balance Master. Le Walking Index for Spinal Cord Injury (WISCI), le Spinal Cord Injury Functional Ambulation Inventory (SCI-FAI), la vitesse de marche sur 10m et le Timed up and go ont été utilisés pour évaluer l'ambulation. Des analyses descriptives et corrélatives ont été effectuées sur les données obtenues. Une corrélation forte (0.714de Berg et les diverses évaluations de la marche. Des associations adéquates ont également été obtenues entre l'échelle de Berg et le test des limites de stabilité du Balance Master (-0.752de plus faibles corrélations avec les diverses mesures cliniques (-0.444de Berg, n'étant reliées significativement qu'avec certaines épreuves en antéropostérieur (3 et 1s; -0.590de Berg, le WISCI et le SCI-FAI limitant leur utilité pour les personnes ayant une récupération supérieure. Les résultats ont aussi montré un profil différent des personnes tétraplégiques quant à la réussite des différentes épreuves du Berg par comparaison aux sujets paraplégiques. Pour les résultats reliés aux aides techniques, l’analyse des données descriptives révèlent que le score Berg permet généralement de faire la distinction entre les personnes indépendantes d'aides techniques, les utilisateurs de marchettes de béquilles ou de cannes, et ce, particulièrement pour les personnes paraplégiques. Cette étude a permis de documenter la validité concomitante de l'échelle de Berg auprès des personnes LM ayant une lésion incomplète (ASIA D) étant donné les relations élevées démontrées entre les paramètres de la marche et les résultats à certains tests du Balance Master. En somme, la présente étude permet de recommander l'utilisation de l'échelle de Berg pour évaluer l'équilibre debout des personnes LM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’explosion récente du nombre de centenaires dans les pays à faible mortalité n’est pas étrangère à la multiplication des études portant sur la longévité, et plus spécifiquement sur ses déterminants et ses répercussions. Alors que certains tentent de découvrir les gènes pouvant être responsables de la longévité extrême, d’autres s’interrogent sur l’impact social, économique et politique du vieillissement de la population et de l’augmentation de l’espérance de vie ou encore, sur l’existence d’une limite biologique à la vie humaine. Dans le cadre de cette thèse, nous analysons la situation démographique des centenaires québécois depuis le début du 20e siècle à partir de données agrégées (données de recensement, statistiques de l’état civil, estimations de population). Dans un deuxième temps, nous évaluons la qualité des données québécoises aux grands âges à partir d’une liste nominative des décès de centenaires des générations 1870-1894. Nous nous intéressons entre autres aux trajectoires de mortalité au-dede cent ans. Finalement, nous analysons la survie des frères, sœurs et parents d’un échantillon de semi-supercentenaires (105 ans et plus) nés entre 1890 et 1900 afin de se prononcer sur la composante familiale de la longévité. Cette thèse se compose de trois articles. Dans le cadre du premier, nous traitons de l’évolution du nombre de centenaires au Québec depuis les années 1920. Sur la base d’indicateurs démographiques tels le ratio de centenaires, les probabilités de survie et l’âge maximal moyen au décès, nous mettons en lumière les progrès remarquables qui ont été réalisés en matière de survie aux grands âges. Nous procédons également à la décomposition des facteurs responsables de l’augmentation du nombre de centenaires au Québec. Ainsi, au sein des facteurs identifiés, l’augmentation de la probabilité de survie de 80 à 100 ans s’inscrit comme principal déterminant de l’accroissement du nombre de centenaires québécois. Le deuxième article traite de la validation des âges au décès des centenaires des générations 1870-1894 d’origine canadienne-française et de confession catholique nés et décédés au Québec. Au terme de ce processus de validation, nous pouvons affirmer que les données québécoises aux grands âges sont d’excellente qualité. Les trajectoires de mortalité des centenaires basées sur les données brutes s’avèrent donc représentatives de la réalité. L’évolution des quotients de mortalité à partir de 100 ans témoigne de la décélération de la mortalité. Autant chez les hommes que chez les femmes, les quotients de mortalité plafonnent aux alentours de 45%. Finalement, dans le cadre du troisième article, nous nous intéressons à la composante familiale de la longévité. Nous comparons la survie des frères, sœurs et parents des semi-supercentenaires décédés entre 1995 et 2004 à celle de leurs cohortes de naissance respectives. Les différences de survie entre les frères, sœurs et parents des semi-supercentenaires sous observation et leur génération « contrôle » s’avèrent statistiquement significatives à un seuil de 0,01%. De plus, les frères, sœurs, pères et mères des semi-supercentenaires ont entre 1,7 (sœurs) et 3 fois (mères) plus de chance d’atteindre 90 ans que les membres de leur cohorte de naissance correspondante. Ainsi, au terme de ces analyses, il ne fait nul doute que la longévité se concentre au sein de certaines familles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Polarisé par l’événement du jubilé de l’an 2000, Jean-Paul II, tout au long de son pontificat, achemine l’Église catholique dans un long pèlerinage vers le IIIe millénaire de l’humanité. À l’aube du XXIe siècle, avec le contenu théologique du concile Vatican II pour boussole fiable, le pape polonais arbore une vision pastorale originale marquée par l’expression « nouvelle évangélisation ». Reprise de l’épiscopat d’Amérique latine, cette expression devient ainsi son emblème et son fer de lance durant les quelque 27 années de son pontificat. Largement récupérée par maints milieux ecclésiaux, l’expression méritait qu’on en produise une étude systématique à la lumière de la théologie pastorale de celui qui en a été le divulgateur privilégié. Pour ce faire, nous avons choisi comme texte fondateur à notre étude sa lettre apostolique Tertio Millennio Adveniente publiée en 1994, en raison de la vision pastorale qui s’en dégage à l’aube de l’an 2000. Ce texte, qui couvre la période du concile Vatican II jusqu’à l’entrée de l’Église catholique dans le IIIe millénaire, définit le cadre temporel de notre recherche. Par ailleurs, il nous permet de retenir trois référents théologiques pour conduire notre étude. Nous les analysons et nous en conduisons une synthèse théologique à travers trois regards synoptiques qui acheminent progressivement la thèse vers sa conclusion. Le premier référent théologique retenu est l’exhortation apostolique Evangelii Nuntiandi du pape Paul VI ; le deuxième référent est l’ouvrage de Karol Wojtyla Aux sources du renouveau ; le troisième référent est l’exhortation postsynodale Ecclesia in America. Avec une démarche herméneutique justifiée, et par la synthèse de ces référents théologiques, trois aboutissants voient le jour. Le premier regarde l’application pastorale du concile Vatican II : dans un regard pastoral justifié par une anthropologie définie, le pasteur articule les constitutions Lumen Gentium et Gaudium et Spes pour proposer une praxis pastorale. Le second aboutissant parle alors de la notion de la créativité de la foi. Cette créativité de la foi se décline, elle, dans les médiations culturelles – troisième aboutissant – qui s’articulent elles-mêmes autour des concepts d’attitudes et de dialogue wojtylien. La critique proposée en conclusion de thèse porte directement sur l’anthropologie proposée par Jean-Paul II sous-jacente à chacun de ces trois aboutissants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En Argentine, la biotechnologie agricole, spécialement le soya transgénique, a été adoptée de façon fulgurante et elle a provoqué un fort choc dans l’économie nationale et dans la société. Actuellement, dû à la gravité des conséquences de ce phénomène, les médias, et la presse en particulier, ont fait écho du débat. Le but général de cette étude est d’analyser le débat de société sur ce phénomène dans la presse écrite argentine. Pour ce faire, trois objectifs spécifiques ont été retenus : dresser un portrait général du discours; comprendre le contexte politique et économique qui a permis l’insertion de la biotechnologie agricole en Argentine; et analyser les enjeux socioéthiques subjacents au problème des biotechnologies. Pour répondre à ces objectifs, on a effectué une analyse de contenu du discours social circonscrit à la presse écrite argentine entre les années 1999- 2006. La démarche privilégiée inclut la classification des articles de journaux par l’utilisation de mots-clés et l’assignation à des catégories thématiques avec l’assistance des techniques d’analyse de texte par ordinateur. Les résultats de cette étude signalent pour la période étudiée une importante couverture journalistique des biotechnologies agricoles, couverture qui, en général, a été favorable. La quantité d’articles augmente avec les années et montre un virage important des sujets commerciaux à des questions politiques. Le débat autour des conséquences environnementales et sociales de l’application du nouveau modèle agricole sont pauvrement représentées et montrent une apparition plus tardive dans les journaux argentins. Cependant, cela pourrait s’expliquer par un déplacement dans l’axe de la discussion des biotechnologies vers la sojisation qui devient l’enjeu central du débat autour du phénomène agricole.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La scoliose idiopathique (SI) est une déformation tridimensionnelle (3D) de la colonne vertébrale et de la cage thoracique à potentiel évolutif pendant la croissance. Cette déformation 3D entraîne des asymétries de la posture. La correction de la posture est un des objectifs du traitement en physiothérapie chez les jeunes atteints d’une SI afin d’éviter la progression de la scoliose, de réduire les déformations morphologiques et leurs impacts sur la qualité de vie. Les outils cliniques actuels ne permettent pas de quantifier globalement les changements de la posture attribuables à la progression de la scoliose ou à l’efficacité des interventions thérapeutiques. L’objectif de cette thèse consiste donc au développement et à la validation d’un nouvel outil clinique permettant l’analyse quantitative de la posture auprès de personnes atteintes d’une SI. Ce projet vise plus spécifiquement à déterminer la fidélité et la validité des indices de posture (IP) de ce nouvel outil clinique et à vérifier leur capacité à détecter des changements entre les positions debout et assise. Suite à une recension de la littérature, 34 IP représentant l’alignement frontal et sagittal des différents segments corporels ont été sélectionnés. L’outil quantitatif clinique d’évaluation de la posture (outil 2D) construit dans ce projet consiste en un logiciel qui permet de calculer les différents IP (mesures angulaires et linéaires). L’interface graphique de cet outil est conviviale et permet de sélectionner interactivement des marqueurs sur les photographies digitales. Afin de vérifier la fidélité et la validité des IP de cet outil, la posture debout de 70 participants âgés entre 10 et 20 ans atteints d'une SI (angle de Cobb: 15º à 60º) a été évaluée à deux occasions par deux physiothérapeutes. Des marqueurs placés sur plusieurs repères anatomiques, ainsi que des points de référence anatomique (yeux, lobes des oreilles, etc.), ont permis de mesurer les IP 2D en utilisant des photographies. Ces mêmes marqueurs et points de référence ont également servi au calcul d’IP 3D obtenus par des reconstructions du tronc avec un système de topographie de surface. Les angles de Cobb frontaux et sagittaux et le déjettement C7-S1 ont été mesurés sur des radiographies. La théorie de la généralisabilité a été utilisée pour déterminer la fidélité et l’erreur standard de la mesure (ESM) des IP de l’outil 2D. Des coefficients de Pearson ont servi à déterminer la validité concomitante des IP du tronc de l’outil 2D avec les IP 3D et les mesures radiographiques correspondantes. Cinquante participants ont été également évalués en position assise « membres inférieurs allongés » pour l’étude comparative de la posture debout et assise. Des tests de t pour échantillons appariés ont été utilisés pour détecter les différences entre les positions debout et assise. Nos résultats indiquent un bon niveau de fidélité pour la majorité des IP de l’outil 2D. La corrélation entre les IP 2D et 3D est bonne pour les épaules, les omoplates, le déjettement C7-S1, les angles de taille, la scoliose thoracique et le bassin. Elle est faible à modérée pour la cyphose thoracique, la lordose lombaire et la scoliose thoraco-lombaire ou lombaire. La corrélation entre les IP 2D et les mesures radiographiques est bonne pour le déjettement C7-S1, la scoliose et la cyphose thoracique. L’outil est suffisamment discriminant pour détecter des différences entre la posture debout et assise pour dix des treize IP. Certaines recommandations spécifiques résultents de ce projet : la hauteur de la caméra devrait être ajustée en fonction de la taille des personnes; la formation des juges est importante pour maximiser la précision de la pose des marqueurs; et des marqueurs montés sur des tiges devraient faciliter l’évaluation des courbures vertébrales sagittales. En conclusion, l’outil développé dans le cadre de cette thèse possède de bonnes propriétés psychométriques et permet une évaluation globale de la posture. Cet outil devrait contribuer à l’amélioration de la pratique clinique en facilitant l’analyse de la posture debout et assise. Cet outil s’avère une alternative clinique pour suivre l’évolution de la scoliose thoracique et diminuer la fréquence des radiographies au cours du suivi de jeunes atteints d’une SI thoracique. Cet outil pourrait aussi être utile pour vérifier l’efficacité des interventions thérapeutiques sur la posture.