541 resultados para Athènes (Grèce) -- Erechthéion


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescence (SIA) est une déformation tridimensionnelle complexe du rachis affectant majoritairement les filles. L’atteinte progressive est surtout esthétique avec, notamment, une déformation de la cage thoracique résultante. L’asymétrie mammaire est une préoccupation fréquente chez ces jeunes filles. Se définissant comme une différence de forme, de position ou de volume des seins ou des complexes aréolo-mamelonnaires, l’asymétrie mammaire est courante chez les femmes, mais habituellement mineure et non visible. Il demeure incertain dans la littérature si l’asymétrie mammaire est plus fréquente chez les scoliotiques. De plus, très peu d’études ont évalué la relation entre la scoliose et l’asymétrie mammaire. De façon instinctive, on serait porté à croire que ce ne sont pas les seins qui sont asymétriques, mais plutôt la déformation du thorax en rotation qui donne cette impression. Les seins représentent un des organes les plus difficiles à mesurer étant donné leur grande variabilité. Plusieurs méthodes de mesure ont été décrites. L’imagerie par résonance magnétique (IRM) est considérée l’outil le plus précis pour définir la glande mammaire et plus particulièrement, sa délimitation sur la cage thoracique. Ce projet consiste à quantifier l’asymétrie mammaire, représentée par une différence de volume entre les deux seins, chez une cohorte de jeunes filles présentant une SIA significative, en utilisant l’IRM comme outil de mesure. Ensuite, une méthode de mesure automatisée, à partir de la topographie surfacique 3D, est proposée. Les résultats obtenus avec cette méthode sont confrontés à ceux de l’IRM. L’influence de la posture sur le volume mammaire est également étudiée à partir de ces deux modalités différentes. Pour réaliser ces objectifs, une cohorte de 30 patientes scoliotiques a été recrutée sur la base de leur courbure thoracique et de leur maturité osseuse et mammaire. Deux imageries de tronc ont été effectuées : la topographie surfacique 3D et la résonance magnétique. Dans un premier temps, la sommation des images segmentées acquises par IRM nous a permis de mesurer de façon très précise le volume mammaire. Notre cohorte présente une asymétrie mammaire moyenne statistiquement significative de 8.32%. 66.6% des patientes présentent une asymétrie ≥ 5%. Par ailleurs, le sein gauche est plus volumineux chez 65.5% des patientes. Une faible corrélation non-significative existe entre les volumes mammaires et l’angle de Cobb ainsi que la gibbosité thoracique. Par la suite, une méthode de mesure automatisée, développée à partir de l’environnement mathématique Matlab, est appliquée directement sur les reconstructions 3D. En bref, elle consiste à identifier les contours des seins pour les exciser afin d’exposer la cage thoracique puis, à soustraire le thorax complet du thorax sans seins pour déterminer les volumes mammaires. Les volumes mammaires acquis par la méthode automatisée sont, de manière attendue, de plus petites tailles que ceux obtenus à l’IRM. Une forte corrélation est établie entre les volumes mammaires obtenus par les deux différentes techniques de mesure. Bien que statistiquement significatives, les asymétries mammaires (r= 0.614, p< .001) ne sont pas aussi fortement corrélées entre elles que les volumes. Le sein droit (r=0.805) présente une corrélation plus élevée que le sein gauche (r=0.747). Finalement, l’influence de la posture est étudiée à partir des maillages 3D de l’IRM (décubitus ventral) et de la topographie surfacique 3D (position debout). D’excellentes corrélations sont confirmées entre les volumes mammaires ; r= 0.896 et r= 0.939, respectivement pour les volumes mammaires gauches et droits. Ce projet a permis de démontrer, pour la première fois, qu’il est possible de calculer le volume mammaire de façon objective et précise avec l’IRM, chez une cohorte scoliotique. Grâce à la précision des repères anatomiques, l’IRM nous a permis de revisiter une croyance populaire dans la communauté de la scoliose. Celle soutenant que l’asymétrie mammaire ressentie par les patientes n’est qu’une perception. Ces nouvelles données nous permettrons de conseiller les jeunes filles avec la SIA, concernant leurs préoccupations sur l’asymétrie de leurs seins. Nous avons confirmé que la méthode de mesure automatisée est réalisable cliniquement et pourrait être utilisée pour prédire les volumes obtenus à l’IRM. Par ailleurs, c’est le premier outil de mesure de volumétrie mammaire complètement automatisé à notre connaissance. Les volumes mammaires obtenus debout et en décubitus ventral sont comparables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les sociétés contemporaines affrontent le défi de s’intégrer et s’adapter à un processus de transformation qui vise la construction de sociétés du savoir. Ce processus doit notamment son élan aux institutions d’enseignement supérieur qui constituent un espace privilégié où on bâtit l’avenir d’une société à partir des savoirs et celles-ci doivent faire face aux nouveaux enjeux sociaux, économiques et politiques qui affectent tous les pays du monde. La quête de la qualité devient donc un processus constant d’amélioration et surgit l’intérêt par l’évaluation au niveau universitaire. Par conséquent, cette recherche s’attache au sujet de l’évaluation à l’enseignement supérieur et s’enfonce dans le débat actuel sur les changements provoqués par les évaluations institutionnelles produisant un défi puisqu’il s’agit d’une prise de conscience fondée sur la culture de la qualité. L’autoévaluation est une stratégie permettant aux institutions d’enseignement supérieur mener des processus intégraux de valorisation dont le but est d’identifier les faiblesses des facteurs qui ont besoin d’améliorer. Le résultat conduit à l’élaboration et à la mise en œuvre d’un plan d’amélioration pour l'institution, programme académique ou plan d’études. À travers l’orientation du modèle d’évaluation systémique CIPP de Stufflebeam (1987), on a pu analyser de façon holistique la mise en place de l’autoévaluation depuis son contexte, planification, processus et produit. Ainsi les objectifs de la thèse visent l’identification du développement de la deuxième autoévaluation afin d’obtenir une reconnaissance de haute qualité et effectuer la mise en œuvre du plan d’amélioration auprès des programmes académiques de Licence en Comptabilité et Gestion de l’entreprise de la Faculté de Sciences de l’Administration de l’Université du Valle en Colombie. À travers l’appropriation de la théorie Neo-institutionnelle les changements apparus après l’autoévaluation ont été également analysés et interprétés et ont ainsi permis l’achèvement des fins de la recherche. La méthodologie développe la stratégie de l’étude de cas dans les deux programmes académiques avec une approche mixte où la phase qualitative des entretiens semi-structurés est complémentée par la phase quantitative des enquêtes. Des documents institutionnels des programmes et de la faculté ont aussi été considérés. Grâce à ces trois instruments ont pu obtenir plus d’objectivité et d’efficacité pendant la recherche. Les résultats dévoilent que les deux programmes ciblés ont recouru à des procédés et à des actions accordées au modèle de l’Université du Valle quoiqu’il ait fallu faire des adaptations à leurs propres besoins et pertinence ce qui a permis de mener à terme la mise en œuvre du processus d’autoévaluation et ceci a donné lieu à certains changements. Les composantes Processus Académiques et Enseignants sont celles qui ont obtenu le plus fort développement, parmi celles-ci on trouve également : Organisation, Administration et Gestion, Ressources Humaines, Physiques et Financières. D’autre part, parmi les composantes moins développées on a : Anciens Étudiants et Bienêtre Institutionnel. Les conclusions ont révélé que se servir d’un cadre institutionnel fort donne du sens d’identité et du soutien aux programmes. Il faut remarquer qu’il est essentiel d’une part élargir la communication de l’autoévaluation et ses résultats et d’autre part effectuer un suivi permanent des plans d’amélioration afin d’obtenir des changements importants et produire ainsi un enracinement plus fort de la culture de la qualité et l’innovation auprès de la communauté académique. Les résultats dégagés de cette thèse peuvent contribuer à mieux comprendre tant la mise en œuvre de l’autoévaluation et des plans d’amélioration aussi que les aspects facilitateurs, limitants, les blocages aux processus d’évaluation et la génération de changements sur les programmes académiques. Dans ce sens, la recherche devient un guide et une réflexion à propos des thèmes où les résultats sont très faibles. Outre, celle-ci révèle l’influence des cadres institutionnels ainsi que les entraves et tensions internes et externes montrant un certain degré d’agencement par le biais de stratégies de la part des responsables de la prise de décisions dans les universités. On peut déduire que la qualité, l’évaluation, le changement et l’innovation sont des concepts inhérents à la perspective de l’apprentissage organisationnel et à la mobilité des savoirs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche a été financée par le Fonds de recherche sur la société et la culture du Québec et le Conseil de recherches en sciences humaines. L’auteur a de plus reçu le support financier du programme de remboursement des frais de scolarité des forces armées canadiennes. Les cartes ont été produites grâce au logiciel ArcGIS (ESRI).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire examine la question de la formation de l'identité en tant que procédure compliquée dans laquelle plusieurs éléments interviennent. L'identité d'une personne se compose à la fois d’une identité propre et d’une autre collective. Dans le cas où l’identité propre est jugée sévèrement par les autres comme étant déviante, cela poussera la personne à, ou bien maintenir une image compatible avec les prototypes sociaux ou bien résister et affirmer son identité personnelle. Mon travail montre que l'exclusion et la répression de certains aspects de l'identité peuvent causer un disfonctionnement psychique difficile à surmonter. Par contre, l'acceptation de soi et l’adoption de tous les éléments qui la constituent conduisent, certes après une longue lutte, au salut de l’âme et du corps. Le premier chapitre propose une approche psychosociale qui vise à expliquer le fonctionnement des groupes et comment l'interaction avec autrui joue un rôle décisif dans la formation de l'identité. Des éléments extérieurs comme par exemple les idéaux sociaux influencent les comportements et les choix des gens. Toutefois, cette influence peut devenir une menace aux spécificités personnelles et aux traits spécifiques. Le deuxième chapitre examine la question des problèmes qu’on risque d’avoir au cas où les traits identitaires franchiraient les normes sociales. Nous partons du problème épineux de la quête de soi dans Giovanni's Room de James Baldwin. L'homosexualité de David était tellement refusée par la société qu’elle a engendrée chez lui des sentiments de honte et de culpabilité. Il devait choisir entre le sacrifice des aspects de soi pour satisfaire les paradigmes sociaux ou bien perdre ce qu’il a de propre. David n'arrive pas à se libérer. Il reste prisonnier des perceptions rigides au sujet de la masculinité et de la sexualité. Mon analyse se focalise essentiellement sur l'examen des différents éléments théoriques qui touchent la question du sexe et de la sexualité. Le résultat est le suivant : plus les opinions dominantes sont rigides et fermes, plus elles deviennent une prison pour l’individu. Par contre, plus elles sont tolérantes et flexibles, plus elles acceptent les diversités de l'identité humaine. Dans le dernier chapitre, j'examine la question de la représentation des relations entre les caractères masculins dans Just Above My Head. L'homosexualité est présentée comme un moyen sacré pour exprimer l'amour. Les caractères révèlent leurs sentiments implicitement à travers les chants spirituel tel que le gospel ou bien explicitement à travers la connexion physique. Dans ce roman, Baldwin montre que c'est seulement grâce à la sincérité et à l'amour que l'individu peut atteindre la libération du soi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise a été rédigé dans l’objectif d’explorer une inégalité. Une inégalité dans les pratiques liées à la saisie et l’exploitation des données utilisateur dans la sphère des technologies et services Web, plus particulièrement dans la sphère des GIS (Geographic Information Systems). En 2014, de nombreuses entreprises exploitent les données de leurs utilisateurs afin d’améliorer leurs services ou générer du revenu publicitaire. Du côté de la sphère publique et gouvernementale, ce changement n’a pas été effectué. Ainsi, les gouvernements fédéraux et municipaux sont démunis de données qui permettraient d’améliorer les infrastructures et services publics. Des villes à travers le monde essayent d’améliorer leurs services et de devenir « intelligentes » mais sont dépourvues de ressources et de savoir faire pour assurer une transition respectueuse de la vie privée et des souhaits des citadins. Comment une ville peut-elle créer des jeux de données géo-référencés sans enfreindre les droits des citadins ? Dans l’objectif de répondre à ces interrogations, nous avons réalisé une étude comparative entre l’utilisation d’OpenStreetMap (OSM) et de Google Maps (GM). Grâce à une série d’entretiens avec des utilisateurs de GM et d’OSM, nous avons pu comprendre les significations et les valeurs d’usages de ces deux plateformes. Une analyse mobilisant les concepts de l’appropriation, de l’action collective et des perspectives critiques variées nous a permis d’analyser nos données d’entretiens pour comprendre les enjeux et problèmes derrière l’utilisation de technologies de géolocalisation, ainsi que ceux liés à la contribution des utilisateurs à ces GIS. Suite à cette analyse, la compréhension de la contribution et de l’utilisation de ces services a été recontextualisée pour explorer les moyens potentiels que les villes ont d’utiliser les technologies de géolocalisation afin d’améliorer leurs infrastructures publiques en respectant leurs citoyens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s’intéresse à la formation des partis politiques et l’origine de la loyauté partisane à la Chambre d’assemblée du Bas-Canada entre 1791 et 1840. Pour ce faire, le présent mémoire fait une analyse systématique de tous les votes tenus en Chambre grâce à l’indice de loyauté et à la méthode de la Classification optimale (Optimal Classification) développée par Poole (2005). Il soutient la thèse selon laquelle l’ethnicité est la principale source de division entre les députés lors des votes tenus à la Chambre d’assemblée du Bas-Canada lors des premières législatures et que c’est plutôt l’opposition entre les réformistes constitutionnels et les conservateurs favorables à l’ancien régime qui explique les divisions entre les députés lors des deux dernières législatures. Il soutient également que le statut social des députés, le type de comté dans lequel ils sont élus, l’occupation civile des députés ou leur expérience parlementaire n’expliquent pas l’opposition entre les députés lors des votes au Parlement. Ce mémoire émet également l’hypothèse selon laquelle les partis politiques ont peu d’impact sur le comportement législatif de leurs membres : les députés sont libres de voter selon leurs préférences individuelles sans véritable discipline partisane.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis plus de trente ans, le Québec a pris position en faveur d’un mouvement de professionnalisation de l’enseignement. Ce choix se fonde principalement sur la volonté de moderniser les systèmes d’éducation grâce à la consolidation d’une expertise du travail enseignant. Elle a donc engendré toute une série de réformes visant à formaliser les pratiques des enseignants, à les appuyer sur les résultats de la recherche et à développer un code de pratiques responsables. Cependant, dans une perspective critique, ce processus de professionnalisation entre également dans le cadre plus large d’un processus de rationalisation étatique. Il exige de plus en plus des enseignants de faire preuve d’efficacité à tout prix, mais cette exigence ne tient pas compte de l’incertitude de l’action et des valeurs en jeu. Cette thèse vise à analyser, à partir d’une perspective critique, la conception de l’articulation entre la recherche et la pratique sous-jacente au mouvement de professionnalisation en vue de proposer une conception plus adéquate en regard de la réalité pratique: la traduction. Ce faisant, la thèse propose une réflexion sur le rôle transformateur du langage dans tout processus de transmission des connaissances. L’approche de la traduction s'inspire à la fois de la tradition herméneutique et de la critique poststructuraliste, et remet en question la conception du langage comme véhicule transparent de la pensée et des connaissances. À la lumière de ce cadre, je propose une analyse empirique (analyses discursive et sémiotique) des mécanismes de traduction qui assurent le passage du monde de la recherche vers le monde de l'enseignement. Cette partie repose sur une analyse comparative d’articles provenant de la revue Vie pédagogique, analyse qui se concentre sur les processus de traductions à l’œuvre dans trois concepts centraux du mouvement de professionnalisation : la pratique réflexive, la compétence et la collaboration. Elle met en lumière la manière dont le cadre actuel de la professionnalisation est réducteur, totalisant, et nie le caractère traductif du langage et de l’activité humaine. Je conclus avec une reconceptualisation de l'enseignement en tant que traduction et acte de profession de foi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les hétérojonctions formées de deux matériaux, un donneur et un accepteur (D/A), sont la base de la majorité des mélanges photovoltaïques organiques. Les mécanismes de séparation des charges dans ces systèmes représentent aujourd'hui l'un des sujets les plus chauds et les plus débattus dans ce domaine. Nous entrons au coeur de ce débat en choisissant un système D/A à base de phtalocyanine de cuivre (CuPc) et de fullerène (C60). Pour sonder les états excités de nos molécules et obtenir de l'information sur les phénomènes à l'interface D/A, nous réalisons une expérience pompe-sonde, appelée absorption photoinduite (PIA). Nous y mesurons le changement fractionnaire de transmission au travers de l'échantillon. Les mesures de PIA sont réalisées à l'état de quasi équilibre, à T=10K. Nous observons une modulation prononcée dans la région du photoblanchiment de l'état fondamental qui nous indique que la pompe induit un décalage du spectre d'absorption de l'état fondamental. Ce décalage peut être expliqué par deux processus : soit l'échantillon est chauffé par la pompe (effet thermique) ou bien des charges sont créées à l'interface entre les deux matériaux (effet Stark). La dépendance en température du spectre d'absorption entre 10K et 290K montre une signature thermique pour un changement de température de 80K. Grâce au ratio des raies Raman anti-Stokes et Stokes, nous démontrons que la pompe chauffe l'échantillon de 34 K, température insuffisante pour attribuer notre signal à un effet thermique. Nous évaporons ensuite la bicouche CuPc/C60 sur de l'ITO et du saphir, substrats qui possèdent des conductivités thermiques différentes et nous observons le même signal de PIA, excluant par le fait même l'hypothèse de l'effet thermique. Puisque notre étude est comparable à la spectroscopie à effet Stark, nous procédons à une analyse similaire en comparant notre signal de PIA au spectre de la transmittance et à ses dérivés première et seconde. Nous observons alors que notre signal reproduit presque parfaitement la dérivée seconde de la transmittance. Ces résultats sont conformes à une signature optique d'effet Stark due à la création de charges à l'interface D/A.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dérégulation de la formation et l'intégrité des vaisseaux sanguins peut conduire à un état pathologique tel qu’observé dans de nombreuses maladies ischémiques telles que: la croissance de tumeur solide, l’arthrite rhumatoïde, le psoriasis, les rétinopathies et l'athérosclérose. Par conséquent, la possibilité de moduler l'angiogenèse régionale chez les patients souffrant d'ischémie est cliniquement pertinente. Un élément clé dans l'induction de l'angiogenèse pathologique est une inflammation qui précède et accompagne la formation des nouveaux vaisseaux. Ce phénomène est démontré par l'augmentation de la perméabilité vasculaire et le recrutement de monocytes/ macrophages et cellules polynucléaires (neutrophiles). En collaboration avec d'autres groupes, nous avons montré que différents facteurs de croissance tels que le facteur de croissance endothélial vasculaire et les angiopoïétines peuvent non seulement promouvoir l'angiogenèse mais aussi induire diverses étapes connexes au processus de la réaction inflammatoire, y compris la synthèse et la libération des médiateurs inflammatoires et la migration des neutrophiles. Les objectifs de notre étude étaient d'adresser si le vascular endothelial growth factor (VEGF) et les angiopoïétines (Ang1 et Ang2) sont capables de promouvoir la formation des nouveaux vaisseaux sanguins au fil du temps et d'identifier la présence de différentes cellules inflammatoires dans ce processus. Des éponges d'alcool polyvinylique stérilisées et imbibées de Matrigel appauvri en facteur de croissance (contenant PBS, VEGF, Ang1 ou Ang2 (200 ng/200 μl)) ont été insérées sous la peau de souris C57/Bl6 anesthésiées. Les éponges ont ensuite été retirées aux jours 4, 7, 14 ou 21 après la procédure pour des analyses histologiques, immunohistologiques et cytométriques. La formation des nouveaux vaisseaux a été validée par la coloration au Trichrome de Masson et des analyses histologiques et immunohistologiques contre les cellules endothéliales (anti-CD31). De plus, la maturation des vaisseaux a été démontrée par la coloration séquentielle contre les cellules endothéliales (anti-CD31) et musculaires lisses (anti-alpha-actine). Nous avons effectué la même procédure pour caractériser le recrutement de neutrophiles (anti-MPO), et de macrophages (anti-F4/80). Afin de mieux délimiter la présence de différents sous-ensembles de leucocytes recrutés dans les éponges, nous avons utilisé une technique de cytométrie en flux sur des préparations de cellules isolées à partir de ces éponges. Nous avons observé que le VEGF et les angiopoïétines favorisent le recrutement de cellules endothéliales et la formation de nouveaux vaisseaux plus rapidement qu’en présence de PBS. Une fois formé au jour 7, ces nouveaux vaisseaux restent stables en nombre, et ne subissent pas une réorganisation importante de leur surface. Ces vaisseaux maturent grâce au recrutement et au recouvrement par les cellules musculaires lisses des néovaisseaux. En outre, le microenvironnement angiogénique est composé de cellules inflammatoires, principalement de neutrophiles, macrophages et quelques cellules de type B et T. Donc, le VEGF, l’Ang1 et l’Ang2 induisent séparément la formation et la stabilisation de nouveaux vaisseaux sanguins, ainsi que le recrutement de cellules inflammatoires avec des puissances différentes et une action temps-dépendante dans un modèle d’éponge/Matrigel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À cause de leur impact environnemental élevé, les déchets d’équipements électriques et électroniques (DEEE) sont un problème majeur pour les pays développés. La consommation importante de produits électroniques, dont la durée d’utilisation est de plus en plus courte, a entrainé une production croissante de DEEE. C’est dans ce contexte que l’Union européenne a instauré en 2003 la responsabilité élargie des producteurs (REP). Cet outil de politique environnementale a rendu légalement responsables les fabricants de la mise en oeuvre et du financement d’un programme d’intendance des DEEE. Alors que la REP vise principalement le traitement écologique des DEEE, cet instrument ne permet pas de réduire les quantités considérables qui sont produites par les consommateurs. Cette situation est d’autant plus inquiétante que les gains environnementaux obtenus, grâce à l’implantation de la REP, ont été annulés au regard de l’augmentation continue de la consommation de biens électroniques à l’échelle mondiale. En réponse à cette problématique, la présente thèse porte sur les pratiques de l’usager au cours de la phase de consommation des appareils électroniques (aussi appelée phase d’usage). Cette étape du cycle de vie regroupe l’achat, l’utilisation, la réparation et la mise au rebut des biens. Une approche qualitative de type exploratoire faisant appel à l’étude de cas a été utilisée. Le téléviseur, retenu comme cas d’étude, illustre des enjeux partagés par plusieurs équipements électroniques, tels que : la fréquente mise sur le marché de nouveaux modèles, le bas prix d’acquisition comparé au coût de la réparation et l’influence de la mode sur les choix effectués par le consommateur. Ces facteurs facilitent le remplacement des biens et, par conséquent, pourraient entrainer leur fin de vie prématurée qui se matérialise à travers différentes formes d’obsolescence. Dans le cadre de cette étude de cas, une trentaine d’entrevues semi-dirigées a été réalisée avec des usagers et réparateurs de produits électroniques en vue de documenter les différentes sous-étapes de la phase d’usage d’un téléviseur. Sur la base des informations recueillies, l’objectif de cette thèse est de formuler des recommandations, à destination des autorités politiques, qui pourront permettre une minimisation des impacts environnementaux liés à la phase d’usage des appareils électroniques. Les résultats ont permis de mettre en évidence, via le rôle et le statut singulier occupé par le téléviseur dans les foyers, les comportements de l’usager contribuant à augmenter l’empreinte écologique associée à la phase d’usage. L’acquisition de nombreux biens électroniques et non électroniques suite à l’achat du téléviseur, ses multiples fonctionnalités le rapprochant de celles de l’ordinateur et des tablettes, ainsi que la fin de vie prématurée de produits fonctionnels, mais obsolètes d’un point de vue technologique, font partie des résultats de cette recherche. En lien avec ces constats, cette étude propose des instruments de politique environnementale, dont l’affichage de la durée de vie des équipements électroniques, destinés à aider le consommateur à réaliser des choix plus éclairés au moment de l’achat. D’autres orientations, telles que la possibilité d’évoluer vers une réglementation horizontale, c’est-à-dire un cadre législatif qui ne se basera plus sur le produit individuel, mais sur l’ensemble des appareils ayant des fonctionnalités similaires, sont exposées. Par ailleurs, cette recherche explore certains leviers pouvant minimiser le phénomène de fin de vie prématurée des appareils électroniques, tels que l’envoi de biens obsolètes et fonctionnels des pays développés vers ceux en développement pour permettre leur réutilisation et la tendance du Do-It- Yourself dans la réparation des produits électroniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fibrose kystique (FK) est la maladie autosomique récessive la plus fréquente chez les individus de race caucasienne. Elle est secondaire à la mutation du gène Cystic Fibrosis Transmembrane Regulator (CFTR). Grâce à des traitements plus agressifs, la médiane de l’espérance de vie des individus atteints de la FK a augmenté et cette augmentation est associée à l’émergence du diabète secondaire ou associé à la FK (DAFK), une complication associée à une augmentation du taux de mortalité. La pathophysiologie du DAFK n’est pas parfaitement comprise. Par exemple, la cause de l’accélération de la perte de la fonction pulmonaire, qui débute des années avant l’apparition du DAFK, n'est pas élucidée. Tous les patients atteints de la FK, même ceux sans le DAFK, présentent de l’hyperglycémie et des fluctuations glycémiques. D’ailleurs, une étude a démontré que la réactivité immunitaire est affectée par l’hyperglycémie dans un modèle animal de la FK et il y a des évidences que les lymphocytes sans CFTR fonctionnel ou en présence d’un excès de glucose ont des réactions inflammatoires anormales. Donc, nous avons émis l’hypothèse que les patients atteints de la FK, surtout ceux non-diabétiques et pré-diabétiques, auront une plus grande proportion de lymphocytes Th17 et Treg produisant la cytokine pro-inflammatoire IL-17A comparativement aux sujets sains et que l’augmentation de cette cytokine pourrait influencer la chute accélérée des fonctions pulmonaires avant l’apparition du DAFK. Des niveaux élevés d’IL-17A sont retrouvés dans les poumons des patients atteints de la FK et dans le sang périphérique des patients avec le diabète de type 1 (DT1) et de type 2 (DT2). L’IL-17A peut aussi être produite par les lymphocytes Treg dysfonctionnels. Habituellement, ces lymphocytes atténuent les réponses inflammatoires excessives, mais lorsqu’ils sont dysfonctionnels, ils peuvent produire de l’IL-17A, contribuant ainsi à l’état inflammatoire. De plus, nous avons supposé que les proportions de Th17 et Treg produisant de l’IL-17A seront associées aux fonctions pulmonaires des patients atteints de la FK et que l’alimentation, l’activité physique et la composition corporelle influenceraient ces relations. Les résultats de cette thèse ont montré que, malgré une association entre la proportion de lymphocytes dans le sang périphérique et les indices de fluctuations glycémiques, celles-ci n’influençaient pas les proportions de lymphocytes Th17 et Treg produisant de l’IL-17A lorsqu’ils étaient mis en culture pour 24 ou 48 heures dans des milieux contenant soit 5 mM ou 25 mM de glucose et stimulés par le phorbol 12-myristate 13-acetate (PMA) et le phytohemagglutinine (PHA) ou, encore, non stimulés. De plus, ces proportions étaient semblables entre les patients atteints de la FK et les individus en santé. Toutefois, les proportions de lymphocytes Treg stimulés produisant de l’IL-17A des sujets sains étaient plus élevées que les proportions de lymphocytes Treg non stimulés de tous les participants (patients atteints de la FK et individus en santé). Tout ceci suggérant donc que les Treg des sujets sains et atteints de la FK ne réagissaient pas de la même façon à la stimulation. D’ailleurs, la durée d’incubation affectait les proportions de Th17 produisant de l’IL-17A, mais elle n’avait aucun effet sur les proportions de Treg produisant cette cytokine. Donc, ces types cellulaires réagissaient différemment dans les mêmes milieux de culture. De plus, nous avons observé que seulement l’énergie provenant des glucides affectait modestement les indices de fluctuations glycémiques et que les proportions de Th17 et Treg produisant de l’IL-17A n’étaient pas associées aux fonctions pulmonaires des patients atteints de la FK. En conclusion, les patients atteints de la FK avaient plus d’hyperglycémie et de fluctuations glycémiques, mais elles n’influençaient pas les proportions de lymphocytes Th17 et Treg produisant de l’IL-17A ex vivo. Dans des études futures, il faudrait étudier le rôle de l’IL-17A dans les poumons des patients avec et sans le DAFK et réaliser une étude prospective pour déterminer si une augmentation des niveaux d’IL-17A chez les patients sans le DAFK se traduit par une chute accélérée des fonctions pulmonaires avant l’apparition de cette complication.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation de stratégies antisyndicales est un phénomène de plus en plus préconisé par l’acteur patronal (Bronfenbrenner, 2009b). Une piste d’explication de cette croissance serait liée à l’idéologie de gestion se basant sur une amertume inhérente à l’idée de partager le pouvoir avec une tierce partie représentant des travailleurs (Dundon et al., 2006). Dans le but de faire régner cette idéologie et de conserver un environnement de travail sans présence syndicale, des multinationales se sont même positionnées ouvertement contre la syndicalisation, que l’on pense à Wal-Mart, Mc Donald’s ou Disney (Dundon et al., 2006). Avec cette puissance que les multinationales détiennent actuellement, il ne fait nul doute qu’elles exercent une influence auprès des dirigeants des plus petites entreprises (Dundon et al., 2006), ce qui pourrait expliquer ce recours accru aux stratégies antisyndicales, que ce soit avant ou après l’accréditation syndicale. Mais qu’en est-il de l’antisyndicalisme de l’acteur patronal en sol canadien? Pour certains, les employeurs canadiens pratiqueraient davantage une stratégie d’acceptation du syndicalisme comparativement à nos voisins du sud à cause notamment de la plus forte présence syndicale historique dans le système des relations industrielles canadien, des tactiques syndicales canadiennes différentes (Thomason & Pozzebon, 1998) et des lois encadrant davantage les droits d’association et de négociation collective (Boivin, 2010; Thomason & Pozzebon, 1998). Des travaux montrent cependant une réelle volonté de la part des employeurs canadiens à avoir recours à des stratégies d’opposition à la syndicalisation (Bentham, 2002; Martinello & Yates, 2002; Riddell, 2001). Selon les auteurs Martinello et Yates (2002), six pour cent (6 %) des employeurs ontariens couverts dans le cadre de leur étude n’auraient adopté aucune tactique pour éviter ou éliminer le syndicat : quatre-vingt-quatorze pour cent (94 %) des employeurs couverts ont ainsi utilisé différentes tactiques pour s’opposer au syndicalisme. C’est donc dire que l’opposition patronale face au mouvement syndical révélée par l’utilisation de diverses stratégies antisyndicales est aussi présente chez les employeurs canadiens. Peu d’études canadiennes et québécoises ont pourtant enrichi la littérature au sujet de ce phénomène. De manière générale, les travaux effectués sur la question, anglo-saxons et surtout américains, font principalement état du type de stratégies ainsi que de leur fréquence d’utilisation et proposent souvent une méthodologie basée sur une recension des décisions des tribunaux compétents en la matière ou l’enquête par questionnaire. Face à ces constats, nous avons visé à contribuer à la littérature portant sur les stratégies antisyndicales et nous avons construit un modèle d’analyse nous permettant de mieux cerner leurs effets sur les travailleurs et les syndicats. Notre recherche se démarque également de la littérature de par les démarches méthodologiques qu’elle propose. Nous avons en effet réalisé une recherche de nature qualitative, plus spécifiquement une étude de cas d’une entreprise multiétablissement du secteur du commerce au détail. Notre modèle d’analyse nous permet de dégager des constats quant aux effets de l’utilisation des stratégies patronales antisyndicales auprès des travailleurs visés et du syndicat visé, que ce soit sur les intérêts individuels, les intérêts collectifs ainsi que sur les intérêts du syndicat tels que proposés par Slinn (2008b). Également, nous cherchions à comprendre dans quelle mesure les stratégies antisyndicales contribuent à diminuer (effet paralysant) ou à augmenter (effet rebond) la propension à la syndicalisation des travailleurs visés par les stratégies, tout en tenant compte de la propension des travailleurs d’autres succursales qui n’étaient pas visés directement par cette utilisation (effet d’entraînement). Pour atteindre nos objectifs de recherche, nous avons procédé en trois phases. La phase 1 a permis de faire la recension de la littérature et de formuler des propositions théoriques à vérifier sur le terrain. La phase 2 a permis de procéder à la collecte de données grâce aux entrevues semi-dirigées réalisées à deux niveaux d’analyse : auprès de représentants syndicaux et de travailleurs. Au cours de la phase 3, nous avons procédé à la retranscription des entrevues effectuées et nous avons analysé les principaux résultats obtenus. La méthode de l’appariement logique (Yin, 2009) a été utilisée pour comparer les phénomènes observés (données issues du terrain) aux phénomènes prédits (constats de la littérature et propositions théoriques). À la suite de la réalisation de la phase 3, nous constatons que la campagne de peur a été celle qui a été la plus utilisée en réaction à la menace de présence syndicale avec les tactiques dites coercitives qui la composent : la fermeture de deux succursales, un discours devant un auditoire captif, la diffusion d’une vidéo interne, etc. De ce fait, un sentiment de peur généralisé (86 % des répondants) s’attaquant aux intérêts collectifs a été perçu à la suite de l’utilisation des tactiques antisyndicales. Par conséquent, nous avons pu observer l’effet de ces tactiques sur les travailleurs visés et sur le syndicat : elles auraient en effet gelé la propension de travailleurs d’autres succursales à se syndiquer (64 % des répondants) et donc freiné la campagne syndicale en cours. Nous constatons également que bon nombre de tactiques ont été déployées à la suite de l’accréditation syndicale en s’attaquant aux intérêts individuels. Mentionnons, pour n’en citer que quelques-uns, que les travailleurs feraient face à une plus forte discipline (72 % des répondants), qu’ils seraient victimes d’intimidation ou de menaces (80 % des répondants) et que ces tactiques provoquèrent des démissions à cause de l’ambiance de travail alourdie (50 % des répondants).