827 resultados para Puissance moyenne
Resumo:
L’objectif de cette étude est de réaliser une analyse comparative de la pauvreté et de la structure de consommation des ménages des capitales des Etats membres de l’Union Economique et Monétaire Ouest Africaine (UEMOA) à partir des données des enquêtes dépenses des ménages (EDM) réalisées en 2008 dans ces agglomérations. En s’appuyant sur l’approche monétaire de la pauvreté mise en oeuvre par la méthode du coût des besoins essentiels, il ressort que plus d’un ménage sur 10, soit 10,5% de l’ensemble de la population étudiée vit sous le seuil de pauvreté estimé à 277450 F CFA de dépenses annuelles par unité de consommation. Le test de dominance stochastique de 1er ordre confirme que l’ampleur du phénomène est en moyenne plus importante dans les villes sahéliennes (Bamako, Niamey, Ouagadougou) que dans les grandes villes côtières (Abidjan, Dakar, Lomé). Par ailleurs, l’analyse économétrique révèle que la taille du ménage et le capital humain du chef de ménage sont des déterminants importants du niveau de vie monétaire des ménages. En effet, tandis que le risque de pauvreté est plus élevé chez les ménages de grande taille, le niveau de vie d’un ménage est d’autant plus élevé que le niveau d’instruction du chef est important. En outre, on observe que dans les agglomérations où le taux de pauvreté est le plus élevé, les ménages accordent un poids plus élevé aux dépenses alimentaires. Enfin, l’estimation des élasticités dépenses totales de la demande à l’aide d’une régression linéaire suggère qu’en moyenne, les besoins de consommation insatisfaits par les ménages portent sur les services (les transports, la communication, la santé, l’éducation et les loisirs).
Resumo:
L’avancement en âge est associé à plusieurs modifications cognitives, dont un déclin des capacités à mémoriser et/ou à rappeler les événements vécus personnellement. Il amène parallèlement une augmentation des faux souvenirs, c.-à-d. le rappel d’événements qui ne se sont pas réellement déroulés. Les faux souvenirs peuvent avoir d’importantes répercussions dans la vie quotidienne des personnes âgées et il importe donc de mieux comprendre ce phénomène en vieillissement normal. Des études ont démontré l’importance de la fonction des lobes temporaux médians (FTM)/mémoire et de la fonction des lobes frontaux (FF)/fonctions exécutives dans l’effet de faux souvenirs. Ainsi, la première étude de la thèse visait à valider en français une version adaptée d’une méthode proposée par Glisky, Polster, & Routhieaux (1995), permettant de mesurer ces fonctions cognitives (Chapitre 2). L’analyse factorielle de cette étude démontre que les scores neuropsychologiques associés à la mémoire se regroupent en un facteur, le facteur FTM/mémoire, alors que ceux associés aux fonctions exécutives se regroupent en un deuxième facteur, le facteur FF/fonctions exécutives. Des analyses « bootstrap » effectuées avec 1 000 ré-échantillons démontrent la stabilité des résultats pour la majorité des scores. La deuxième étude de cette thèse visait à éclairer les mécanismes cognitifs (FTM/mémoire et FF/fonctions exécutives) ainsi que théoriques de l’effet de faux souvenirs accru en vieillissement normal (Chapitre 3). La Théorie des Traces Floues (TTF; Brainerd & Reyna, 1990) propose des explications de l’effet de faux souvenirs pour lesquelles la FTM/mémoire semble davantage importante, alors que celles proposées par la Théorie de l’Activation et du Monitorage (TAM; Roediger, Balota, & Watson, 2001) sont davantage reliées à la FF/fonctions exécutives. Les tests neuropsychologiques mesurant la FTM/mémoire ainsi que ceux mesurant la FF/fonctions exécutives ont été administrés à 52 participants âgés (moyenne de 67,81 ans). Basé sur l’étude de validation précédente, un score composite de la FTM/mémoire et un score composite de la FF/fonctions exécutives ont été calculés pour chaque participant. Ces derniers ont d’abord été séparés en deux sous-groupes, un premier au score FTM/mémoire élevé (n = 29, âge moyen de 67,45 ans) et un deuxième au score FTM/mémoire faible (n = 23, âge moyen de 68,26 ans) en s’assurant de contrôler statistiquement plusieurs variables, dont le score de la FF/fonctions exécutives. Enfin, ces participants ont été séparés en deux sous-groupes, un premier au score FF/fonctions exécutives élevé (n = 26, âge moyen 68,08 ans) et un deuxième au score FF/fonctions exécutives faible (n = 25, âge moyen de 67,36 ans), en contrôlant les variables confondantes, dont le score de la FTM/mémoire. Les proportions de vraie et de fausse mémoire (cibles et leurres associatifs) ont été mesurées à l’aide d’un paradigme Deese-Roediger et McDermott (DRM; Deese, 1959; Roediger & McDermott, 1995), avec rappel et reconnaissance jumelée à une procédure « Je me souviens / Je sais » (Tulving, 1985) chez les 52 participants âgés ainsi que chez 22 jeunes (âge moyen de 24,59 ans), apparié pour les années de scolarité. D’abord, afin de tester l’hypothèse de la TTF (Brainerd & Reyna, 1990), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FTM/mémoire. Ensuite, afin de tester l’hypothèse de la TAM (Roediger et al., 2001), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FF/fonctions exécutives. Il s’agit de la première étude qui compare directement ces hypothèses à travers de nombreuses mesures de vraie et de fausse mémoire. Les résultats démontrent que seule la FTM/mémoire modulait l’effet d’âge en vraie mémoire, et de manière quelque peu indirecte, en fausse mémoire et dans la relation entre la vraie et la fausse remémoration. Ensuite, les résultats démontrent que seule la FF/fonctions exécutives jouerait un rôle dans la fausse reconnaissance des leurres associatifs. Par ailleurs, en des effets d’âge sont présents en faux rappel et fausse remémorations de leurres associatifs, entre les jeunes adultes et les personnes âgées au fonctionnement cognitif élevé, peu importe la fonction cognitive étudiée. Ces résultats suggèrent que des facteurs autres que la FTM/mémoire et la FF/fonctions exécutives doivent être identifiés afin d’expliquer la vulnérabilité des personnes âgées aux faux souvenirs. Les résultats de cette thèse sont discutés à la lumière des hypothèses théoriques et cognitives en faux souvenirs (Chapitre 4).
Resumo:
La présente recherche porte sur « l’attribution de la responsabilité » auprès d’une population de 166 adolescents auteurs d’agression sexuelle âgés de 12 à 19 ans. Le but premier de cette investigation est de déterminer quels aspects psychologiques (âge, stress post-traumatique, distorsion cognitive, estime de soi, aliénation, immaturité) influencent trois types d’attributions de la responsabilité, soit la culpabilité, l’attribution externe et l’attribution interne, et ainsi sur quels niveaux focaliser le traitement. Les résultats des régressions multiples ont mis en avant deux modèles. Pour le modèle prédisant la culpabilité, une seule composante est retenue, le stress post-traumatique. Ce modèle explique 26% (ajusté) de la variance de la culpabilité (R2=0,29, F(6,120)=8,35, p<0,01). Le modèle prédisant l’attribution externe est composé de l’âge et des distorsions cognitives et permet d’expliquer 25% (ajusté) de la variance (R2=0,28, F(6,122)=8,03, p<0,01). L’attribution interne ne présente aucune corrélation avec les variables étudiées. Le deuxième objectif est d’estimer l’efficacité de la prise en charge du jeune pour modifier l’attribution de responsabilité, selon les différentes modalités qui sont le « milieu de prise en charge », la « durée du traitement » et « l’approche thérapeutique » afin de choisir le programme le plus adéquat. En utilisant l’analyse de la variance (ANOVA), il a été possible de déterminer qu’aucune de ces modalités n’influence l’attribution de la responsabilité. Cette étude présente des limites, notamment la puissance statistique. Comme piste pour de futures recherches, le lien entre l’attribution de la responsabilité et la récidive pourrait être examiné.
Resumo:
Ce mémoire propose que l’origine d’un cyberdélinquant soit un facteur explicatif du phénomène de la cybercriminalité. Il comporte deux objectifs : premièrement, décrire les profils des cybercriminels recensés dans les médias internationaux; deuxièmement, vérifier si ces profils varient selon le lieu d’origine du cyberdélinquant. Une base de données, comportant 90 cas de cybercriminels répertoriés à travers le monde, fut créée. Quinze (15) cybercriminels par territoire ont été sélectionnés, les régions ciblées allant comme suit : Amérique du Nord, Amérique latine, Australasie, Europe de l’Ouest, Eurasie et Afrique/péninsule Arabique. En premier lieu, des analyses descriptives ont été exécutées afin de dresser un portrait de ce phénomène. En second lieu, des analyses de tableaux de contingence ont été effectuées entre les variables à l’étude afin de voir si des relations existaient. Enfin, d’autres analyses de tableaux de contingence ont été réalisées afin d’établir les différences des paramètres en fonction de l’origine. Les résultats de ces divers tests démontrent que ce sont généralement de jeunes hommes âgés en moyenne de 25 ans qui seront susceptibles de commettre des délits informatiques. Quelques profils types se sont dégagés des analyses et peuvent s’expliquer par l’accès au matériel informatique, les inégalités économiques entre classes sociales, tout comme la vitesse d’Internet, et ce, en fonction de l’origine du cyberdélinquant.
Resumo:
La transglutaminase tissulaire est une enzyme dépendante du calcium qui catalyse la formation de liens isopeptidiques, entre les chaînes latérales de résidus glutamine et lysine, permettant, par le fait même, la réticulation des protéines dans les systèmes biologiques. Elle joue un rôle, entre autres, dans l’endocytose, la régulation du développement des cellules, et même dans l’apoptose. Néanmoins, une dérégulation de l’activité biologique de cette enzyme peut entrainer différentes pathologies, comme la formation de cataractes, de plaques amyloïdes dans la maladie d’Alzheimer, ou encore peut mener au développement de la maladie céliaque. C’est pourquoi une meilleure connaissance du mécanisme d’action de cette enzyme et la possibilité de réguler son action à l’aide de substrats ou d’inhibiteurs sont nécessaires. Dans cette optique, une méthode d’expression et de purification de la transglutaminase humaine a été développée, permettant de travailler directement avec la cible pharmacologique désirée. De plus, une étude du mode d’inhibition et de liaison d’une classe d’inhibiteurs réversibles précédemment découverte dans le groupe, soit la famille des trans-cinnamoyles, a permis d’identifier que la puissance de ces molécules est influencée par la présence du calcium et qu’une inhibition dépendante du temps est observée, en lien avec un potentiel équilibre conformationnel lent de la transglutaminase. D’un autre côté, la susceptibilité à une attaque nucléophile par des thiols de cette classe de molécule rend leur potentiel pharmacologique grandement diminué, et c’est pourquoi une nouvelle famille de molécules a été identifiée, basée sur un squelette ynone, avec une valeur d’IC50 très prometteuse de 2,6 μM, en faisant un des meilleurs inhibiteurs réversibles de la transglutaminase développés à ce jour. Finalement, une stratégie de photomarquage jumelée à une analyse de spectrométrie de masse en tandem a été développée pour la découverte du site de liaison du substrat dérivé de la lysine, dans le but de mieux comprendre le mécanisme complexe de cette enzyme.
Resumo:
Cette thèse a été réalisée, entre autres, grâce à une subvention reçue du Fonds de recherche du Québec – Société et culture et de son partenaire le ministère de l’Éducation, du Loisir et du Sport (MELS) Les analyses contenues dans cette thèse ont été réalisées au Centre interuniversitaire québécois de statistiques sociales (CIQSS), membre du Réseau canadien des centres de données de recherche (RCCDR). Les activités du CIQSS sont rendues possibles grâce à l’appui financier du CRSHC, des IRSC, de la FCI, de Statistique Canada, du FRQSC ainsi que de l’ensemble des universités québécoises qui participent à leur financement. Les idées exprimées dans ce texte sont celles des auteurs et non celles des partenaires financiers.
Resumo:
L’Empire ottoman, au XIXe siècle, s’affaiblit sans cesse et paraît destiné à s'effondrer. Il est l’objet de convoitises et de rivalités entre les puissances européennes. Sous sa suzeraineté, la Syrie et, avec elle, la région du Mont-Liban, est une zone clé sur le plan stratégique puisqu'elle domine l’accès aux voies menant à l’Inde et à l’Asie méridionale et orientale. La France et l'Angleterre tentent toutes deux de s'y imposer par communautés locales interposées : la première à travers les Maronites, la seconde à l'aide des Druzes. Au printemps 1860, des troubles éclatent entre les deux communautés, entraînant le massacre de milliers de chrétiens. Les puissances européennes, poussées par le gouvernement de Napoléon III, s'entendent pour intervenir au moyen d'une commission d'enquête et l'envoi de troupes. Cette expédition a pour mission officielle d’aider l’Empire ottoman à rétablir l’ordre et à protéger les chrétiens. Le présent mémoire démontre que la France impériale entretenait des visées politiques et économiques à l'égard de la Syrie et du Liban. L'historiographie n'avait jusqu'à présent pas analysé en profondeur les véritables mobiles français dans cette expédition. Les ambitions politiques et économiques ont été beaucoup plus déterminantes dans la décision française de mettre en branle l'expédition que le devoir « humanitaire » de protection des chrétiens ou la satisfaction de son opinion publique. Loin de se laisser abattre par la catastrophe que représentent les massacres qui menace la survie de sa clientèle et donc de son influence en Syrie, Paris, et particulièrement son ministre des Affaires étrangères E. Thouvenel, a réussi à tourner la situation à son avantage. Se servant habilement du désir d'ingérence des autres puissances et de son rôle de protectrice des chrétiens, la France est parvenue à acculer au pied du mur l'Angleterre, qui s'opposait à l'intervention, et à justifier celle-ci sur des principes éloignés de ses objectifs réels. Les troubles ont finalement constitué pour elle une occasion d'augmenter l'autonomie de la Montagne par rapport au pouvoir central et la puissance économique et politique de sa clientèle à travers la révision du statut administratif de la région. Ce faisant, elle a renforcé son influence dans l'Est méditerranéen et fait un pas de plus vers une domination française en Syrie.
Resumo:
Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.
Resumo:
Campylobacter est l’agent pathogène zoonotique responsable de la majorité des gastro-entérites d’origine bactérienne chez l’homme. Les produits de volaille représentent la principale source d’infection; toutefois, l’exposition peut également découler de contacts directs avec les animaux ou avec l’eau. Une forte variation saisonnière est présente dans les cas rapportés, qui n’est toujours pas élucidée : les eaux environnementales, sources d’infection connues, sont soupçonnées. Cette étude transversale a été réalisée dans la région Sud-Est du Québec (Canada) où Campylobacter fut quantifié et génotypé à partir de différentes sources d’eau (eaux de captage, récréatives et usées) et de cas cliniques afin d’évaluer les risques potentiels posé par l’eau environnementale. Différents essais PCR en temps réel furent appliqués à l’eau environnementale et comparés: 2 ont été sélectionnés pour leur spécificité et sensibilité de quantification. Les courbes standards ont été calibrées en utilisant la PCR digitale pour déterminer précisément les concentrations. Les isolats environnementaux et cliniques furent comparés génétiquement en utilisant le CGF (« comparative genomic fingerprinting »). Les eaux usées étaient plus contaminées que les eaux de captage et récréatives (3.9Log, 1.7Log et 1.0Log cellules/L en moyenne, respectivement). Six pour cent des isolats d’eaux environnementales étaient génétiquement similaires (100 % homologie) aux isolats cliniques. Les cas cliniques de campylobactériose d’été montraient des isolats avec davantage de similarités génétiques avec les isolats retrouvés dans l’eau environnementale comparativement aux autres saisons (p<0.01). Les faibles concentrations et similarités génétiques entre les isolats d’eau et cliniques suggèrent un risque de transmission possible, mais faible.
Resumo:
Nous avons cherché des relations empiriques entre l’abondance des macrophytes submergés et le développement résidentiel du bassin versant, les propriétés du lac et la présence de milieux humides dans 34 lacs de la région des Laurentides et de Lanaudière sélectionnés à travers un gradient de développement résidentiel. Les macrophytes submergés ont été échantillonnés par méthode d’échosondage à l’intérieur de la zone littorale. L’abondance moyenne des macrophytes a ensuite été estimée à l’intérieur de quatre zones de croissance optiquement définies (profondeur maximale = 75 %, 100 %, 125 % et 150 % de la profondeur de Secchi) ainsi qu’à l’intérieur de toute la zone littorale. L’occupation humaine a été considérée selon trois échelles spatiales : celle présente 1- dans un rayon de 100 mètres autour du lac, 2- dans la fraction du bassin versant qui draine directement vers le lac et 3- dans le bassin versant en entier. Nous avons aussi testé, lac par lac, l’effet de la pente locale sur l’abondance des macrophytes. Nous avons observé des corrélations positives et significatives entre l’abondance des macrophytes submergés et l’occupation humaine de l’aire de drainage direct (r > 0.51). Toutefois, il n’y a pas de relation entre l’abondance des macrophytes submergés et l’occupation humaine de la bande de 100 mètres entourant le lac et du bassin versant entier. Les analyses de régression multiple suggèrent que l’abondance des macrophytes submergés est faiblement corrélée avec l’aire du lac (+) et avec la présence de milieux humides dans le bassin versant entier (-). Localement, l’abondance des macrophytes est reliée à la pente et à la profondeur qui expliquent 21% de la variance. Les profondeurs de colonisation maximale et optimale des macrophytes submergés sont corrélées positivement au temps de résidence et à la profondeur de Secchi et négativement à l’occupation humaine et à l’importance des milieux humides.
Resumo:
INTRODUCTION: Le bleu de méthylène est un colorant grandement utilisé dans le domaine médical, notamment pour ses propriétés de coloration histologique. Il est également utilisé comme agent photosensibilisant dans la thérapie photodynamique antimicrobienne, qui une fois photoactivé devient efficace pour l’éradication de plusieurs germes multirésistants. L’objectif de cette étude est d’investiguer le potentiel ototoxique du bleu de méthylène. MÉTHODES: Vingt cochons d’Inde divisés en deux groupes, ont reçu une solution de bleu de méthylène et de gentamicine dans l’oreille testée. L’oreille controlatérale a reçu une solution saline contrôle. Nous avons procédés à des potentiels évoqués auditifs du tronc cérébral avant et une semaine suivant la série d’injections. À la suite des dissections, des analyses histologiques et immunohistochimiques ont été réalisées. RÉSULTATS: La différence moyenne de perte auditive dans le groupe gentamicine comparativement au groupe normal salin était de 66.25 dB (p<0.001). Toutefois, la différence moyenne de perte auditive dans le groupe ayant reçu du bleu de méthylène comparativement à celui ayant reçu des injections de la solution saline était de 1.50 dB, et n’a pas été démontré comme étant statistiquement significative (p=0.688). De plus, la captation de caspase-3 en immunohistochimie (marqueur d’apoptose) n’a pas été significative dans le groupe recevant le bleu de méthylène. CONCLUSION: À la lumière de nos résultats, les injections intratympaniques de bleu de méthylène n’ont pas démontrées de potentiel ototoxique. Nous recommandons des études supplémentaires afin d’en préciser son utilisation sécuritaire dans le domaine otologique.
Resumo:
L’hypertrophie cardiaque représente la réponse primaire du cœur dans le but d’améliorer la fonction cardiaque qui est compromise suite à un accident ischémique ou une surcharge hémodynamique. Cependant, l’hypertrophie cardiaque a pour conséquence pathologique la fibrose réactive, qui est caractérisée par la synthèse incontrôlée et le dépôt du collagène par les myofibroblastes. Ainsi, l’accumulation accrue du collagène dans le cœur hypertrophié mène à l’augmentation de la rigidité cardiaque et la détérioration progressive de la fonction contractile du cœur. Plusieurs études ont démontré que la protéine nestine, appartenant à la famille des filaments intermédiaires, est ré-exprimée dans les myofibroblastes durant la fibrose réparative et est impliquée dans la prolifération cellulaire. Basée sur ces observations, cette étude teste l’hypothèse selon laquelle nestine est induite dans les myofibroblastes suivant le développement de la fibrose réactive dans le cœur des rats ayant subi une constriction aortique supra-rénale. Deux semaines suivant une constriction aortique supra-rénale chez le rat, un patron d’hypertrophie concentrique cardiaque a été observé et associé avec une réponse de fibrose réactive caractérisée par le dépôt accru de collagène dans le tissu interstitiel et la région péri-vasculaire de nombreux vaisseaux sanguins cardiaques. De plus, les niveaux de la protéine nestine sont augmentés significativement dans les cœurs des rats hypertrophiés, et ce, de façon corrélative avec la pression artérielle moyenne et la pression systolique du ventricule gauche. Les techniques d’immunofluorescences ont révélé une apparition accrue des cellules immunoréactives à nestine, qui présentent un phénotype mésenchymateux caractérisé par la co-expression de collagène dans le tissu interstitiel et la région péri-vasculaire des cœurs hypertrophiés. Ces données suggèrent que les fibroblastes résidents peuvent exprimer la protéine nestine ou que l’expression de nestine est induite en réponse aux facteurs pro-fibrotiques impliqués dans la fibrose réactive. En effet, l’exposition des myofibroblastes normaux et des myofibroblastes isolés des cœurs hypertrophiés à l’AII, TGF-B1 et EGF augmente significativement l’expression de la protéine nestine, tandis que l’expression de l’α-SMA demeure inchangée. De plus, de manière prédominante dans le cœur hypertrophié, des cellules non-vasculaires CD31(+) ont été détectées dans le tissu interstitiel et la région péri-vasculaire. Ces cellules co-expriment nestine et collagène suggérant une transition des cellules endothéliales vers un phénotype mésenchymateux. Finalement, la protéine nestine, sous sa forme filamenteuse, a été détectée dans les cellules endothéliales de l’artère coronaire humaine et leur exposition au TGF-B1, induit l’expression de collagène. En revanche, l’expression de collagène a été détectée dans les cellules microvasculaires de rats CD31(+), alors que l’expression de nestine est absente. En réponse aux traitements de TGF-B1 et EGF, l’expression de nestine, sous sa forme non-filamenteuse, est détectée dans les cellules microvasculaires de rats. Collectivement, ces données supportent la prémisse selon laquelle la réponse de fibrose réactive dans les cœurs hypertrophiés, suite à une constriction aortique supra-rénale, est attribuée en partie à l’augmentation de l’apparition des cellules mésenchymateuses positives à l’expression de nestine qui proviennent des fibroblastes résidents du ventricule. De plus, les données in vivo et in vitro suggèrent que les cellules endothéliales déplacées représentent une source additionnelle des cellules mésenchymateuses nestine(+) dans le cœur hypertrophié et contribuent au développement de la fibrose réactive. Cibler la protéine nestine peut représenter une approche thérapeutique afin d’atténuer la réponse de fibrose réactive indépendamment de l’origine des cellules mésenchymateuses.
Resumo:
L’ablation laser de verres métalliques de CuxZr1−x (x = 0.33, 0.50 et 0.67) et d’un alliage métallique cristallin de CuZr2 dans la structure C11b a été étudiée par dynamique moléculaire (DM) combinée à un modèle à deux températures (TTM). Le seuil d’ablation (Fth) a été déterminé pour chacun des 4 échantillons et s'est avéré plus bas pour les échantillons plus riches en Cu étant donné que la cohésion du Cu est plus faible que celle du Zr dans tous les échantillons. Pour x=0.33, Fth est plus bas pour le cristal que pour l’amorphe car le couplage électron-phonon est plus faible dans ce dernier, ce qui implique que l’énergie est transférée plus lentement du système électronique vers le système ionique pour le a-CuZr2 que le c-CuZr2. La vitesse de l’onde de pression créée par l’impact du laser croît avec la fluence dans l’échantillon cristallin, contrairement aux échantillons amorphes dans lesquels sa vitesse moyenne est relativement constante avec la fluence. Ceci est expliqué par le fait que le module de cisaillement croît avec la pression pour le cristal, ce qui n’est pas le cas pour les verres métalliques étudiés. Finalement, la zone affectée par la chaleur (HAZ) a été étudiée via la profondeur de fusion et les déformations plastiques. La plus faible température de fusion des échantillons amorphes implique que la profondeur de fusion est plus importante dans ceux-ci que dans l’échantillon cristallin. Dans les verres métalliques, les déformations plastiques ont été identifiées sous forme de zones de transformation par cisaillement (STZ) qui diffusent et fusionnent à plus haute fluence. Aucune déformation plastique importante n’a été identifiée dans le c-CuZr2 mis à part de légères déformations près du front de fusion causées par les contraintes résiduelles. Ce travail a ainsi permis d’améliorer notre compréhension de l’ablation laser sur les verres métalliques et de l’étendue des dommages qu’elle peut entraîner.
Resumo:
L’encéphalopathie hépatique (EH) est une complication neuropsychiatrique de la maladie de foie telle que la cirrhose, caractérisée par des dysfonctions cognitives et motrices. Le seul traitement curatif est la transplantation hépatique (TH). Historiquement, l’EH est considérée comme un désordre métabolique réversible et il est attendu qu’il soit résolu suivant la TH. Cependant, il a été démontré que des complications neurologiques persistent chez 47% des patients transplantés. La TH est une opération chirurgicale complexe accompagnée de stress péri-opératoire telle que la perte sanguine et l’hypotension. L’hypothèse de ce projet d’étude est que l’EH minimale (EHm) rend le cerveau plus susceptible à une perte neuronale suite à une insulte hypotensive. Nous avons donc caractérisé un modèle d’hypotension chez des rats cirrhotiques avec ligation de la voie biliaire (BDL) dans lequel une hypovolémie de l’artère fémorale a été faite. Avec ce modèle, nous avons étudié l’impact de différentes pressions sanguines de 120 minutes sur le compte neuronal. Nos résultats démontrent que les BDL hypotendus à une pression artérielle moyenne de 60 mmHg et 30 mmHg ont une diminution du compte neuronal et que les neurones mourraient par apoptose (observée par la présence de caspase-3 clivée). Nous avons également déterminé que le flot sanguin cérébral était altéré chez les rats cirrhotiques BDL. Le second objectif était d’évaluer si le traitement de l’EHm par l’ornithine phénylacétate (OP) permettait d’éviter la perte neuronale chez les BDL hypotendus. Nos résultats ont démontrés que l’OP permettait de partiellement rétablir les fonctions cognitives chez les rats BDL. De plus, les rats BDL traités avec l’OP peuvent éviter la mort neuronale. Cependant, le processus apoptotique est toujours enclenché. Ce résultat suggère la possibilité de mort cellulaire retardée par l’OP. Ces résultats suggèrent que les patients cirrhotiques avec EHm sont plus susceptibles à une mort neuronale induite par hypotension. La combinaison de l’EHm et l’hypotension permet d’expliquer les complications neurologiques rencontrées chez certains patients. Le diagnostic et le traitement de ce syndrome doit donc être fait chez les patients cirrhotiques pour éviter ces complications post-TH.
Resumo:
Éditorial du 9 octobre 2014