742 resultados para Efficacité énergétique
Resumo:
Dans les pays industrialisés, les rétinopathies ischémiques proliférantes telles que la rétinopathie diabétique et la rétinopathie du prématuré sont les principales causes de cécité chez les individus en âge de travailler et la population pédiatrique. Ces pathologies sont caractérisées par une dégénérescence microvasculaire initiale suivie d’une hyper-vascularisaton compensatoire disproportionnée et pathologique. Les sirtuines constituent une importante famille de protéines impliquées dans le métabolisme et la réponse au stress. Plus particulièrement, sirtuine 3 (SIRT3) est une déacétylase mitochondriale primordiale qui agit au cœur du métabolisme énergétique et de l’activation de nombreuses voies métaboliques oxydatives. Nos résultats démontrent pour la première fois qu’une déficience en SIRT3 diminue la sévérité des lésions vasculaires dans le modèle murin de rétinopathie induite par l’oxygène (OIR). En plus de stimuler l’angiogénèse, l’absence de SIRT3 est aussi associée à une augmentation de la glycolyse, possiblement en activant la famille de gènes 6-phosphofructo-2-kinase/fructose-2,6-bisphosphatase (PFKFB). Nous suggérons que le manque de SIRT3 est impliqué dans l’effet Warburg et procure ainsi un avantage prolifératif et protecteur dans l’OIR. La présente étude propose SIRT3 comme nouvelle cible thérapeutique potentielle dans la rétinopathie du prématuré, une maladie dont les complications désastreuses persistent tout au long de la vie.
Resumo:
Les plantes envahissantes menacent la biodiversité ainsi que les activités humaines. Afin de les maîtriser, la pulvérisation d'herbicides est une méthode fréquemment employée en Amérique du Nord. Cette approche ne fait pas toujours consensus et est même parfois interdite ou restreinte, ce qui justifie le recours à d'autres options. Les alternatives peuvent toutefois s'avérer rares, comporter d'importantes limitations ou sont peu documentées. Cette étude vise à tester l’efficacité de méthodes permettant de maîtriser et de prévenir les invasions de roseau commun (Phragmites australis), l'une des plantes envahissantes les plus problématiques sur le continent nord-américain, tout en limitant au minimum l'utilisation d'herbicides. Le potentiel de quatre méthodes de lutte aux petites populations de roseau bien établies a d'abord été évalué : l’excavation avec enfouissement sur place, le bâchage, l’excavation avec enfouissement sur place combinée au bâchage, et la fauche répétée. Les résultats ont montré que l'excavation avec enfouissement sur place, avec ou sans bâchage, a entraîné une élimination presque totale des populations visées, ce qui est comparable ou supérieur à l'effet généralement obtenu avec la pulvérisation d'herbicide. Le bâchage avec des toiles opaques, maintenues pendant un an, a pour sa part entraîné une maîtrise partielle du roseau, suggérant qu'une application prolongée serait nécessaire pour l'éradication de la plante. La fauche répétée, exécutée à raison de cinq fauches par été pendant deux ans, a fourni une efficacité mitigée. Les résultats suggèrent néanmoins que la fauche pendant plusieurs années contribue à affaiblir la plante, ce qui pourrait aider à son confinement. Une méthode additionnelle a été expérimentée afin de traiter les tiges éparses de roseau tout en limitant les risques d'effets hors cibles, soit le badigeonnage manuel d’herbicide. Suite à ces tests, les résultats ont montré une diminution importante de la densité des tiges, ce qui suggère que la méthode est efficace afin d'éliminer les repousses après un traitement initial, et pourrait également être employée sur de jeunes populations clairsemées. L'effet d'un ensemencement préventif de plantes herbacées sur l'établissement de semis de roseau a également été étudié, suite à des traitements sur de vastes parcelles de sol nu. Les résultats suggèrent que la méthode est efficace afin de limiter la propagation du roseau par semences et qu'un suivi périodique suite à l'intervention serait suffisant afin de maintenir l'effet préventif.
Resumo:
Les effets bénéfiques des lipoprotéines de haute densité (HDL) contre l'athérosclérose ont été attribués, en grande partie, à leur composante protéique majeure, l'apolipoprotéine A-I (apoA-I). Cependant, il y a des indications que l'apoA-I peut être dégradée par des protéases localisées dans les plaques athérosclérotiques humaines, ce qui pourrait réduire l'efficacité des thérapies basées sur les HDL sous certaines conditions. Nous décrivons ici le développement et l'utilisation d'une nouvelle sonde bioactivatable fluorescente dans le proche infrarouge, apoA-I-Cy5.5, pour l'évaluation des activités protéolytiques spécifiques qui dégradent l'apoA-I in vitro, in vivo et ex vivo. La fluorescence basale de la sonde est inhibée par la saturation du fluorophore Cy5.5 sur la protéine apoA-I, et la fluorescence émise par le Cy5.5 (proche infrarouge) est révélée après clivage de la sonde. La protéolyse in vitro de l'apoA-I par des protéases a montré une augmentation de la fluorescence allant jusqu'à 11 fois (n=5, P ≤ 0.05). En utilisant notre nouvelle sonde apoA-I-Cy5.5 nous avons pu quantifier les activités protéolytiques d'une grande variété de protéases, incluant des sérines (chymase), des cystéines (cathepsine S), et des métalloprotéases (MMP-12). En outre, nous avons pu détecter l'activation de la sonde apoA-I-Cy5.5 sur des sections d'aorte de souris athérosclérotiques par zymographie in situ et avons observé qu'en présence d'inhibiteurs de protéases à large spectre, la sonde pourrait être protégée des activités protéolytiques des protéases (-54%, n=6, P ≤ 0,001). L'infusion in vivo de la sonde apoA-I-Cy5.5 dans les souris athérosclérotiques (Ldlr -/--Tg (apoB humaine)) a résulté en utilisant un système d'imagerie moléculaire combinant la fluorescence moléculaire tomographique et la résonance magnétique,en un signal de fluorescence dans l'aorte plus important que celui dans les aortes des souris de type sauvage C57Bl/6J (CTL). Les mesures in vivo ont été confirmées par l'imagerie ex vivo de l'aorte qui a indiqué une augmentation de 5 fois du signal fluorescent dans l'aorte des souris ATX (n=5) par rapport à l'aorte des souris (n=3) CTL (P ≤ 0,05). L'utilisation de cette sonde pourrait conduire à une meilleure compréhension des mécanismes moléculaires qui sous-tendent le développement et la progression de l'athérosclérose et l'amélioration des stratégies thérapeutiques à base de HDL.
Resumo:
Le capital humain d’un pays est un facteur important de sa croissance et de son développement à long terme. Selon l’Unicef, ce capital humain est constitué en donnant à chaque enfant un bon départ dans la vie : non seule- ment la possibilité de survivre, mais aussi les conditions nécessaires pour se développer et réaliser tout son potentiel. Malheureusement, cet état de fait est loin d’être une réalité en Afrique Subsaharienne. En effet, selon toujours l’Unicef et sur la base d’enquêtes ménages dans 21 pays d’Afrique de l’Ouest et du Centre, c’est près de 32 millions d’enfants qui ont l’âge officiel d’être scolarisés, mais qui ne le sont pas. A ces chiffres, il faut ajouter 17 millions d’enfants scolarisés qui risquent fortement l’exclusion. De son Côté, l’OMS pointe du doigt la mauvaise santé des enfants dans cette région. Ainsi, les décès d’enfants sont de plus en plus concentrés en Afrique subsaharienne où les enfants ont plus de 15 fois plus de risques de mourir avant l’âge de cinq ans que les enfants des régions développées. Les difficultés économiques apparaissent comme la première explication des obstacles à l’amélioration du bien être des enfants aussi bien du côté de l’offre que de la demande. Cette thèse relie trois essais sur d’une part le lien entre conflit armés, l’éducation et la mortalité des enfants et d’autre part sur le lien entre fertilité et éducation des enfants en milieu urbain. Le premier chapitre identifie l’impact de la crise politico-militaire de la Côte d’Ivoire sur le bien être des enfants, en particulier sur l’éducation et la mor- talité infanto-juvénile en exploitant la variation temporelle et géographique de la crise. Il ressort de cette analyse que les individus qui vivaient dans les régions de conflit et qui ont atteint durant la crise, l’âge officiel d’entrer à l’école ont 10% moins de chance d’être inscrits à l’école. Les élèves qui habitaient dans des régions de conflit pendant la crise ont subit une diminu- tion du nombre d’années scolaire d’au moins une année. Les élèves les plus v vi âgés et qui sont susceptibles d’être au secondaire ont connu une décroissance du nombre d’année scolaire d’au moins deux années. Il ressort également que la crise ivoirienne a accru la mortalité infanto-juvénile d’au moins 3%. Mes résultats suggèrent également que la détérioration des conditions de vie et la limitation de l’utilisation des services de santé au cours du conflit con- tribuent à expliquer ces effets négatifs. Des tests de robustesse incluant un test de placebo suggèrent que les résultats ne sont pas dus à des différences préexistantes entre les régions affectées par le conflit et celles non affectées. Le deuxième chapitre étudie les disparités intra-urbaines en matière d’arbitrage entre le nombre d’enfant et la scolarisation des enfants en se focalisant sur le cas de Ouagadougou (Capitale du Burkina Faso). Dans cette ville, au moins 33% des deux millions d’habitants vivent dans des zones informelles (appelées localement des zones non-loties). Cette sous-population manque d’infrastructures socioéconomiques de base et a un niveau d’éducation très bas. Dans ce chapitre, prenant en compte la possible endogénéité du nombre d’enfants et en utilisant une approche "two-step control function" avec des modèles Probit, nous investiguons les différences de comportement des mé- nages en matière de scolarisation entre zones formelles et zones informelles. Nous nous focalisons en particulier sur l’arbitrage entre la "quantité" et la "qualité" des enfants. Compte tenu de l’hétérogénéité des deux types de zones, nous utilisons les probabilités prédites pour les comparer. Nos princi- pales conclusions sont les suivantes. Tout d’abord, nous trouvons un impact négatif de la taille de la famille sur le niveau de scolarisation dans les deux types de zone. Cependant, nous constatons que l’impact est plus aigu dans les zones informelles. Deuxièmement, si nous supposons que le caractère en- dogène du nombre d’enfants est essentiellement due à la causalité inverse, les résultats suggèrent que dans les zones formelles les parents tiennent compte de la scolarisation des enfants dans la décision de leur nombre d’enfants, mais ce ne est pas le cas dans les zones informelles. Enfin, nous constatons que, pour des familles avec les mêmes caractéristiques observables, la probabilité d’atteindre le niveau post-primaire est plus élevée dans les zones formelles que dans les zones informelles. En terme d’implications politique, selon ces résultats, les efforts pour améliorer la scolarisation des enfants ne doivent pas être dirigées uniquement vers les zones rurales. En plus de réduire les frais de scolarité dans certaines zones urbaines, en particulier les zones informelles, un accent particulier devrait être mis sur la sensibilisation sur les avantages de l’éducation pour le bien-être des enfants et leur famille. Enfin, du point vii de vue méthodologique, nos résultats montrent l’importance de tenir compte de l’hétérogénéité non observée entre les sous-populations dans l’explication des phénomènes socio-économiques. Compte tenu du lien négatif entre la taille de la famille et la scolarisation des enfants d’une part et les différences intra-urbaines de comportement des ménages en matière de scolarisation, le trosième chapitre étudie le rôle des types de méthodes contraceptives dans l’espacement des naissances en mi- lieu urbain. Ainsi, en distinguant les méthodes modernes et traditionnelles et en utilisant l’histoire génétique des femmes, ce chapitre fait ressortir des différences de comportement en matière de contraception entre les femmes des zones formelles et informelles à Ouagadougou (capitale du Burkina Faso). Les résultats montrent que les deux types de méthodes contraceptives aug- mentent l’écart des naissances et diminuent la probabilité qu’une naissance se produise moins de 24 mois après la précédente. Prendre en compte les caractéristiques non observées mais invariants avec le temps ne modifie pas significativement l’amplitude du coefficient de l’utilisation de la contracep- tion moderne dans les deux types de zone. Toutefois, dans la zone informelle, la prise en compte les effets fixes des femmes augmentent significativement l’effet des méthodes traditionnelles. Les normes sociales, la perception de la planification familiale et le rôle du partenaire de la femme pourraient expli- quer ces différences de comportement entre les zones formelles et informelles. Par conséquent, pour améliorer l’utilisation de la contraception et de leur efficacité, il est essentiel de hiérarchiser les actions en fonction du type de sous-population, même dans les zones urbaines.
Resumo:
Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.
Resumo:
La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
Au Liban, le diabète est évalué à 12%, il est appelé à doubler d’ici l’an 2025. Devant cette augmentation, il est pertinent d’évaluer les effets d’une intervention éducative auprès de personnes présentant un DT2 sur leur sentiment d’auto-efficacité et leur capacité d’auto-soins afin de rendre leur adhésion thérapeutique la plus optimale possible. Le devis est expérimental avant/après 3 mois. L’adhésion a été évaluée à l’aide de l’HbA1c à <7 % et de du SDSCA pour les comportements d’auto-soins, du DMSES pour l’auto-efficacité. L’échantillon formé : 71 GE et 65 GC. Le GE s’est amélioré au niveau des comportements d’auto-soins, l’application des recommandations, du sentiment d’auto-efficacité et du taux d’HbA1c. Ainsi une éducation infirmière favorise l’adhésion chez les DT2. Cette étude a pu contribuer au développement du savoir infirmier et au renouvellement des pratiques cliniques.
Resumo:
L’amyloïdose, une maladie progressive et incurable, implique une vaste panoplie de pathologies et de pathogénèses, qui est expliquée par la grande variabilité biologique et structurale des protéines responsables de la formation des dépôts d’amyloïde. L’amyline (polypeptide amyloïde des îlots pancréatiques, IAPP) est une protéine très susceptible de subir des changements de conformation impliquant les feuillets bêta et conférant aussi des propriétés physicochimiques distinctes. Cette protéine prend alors une forme fibrillaire et se dépose dans les îlots de Langerhans chez les humains atteints de diabète de type 2 ou d’insulinome. Ces dépôts d’amyloïde pancréatique (AIAPP) ont été décrits chez certaines espèces animales telles que les félins domestiques, les grands félins, le raton laveur et les primates non humains. La formation de dépôts d’amyloïde contribue à la pathogénèse du diabète de type 2, mais les mécanismes qui induisent la conversion de l’amyline (IAPP) en amyloïde (AIAPP) ne sont pas complètement compris. Les hypothèses du projet sont que certaines variations présentes dans les séquences peptidiques de l’IAPP provenant de différentes espèces animales jouent un rôle critique pour la formation de fibrilles et que plusieurs composés chimiques aromatiques/phénoliques sont capables d’abroger la formation de dépôts d’amyloïde. Le projet de recherche consiste donc à caractériser la propension des différentes isoformes animales d’IAPP à former de l’amyloïde in vitro afin d’identifier les acides aminés jouant un rôle clé dans cette transformation structurale et ultimement d’inhiber la formation d’amyloïde pancréatique. Le projet se divise en deux volets principaux. Le premier consiste à identifier les différentes séquences peptidiques de l’IAPP retrouvées chez les espèces animales. L’objectif est d’identifier les acides aminés jouant un rôle clé dans la formation d’amyloïde. Le gène de l’IAPP a été séquencé chez plus d’une quarantaine d’espèces. Le potentiel d’agrégation des séquences obtenues a été simulé à l’aide d’outils bioinformatique. Une librairie de 23 peptides a été commandée afin de procéder à des analyses physicochimiques in vitro permettant d’évaluer le potentiel amyloïdogénique (test fluorimétrique à la thioflavine T, essai de liaison au rouge Congo, dichroïsme circulaire, microscopie électronique à transmission) et cytotoxique (sur une lignée cellulaire provenant d’insulinome : INS-1). Les analyses effectuées à partir de la librairie constituée de 23 peptides ont permis d’identifier trois séquences ne formant pas d’amyloïde et qui proviennent des espèces animales suivantes : le tamarin lion doré (Leontopithecus rosalia), le grand dauphin (Tursiops truncatus) et l’alpaga (Vicugna pacos). Un site potentiellement critique est le segment 8-20 présentant le motif NFLVH qui ne forme plus d’amyloïde lorsqu’il est remplacé par le motif DFLGR ou KFLIR. Les acides aminés 29P, 14K et 18R sont également impliqués dans l’inhibition de la transformation structurale en fibrille. La dernière partie du projet consiste à inhiber la formation de l’amyloïde en utilisant des composés chimiques commercialisés (hypoglycémiants, anti-inflammatoires non stéroïdiens) ou nouvellement synthétisés dans notre laboratoire (les aryles éthyles urées). Un criblage d’une soixantaine de composés chimiques a été conduit dans cette étude. Leur efficacité a été testée sur l’IAPP humaine, qui possède un fort potentiel amyloïdogénique. Les techniques utilisées sont les mêmes que celles exploitées précédemment. L’essai de liaison croisée photo-induite ("photo-induced cross-linking of unmodified proteins", PICUP) a été réalisé afin d’étudier les formes intermédiaires (monomères, oligomères). Un total de 11 composés chimiques a démontré un potentiel à inhiber l’agrégation des fibrilles. Pour la classe des hypoglycémiants, le glyburide, le répaglinide et la troglitazone ont montré l’activité thérapeutique la plus élevée pour retarder et réduire la formation de fibrilles. Les anti-inflammatoires antiamyloïdogènes actifs incluaient le diclofenac, le méloxicam, le phénylbutazone, le sulindac et le ténoxicam. Les aryles étyles urées les plus intéressantes étaient la EU-362 et la EU-418. Tous ces composés ont conféré une protection cellulaire contre l’activité cytotoxique des fibrilles. Les molécules actives possèdent des éléments structuraux communs tels des substituants donneurs d’électrons (alcool, amine, halogène) sur un noyau benzène. En conclusion, ce projet de recherche a permis de caractériser l’IAPP chez diverses espèces animales, dont plusieurs chez lesquelles elle n’avait pas encore été décrite, de déterminer les sites jouant un rôle clé dans sa transformation en amyloïde et, ultimement, de tester le potentiel thérapeutique de nouveaux agents antiamyloïdogènes dans le diabète de type 2. Nous espérons que ce projet ouvrira ainsi la porte à de nouvelles stratégies de traitement.
Resumo:
Contexte. Le paludisme provoque annuellement le décès d’environ 25 000 enfants de moins de cinq ans au Burkina Faso. Afin d’améliorer un accès rapide à des traitements efficaces, les autorités burkinabées ont introduit en 2010 la prise en charge du paludisme par les agents de santé communautaires (ASC). Alors que son efficacité a été démontrée dans des études contrôlées, très peu d’études ont évalué cette stratégie implantée dans des conditions naturelles et à l’échelle nationale. Objectif. L’objectif central de cette thèse est d’évaluer, dans des conditions réelles d’implantation, les effets du programme burkinabé de prise en charge communautaire du paludisme sur le recours aux soins des enfants fébriles. Les objectifs spécifiques sont : (1) de sonder les perceptions des ASC à l’égard du programme et explorer les facteurs contextuels susceptibles d’affecter leur performance ; (2) d’estimer le recours aux ASC par les enfants fébriles et identifier ses déterminants ; (3) de mesurer, auprès des enfants fébriles, le changement des pratiques de recours aux soins induit par l’introduction d’une intervention concomitante – la gratuité des soins dans les centres de santé. Méthodes. L’étude a été conduite dans deux districts sanitaires similaires, Kaya et Zorgho. Le devis d’évaluation combine des volets qualitatifs et quantitatifs. Des entrevues ont été menées avec tous les ASC de la zone à l’étude (N=27). Des enquêtes ont été répétées annuellement entre 2011 et 2013 auprès de 3002 ménages sélectionnés aléatoirement. Les pratiques de recours aux soins de tous les enfants de moins de cinq ans ayant connu un récent épisode de maladie ont été étudiées (N2011=707 ; N2012=787 ; N2013=831). Résultats. Les résultats montrent que le recours aux ASC est très modeste en comparaison de précédentes études réalisées dans des milieux contrôlés. Des obstacles liés à l’implantation du programme de prise en charge communautaire du paludisme ont été identifiés ainsi qu’un défaut de faisabilité dans les milieux urbains. Enfin, l’efficacité du programme communautaire a été négativement affectée par l’introduction de la gratuité dans les centres de santé. Conclusion. La prise en charge communautaire du paludisme rencontre au Burkina Faso des obstacles importants de faisabilité et d’implantation qui compromettent son efficacité potentielle pour réduire la mortalité infantile. Le manque de coordination entre le programme et des interventions locales concomitantes peut générer des effets néfastes et inattendus.
Resumo:
L’« appropriation » par les pays en développement (PED) de leurs processus de développement forme la clef de voûte de la nouvelle approche de l’aide et de la coopération au développement telle que promue par la Déclaration de Paris (2005). Si ce passage vers l’« appropriation » vise à installer les PED « dans le siège du conducteur », il reste tout de même inscrit dans une relation d’aide. Or, la Déclaration de Paris pose cette « appropriation » comme le résultat d’un consensus et comme un principe devant être mis en oeuvre sur un terrain vierge via une série de mesures techniques préoccupées par une efficacité ou plutôt une efficience de l’aide. En s’intéressant à la perspective d’acteurs sociaux nationaux quant à cette question de l’ « appropriation » à partir d’une étude de cas c’est-à-dire d’un contexte précis, ici celui du Rwanda, cette thèse vise à démontrer que l’agenda et les politiques en matière de développement, dont la question de l’ « appropriation », ne peuvent être saisis dans un vide contextuel. En effet, ce que met en évidence la perspective des acteurs sociaux nationaux au Rwanda quant à cette question de l’ « appropriation », c’est leur réinscription de cette question dans le contexte du Rwanda post-génocide et dépendant de l’aide, et leur appréhension de celle-ci à partir de ce contexte. Ce contexte informe le récit de ces acteurs qui met en sens et en forme cette « appropriation ». Leur saisie de l’ « appropriation » se bâtit autour d’un double impératif dans le contexte du Rwanda post-génocide, un impératif d’une part de reconstruction socio-économique et d’autre part d’édification d’une nation, et ce, à la lumière des tensions ‘ethniques’ qui traversent et structurent historiquement l’espace politique et social rwandais et qui ont donné lieu au génocide de 1994.
Resumo:
L'adaptation à l'environnement est essentielle à la survie cellulaire et des organismes en général. La capacité d'adaptation aux variations en oxygène repose sur des mécanismes de détection de l'hypoxie et une capacité à répondre en amorçant un programme d'angiogenèse. Bien que la contribution du facteur induit par l'hypoxie (HIF) est bien définie dans l'induction d'une telle réponse, d'autres mécanismes sont susceptibles d'être impliqués. Dans cette optique, les études démontrant l'influence du métabolisme énergétique sur le développement vasculaire sont de plus en plus nombreuses. L'un de ces composés, le succinate, a récemment été démontré comme étant le ligand du GPR91, un récepteur couplé aux protéines G. Parmi les différents rôles attribués à ce récepteur, notre laboratoire s'intéressa aux rôles du GPR91 dans la revascularisation observée suite à des situations d'hypoxie dont ceux affectant la rétine. Il existe cependant d'autres conditions pour lesquelles une revascularisation serait bénéfique notamment suite à un stress hypoxique-ischémique cérébral. Nos travaux ont pour objectifs de mieux comprendre le rôle et le fonctionnement de ce récepteur durant le développement et dans le cadre de pathologies affectant la formation de vaisseaux sanguins. Dans un premier temps, nous avons déterminé le rôle du GPR91 dans la guérison suite à un stress hypoxique-ischémique cérébral chez le nouveau-né. Nous montrons que ce récepteur est exprimé dans le cerveau et en utilisant des souris n'exprimant pas le GPR91, nous démontrons que dans un modèle d'hypoxie-ischémie cérébrale néonatal l'angiogenèse prenant place au cours de la phase de guérison dépend largement du récepteur. L'injection intracérébrale de succinate induit également l'expression de nombreux facteurs proangiogéniques et les résultats suggèrent que le GPR91 contrôle la production de ces facteurs. De plus, l'injection de ce métabolite avant le modèle d'hypoxie-ischémie réduit substantiellement la taille de l'infarctus. In vitro, des essaies de transcription génique démontrent qu'à la fois les neurones et les astrocytes répondent au succinate en induisant l'expression de facteurs bénéfiques à la revascularisation. En considérant le rôle physiologique important du GPR91, une seconde étude a été entreprise afin de comprendre les déterminants moléculaires régissant son activité. Bien que la localisation subcellulaire des RCPG ait traditionnellement été considérée comme étant la membrane plasmique, un nombre de publications indique la présence de ces récepteurs à l'intérieur de la cellule. En effet, tel qu'observé par microscopie confocale, le récepteur colocalise avec plusieurs marqueurs du réticulum endoplasmique, que celui-ci soit exprimé de façon endogène ou transfecté transitoirement. De plus, l’activation des gènes par stimulation avec le succinate est fortement affectée en présence d'inhibiteur du transport d'acides organiques. Nous montrons que le profil de facteurs angiogéniques est influencé selon la localisation ce qui affecte directement l'organisation du réseau tubulaire ex vivo. Finalement, nous avons identifié une région conservée du GPR91 qui agit de signal de rétention. De plus, nous avons découvert l'effet de l'hypoxie sur la localisation. Ces travaux confirment le rôle de régulateur maître de l'angiogenèse du GPR91 lors d'accumulation de succinate en condition hypoxique et démontrent pour la première fois l'existence, et l'importance, d'un récepteur intracellulaire activé par un intermédiaire du métabolisme. Ces données pavent donc la voie à une nouvelle avenue de traitement ciblant GPR91 dans des pathologies hypoxiques ischémiques cérébrales et soulèvent l'importance de tenir compte de la localisation subcellulaire de la cible dans le processus de découverte du médicament.
Resumo:
La gestion des villes d’Afrique de l’Ouest pose problème à la période contemporaine : extension urbaine non maitrisée, services de base insuffisants, insécurité foncière. À travers l’aide internationale, d’importantes réformes visant à améliorer son efficacité ont pourtant été mises en place, mais elles semblent avoir été inefficaces. Dépassant ce constat d’échec, la thèse vise à comprendre comment se déroule l’acte de gérer la ville dans les circonstances particulières des villes d’Afrique de l’Ouest. La mise en œuvre du Registre foncier urbain (RFU), système d’information foncière municipal multi-fonctions introduit au Bénin à travers des programmes de développement au début des années 1990, constitue le prisme à travers lequel la gestion urbaine est analysée. Celle-ci est ainsi approchée par les actes plutôt que par les discours. S’appuyant sur une démarche socio-anthropologique, la mise en œuvre de l’instrument est analysée depuis le point de vue des acteurs locaux et selon une double grille de lecture : d’une part, il s’agit de saisir les logiques de l’appropriation locale dont le RFU a fait l’objet au sein des administrations; d’autre part, il s’agit de comprendre son interaction avec le territoire, notamment avec les dynamiques complexes d’accès au sol et de sécurisation foncière. Une étude de cas multiple a été menée dans trois communes : Cotonou, Porto-Novo et Bohicon. Deux ensembles de conclusions en découlent. Tout d’abord, le RFU s’est imposé comme l’instrument pivot de la fiscalité locale, mais est mis en œuvre de manière minimale. Ce fonctionnement particulier est une adaptation optimale à un contexte fait de rivalités professionnelles au sein d’administrations cloisonnées, d’enjeux politico-financiers liés aux différentes sources de revenus communaux et de tensions politico-institutionnelles liées à une décentralisation tardive. Les impacts du RFU en termes de développement des compétences professionnelles nationales sont insuffisants pour réformer la gestion urbaine depuis l’intérieur de l’administration municipale. Ensuite, alors qu’il vise à centraliser l’information sur les propriétaires présumés de la terre, le RFU se heurte à la marchandisation de cette information et à la territorialisation de la régulation foncière. La mise en œuvre du RFU s’en trouve affectée de deux manières : d’une part, elle s’insère dans ces circuits marchands de l’information foncière, avec cependant peu de succès ; d’autre part, elle a un impact différencié selon les territoires de la régulation foncière. En définitive, l’acte de gérer la ville au Bénin n’est pas devenu automatique avec l’introduction d’instruments comme le RFU. La municipalité se repose plutôt sur les piliers classiques de l’action publique, l’administration et le politique, pour gérer la ville plurielle de manière différenciée. À l’endroit des concepteurs d’action publique, cette thèse plaide pour une prise en compte des modes de régulation existant dans les sociétés africaines, fussent-ils pluriels, reconnaissant les voies originales que prend la construction des institutions en Afrique.
Resumo:
La campylobactériose est une zoonose causée par Campylobacter jejuni, une bactérie commensale du poulet, considérée comme la principale source de contamination humaine. C. jejuni est rarement retrouvé dans le tube digestif des poulets avant deux ou trois semaines d'âge. Ce qui pourrait s'expliquer par la transmission d'une immunité maternelle (anticorps IgY) transmise aux poussins via le jaune d'œuf. À la Chaire de recherche en Salubrité des Viandes (CRSV), la caractérisation d'anticorps IgY extraits de jaunes d'œufs frais a montré des niveaux de production d’anticorps différents selon le mode d’immunisation et suggère, in vitro, des effets sur ce pathogène. Ce qui laisse penser qu'en tant qu'additif alimentaire, une poudre de jaunes d'œuf potentialisée permettrait de lutter contre C. jejuni chez le poulet à griller. Dans ce travail, le processus de fabrication de l'additif (déshydratation par « Spray dry » puis encapsulation) a été évalué et les différents modes d'immunisation des poules pondeuses ont également été comparés. Les anticorps ont été extraits des différentes poudres de jaunes d'œuf ou du produit final encapsulé, et caractérisés in vitro (dosage / ELISA, test de mobilité, bactéricidie, western blot). Puis, une évaluation in vivo de la capacité de ces poudres encapsulées, incorporée à 5 % dans la moulée, afin de réduire ou de bloquer la colonisation intestinale des oiseaux par C. jejuni a été testée. In vitro, les résultats ont montré des concentrations d'anticorps et d'efficacité variables selon le type de vaccination. Dans cette étude, on a observé que le « Spray dry » a concentré les anticorps dans les poudres et que ces anticorps sont restés fonctionnels contre C. jejuni. On a également observé que l'encapsulation n’entraîne pas une perte quantitative des anticorps contenus dans les poudres. Malgré les résultats in vitro encourageants, les résultats in vivo ne révèlent aucune inhibition ou réduction de la colonisation des oiseaux par C. jejuni. L’absence d’efficacité la poudre de jaunes d’œuf encapsulée dans notre étude n’est pas due à une perte quantitative et/ou qualitative des anticorps comme soutenu dans les expériences in vitro. Ce qui démontre que les recherches doivent être poursuivies afin de déterminer les conditions optimales de l'utilisation de la poudre de jaune d'œuf in vivo, en tant qu'additif alimentaire chez les poulets
Resumo:
RÉSUMÉ Suite à une centaine de publications sur la réduction de la PIO post-exercice, il est connu que parmi un grand nombre de programme d'exercices de différentes durées et intensités, les effets hypotenseurs de l'exercice sur la PIO sont atténués chez les sujets en bonne condition physique. Le mécanisme proposé est l'augmentation potentielle de l'efficacité du système parasympathique avec l'activité physique. Le principal objectif de cette thèse est d'identifier les facteurs contribuants à la réduction de la PIO post-exercice et d'élucider les différents mécanismes possibles. L'étude 1, une méta-analyse, a été menée afin de quantifier les contributions relatives de l'intensité et de la durée de l'effet de l'exercice sur la PIO et la mesure dans laquelle ces variables affectent les sujets sédentaires et normalement actifs. La tendance ressortant des résultats est que la diminution de la PIO suite à de l'exercice aérobie est plus élevée chez les sujets sédentaires que les sujets en bonne condition physique. (ES = -4.198 mm Hg et -2.340 mm Hg, respectivement). L'absence d'un contrôle des liquides ingérés avant l'activité physique est à souligné dans cette étude. L'hyperosmolarité (un effet secondaire de la déshydratation) est l'un des mécanismes proposés influant l'effet hypotenseur de l'exercice. L'étude 2 comparait la réduction de la PIO dans deux conditions, soit hypohydraté et hyperhydraté, avant, pendant et après un effort de 90 minutes sur un ergocycle. Après une diminution initiale pour les deux conditions, la PIO revient aux valeurs de départ pour la condition hypohydratée malgré une perte de poids significative et elle augmente pour la condition hyperhydratée (résultat du protocole d'hydratation). Étant donné le niveau élevé de participants en bonne condition physique dans l'étude 2, la troisième étude a été conçue afin de etude la relation entre la PIO et la condition physique. À l'aide d'analyses corrélationnelles il a été possible d'observer la relation entre le test de vo2max et la moyenne des mesures de PIO prises sur un intervalle de huit semaines. Une relation significative n'existait que pour les participants se situant dans la portion supérieure du continuum de la condition physique. Conclusion: Les résultats de la présente étude suggèrent que l'effet hypotenseur de l'exercice sur la PIO est probablement une réponse homéostatique à la dérégulation de l'humeur aqueuse causée par l'initiation de l'exercice et le protocole d'ingestion de fluides pré-exercice.