997 resultados para modèle à effets mixtes
Resumo:
Introduction : Les modèles murins sont grandement utilisés dans l’étude des maladies rénales et des pathologies associées. La concentration de la créatinine sérique est un bon indicateur de la filtration glomérulaire et en présence d’insuffisance rénale chronique (IRC), les concentrations de créatinine sérique (et la clairance) reflètent la sévérité de l’IRC. De plus, il a été démontré que l’IRC modifie le métabolisme des médicaments en diminuant l’activité et l’expression des enzymes hépatiques du cytochrome P450 (CYP450). Afin d’étudier la modulation du P450 par l’IRC avec un modèle murin et de confirmer nos résultats chez le rat, nous devons 1) développer un modèle d’IRC chez la souris, 2) mettre au point une technique de dosage des marqueurs de l’IRC et, 3) évaluer l’expression protéique du CYP450 en présence IRC. Matériel et Méthode : Trois modèles chirurgicaux d’IRC chez la souris ont été développés. Une méthode du dosage de la créatinine par chromatographie liquide à haute performance (CLHP) a été mise au point chez la souris et l’expression protéique du P450 a été mesurée par immunobuvardage de type Western. Résultats : Plusieurs paramètres de CLHP comme le pH, la concentration et le débit de la phase mobile modifient le pic d’élution et le temps de rétention de la créatinine. Concernant le modèle expérimental, on observe une perte de poids et une augmentation de la concentration plasmatique de la créatinine chez les souris avec une IRC. De plus, l’expression protéique de plusieurs isoformes du cytochrome P450 est modulée par l’IRC. Nous observons une diminution du CYP 2D de 42% (p < 0,01), du CYP 3A11 de 60% et du CYP 1A de 37% (p <0,01) par rapport aux souris témoins. On ne dénote aucun changement significatif au niveau de l’isoforme 2E1. Conclusion : Il est possible d’induire une insuffisance rénale chronique chez la souris suite à une néphrectomie. La technique de dosage de la créatinine par CLHP est précise et exacte et permet de caractériser la sévérité de l’IRC chez la souris. L’expression protéique du CYP450 est régulée à la baisse dans le foie des souris atteintes d’IRC.
Resumo:
Objectifs: Évaluer si un programme d’entraînement en résistance d’une durée d’un an prévient le regain de poids et majore l’amélioration du profil inflammatoire. Le second objectif de cette étude était de déterminer si la variation du tissu adipeux viscéral est associée aux changements dans les concentrations sanguines des marqueurs inflammatoires. Méthodes: Soixante-dix femmes post-ménopausées en surpoids ou obèses ont été randomisées dans un des deux groupes suivants : (1) Contrôle ou (2) Entraînement en résistance. La composition corporelle (absorptiométrie double à rayons X et tomographie axiale) et les marqueurs inflammatoires (protéine C-réactive, orosomucoïde, haptoglobine) ont été évalués avant et après la période de suivi d’une durée d’un an. Résultats: Suite à la période de suivi, un regain significatif de poids corporel et de masse grasse était observé dans le groupe contrôle et le groupe entraînement en résistance (p < 0,05). Une réduction des concentrations sériques de l’orosomucoïde et une hausse des niveaux sériques de l’haptoglobine étaient également notées dans les deux groupes (p < 0,05). La variation du tissu adipeux viscéral était seulement associée aux changements dans les concentrations sériques de la protéine C-réactive (r = 0,373, p < 0,05). Conclusion: Nos résultats suggèrent que l’entraînement en résistance ne prévient pas le regain de poids corporel et ne majore pas l’amélioration du profil inflammatoire chez des femmes post-ménopausées en surpoids ou obèses. De plus, nos résultats indiquent que la variation du tissu adipeux viscéral ne semble pas être un facteur clé impliqué dans les changements des concentrations sanguines des marqueurs inflammatoires.
Resumo:
La première augmentation de la longévité en laboratoire fût observée à la suite d’une intervention nutritionnelle consistant en une réduction de l’apport alimentaire chez le rat. Plus tard, ce phénomène a été reproduit dans de très nombreuses espèces et référé en tant que restriction calorique. Le développement des techniques de biologie moléculaire moderne a permis de montrer dans des organismes modèles simples que cette flexibilité du processus de vieillissement était régulée par des facteurs génétiques. De fait, plusieurs mécanismes cellulaires ont alors pu être identifiés comme responsables de ce contrôle du vieillissement. Ces voies de régulation ont révélées être conservées entre les espèces, depuis les levures jusqu’aux organismes multicellulaires tels que le nématode, la mouche ou la souris, suggérant l’existence d’un programme universel de vieillissement dans le vivant. La levure s’est avéré à plusieurs reprises être un modèle puissant et fiable pour la découverte de gènes impliqués dans ce phénomène. Mon étude a consisté au développement d’un nouveau modèle unicellulaire d’étude du vieillissement à travers l’espèce Schizosaccharomyces pombe appelée aussi levure à fission. La première étape de mon travail a montré que les voies de détection des nutriments gouvernées par la sérine/thréonine protéine kinase A (Pka1) et la sérine/thréonine kinase Sck2 contrôlent le vieillissement chronologique de ces cellules comme il était connu dans la levure Saccharomyces cerevisiae. Ceci permit de valider l’utilisation de la levure à fission pour l’étude du vieillissement. Ensuite, nous avons analysé plus en détail l’effet pro-vieillissement du glucose en étudiant le rôle de sa détection par le récepteur membranaire Git3 couplé à la protéine G (Gpa2) en amont de la kinase Pka1. La perte du signal du glucose par la délétion de Git3 imite partiellement l’effet d’augmentation de longévité obtenu par baisse de la concentration en glucose dans le milieu. De plus, l’effet néfaste du signal du glucose est maintenu en absence de tout métabolisme du glucose suite à la mutation des hexokinases, premières enzymes de la glycolyse. L’ensemble de ces résultats suggèrent que la signalisation du glucose est prédominante sur son métabolisme pour son effet pro-vieillissement. D’autre part, à la fois la suppression de cette signalisation et la baisse de niveau de glucose disponible allongent la durée de vie en corrélation avec une augmentation de la résistance au stress, une hausse d’activité mitochondriale et une baisse de production de radicaux libres. Finalement, le criblage d’une banque de surexpression d’ADNc a permis d’identifier plusieurs gènes candidats responsables de ces effets en aval de la voie de signalisation Git3/PKA. La recherche sur les mécanismes moléculaires du vieillissement propose une nouvelle approche, un nouvel angle de vue, pour la compréhension des fonctions cellulaires et promet d’apporter de précieuses clefs pour mieux comprendre certaines maladies. En effet, le vieillissement est la première cause d’apparition de nombreuses affections comme les cancers, les maladies cardiovasculaires et métaboliques ou les maladies neurodégénératives tels que les syndromes d’Alzheimer et de Parkinson.
Resumo:
Les actions thérapeutiques des antidépresseurs, disponibles actuellement, requièrent plusieurs semaines de traitement. Ce délai est dû aux adaptations des sites pré et post-synaptiques qui, respectivement, augmentent la disponibilité synaptique des monoamines sérotonine et noradrénaline (5-HT et NA), et entraînent les changements neuroplastiques modifiant la fonction neuronales dans les régions limbiques. Il a été récemment observé, chez un modèle animal de dépression, que l’agoniste RS67333 des récepteurs sérotoninergiques de type 5-HT4 produisait des changements comportementaux, électrophysiologiques, cellulaires et biochimiques, tel qu’observé chez les antidépresseurs. Ces changements apparaissent seulement après 3 jours de traitement tandis que les antidépresseurs nécessitent souvent plusieurs semaines. De plus, l’activation des récepteurs 5-HT4 ne générait pas de tolérance, et cela pendant 21 jours de traitement. Seulement, les propriétés de signalisation et de régulation de ces récepteurs sont très loin d’êtres établies. Nous avons alors voulu mieux caractériser ces deux aspects de leur fonction, en se concentrant d’avantage sur les isoformes a et b, fortement exprimés dans le système limbique. Pour cela, nous avons voulu évaluer d’abord leur capacité de production d’AMPc dans un système hétérologue. Les essais d’accumulation d’AMPc démontrent que les deux isoformes sont capables de moduler positivement et négativement des niveaux d’AMPc en présence de 5-HT. Par contre, la stimulation au RS67333 induit seulement une augmentation du niveau d’AMPc dans les deux cas. Ensemble, ces observations indiquent que les deux isoformes sont capables de coupler à l’adénylate cyclase à travers les protéines Gαs et Gαi. La quantification des récepteurs internalisés a montré que l’isoforme b internalisait plus efficacement que l’isoforme a suite à l’incubation à la 5-HT (61 ± 3 % pour le b vs 40 ± 2 % pour le a). Les protéines kinases PKA et PKC n’étaient pas impliquées dans cette différence, toutefois, la PKC a été trouvée essentielle à l’internalisation des deux isoformes. L’internalisation de l’isoforme b par 5-HT n’a pas été affecté par la surexpression de forme inactive de GRK2 (GRK2- K220R) et a été partiellement inhibé par un mutant négative de la β-arrestine (βarr(319-418)), tandis que l’internalisation de l’isoforme a a été bloquée par les deux. Ces observations indiquent que les mécanismes d’internalisation des deux isoformes du récepteur 5-HT4 les plus abondants dans le système nerveux central sont distincts. Des comportements spécifiques à chaque isoforme ont aussi été constatés au niveau de la régulation fonctionnelle suite à l’exposition au RS67333, qui désensibilise seulement l’isoforme b. D’après nos observations, nous avons conclu que les isoformes a et b diffèrent dans leur propriétés de signalisation et de régulation. L’incapacité du RS67333 à désensibiliser l’isoforme a fournit un substrat moléculaire pour les effets antidépressifs prolongés de cet agoniste dans les études pré-cliniques.
Resumo:
Les modèles kainate et pentylènetétrazole représentent deux modèles d’épilepsie du lobe temporal dont les conséquences à long terme sont différentes. Le premier est un modèle classique d’épileptogénèse avec crises récurrentes spontanées tandis que le second se limite aux crises aigües. Nous avons d’abord caractérisé les différents changements survenant dans les circuits excitateurs et inhibiteurs de l’hippocampe adulte de rats ayant subi des crises à l’âge immature. Ensuite, ayant observé dans le modèle fébrile une différence du pronostic lié au genre, nous avons voulu savoir si cette différence était aussi présente dans des modèles utilisant des neurotoxines. L’étude électrophysiologique a démontré que les rats KA et PTZ, mâles comme femelles, présentaient une hyperactivité des récepteurs NMDA au niveau des cellules pyramidales du CA1, CA3 et DG. Les modifications anatomiques sous-tendant cette hyperexcitabilité ont été étudiées et les résultats ont montré une perte sélective des interneurones GABAergiques contenant la parvalbumine dans les couches O/A du CA1 des mâles KA et PTZ. Chez les femelles, seul le DG était légèrement affecté pour les PTZ tandis que les KA présentaient, en plus du DG, des pertes importantes au niveau de la couche O/A. Les évaluations cognitives ont démontré que seuls les rats PTZ accusaient un déficit spatial puisque les rats KA présentaient un apprentissage comparable aux rats normaux. Cependant, encore une fois, cette différence n’était présente que chez les mâles. Ainsi, nos résultats confirment qu’il y a des différences liées au genre dans les conséquences des convulsions lorsqu’elles surviennent chez l’animal immature.
Resumo:
Il est très commun d’entendre dans les discussions sur l’urbanisme que la participation du public est nécessaire, mais la manière de faire participer reste encore sujette à énormément d’expérimentation et d’incertitudes. Cette étude s’intéresse au design institutionnel des processus de participation en urbanisme, sous l’angle de leurs effets de démocratisation. L’étude cherchera à identifier les aspects déterminants des processus de participation en urbanisme afin d’offrir, à ceux qui les conçoivent, un éclairage sur les implications des choix qu’ils effectuent. L’analyse se construira à partir de l’étude du fonctionnement concret d’une opération de planification concertée à Porto Alegre, dans le secteur Lomba do Pinheiro. Elle s’appuiera sur un découpage des modalités du processus élaboré à partir d’une revue des ouvrages techniques sur la participation en aménagement. Après avoir décrit la culture de la participation et de planification propre à Porto Alegre et comment celle-ci s’est construite, l’analyse décrira, à partir d’observations sur l’évolution du processus et de ses résultats, les effets du processus en termes d’impact sur l’espace bâti, de transformation des relations sociales et de possibilité de faire apparaître des conflits. Les conclusions feront voir l’importance des modalités plus informelles du travail des organisateurs, de même que la nécessité de mettre le projet au centre du processus afin d’établir un terrain commun. Le rôle crucial de la sélection des participants sera souligné. De fortes réserves seront exprimées quant à la pertinence de la transformation des relations sociales comme objectif pour les processus de planification concertée.
Resumo:
L’observance, qui décrit à quel degré le patient suit la prescription, est un facteur essentiel pour que le traitement réussisse. Les observances des patients varient beaucoup et l’efficacité du médicament varie parallèlement. Par conséquent, il faut avoir des paramètres sensibles et fiables pour mesurer l’observance. Dans la littérature, on trouve beaucoup de paramètres pour évaluer l’observance mais leurs avantages, limites et inconvénients, en ce qui concerne l’évaluation de l’impact de l’observance sur les effets des médicaments n’ont pas encore été étudiés en profondeur. L’évaluation de ces paramètres nécessite de les tester dans différentes situations. Comme les données disponibles sur l’observance ne concernent pas un ensemble exhaustif de situations, le recours à la simulation, en s’inspirant des cas réels ou plausibles, est très pertinent. On a ainsi réussi à développer un modèle dont les paramètres sont simples et compréhensibles et qui est pratique et flexible pour simuler les différents cas et même les cas extrêmes de l’observance. On a proposé de nouveaux paramètres pour mesurer l’impact biopharmaceutique de l’observance. Ensuite, on a comparé la performance, en termes de sensibilité et la fiabilité, des paramètres proposés et celles de paramètres déjà utilisés. En conclusion, on peut souligner qu’il n’y a pas de paramètre parfait étant donné que chacun a ses propres limites. Par exemple, pour les médicaments dont les effets sont directement liés aux leurs concentrations plasmatiques, le pourcentage des doses prises, qui est le paramètre le plus utilisé, offre la pire performance; par contre, le pourcentage des doses correctes nettes qui est un nouveau paramètre possède une bonne performance et des avantages prometteurs.
Resumo:
Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.
Resumo:
La maladie du greffon contre l’hôte (GvHD) est une complication majeure des greffes de cellules souches hématopoïétiques (HSCT) qui survient dans 30 à 70% des cas et peut causer la mort, malgré un traitement prophylactique bien conduit. Il existe donc une réelle demande clinique pour améliorer ces traitements prophylactiques. Parce que ces traitements prophylactiques reposent en général sur des agents immunosuppresseurs, ceux-ci contribuent à diminuer la reconstitution immunitaire du patient, ce qui a un impact défavorable sur les infections et les taux de rechute d’hémopathie maligne, et donc limite leur utilisation. Les immunoglobulines (IVIG) pourraient représenter une alternative intéressante puisqu’elles ont des propriétés immunomodulatrices et qu’elles sont de plus couramment utilisées en clinique pour traiter des patients ayant un déficit immunitaire. Leur capacité à réduire l’apparition et la sévérité de la GvHD, sans toutefois inhiber ou nuire à la reconstitution immunitaire chez le patient n’a néanmoins jamais été clairement démontrée. Les objectifs de ce projet sont donc d’évaluer l’efficacité des IVIG à réduire l’incidence et la sévérité de la GvHD dans un modèle murin humanisé de GvHD, ainsi que de déterminer le mécanisme d’action des IVIG. Ce modèle consiste à injecter des huPBMCs à des souris immunodéprimées ne pouvant les rejeter. Les résultats obtenus suggèrent que les IVIG possèdent un effet immunomodulateur permettant de réduire les signes cliniques et de retarder l’apparition de la GvHD, tout en permettant l’apparition de cellules NK. Les IVIG agiraient de façon indirecte sur les huPBMCs afin d’induire l’apparition des cellules NK.
Resumo:
Les récepteurs couplés aux protéines-G (RCPGs) constituent la première étape d’une série de cascades signalétiques menant à la régulation d’une multitude de processus physiologiques. Dans le modèle classique connu, la liaison du ligand induit un changement de conformation du récepteur qui mène à sa forme active. Une fois activés, les RCPGs vont réguler l’activité d’une protéine membranaire cible qui peut être tant une enzyme qu’un canal ionique. L’interaction entre le récepteur et la cible nécessite l’intermédiaire d’une protéine hétérotrimérique appelée « protéine G », qui est activée pour favoriser l’échange du GDP (guanosine diphosphate) pour un GTP (guanosine triphosphate) et assurer la transduction du signal du récepteur à l’effecteur. Les mécanismes moléculaires menant à l’activation des effecteurs spécifiques via l’activation des RCPGs par les protéines G hétérotrimériques sont encore plutôt méconnus. Dans notre étude nous nous sommes intéressés aux récepteurs FP et PAF, à leurs ligands naturels, la PGF2α et le Carbamyl-PAF respectivement, et à des ligands à action antagoniste sur ces récepteurs. Des ligands considérés comme agonistes, sont des molécules qui interagissent avec le récepteur et induisent les mêmes effets que le ligand naturel. Les antagonistes, par contre, sont des molécules qui interagissent avec le récepteur et bloquent l’action du ligand naturel en prévenant le changement conformationnel du complexe, et ils peuvent avoir une action compétitive ou non-compétitive. Nous avons étudié aussi des ligands orthostériques et allostériques du récepteur FP des prostaglandines et du récepteur PAF. Un ligand orthostérique peut se comporter comme agoniste ou antagoniste en se fixant au site de liaison du ligand (agoniste) naturel. Un ligand allostérique est un agoniste ou antagoniste se fixant à un site autre que celui du ligand naturel entraînant un changement de conformation ayant pour conséquence soit une augmentation (effecteur positif), soit une diminution (effecteur négatif) de l'activité du ligand naturel.
Resumo:
Le présent texte porte sur l’état de la démocratie au Sénégal depuis l’alternance politique survenue en 2000. Adoptant une définition minimale de la démocratie – respect des libertés civiles et politiques, et tenue d’élections libres et justes – à laquelle il ajoute le principe de séparation des pouvoirs, son principal objectif est de répondre à la question suivante : pourquoi le fonctionnement de la démocratie est-il entravé au Sénégal? L’hypothèse avancée pour répondre à cette interrogation est la présence du néo-patrimonialisme. Celui-ci, par l’intermédiaire de la personnalisation du pouvoir et le clientélisme, sape le respect des règles démocratiques dans ce pays d’Afrique de l’Ouest. Pour analyser l’impact du néo-patrimonialisme sur la démocratie au Sénégal, ce mémoire privilégie le néo-institutionnalisme sociologique comme cadre théorique. Cette approche définit les institutions de façon large : celles-ci peuvent englober non seulement des normes formelles mais également des règles informelles. En vertu de cette approche, le néo-patrimonialisme et la démocratie représentent des institutions puisque le premier englobe un ensemble de règles informelles et le second un ensemble de normes et procédures formelles. Ces deux institutions structurent et façonnent le comportement des individus. Dans cette confrontation institutionnelle, les règles néo-patrimoniales influencent davantage l’action des élites politiques sénégalaises – notamment le chef de l’État – que les normes démocratiques. La vérification de l’hypothèse s’appuie sur des études sur la démocratie et le néo-patrimonialisme aussi bien au Sénégal qu’en Afrique. Elle se base également sur l’actualité et les faits politiques saillants depuis l’alternance. L’analyse est essentiellement qualitative et se divise en deux chapitres empiriques. Le premier de ceux-ci (chapitre II dans le texte) concerne la séparation des pouvoirs. Le but de ce chapitre est d’observer la manière dont l’actuel président de la République, Abdoulaye Wade, contrôle le parlement et la justice. Le second chapitre empirique (chapitre III dans le texte) se divise en deux sections. La première s’intéresse aux libertés civiles et politiques qui subissent des restrictions dues au penchant autoritaire de Wade. La seconde section porte sur les élections dont le déroulement est entaché par de nombreuses irrégularités : violence électorale, manque de ressources de l’autorité électorale, instabilité du calendrier électoral, partialité de la justice. L’étude confirme l’hypothèse, ce qui est très problématique pour la plupart des États africains. En effet, le néo-patrimonialisme est une caractéristique fondamentale de la gouvernance en Afrique. Ainsi, beaucoup de régimes du continent noir qui enclenchent ou enclencheront un processus de démocratisation comme le Sénégal, risquent de connaître les mêmes difficultés liées à la persistance des pratiques néo-patrimoniales.
Resumo:
Cette étude traite de la complexité des enjeux de la mise en lumière urbaine et de sa conception. Le but est de déceler les mécanismes opératoires du projet d’éclairage afin de générer une analyse et une compréhension de ce type d’aménagement. Cette recherche met à jour les enjeux lumineux à différents niveaux comme l’urbanisme, l’environnement, la culture, la communication, la vision et la perception mais aussi au niveau des acteurs et de leurs pratiques sur le terrain. En utilisant une approche qualitative déductive, cette recherche théorique cherche à mieux comprendre les différentes significations du phénomène lumineux : comment dans la réalité terrain ces enjeux de la lumière sont compris, interprétés et traduits au travers de la réalisation des projets et des processus mis en place pour répondre aux besoins d’éclairage ? La pertinence de cette recherche est de questionner les enjeux complexes de la mise en lumière afin de savoir comment concevoir un « bon éclairage ». Comment se déroule un projet d’éclairage de sa conception à sa réalisation ? Quels sont les différents acteurs, leurs modes d’intervention et leurs perceptions du projet d’éclairage ? Le but est de vérifier comment ces enjeux se concrétisent sur le terrain, notamment au travers de l’activité et de l’interprétation des professionnels. Nous souhaitons créer un modèle opératoire qui rende compte des enjeux et du processus de ce type de projet. Modèle qui servira alors de repère pour la compréhension des mécanismes à l’œuvre comme le contexte, les acteurs, les moyens et les finalités des projets. Une étude des recherches théoriques nous permettra de comprendre la polysémie du phénomène lumineux afin d’en déceler la complexité des enjeux et de créer une première interprétation de ce type de projet. Nous déterminerons théoriquement ce que recouvre la notion de « bon éclairage » qui nous permettra de créer une grille analytique pour comparer notre approche avec la réalité sur le terrain. Ces recherches seront ensuite confrontées au recueil des données des études de cas, des stages en urbanisme et en conception lumière, et des interviews de professionnels dans le domaine. Nous confronterons les enjeux définis théoriquement aux collectes de données issues du terrain. Ces données seront collectées à partir de projets réalisés avec les professionnels durant la recherche immersive. La recherche-action nous permettra de collaborer avec les professionnels pour comprendre comment ils sélectionnent, déterminent et répondent aux enjeux des projets d’éclairage. Nous verrons grâce aux entretiens semi-dirigés comment les acteurs perçoivent leurs propres activités et nous interprèterons les données à l’aide de la « théorisation ancrée » pour dégager le sens de leurs discours. Nous analyserons alors les résultats de ces données de manière interprétative afin de déterminer les points convergeant et divergent entre les enjeux théoriques définis en amont et les enjeux définis en aval par la recherche-terrain. Cette comparaison nous permettra de créer une interprétation des enjeux de la mise en lumière urbaine dans toutes leurs complexités, à la fois du point de vue théorique et pratique. Cette recherche qualitative et complexe s’appuie sur une combinaison entre une étude phénoménologique et les méthodologies proposées par la « théorisation ancrée ». Nous procéderons à une combinaison de données issues de la pratique terrain et de la perception de cette pratique par les acteurs de l’éclairage. La recherche d’un « bon éclairage » envisage donc par une nouvelle compréhension l’amélioration des outils de réflexion et des actions des professionnels. En termes de résultat nous souhaitons créer un modèle opératoire de la mise en lumière qui définirait quels sont les différents éléments constitutifs de ces projets, leurs rôles et les relations qu’ils entretiennent entre eux. Modèle qui mettra en relief les éléments qui déterminent la qualité du projet d’éclairage et qui permettra de fournir un outil de compréhension. La contribution de ce travail de recherche est alors de fournir par cette nouvelle compréhension un repère méthodologique et analytique aux professionnels de l’éclairage mais aussi de faire émerger l’importance du phénomène de mise en lumière en suscitant de nouveaux questionnements auprès des activités liées au design industriel, à l’architecture et à l’urbanisme.
Resumo:
En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.
Resumo:
Les diarrhées post-sevrages causées par des infections à Escherichia coli entérotoxinogène positif pour le fimbriae F4 (ETEC F4), entraînent des pertes économiques importantes chez les producteurs de porc. Depuis quelques années, l’utilisation de probiotiques, comme additif alimentaire pour prévenir ce type d’infection entérique et réduire les traitements aux antimicrobiens, suscite un intérêt grandissant en production porcine. Le but du présent travail est de déterminer l’influence de l’administration des probiotiques Pediococcus acidilactici (PA) et Saccharomyces cerevisiae boulardii (SCB) sur la colonisation et l’attachement des ETEC F4, l’accumulation de fluide intestinal et l’expression de cytokines dans l’iléon de porcelets sevrés. Dès la naissance, différentes portées de porcelets ont été affectées aux traitements suivants : PA, SCB, PA + SCB, témoin et témoin avec antibiotiques (ATB). Une dose quotidienne de probiotiques (1 × 109 UFC) a été administrée aux porcelets des groupes probiotiques durant la lactation et après le sevrage. Sept jours après le sevrage, à 28 jours d’âge, des porcelets positifs pour le récepteur intestinal spécifique pour F4 ont été infectés oralement avec une souche ETEC F4. Les porcelets ont été euthanasiés 24 heures après l’infection (jour 29) et différents échantillons intestinaux ont été prélevés. Chez les porcelets recevant des probiotiques, l’attachement des ETEC F4 à la muqueuse iléale était significativement diminué chez les groupes PA ou SCB en comparaison avec le groupe ATB. Finalement, l’expression de cytokines intestinales était plus élevée chez les porcs du groupe PA + SCB en comparaison avec les porcelets témoins. En conclusion, les résultats de cette étude suggèrent que l’administration de probiotiques pourrait être une alternative pour limiter les infections à ETEC F4 chez le porc.