666 resultados para nest


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’émergence sur la scène chilienne d’un nouvel acteur dans la production du livre, acteur qui s’organise à la fin des années 1990 en se définissant lui-même en tant qu’éditeur indépendant et qui, au cours des premières années du XXIe siècle, élargit cette définition pour inclure le phénomène de l’édition autonome et le domaine de l’édition universitaire. Le point de ralliement de ces acteurs, organisés autour de l’association Editores de Chile, est la reprise et l’affirmation d’un rôle moderne des éditeurs de livres, au sens des Lumières. On peut constater l’articulation entre les revendications spécifiques du secteur et ses positions politiques sur la valeur symbolique de la production culturelle, sur son rôle en tant que facteur de construction identitaire et démocratique car l’accès aux livres ne peut pas être restreint par l’action sans contrepoids du marché. L’angle théorique que nous proposons est celui des théories des industries culturelles tout en intégrant aussi les contributions des études culturelles. En nous situant dans une perspective de l’économie politique des industries culturelles, nous chercherons à redéfinir le concept d’indépendance par le biais d’une analyse des stratégies d’unités économiques (les maisons d’édition) et des rapports entre ces unités et leurs contextes géographiques, politiques et culturels spécifiques. Nous tenons aussi en considération des éléments macrostructurels, mais en considérant que leur capacité d’influence est toujours relative et, en conséquence, doit faire l’objet d’une réévaluation en fonction des rapports de forces et des conjonctures politiques, économiques et sociales spécifiques. Nous pensons que l’indépendance n’est pas un phénomène qui n’est pas exclusif au monde de l’édition. Nous avons fait le constat qu’il existe aussi au sein des industries de l’enregistrement sonore, de l’audiovisuel et des médias comme la presse, la radio et, en moindre proportion, la télévision. En termes méthodologiques, nous proposons une approche qui combine des méthodes et des instruments quantitatifs et qualitatifs, c’est-à-dire, l’analyse des statistiques de l’édition au Chili (fréquences des titres, genres et auteurs), des entrevues semi-structurées et une analyse documentaire. Avant d’aborder la description et l’analyse de la production de livres au Chili et du sens que les éditeurs donnent à l’indépendance et à leurs prises de position dans le champ culturel, nous proposons une description historique et industrielle de l’édition du livre chilien. Cette description permet de comprendre la naissance et le développement du secteur en regard des processus politiques, économiques et sociaux du Chili et de l’Amérique latine, ainsi que sa situation actuelle en regard des nouvelles conditions politiques et économiques qui résultent du processus de globalisation et des transformations néolibérales locales et internationales. La recherche examine ensuite le caractère de la production de livres publiés au Chili entre les années 2000 et 2005 en considérant les titres produits, les auteurs et les genres. Cette analyse permet aussi d’établir des différences entre ces maisons d’édition et celles qui relèvent des grands conglomérats transnationaux de l’édition de livres. Cette analyse comparative nous permet d’établir de manière concluante des différences quant au nombre et á la diversité et l’intérêt culturel des livres publiés entre les éditeurs transnationaux et les éditeurs indépendants regroupés sous le nom de Editores de Chile. Cette analyse permet aussi d’établir des liens précis entre la production des éditeurs indépendants et leurs objectifs culturels et politiques explicites. Nous faisons ensuite état, par le biais de l’exposition et de l’analyse des entrevues réalisées avec les éditeurs, des trajectoires de ces organisations en tenant compte des périodes historiques spécifiques qui ont servi de contexte à leur création et à leur développement. Nous mettons ici en rapport ces trajectoires des éditeurs, les définitions de leurs missions et les stratégies mobilisées. Nous tenons aussi compte des dimensions internationales de ces définitions qui s’expriment dans leur participation au sein d’organisations internationales telle que l’Alliance internationale d’éditeurs indépendants (Gijón 2000 et Dakar 2003) et, spécifiquement, leur expression dans la coopération avec des maisons d’édition latino-américaines. Les entrevues et l’analyse documentaire nous permettent d‘entrevoir les tensions entre la politique culturelle de l’État chilien, en contraste avec des définitions, des objectifs et des actions politiques de Editores de Chile. Nous relions donc dans l’analyse, l’émergence de l’édition indépendante et les résistances qu’engendrent la globalisation des marchés culturels et les mouvements de concentration de la propriété, ainsi que les effets et réponses aux transformations néolibérales au plan des politiques culturelles publiques. Nous concluons alors à la nécessité d’une économie politique critique des industries culturelles qui puisse se pencher sur ces phénomènes et rendre compte non seulement de rapports entre conglomérats et indépendants et du développement des filières de la production culturelle, mais aussi du déploiement des logiques culturelles et politiques sous-jacentes, voire des projets historiques, qui se confrontent dans le champ des industries culturelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université de Paris-sud XI, France.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'interaction entre le système immunitaire et le métabolisme du fer est bien illustrée par l'anémie des maladies chroniques (ACD), qui est fréquemment rencontrée dans les infections chroniques, l'inflammation et le cancer. La majorité des modifications dans les paramètres du fer observées dans l’ACD tient compte des modifications de l’homéostasie du fer, avec la délocalisation du métal de la circulation et les sites de l'érythropoïèse au compartiment de stockage dans les macrophages. Les mécanismes de la réponse hyposidérémique impliquent des cytokines, notamment TNF-alpha et IL-6, qui régulent les niveaux de plusieurs gènes du métabolisme du fer, y compris les transporteurs de fer et de l'hepcidine, un régulateur négatif de l’absorption du fer, ce qui entraîne l'inhibition de l'exportation du fer à travers la ferroportine 1 (FPN1) au niveau de l'intestin et les macrophages. Des études antérieures ont montré que l'IL-6 induit l’expression d’hepcidine dans les hépatocytes, mais il y a très peu de données concernant la façon par laquelle l'hepcidine et la FPN1 sont régulées dans les macrophages. Récemment, nous avons constaté que l'induction de l'hepcidine dans le foie par le lipopolysaccharide (LPS) dépend de la voie de signalisation médiée par le récepteur Toll-like 4 (TLR4). Le but de ce travail est d’identifier les ligands des TLRs capables d'induire l'hepcidine dans les macrophages et de déterminer l’exigence des TLRs dans l’induction de l’hepcidine et le développement d’hyposidérémie. En plus, nous voulons étudier l’effet de l’inflammation causée par les ligands des TLRs sur le taux de fer sérique, la production des cytokines et l'expression de l’hepcidine et de la ferroportine. D’autre part nous voulons étudier l’effet du taux du fer sur la production d’IL-6 macrophagique en réponse à la stimulation par le TLR4. D'abord, pour identifier les ligands des TLRs capables d'induire l'hepcidine dans les macrophages, nous avons traité les macrophages RAW 264.7 et les macrophages péritonéaux de souris (MPMs) avec différents ligands TLRs et on a mesuré l’expression de l'hepcidine par qRT-PCR. Nous avons observé que Pam3CSK4 (Pam), un ligand de TLR2/1; LPS, un ligand de TLR-4 et FSL1 un ligand de TLR2/6 induisent l’expression de l'hepcidine dans les cellules RAW 264.7 et les MPMs, contrairement au polyinosinic: polycytidylic acid (Poly I: C), un ligand de TLR3. De plus, LPS était capable de réprimer l’expression de la ferroportine dans les cellules RAW 264.7. Afin de mieux définir la nécessité des TLRs pour assurer cette expression, nous avons utilisé les souris TLR-2 knock-out et on a établi que l'expression de l'hepcidine dans les macrophages par LPS, Pam ou FSL1 est dépendante du TLR2. En accord avec les expériences in vitro, les études effectuées in vivo ont montré que LPS réprime l’expression de la ferroportine, ainsi que PolyI:C n’est pas capable de stimuler l'expression d'hepcidine hépatique, par contre il était efficace pour déclencher une hyposidérémie. Ensuite, on voulait déterminer la voie de signalisation utilisée dans l’induction de l’hepcidine dans les macrophages. Comme il y deux voies majeures connues pour la signalisation des TLRs : une dépendante et l’autre indépendante de la protéine MyD88, on a étudié l’expression de l’hepcidine dans les MPMs isolés des souris MyD88-/- et nous avons constaté que l'absence de signalisation MyD88 abolit l'induction de l'hepcidine déclenchée par Pam, LPS et FSL1. D’autre part, la stimulation avec du LPS induisait in vivo la production d’IL-6 et de TNF-alpha, et la stimulation d’IL-6 était renforcée in vitro par la présence du fer. Ces observations indiquent que l’expression de HAMP (Hepcidin Antimicrobial Peptide) dans les macrophages peut être régulée par différents TLRs, ce qui suggère que la production d'hepcidine macrophagique fait partie d'une réponse immunitaire activées par les TLRs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La téléréadaptation, tout comme d’autres champs en télésanté, est de plus en plus interpelée pour la prestation de services. Le but de ce projet de thèse est d’enrichir l’évaluation de la téléréadaptation afin que les connaissances qui en découlent puissent venir soutenir la prise de décision d’acteurs impliqués à différents niveaux en téléréadaptation. Le premier article présente une revue systématique dont l’objectif était de faire synthèse critique des études en téléréadaptation. La revue rassemble 28 études en téléréadaptation, qui confirment l’efficacité de la téléréadaptation pour diverses clientèles dans différents milieux. Certaines des études suggèrent également des bénéfices en termes de coûts, mais ces résultats demeurent préliminaires. Cette synthèse critique est utile pour soutenir la décision d’introduire la téléréadaptation pour combler un besoin. Par contre, les décideurs bénéficieraient aussi de connaissances par rapport aux changements cliniques et organisationnels qui sont associés à la téléréadaptation lorsqu’elle est introduite en milieu clinique. Les deux autres articles traitent d’une étude de cas unique qui a examiné un projet clinique de téléréadaptation dans l’est de la province de Québec, au Canada. Le cadre conceptuel qui sous-tend l’étude de cas découle de la théorie de structuration de Giddens et des modèles de structuration de la technologie, en particulier de l’interaction entre la structure, l’agent et la technologie. Les données ont été recueillies à partir de plusieurs sources (groupes de discussion, entrevues individuelles, documents officiels et observation d’enregistrements) suivi d’une analyse qualitative. Le deuxième article de la thèse porte sur le lien entre la structure, l’agent et la culture organisationnelle dans l’utilisation de la téléréadaptation. Les résultats indiquent que les différences de culture organisationnelle entre les milieux sont plus évidentes avec l’utilisation de la téléréadaptation, entraînant des situations de conflits ainsi que des occasions de changement. De plus, la culture organisationnelle joue un rôle au niveau des croyances liées à la technologie. Les résultats indiquent aussi que la téléréadaptation pourrait contribuer à changer les cultures organisationnelles. Le troisième article examine l’intégration de la téléréadaptation dans les pratiques cliniques existantes, ainsi que les nouvelles routines cliniques qu’elle permet de soutenir et la pérennisation de la téléréadaptation. Les résultats indiquent qu’il y a effectivement certaines activités de téléréadaptation qui se sont intégrées aux routines des intervenants, principalement pour les plans d’intervention interdisciplinaire, tandis que pour les consultations et le suivi des patients, l’utilisation de la téléréadaptation n’a pas été intégrée aux routines. Plusieurs facteurs en lien avec la structure et l’agent ont contraint et facilité l’intégration aux routines cliniques, dont les croyances partagées, la visibilité de la téléréadaptation, le leadership clinique et organisationnel, la disponibilité des ressources, et l’existence de liens de collaboration. La pérennité de la téléréadaptation a aussi pu être observée à partir de la généralisation des activités et le développement de nouvelles applications et collaborations en téléréadaptation, et ce, uniquement pour les activités qui s’étaient intégrées aux routines des intervenants. Les résultats démontrent donc que lorsque la téléréadaptation n’est pas intégrée aux routines cliniques, elle n’est pas utilisée. Par contre, la téléréadaptation peut démontrée certains signes de pérennité lorsque les activités, qui sont reproduites, deviennent intégrées aux routines quotidiennes des utilisateurs. Ensemble, ces études font ressortir des résultats utiles pour la mise en place de la téléréadaptation et permettent de dégager des pistes pour enrichir le champ de l’évaluation de la téléréadaptation, afin que celui-ci devienne plus pertinent et complet, et puisse mieux soutenir les prises de décision d’acteurs impliqués à différents niveaux en téléréadaptation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’entérotoxine stable à la chaleur STb est produite par les Escherichia coli entérotoxinogènes (ETEC). Son rôle dans la diarrhée post-sevrage porcine est établi. L’internalisation de STb a été observée dans des cellules épithéliales intestinales humaines et de rat. Cependant, le mécanisme d’internalisation n’est pas totalement compris, particulièrement dans le jéjunum porcin, la cible in vivo de STb. Par la cytométrie en flux, nous avons examiné l’internalisation de STb couplée à un marqueur fluorescent dans les cellules épithéliales intestinales porcines IPEC-J2 et les fibroblastes murins NIH3T3. Nos résultats révèlent que l’internalisation de STb est températureindépendante dans les IPEC-J2 tandis qu’elle est température-dépendante dans les NIH3T3, où la réorganisation de l’actine est aussi nécessaire. Toutefois, les niveaux de sulfatide, le récepteur de STb, sont semblables à la surface des deux lignées. Le sulfatide est internalisé à 37°C de façon similaire entre les deux types cellulaires. La rupture des lipid rafts, les microdomaines membranaires contenant le sulfatide, par la méthyl-βcyclodextrine ou la génistéine, n’affecte pas l’internalisation de STb dans les deux lignées. Notre étude indique que le mécanisme d’internalisation de STb est dépendant du type cellulaire. L’activité de la cellule hôte peut être requise ou non. Le récepteur de STb, le sulfatide, n’est pas directement impliqué dans ces mécanismes. L’internalisation activité cellulaire-dépendante suggère une endocytose, nécessitant la réorganisation de l’actine mais pas les lipid rafts. L’internalisation de STb est donc un processus complexe dépendant du type cellulaire, qu’il apparait plus relevant d’étudier dans des modèles cellulaires représentatifs des conditions in vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pierre Hadot, dans Qu’est-ce que la philosophie antique? et dans Exercices spirituels et philosophie antique, propose une relecture des textes fondateurs de la philosophie occidentale afin de démontrer qu’originellement, les philosophes de l’Antiquité avaient pour but non seulement d’élaborer une systématisation rationnelle du monde, mais également de modifier concrètement, grâce à certains exercices, leur manière de vivre. Aujourd’hui, cette conception de la philosophie n’est plus privilégiée : l’aspect intellectuel à pris le dessus sur l’aspect expérientiel, ce qui incite à considérer la philosophie avant tout comme un discours rationnel et objectif. Pour cette raison, la pensée métaphorique, imagée et poétique de Zhuangzi, ne peut pour certains être considérée comme véritablement philosophique puisqu’elle ne cherche pas à élaborer une conception systématique de la réalité. Elle propose plutôt des moyens de s’ouvrir à l’expérience, grâce à certaines pratiques concrètes, afin de devenir plus sage. Ce mémoire cherchera à réhabiliter l’aspect expérientiel de la philosophie privilégié notamment par les penseurs grecs de l’antiquité, afin de démontrer la valeur proprement philosophique de l’oeuvre de Zhuangzi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le contexte contemporain est marqué dans la sphère politique par la multiplication des paliers de régulation. Une nouvelle structure de gestion des affaires publiques a émergé, caractérisée par la superposition, ou plutôt l’enchevêtrement, des institutions nationales, des entités infra-étatiques et des organisations supranationales (à caractère régional et international). L’État, tout en conservant un rôle privilégié, ne détient plus le monopole de la production de politiques ; la sphère nationale n’est plus le seul locus de la vie politique. De telles dynamiques de changement n’ont pas laissé inchangés les contours de la citoyenneté, élément central de la régulation du politique. Les années 90 ont ainsi vu émerger une prolifération d’analyses concernant la dimension de plus en plus post/trans/supra-nationale, voire globale, de la citoyenneté ; selon ces travaux, le locus de la citoyenneté est de moins en moins national et de plus en plus supranational. La thèse cherche à dépasser cette problématique du locus à partir d’une conception multiple et dynamique de la citoyenneté ; celle-ci est considérée comme une construction dont les contours mouvants évoluent dans le temps et l’espace. Les individus ne sont pas citoyens « par nature » ; ils le deviennent à travers un processus de « citoyennisation », au fur et à mesure que des entités politiques se constituent et se consolident. Les structures institutionnelles et les politiques publiques progressivement mises en place au sein des entités politiques supranationales créent des liens de citoyenneté avec les individus, et la nature de ces liens se transforme au fur et à mesure que les structures institutionnelles et politiques changent. C’est une analyse contextualisée de ces processus de « citoyennisation » en cours au niveau supranational que propose la thèse. Dans cette perspective, elle s’interroge sur la signification des développements récents qui ont marqué l’Union européenne et l’Organisation des Nations Unies pour la construction d’une citoyenneté supranationale. Piliers importants de la structure de régulation multi-niveaux caractérisant la sphère politique contemporaine, ces deux entités se sont ces dernières années engagées dans un processus de réformes institutionnelles profondes. En s’appuyant notamment sur les concepts de « régime de citoyenneté » et de « gouvernance » et un cadre théorique institutionnaliste, la thèse propose une analyse de l’impact des changements institutionnels en cours au sein des Nations Unies et de l’Union européenne en termes de citoyennisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présence importante de plusieurs réseaux sans-fils de différentes portées a encouragée le développement d’une nouvelle génération d’équipements portables sans-fils avec plusieurs interfaces radio. Ainsi, les utilisateurs peuvent bénéficier d’une large possibilité de connectivité aux réseaux sans-fils (e.g. Wi-Fi [1], WiMAX [2], 3G [3]) disponibles autour. Cependant, la batterie d’un nœud mobile à plusieurs interfaces sera rapidement épuisée et le temps d’utilisation de l’équipement sera réduit aussi. Pour prolonger l’utilisation du mobile les standards, des réseaux sans-fils, on définie (individuellement) plusieurs états (émission, réception, sleep, idle, etc.); quand une interface radio n’est pas en mode émission/réception il est en mode sleep/idle où la consommation est très faible, comparée aux modes émission/réception. Pourtant, en cas d’équipement portable à multi-interfaces radio, l’énergie totale consommée par les interfaces en mode idle est très importante. Autrement, un équipement portable équipé de plusieurs interfaces radio augmente sa capacité de connectivité mais réduit sa longévité d’utilisation. Pour surpasser cet inconvénient on propose une plate-forme, qu'on appelle IMIP (Integrated Management of Interface Power), basée sur l’extension du standard MIH (Media Independent Handover) IEEE 802.21 [4]. IMIP permet une meilleure gestion d’énergie des interfaces radio, d’un équipement mobile à multi-radio, lorsque celles-ci entrent en mode idle. Les expérimentations que nous avons exécutées montrent que l’utilisation de IMIP permet d'économiser jusqu'a 80% de l'énergie consommée en comparaison avec les standards existants. En effet, IMIP permet de prolonger la durée d'utilisation d'équipements à plusieurs interfaces grâce à sa gestion efficace de l'énergie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La caractérisation de matériaux par spectroscopie optique d’émission d’un plasma induit par laser (LIPS) suscite un intérêt qui ne va que s’amplifiant, et dont les applications se multiplient. L’objectif de ce mémoire est de vérifier l’influence du choix des raies spectrales sur certaines mesures du plasma, soit la densité électronique et la température d’excitation des atomes neutres et ionisés une fois, ainsi que la température d’ionisation. Nos mesures sont intégrées spatialement et résolues temporellement, ce qui est typique des conditions opératoires du LIPS, et nous avons utilisé pour nos travaux des cibles binaires d’aluminium contenant des éléments à l’état de trace (Al-Fe et Al-Mg). Premièrement, nous avons mesuré la densité électronique à l’aide de l’élargissement Stark de raies de plusieurs espèces (Al II, Fe II, Mg II, Fe I, Mg I, Halpha). Nous avons observé que les densités absolues avaient un comportement temporel différent en fonction de l’espèce. Les raies ioniques donnent des densités électroniques systématiquement plus élevées (jusqu’à 50 % à 200 ns après l’allumage du plasma), et décroissent plus rapidement que les densités issues des raies neutres. Par ailleurs, les densités obtenues par les éléments traces Fe et Mg sont moindres que les densités obtenues par l’observation de la raie communément utilisée Al II à 281,618 nm. Nous avons parallèlement étudié la densité électronique déterminée à l’aide de la raie de l’hydrogène Halpha, et la densité électronique ainsi obtenue a un comportement temporel similaire à celle obtenue par la raie Al II à 281,618 nm. Les deux espèces partagent probablement la même distribution spatiale à l’intérieur du plasma. Finalement, nous avons mesuré la température d’excitation du fer (neutre et ionisé, à l’état de trace dans nos cibles), ainsi que la température d’ionisation, à l’aide de diagrammes de Boltzmann et de Saha-Boltzmann, respectivement. À l’instar de travaux antérieurs (Barthélémy et al., 2005), il nous est apparu que les différentes températures convergeaient vers une température unique (considérant nos incertitudes) après 2-3 microsecondes. Les différentes températures mesurées de 0 à 2 microsecondes ne se recoupent pas, ce qui pourrait s’expliquer soit par un écart à l’équilibre thermodynamique local, soit en considérant un plasma inhomogène où la distribution des éléments dans la plume n’est pas similaire d’un élément à l’autre, les espèces énergétiques se retrouvant au cœur du plasma, plus chaud, alors que les espèces de moindre énergie se retrouvant principalement en périphérie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire est de faire un état des lieux des connaissances produites sur les risques environnementaux et la vulnérabilité et appliquer ces connaissances à la ville de Kigali (Rwanda). Après avoir présenté différentes approches, nous avons retenu le cadre d’analyse qui s’inscrit dans l’approche de J.C. Thouret et R.D’Ercole (1996). Cette approche est articulée autour de trois dimensions : enjeux, facteurs de la vulnérabilité et réponses sociales. A travers l’application des éléments pertinents de ces trois dimensions dans le cas de la ville de Kigali, réalisée grâce à une analyse qualitative, centrée sur l’analyse des documents et des entrevues semi-dirigées, voici les principaux résultats que nous avons obtenus: l’analyse des enjeux a révélé que la ville de Kigali est confrontée à plusieurs dommages, parmi lesquels, on peut mentionner les pertes des vies humaines, la démolition des maisons, la contamination des rivières, la prolifération des maladies et la perturbation des besoins de base ( eau potable, électricité, transport) dues aux risques. Cette situation s’explique par la combinaison de plusieurs facteurs dont le relief collinaire, le sol granitique, les pluies violentes, le caractère centrifuge du réseau hydrographique, le sous-dimensionnement des ouvrages d’évacuation et le réseau d’assainissement insuffisant. D’autres facteurs amplifient la vulnérabilité dont l’explosion démographique consécutive à une urbanisation spontanée et inconsciente en zones inondables, l’ensablement des lits des rivières, le vide juridique, les politiques fragmentaires et le dysfonctionnement des acteurs impliqués dans la gestion des risques. Cette situation aurait probablement été améliorée si les réponses sociales étaient efficaces. Or, d’un côté, la faible perception de risque chez les résidants affectés par les risques accélère davantage la vulnérabilité et de l’autre côté, l’intervention significative des CIB n’est pas accompagnée d’actions complémentaires des institutions publiques et des agences internationales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Cette étude porte sur la présence phénicienne en Syrie du Nord uniquement pendant la première moitié de l’Âge du Fer, i.e entre 1000 et 500 av. J.C. Elle est fondée sur l’analyse des données archéologiques et littéraires des principaux sites côtiers de cette région, al Mina, Ras el Bassit, Tell Kazel, Tell Soukas et Amrit. Après une présentation des caractéristiques culturelles de la civilisation phénicienne, j’aborde l’analyse de ces sites. Les données qui permettent de prouver une présence phénicienne dans la région s’avèrent nombreuses et j’en conclus que les Phéniciens devaient constituer une minorité importante de la population de ces sites, au même titre que les Grecs ou les Chypriotes, la majorité étant d’origine syrienne. Mais dans certains cas, notamment sur les sites les plus proches des grandes capitales phéniciennes, il n’est pas impossible qu’ils aient été majoritaires. L’étude illustrera par ailleurs l’importance du rôle des cités de la Syrie du Nord dans les échanges commerciaux et culturels avec les autres cultures du Sud-Est du bassin méditerranéen, notamment celles de la Grèce, île de Chypre, de la Cilicie et de la Syrie intérieure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Généralement, les problèmes de conception de réseaux consistent à sélectionner les arcs et les sommets d’un graphe G de sorte que la fonction coût est optimisée et l’ensemble de contraintes impliquant les liens et les sommets dans G sont respectées. Une modification dans le critère d’optimisation et/ou dans l’ensemble de contraintes mène à une nouvelle représentation d’un problème différent. Dans cette thèse, nous nous intéressons au problème de conception d’infrastructure de réseaux maillés sans fil (WMN- Wireless Mesh Network en Anglais) où nous montrons que la conception de tels réseaux se transforme d’un problème d’optimisation standard (la fonction coût est optimisée) à un problème d’optimisation à plusieurs objectifs, pour tenir en compte de nombreux aspects, souvent contradictoires, mais néanmoins incontournables dans la réalité. Cette thèse, composée de trois volets, propose de nouveaux modèles et algorithmes pour la conception de WMNs où rien n’est connu à l’ avance. Le premiervolet est consacré à l’optimisation simultanée de deux objectifs équitablement importants : le coût et la performance du réseau en termes de débit. Trois modèles bi-objectifs qui se différent principalement par l’approche utilisée pour maximiser la performance du réseau sont proposés, résolus et comparés. Le deuxième volet traite le problème de placement de passerelles vu son impact sur la performance et l’extensibilité du réseau. La notion de contraintes de sauts (hop constraints) est introduite dans la conception du réseau pour limiter le délai de transmission. Un nouvel algorithme basé sur une approche de groupage est proposé afin de trouver les positions stratégiques des passerelles qui favorisent l’extensibilité du réseau et augmentent sa performance sans augmenter considérablement le coût total de son installation. Le dernier volet adresse le problème de fiabilité du réseau dans la présence de pannes simples. Prévoir l’installation des composants redondants lors de la phase de conception peut garantir des communications fiables, mais au détriment du coût et de la performance du réseau. Un nouvel algorithme, basé sur l’approche théorique de décomposition en oreilles afin d’installer le minimum nombre de routeurs additionnels pour tolérer les pannes simples, est développé. Afin de résoudre les modèles proposés pour des réseaux de taille réelle, un algorithme évolutionnaire (méta-heuristique), inspiré de la nature, est développé. Finalement, les méthodes et modèles proposés on été évalués par des simulations empiriques et d’événements discrets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le virus herpès simplex de type 1 (HSV 1) affecte la majorité de la population mondiale. HSV 1 cause de multiples symptômes délétères dont les plus communs sont les lésions orofaciales usuellement appelées feux sauvages. Le virus peut aussi causer des effets plus sérieux comme la cécité ou des troubles neurologiques. Le virus réside de façon permanente dans le corps de son hôte. Malgré l’existence de nombreux traitements pour atténuer les symptômes causés par HSV 1, aucun médicament ne peut éliminer le virus. Dans le but d’améliorer les connaissances concernant le cycle viral de HSV 1, ce projet cible l’étude du transport du virus dans la cellule hôte. Ce projet aura permis la collecte d’informations concernant le modus operandi de HSV 1 pour sortir des compartiments cellulaires où il séjourne. Les différentes expérimentations ont permis de publier 3 articles dont un article qui a été choisi parmi les meilleurs papiers par les éditeurs de « Journal of Virology » ainsi qu’un 4e article qui a été soumis. Premièrement, un essai in vitro reproduisant la sortie de HSV 1 du noyau a été mis sur pied, via l’isolation de noyaux issus de cellules infectées. Nous avons démontré que tout comme dans les cellules entières, les capsides s’évadent des noyaux isolés dans l’essai in vitro en bourgeonnant avec la membrane nucléaire interne, puis en s’accumulant sous forme de capsides enveloppées entre les deux membranes nucléaires pour finalement être relâchées dans le cytoplasme exclusivement sous une forme non enveloppée. Ces observations appuient le modèle de transport de dé-enveloppement/ré-enveloppement. Deuxièmement, dans le but d’identifier des joueurs clefs viraux impliqués dans la sortie nucléaire du virus, les protéines virales associées aux capsides relâchées par le noyau ont été examinées. La morphologie multicouche du virus HSV 1 comprend un génome d’ADN, une capside, le tégument et une enveloppe. Le tégument est un ensemble de protéines virales qui sont ajoutées séquentiellement sur la particule virale. La séquence d’ajout des téguments de même que les sites intracellulaires où a lieu la tégumentation sont l’objet d’intenses recherches. L’essai in vitro a été utilisé pour étudier cette tégumentation. Les données recueillies suggèrent un processus séquentiel qui implique l’acquisition des protéines UL36, UL37, ICP0, ICP8, UL41, UL42, US3 et possiblement ICP4 sur les capsides relâchées par le noyau. Troisièmement, pour obtenir davantage d’informations concernant la sortie de HSV 1 des compartiments membranaires de la cellule hôte, la sortie de HSV 1 du réseau trans golgien (TGN) a aussi été étudiée. L’étude a révélé l’implication de la protéine kinase D cellulaire (PKD) dans le transport post-TGN de HSV 1. PKD est connue pour réguler le transport de petits cargos et son implication dans le transport de HSV 1 met en lumière l’utilisation d’une machinerie commune pour le transport des petits et gros cargos en aval du TGN. Le TGN n’est donc pas seulement une station de triage, mais est aussi un point de rencontre pour différentes voies de transport intracellulaire. Tous ces résultats contribuent à une meilleure compréhension du processus complexe de maturation du virus HSV 1, ce qui pourrait mener au développement de meilleurs traitements pour combattre le virus. Les données amassées concernant le virus HSV 1 pourraient aussi être appliquées à d’autres virus. En plus de leur pertinence dans le domaine de la virologie, les découvertes issues de ce projet apportent également de nouveaux détails au niveau du transport intracellulaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation des services de santé est au centre de l’organisation des soins. La compréhension des processus qui déterminent cette utilisation est essentielle pour agir sur le système de santé et faire en sorte qu’il réponde mieux aux besoins de la population. L’objectif de cette thèse est de comprendre le phénomène complexe qu’est l’utilisation des services de santé en s’intéressant à la pratique des médecins omnipraticiens. En nous appuyant sur le cadre théorique de Donabedian, nous décomposons les déterminants de l’utilisation des services de santé en trois niveaux : le niveau individuel, le niveau organisationnel, et le niveau environnemental. Pour tenir compte de la complexité des phénomènes de cette étude nous proposons de nous appuyer sur l’approche configurationnelle. Notre question de recherche est la suivante : dans quelle mesure le mode d’exercice des omnipraticiens influence-t-il la prestation des services et comment l’environnement géographique et la patientèle modulent-ils cette relation ? Nous avons utilisé des bases de données jumelées du Collège des médecins du Québec, de la Régie d’assurance maladie du Québec et de la banque de données iCLSC. Notre échantillon est constitué des médecins omnipraticiens de l’année 2002, ayant satisfait aux critères d’inclusion, ce qui représente près de 70% de la population totale. Des analyses de correspondances multiples et des classifications ascendantes hiérarchiques ont été utilisées pour réaliser la taxonomie des modes d’exercice et des contextes géographiques. Nous avons construit des indicateurs d’utilisation des services de santé pour apprécier la continuité, la globalité, l’accessibilité et la productivité. Ces indicateurs ont été validés en les comparant à ceux d’une enquête populationnelle. Nous présentons tout d’abord les modes d’exercice des médecins qui sont au nombre de sept. Deux modes d’exercice à lieu unique ont émergé : le mode d’exercice en cabinet privé d'une part, caractérisé par des niveaux de continuité et productivité élevés, le mode d’exercice en CLSC d'autre part présentant un niveau de productivité faible et des niveaux de globalité et d'accessibilité légèrement au-dessus de la moyenne. Dans les cinq autres modes d’exercice, les médecins exercent leur pratique dans une configuration de lieux. Deux modes d’exercice multi-institutionnel réunissent des médecins qui partagent leur temps entre les urgences, les centres hospitaliers et le cabinet privé ou le CLSC. Les médecins de ces deux groupes présentent des niveaux d’accessibilité et de productivité très élevés. Le mode d’exercice le moins actif réunit des médecins travaillant en cabinet privé et en CHLSD. Leur niveau d’activité est inférieur à la moyenne. Ils sont caractérisés par un niveau de continuité très élevé. Le mode d’exercice ambulatoire regroupe des médecins qui partagent leur pratique entre le CLSC, le cabinet privé et le CHLSD. Ces médecins présentent des résultats faibles sur tous les indicateurs. Finalement le mode d’exercice hospitaliste réunit des médecins dont la majorité de la pratique s’exerce en milieu hospitalier avec une petite composante en cabinet privé. Dans ce mode d’exercice tous les indicateurs sont faibles. Les analyses ont mis en évidence quatre groupes de territoires de CSSS : les ruraux, les semi-urbains, les urbains et les métropolitains. La prévalence des modes d’exercice varie selon les contextes. En milieu rural, le multi-institutionnel attire près d’un tiers des médecins. En milieu semi-urbain, les médecins se retrouvent de façon plus prédominante dans les modes d’exercice ayant une composante CLSC. En milieu urbain, les modes d’exercice ayant une composante cabinet privé attirent plus de médecins. En milieu métropolitain, les modes d’exercice moins actif et hospitaliste attirent près de 40% des médecins. Les omnipraticiens se répartissent presque également dans les autres modes d’exercice. Les niveaux des indicateurs varient en fonction de l’environnement géographique. Ainsi l’accessibilité augmente avec le niveau de ruralité. De façon inverse, la productivité augmente avec le niveau d’urbanité. La continuité des soins est plus élevée en régions métropolitaines et rurales. La globalité varie peu d’un contexte à l’autre. Pour pallier à la carence de l’analyse partielle de l’organisation de la pratique des médecins dans la littérature, nous avons créé le concept de mode d’exercice comme la configuration de lieux professionnels de pratique propre à chaque médecin. A notre connaissance, il n’existe pas dans la littérature, d’étude qui ait analysé simultanément quatre indicateurs de l’utilisation des services pour évaluer la prestation des services médicaux, comme nous l’avons fait. Les résultats de nos analyses montrent qu’il existe une différence dans la prestation des services selon le mode d’exercice. Certains des résultats trouvés sont documentés dans la littérature et plus particulièrement quand il s’agit de mode d’exercice à lieu unique. La continuité et la globalité des soins semblent évoluer dans le même sens. De même, la productivité et l’accessibilité sont corrélées positivement. Cependant il existe une tension, entre les premiers indicateurs et les seconds. Seuls les modes d’exercice à lieu unique déjouent l’arbitrage entre les indicateurs, énoncé dans l’état des connaissances. Aucun mode d’exercice ne présente de niveaux élevés pour les quatre indicateurs. Il est donc nécessaire de travailler sur des combinaisons de modes d’exercice, sur des territoires, afin d’offrir à la population les services nécessaires pour l’atteinte concomitante des quatre objectifs de prestation des services. Les modes d’exercice émergents (qui attirent les jeunes médecins) et les modes d’exercice en voie de disparition (où la prévalence des médecins les plus âgés est la plus grande) sont préoccupants. A noter que les modes d’exercice amenés à disparaître répondent mieux aux besoins de santé de la population que les modes d’exercice émergents, au regard de tous nos indicateurs. En conclusion, cette thèse présente trois contributions théoriques et trois contributions méthodologiques. Les implications pour les recherches futures et la décision indiquent que, si aucune mesure n’est mise en place pour renverser la tendance, le Québec risque de vivre des pénuries dans la prestation des services en termes de continuité, globalité et accessibilité.