965 resultados para Méthodes de soins


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’émergence sur la scène chilienne d’un nouvel acteur dans la production du livre, acteur qui s’organise à la fin des années 1990 en se définissant lui-même en tant qu’éditeur indépendant et qui, au cours des premières années du XXIe siècle, élargit cette définition pour inclure le phénomène de l’édition autonome et le domaine de l’édition universitaire. Le point de ralliement de ces acteurs, organisés autour de l’association Editores de Chile, est la reprise et l’affirmation d’un rôle moderne des éditeurs de livres, au sens des Lumières. On peut constater l’articulation entre les revendications spécifiques du secteur et ses positions politiques sur la valeur symbolique de la production culturelle, sur son rôle en tant que facteur de construction identitaire et démocratique car l’accès aux livres ne peut pas être restreint par l’action sans contrepoids du marché. L’angle théorique que nous proposons est celui des théories des industries culturelles tout en intégrant aussi les contributions des études culturelles. En nous situant dans une perspective de l’économie politique des industries culturelles, nous chercherons à redéfinir le concept d’indépendance par le biais d’une analyse des stratégies d’unités économiques (les maisons d’édition) et des rapports entre ces unités et leurs contextes géographiques, politiques et culturels spécifiques. Nous tenons aussi en considération des éléments macrostructurels, mais en considérant que leur capacité d’influence est toujours relative et, en conséquence, doit faire l’objet d’une réévaluation en fonction des rapports de forces et des conjonctures politiques, économiques et sociales spécifiques. Nous pensons que l’indépendance n’est pas un phénomène qui n’est pas exclusif au monde de l’édition. Nous avons fait le constat qu’il existe aussi au sein des industries de l’enregistrement sonore, de l’audiovisuel et des médias comme la presse, la radio et, en moindre proportion, la télévision. En termes méthodologiques, nous proposons une approche qui combine des méthodes et des instruments quantitatifs et qualitatifs, c’est-à-dire, l’analyse des statistiques de l’édition au Chili (fréquences des titres, genres et auteurs), des entrevues semi-structurées et une analyse documentaire. Avant d’aborder la description et l’analyse de la production de livres au Chili et du sens que les éditeurs donnent à l’indépendance et à leurs prises de position dans le champ culturel, nous proposons une description historique et industrielle de l’édition du livre chilien. Cette description permet de comprendre la naissance et le développement du secteur en regard des processus politiques, économiques et sociaux du Chili et de l’Amérique latine, ainsi que sa situation actuelle en regard des nouvelles conditions politiques et économiques qui résultent du processus de globalisation et des transformations néolibérales locales et internationales. La recherche examine ensuite le caractère de la production de livres publiés au Chili entre les années 2000 et 2005 en considérant les titres produits, les auteurs et les genres. Cette analyse permet aussi d’établir des différences entre ces maisons d’édition et celles qui relèvent des grands conglomérats transnationaux de l’édition de livres. Cette analyse comparative nous permet d’établir de manière concluante des différences quant au nombre et á la diversité et l’intérêt culturel des livres publiés entre les éditeurs transnationaux et les éditeurs indépendants regroupés sous le nom de Editores de Chile. Cette analyse permet aussi d’établir des liens précis entre la production des éditeurs indépendants et leurs objectifs culturels et politiques explicites. Nous faisons ensuite état, par le biais de l’exposition et de l’analyse des entrevues réalisées avec les éditeurs, des trajectoires de ces organisations en tenant compte des périodes historiques spécifiques qui ont servi de contexte à leur création et à leur développement. Nous mettons ici en rapport ces trajectoires des éditeurs, les définitions de leurs missions et les stratégies mobilisées. Nous tenons aussi compte des dimensions internationales de ces définitions qui s’expriment dans leur participation au sein d’organisations internationales telle que l’Alliance internationale d’éditeurs indépendants (Gijón 2000 et Dakar 2003) et, spécifiquement, leur expression dans la coopération avec des maisons d’édition latino-américaines. Les entrevues et l’analyse documentaire nous permettent d‘entrevoir les tensions entre la politique culturelle de l’État chilien, en contraste avec des définitions, des objectifs et des actions politiques de Editores de Chile. Nous relions donc dans l’analyse, l’émergence de l’édition indépendante et les résistances qu’engendrent la globalisation des marchés culturels et les mouvements de concentration de la propriété, ainsi que les effets et réponses aux transformations néolibérales au plan des politiques culturelles publiques. Nous concluons alors à la nécessité d’une économie politique critique des industries culturelles qui puisse se pencher sur ces phénomènes et rendre compte non seulement de rapports entre conglomérats et indépendants et du développement des filières de la production culturelle, mais aussi du déploiement des logiques culturelles et politiques sous-jacentes, voire des projets historiques, qui se confrontent dans le champ des industries culturelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis 2006, le Programme Hors Normes (PHN) dicte une nouvelle marche à suivre que doivent privilégier les équipes de santé au travail (SAT) lorsque des travailleurs sont exposés à des concentrations environnementales de produits chimiques supérieures aux valeurs d’exposition admissibles, c’est-à-dire à des « hors normes ». Le PHN encadre les activités de signalements des hors normes aux instances concernées et demande des suivis plus rigoureux en établissements. Ce faisant, il redéfinit les rôles des infirmières et des membres des équipes SAT. Dans le but de mieux comprendre l’implication des infirmières dans le cadre du PHN, sept entretiens individuels semi-dirigés ont été réalisés afin d’explorer et de décrire leurs représentations. L’analyse qualitative de ces représentations, par catégorisation et comparaisons constantes des discours, révèle que les infirmières se représentent de diverses façons leur pratique dans le cadre du PHN. En effet, les résultats de l’étude montrent qu’afin de comprendre l’implication des infirmières dans ce programme d’intervention, il importe de considérer les quatre éléments suivants : l’organisation du travail, les aspects relationnels (dynamique de relations), les cibles d’intervention et l’utilité du travail des infirmières (sens donné au travail). Afin de faciliter leur participation dans les programmes d’intervention et d’encourager la collaboration, tant intersectorielle qu’interprofessionnelle, il est suggéré en premier lieu de favoriser l’implication des infirmières dans les processus d’élaboration et d’implantation de programmes d’intervention. En second lieu, il est proposé de mettre en place une formation continue interprofessionnelle permettant une meilleure harmonisation des pratiques professionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réadaptation pulmonaire est une intervention dont l’efficacité est largement reconnue. Cette efficacité a été établie grâce à l’utilisation d’instruments de mesure d’impact global. Les patients bénéficiant des programmes de réadaptation pulmonaire possèdent des caractéristiques variées et souffrent généralement de maladie pulmonaire obstructive chronique à différents degrés. En fonction de leurs différents besoins, les patients répondent de façon variable aux composantes d’un programme de réadaptation pulmonaire. Il est recommandé d’individualiser les programmes en fonction des besoins des patients afin d’en optimiser les effets. À cette fin, l’évaluation des besoins de réadaptation des patients est nécessaire. Comme il n’existe actuellement aucun instrument standardisé pour procéder à cette évaluation, nous avons entrepris d’en développer un à l’aide de méthodes qualitatives et quantitatives de recherche. Un modèle conceptuel d’évaluation des besoins de réadaptation des patients a été élaboré suite aux résultats tirés de groupes de discussion, de la consultation de dossiers médicaux et d’une recension des écrits. À partir de ce modèle, des items devant être sélectionnés de façon individualisée parmi cinq domaines (reconnaissance des besoins, connaissance, motivation, attentes et buts) ont été pré-testés. Les tendances générales concernant la validité des items contenus dans le prototype d’instrument ont été vérifiées lors d’une étude pilote auprès de 50 répondants en réadaptation. Les pistes d’investigation dégagées dans ce mémoire serviront aux études de validation plus approfondies dont devrait faire l’objet ce prototype d’instrument dans le futur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode IIM (Immersed Interface Method) permet d'étendre certaines méthodes numériques à des problèmes présentant des discontinuités. Elle est utilisée ici pour étudier un fluide incompressible régi par les équations de Navier-Stokes, dans lequel est immergée une membrane exerçant une force singulière. Nous utilisons une méthode de projection dans une grille de différences finies de type MAC. Une dérivation très complète des conditions de saut dans le cas où la viscosité est continue est présentée en annexe. Deux exemples numériques sont présentés : l'un sans membrane, et l'un où la membrane est immobile. Le cas général d'une membrane mobile est aussi étudié en profondeur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur la lexicologie, la lexicographie et l’enseignement/apprentissage du lexique. Elle s’inscrit dans le cadre du projet Modélisation ontologique des savoirs lexicographiques en vue de leur application en linguistique appliquée, surnommé Lexitation, qui est, à notre connaissance, la première tentative d’extraction des savoirs lexicographiques — i.e. connaissances déclaratives et procédurales utilisées par des lexicographes — utilisant une méthode expérimentale. Le projet repose sur le constat que les savoirs lexicographiques ont un rôle crucial à jouer en lexicologie, mais aussi en enseignement/apprentissage du lexique. Dans ce mémoire, nous décrirons les méthodes et les résultats de nos premières expérimentations, effectuées à l’aide du Think Aloud Protocol (Ericsson et Simon, 1993). Nous expliquerons l’organisation générale des expérimentations et comment les savoirs lexicographiques extraits sont modélisés pour former une ontologie. Finalement, nous discuterons des applications possibles de nos travaux en enseignement du lexique, plus particulièrement pour la formation des maîtres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude de cas multiples est d’identifier les facteurs associés à l’intégration de l’approche écologique dans la programmation de prévention-promotion (PP) offerte aux aînés par des organisations locales de santé du Québec. Le modèle de Scheirer a guidé l’étude réalisée dans cinq CSSS choisis en fonction de la dimension écologique de leur programmation PP. Une analyse documentaire et des entretiens semi-dirigés auprès de 38 professionnels et gestionnaires ont constitué la stratégie de collecte de données. Trois catégories de facteurs ont été examinées : les facteurs professionnels, organisationnels et environnementaux. Les résultats suggèrent que les normes organisationnelles, les priorités concurrentes, la structure des équipes, les partenariats avec l’environnement externe, les préjugés, de même que la formation et l’intérêt du personnel influencent le degré d’intégration de l’approche écologique au sein des programmations. Ces résultats permettront de dégager des leviers d'action en vue d’optimiser l’offre de services en prévention-promotion destinée aux aînés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le pouvoir de détenir une personne à des fins d'enquête n'est pas une technique d'investigation nouvelle et tire son origine du droit anglais. Mais cette méthode d'enquête, qui consiste à restreindre temporairement la liberté de mouvement d'une personne que l'on soupçonne pour des motifs raisonnables d'être impliquée dans une activité criminelle, ne fut reconnue officiellement au Canada qu'en juillet 2004 suite au jugement rendu par la Cour suprême dans l'affaire R. c. Mann. Au moment d'écrire ces lignes, cette stratégie d'enquête policière ne fait toujours pas l'objet d'une réglementation spécifique au Code criminel. L'approbation de cette technique d'enquête, en l'absence de toute forme de législation, ne s'est pas faite sans critiques de la part des auteurs et des commentateurs judiciaires qui y voient une intrusion dans un champ de compétences normalement réservé au Parlement. L'arrêt Mann laisse également en suspens une question cruciale qui se rapporte directement aux droits constitutionnels des citoyens faisant l'objet d'une détention semblable: il s'agit du droit d'avoir recours sans délai à l'assistance d'un avocat. Le présent travail se veut donc une étude approfondie du concept de la détention à des fins d'enquête en droit criminel canadien et de son impact sur les droits constitutionnels dont bénéficient les citoyens de notre pays. Pour accomplir cette tâche, l'auteur propose une analyse de la question en trois chapitres distincts. Dans le premier chapitre, l'auteur se penche sur le rôle et les fonctions dévolus aux agents de la paix qui exécutent leur mission à l'intérieur d'une société libre et démocratique comme celle qui prévaut au Canada. Cette étude permettra au lecteur de mieux connaître les principaux acteurs qui assurent le maintien de l'ordre sur le territoire québécois, les crimes qu'ils sont le plus souvent appelés à combattre ainsi que les méthodes d'enquête qu'ils emploient pour les réprimer. Le deuxième chapitre est entièrement dédié au concept de la détention à des fins d'enquête en droit criminel canadien. En plus de l'arrêt R. c. Mann qui fera l'objet d'une étude détaillée, plusieurs autres sujets en lien avec cette notion seront abordés. Des thèmes tels que la notion de «détention» au sens des articles 9 et 10b) de la Charte canadienne des droits et libertés, la différence entre la détention à des fins d'enquête et l'arrestation, les motifs pouvant légalement justifier une intervention policière de même que les limites et l'entendue de la détention d'une personne pour fins d'enquête, seront aussi analysés. Au troisième chapitre, l'auteur se consacre à la question du droit d'avoir recours sans délai à l'assistance d'un avocat (et d'être informé de ce droit) ainsi que du droit de garder le silence dans des circonstances permettant aux agents de la paix de détenir une personne à des fins d'enquête. Faisant l'analogie avec d'autres jugements rendus par nos tribunaux, l'auteur suggère quelques pistes de solutions susceptibles de combler les lacunes qui auront été préalablement identifiées dans les arrêts Mann et Clayton.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : La vaccination est l’une des interventions de santé publique les plus efficaces et les plus efficientes. Comme dans la plupart des pays de la région Ouest africaine, le programme national de vaccination a bénéficié du soutien de nombreuses initiatives internationales et nationales dans le but d’accroître la couverture vaccinale. La politique vaccinale du Burkina Faso s’est appuyée sur différentes stratégies à savoir: la vaccination-prospection, la «vaccination commando», le Programme élargi de vaccination (PEV) et les Journées nationales de vaccination. La couverture vaccinale complète des enfants de 12 à 23 mois a certes augmenté, mais elle est restée en deçà des attentes passant de 34,7% en 1993, à 29,3% en 1998 et 43,9% en 2003. Objectif : Le but de cette thèse est d’analyser à plusieurs périodes et à différents niveaux, les facteurs associés à la vaccination complète des enfants de 12 à 23 mois en milieu rural au Burkina Faso. Méthodes : Nous avons utilisé plusieurs stratégies de recherche et quatre sources de données : - les enquêtes démographiques et de santé (EDS) de 1998-1999 et de 2003 - les annuaires statistiques de 1997 et de 2002 - des entretiens individuels auprès de décideurs centraux, régionaux et d’acteurs de terrain, œuvrant pour le système de santé du Burkina Faso - des groupes de discussion et des entretiens individuels auprès de populations desservies par des centres de santé et de promotion sociale (niveau le plus périphérique du système de santé) et du personnel local de santé. Des approches quantitatives (multiniveau) et qualitatives ont permis de répondre à plusieurs questions, les principaux résultats sont présentés sous forme de trois articles. Résultats : Article 1: « Les facteurs individuels et du milieu de vie associés à la vaccination complète des enfants en milieu rural au Burkina Faso : une approche multiniveau ». En 1998, bien que la propension à la vaccination s’accroisse significativement avec le niveau de vie des ménages et l’utilisation des services de santé, ces 2 variables n’expliquent pas totalement les différences de vaccination observées entre les districts. Plus de 37 % de la variation de la vaccination complète est attribuable aux différences entre les districts sanitaires. A ce niveau, si les ressources du district semblent jouer un rôle mineur, un accroissement de 1 % de la proportion de femmes éduquées dans le district accroît de 1,14 fois les chances de vaccination complète des enfants. Article 2: « Rates of coverage and determinants of complete vaccination of children in rural areas of Burkina Faso (1998 - 2003) ». Entre 1998 et 2003, la couverture vaccinale complète a augmenté en milieu rural, passant de 25,90% à 41,20%. Alors que les ressources du district n’ont présenté aucun effet significatif et que celui de l’éducation s’est atténué avec le temps, le niveau de vie et l’expérience d’utilisation des services de santé par contre, restent les facteurs explicatifs les plus stables de la vaccination complète des enfants. Mais, ils n’expliquent pas totalement les différences de vaccination complète qui persistent entre les districts. Malgré une tendance à l’homogénéisation des districts, 7.4% de variation de la vaccination complète en 2003 est attribuable aux différences entre les districts sanitaires. Article 3: « Cultures locales de vaccination : le rôle central des agents de santé. Une étude qualitative en milieu rural du Burkina Faso ». L’exploration des cultures locales de vaccination montre que les maladies cibles du PEV sont bien connues de la population et sont classées parmi les maladies du «blanc», devant être traitées au centre de santé. Les populations recourent à la prévention traditionnelle, mais elles attribuent la régression de la fréquence et de la gravité des épidémies de rougeole, coqueluche et poliomyélite à la vaccination. La fièvre et la diarrhée post vaccinales peuvent être vues comme un succès ou une contre-indication de la vaccination selon les orientations de la culture locale de vaccination. Les deux centres de santé à l’étude appliquent les mêmes stratégies et font face aux mêmes barrières à l’accessibilité. Dans une des aires de santé, l’organisation de la vaccination est la meilleure, le comité de gestion y est impliqué et l’agent de santé est plus disponible, accueille mieux les mères et est soucieux de s’intégrer à la communauté. On y note une meilleure mobilisation sociale. Le comportement de l’agent de santé est un déterminant majeur de la culture locale de vaccination qui à son tour, influence la performance du programme de vaccination. Tant dans la sphère professionnelle que personnelle il doit créer un climat de confiance avec la population qui acceptera de faire vacciner ses enfants, pour autant que le service soit disponible. Résultats complémentaires : le PEV du Burkina est bien structuré et bien supporté tant par un engagement politique national que par la communauté internationale. En plus de la persistance des inégalités de couverture vaccinale, la pérennité du programme reste un souci de tous les acteurs. Conclusion : Au dedes conclusions propres à chaque article, ce travail a permis d’identifier plusieurs facteurs critiques qui permettraient d’améliorer le fonctionnement et la performance du PEV du Burkina Faso et également de pays comparables. Le PEV dispose de ressources adéquates, ses dimensions techniques et programmatiques sont bien maîtrisées et les différentes initiatives internationales soutenues par les bailleurs de fonds lui ont apporté un support effectif. Le facteur humain est crucial : lors du recrutement du personnel de santé, une attention particulière devrait être accordée à l’adoption d’attitudes d’ouverture et d’empathie vis-à-vis de la population. Ce personnel devrait être en nombre suffisant au niveau périphérique et surtout sa présence et sa disponibilité devraient être effectives. Les liens avec la population sont à renforcer par une plus grande implication du comité de gestion dans l’organisation de la vaccination et en définissant plus clairement le rôle des agents de santé villageois. Ces différents points devraient constituer des objectifs du PEV et à ce titre faire l’objet d’un suivi et d’une évaluation adéquats. Finalement, bien que la gratuité officielle de la vaccination ait réduit les barrières financières, certaines entraves demeurent et elles devraient être levées pour améliorer l’accès aux services de vaccination.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les dérivés cyclopropaniques 1,2,3-substitutés sont des composés intéressants dans de nombreux domaines de la chimie. Au cours de cet ouvrage, nous nous sommes intéressés à la synthèse, tout d’abord diastéréosélective puis énantiosélective de ces composés. Nous nous sommes en particulier intéressés à l’utilisation de la zinciocyclopropanation pour l’obtention de ces dérivés cyclopropaniques 1,2,3-substitutés. Cette méthode consiste en l’utilisation d’un carbénoïde gem-dizincique pour effectuer une réaction de type Simmons-Smith. Cette stratégie a l’avantage d’être diastéréosélective favorisant la formation du zinciocyclopropane dont l’atome de zinc est dans une configuration cis avec le groupement directeur qu’est l’oxygène allylique basique. Lors de cette réaction, l’existence d’une réaction compétitive avec un réactif monozincique diminuait l’utilité de la zinciocyclopropanation. L’issue de la réaction s’est avérée dépendre fortement de la nature du carbénoïde utilisé, de la température réactionnelle et de la présence de ZnI2 dans le milieu. L’étude par GCMS de nombreuses conditions pour la formation des différents carbénoïdes a permis d’identifier les paramètres clés conduisant à la zinciocyclopropanation. Ces découvertes ont notamment permis d’étendre la réaction de zinciocyclopropanation aux alcools allyliques portant un seul groupement directeur (ie. non dérivé du 1,4-buténediol). Dans ces conditions, la réaction s’est avérée extrêmement diastéréosélective favorisant la formation du zinciocyclopropane dont l’atome de zinc est dans une configuration cis avec le groupement directeur. Afin de fonctionnaliser les zinciocyclopropanes ainsi obtenus, plusieurs réactions de fonctionnalisation in situ ont été développées. Chacune de ces méthodes a montré une conservation totale de la diastéréosélectivité obtenue lors de la réaction de zinciocyclopropanation. La versatilité de la zinciocyclopropanation a donc été démontrée. Avec une méthode diastéréosélective efficace pour la formation de zinciocyclopropanes à partir d’alcools allyliques ne portant qu’un seul groupement directeur, il est devenu possible d’envisager le développement énantiosélectif de la réaction. L’utilisation d’un dioxaborolane énantiopur a permis la zinciocyclopropanation avec de très bons excès énantiomères de divers alcools allyliques chiraux. La présence sur la même molécule d’un lien C–Zn nucléophile est d’un atome de bore électrophile a conduit à un échange bore-zinc in situ, formant un cyclopropylborinate énantioenrichi. La formation de ce composé bicyclique a permis d’obtenir une diastéréosélectivité parfaite. De nombreux alcools allyliques ont pu ainsi être convertis en cyclopropylborinates. Une réaction de Suzuki subséquente a permis la formation de dérivés cyclopropaniques 1,2,3-trisubstitués avec de très bons excès énantiomères et une excellente diastéréosélectivité. Les cyclopropylborinates obtenus à l’issue de la zinciocyclopropanation énantiosélective se sont avérés être des unités très versatiles puisque de nombreuses méthodes ont pu être développés pour leur fonctionnalisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réparation par excision de nucléotides (NER) est une voie critique chez l'homme pour enlever des lésions qui déforment l’hélice d'ADN et qui bloquent à la fois la réplication et la transcription. Parmi ces lésions, il y a les dimères cyclobutyliques de pyrimidines (CPDs) et les adduits pyrimidine (6-4) pyrimidone (6-4PPs) induient par les rayons ultraviolets. L'importance physiologique de la NER est mise en évidence par l’existence de la maladie Xeroderma pigmentosum (XP), causée par des mutations affectant des gènes impliqués dans cette voie de réparation. Les personnes atteintes sont caractérisées par une photosensibilité extrême et une forte prédisposition à développer des tumeurs cutanées (plus de 1000 fois). Les patients atteints du type variant de la maladie Xeroderma pigmentosum (XPV), apparemment compétents en réparation, portent plutôt des mutations dans le gène codant pour l'ADN polymérase η (polη). Polη est une ADN polymérase translésionnelle capable de contourner avec une grande fidélité certaines lésions telles que les CPDs, qui autrement bloquent les polymérases réplicatives. Ainsi, la polη prévient la formation de mutations et permet la reprise de la synthèse d'ADN. L'objectif principal de cette thèse est d'évaluer le rôle potentiel de voies de signalisation majeures dans la régulation de la NER, dont celles régulées par la kinase ATR (Ataxia Télangiectasia and Rad3-related kinase). Suite à l'irradiation UV, ATR est rapidement activée et phosphoryle des centaines de protéines qui régulent les points de contrôle du cycle cellulaire et joue un rôle notoire dans le maintient de la stabilité génomique. Nous avons postulé qu’ATR puisse réguler la NER de manière dépendante du cycle cellulaire. Cependant, tester cette hypothèse représente un grand défi car, pour des raisons techniques, les méthodes conventionnelles n’ont pas à ce jour été adaptées pour l'évaluation de la cinétique de réparation au cours des différentes phases du cycle cellulaire. Nous avons donc développé une méthode novatrice basée sur la cytométrie en flux permettant de quantifier avec grande précision la cinétique de réparation des 6-4PPs et CPDs dans chacune des phases G0/G1, S et G2/M. Avec cette nouvelle méthode, nous avons pu démontrer que l'inhibition d'ATR ou polη résulte en une très forte inhibition de la NER exclusivement durant la phase S du cycle cellulaire. Ces études ont révélé, pour la première fois, une fonction critique pour ces protéines dans le retrait des lésions qui bloquent la réplication. En outre, nous avons démontré que la synthèse d'ADN est indispensable pour l’inhibition de la réparation en phase-S, reflétant un lien potentiel entre la NER et la réplication. Curieusement, nous avons également montré que parmi six lignées cellulaires tumorales choisies aléatoirement, trois présentent une abrogation totale de la NER uniquement pendant la phase S, ce qui indique que de nombreux cancers humains pourraient être caractérisés par un tel défaut. Nos observations pourraient avoir d'importantes implications pour le traitement du cancer. En effet, le statut de la NER semble constituer un déterminant majeur dans la réponse clinique aux médicaments chimiothérapeutiques tels que le cisplatine, qui inhibent la croissance des cellules cancéreuses via l'induction de lésions à l’ADN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trajectoires développementales de l’IMC durant l’enfance: Une étude longitudinale sur 8 ans. Introduction : L’obésité infantile, origine de nombreux problèmes de santé, représente un grand défi en santé publique. Récemment, l’importance d’étudier l’évolution du surpoids durant l’enfance ainsi que les facteurs de risques précoces pour l’obésité a été reconnue. Les trajectoires développementales d’indice de masse corporelle (IMC) chez les jeunes représentent une approche innovatrice qui nous permet de mieux comprendre cette problématique importante. Objectifs: 1) Identifier des trajectoires développementales distinctes de groupes d’enfants selon leur IMC durant l’enfance, et 2) Explorer les facteurs de risques précoces qui prédisent l’appartenance de l’enfant à la trajectoire d’IMC le plus élevé Hypothèses: 1) On s’attend à retrouver un groupe d’enfants qui suit une trajectoire d’IMC élevée durant l’enfance. 2) On s’attend à ce que certaines caractéristiques de la mère (ex : tabac pendant la grossesse et IMC élevé), soient associées à l’appartenance de l’enfant au groupe ayant la trajectoire «IMC élevé ». Méthodes: Estimation des trajectoires développementales d’IMC d’enfants, dans un échantillon populationnel (n=1957) au Québec (ELDEQ). Les IMC ont été calculés à partir de données fournies par les mères des enfants et recueillis chaque année sur une durée de 8 ans. Des données propres à l’enfant sa mère, ainsi que socioéconomiques, ont étés recueillies. Une régression logistique multinomiale a été utilisée pour distinguer les enfants avec un IMC élevé des autres enfants, selon les facteurs de risques précoces. Les programmes PROC TRAJ (extension de SAS), SPSS (version 16), et SAS (version 9.1.3) ont été utilisés pour ces analyses. Résultats: Trois trajectoires d’IMC ont étés identifiées : IMC « bas-stable » (54,5%), IMC « modéré » (41,0%) et IMC « élevé et en hausse » (4,5%). Le groupe « élevé et en hausse » incluait des enfants pour qui l’IMC à 8 ans dépassait la valeur limite pour l’obésité. Les analyses de régression logistique ont révélé que deux facteurs de risques maternels étaient significativement associés avec la trajectoire “en hausse” par rapport aux deux autres groupes : le tabac durant la grossesse et le surpoids maternel. Conclusions: Des risques d’obésité infantile peuvent êtres identifiés dès la grossesse. Des études d’intervention sont requises pour identifier la possibilité de réduire le risque d’obésité chez l’enfant en ciblant le tabac et le surpoids maternelle durant la grossesse. Mots clés: Indice de masse corporelle (IMC), obésité infantile, trajectoires développementales de groupe, facteurs de risque précoce, étude populationnelle, tabac pendant la grossesse, obésité maternelle.