992 resultados para tempérament difficile


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cardiomyopathie/dysplasie arythmogène du ventricule droit (ARVC/D) est un désordre d’origine génétique caractérisé par le remplacement du myocarde par du tissus fibro-adipeux dans le ventricule droit. Ce désordre est responsable d’un grand pourcentage de mort subite, spécialement chez les plus jeunes. ARVC/D est difficile à diagnostiquer avec les outils cliniques actuels. Elle est causée en grande majorité par des mutations dans les protéines desmosomales. ARVC/D a donc des implications d’une grande importance chez les membres de la famille, qui peuvent sans le savoir, être aussi à risque de mort subite. Dans le but d’améliorer le diagnostique, un nouvel outil, le test génétique, est de plus en plus utilisé. Hypothèses: Dans le but d’évaluer la valeur du test génétique en complément du test clinique classique chez ARVC/D nous avons effectué une investigation clinique et génétique chez 23 cas-index atteints. Méthodes: Les cas-index sont diagnostiqué après une mort subite dans la famille ou après un examen clinique poussé pour arythmies. Le diagnostique d’ARVC/D a été fait avec les outils cliniques selon les critères. L’analyse génétique des protéines desmosomales associées à la maladie a été effectuée en séquençant leurs exons ainsi que les régions introniques nécessaires à l’épissage alternatif. Résultats: Le diagnostique clinique était clair dans 18/23 et incertain dans 5/23 des individus. Nous avons identifié 15 différentes mutations chez 10 cas-index. 64% des mutations n’avaient jamais été décrites. De plus, nous avons observé la présence de double ou triple mutant dans 40% des cas-index positifs. Les individus avec mutations sont plus jeunes et ont plus de symptômes que les individus sans mutation. Conclusion: Les tests génétiques sont positifs dans 43% des patients avec ARVC/D. L’utilisation de la technologie génétique basée sur l’identification de mutations connues a une valeur limitée vu le haut pourcentage des mutations nouvelles dans la maladie. La présence de double, même de triple mutant n’est pas associé avec un phénotype plus sévère, mais renforce l’idée de la nécessité d’un test génétique pour tous les gènes. Le test génétique est un outil fort utile à ajouter aux tests cliniques pour le diagnostique des patients qui ne remplissent pas tous les critères cliniques de la maladie. Mots clés: génétique, ARVC/D, mort subite, desmosome

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude qualitative descriptive de type exploratoire a pour but d’explorer les perceptions des adolescents, de leurs parents et des professionnels impliqués quant à l’inclusion sociale des adolescents ayant vécu un traumatisme craniocérébral (TCC) modéré, notamment en ce qui concerne la reprise des rôles sociaux une fois le congé définitif du centre de réadaptation obtenu. Le modèle écologique de Bronfenbrenner (1979, 1986), adapté par Lefebvre & Levert (2005) auprès de la clientèle TCC, est utilisé comme cadre de référence. Des entrevues semi-dirigées ont été réalisées auprès de trois adolescents ayant vécu un TCC modéré, de même que leurs parents, et un groupe de discussion auprès de quatre professionnels. Les résultats montrent que les perceptions des adolescents ayant vécu un TCC modéré, de même que celles de leurs parents, portent sur différents aspects de leur vie, tels que l’adolescent en tant que personne, la famille, les amis, l’environnement, l’école et les loisirs. Il est en effet ressorti une multitude de répercussions, ces dernières facilitant, parfois contraignant, l’inclusion sociale de l’adolescent TCC modéré. De manière générale, les professionnels partagent les mêmes perceptions qu’eux. Toutefois, ces derniers ajoutent certains aspects non recueillis lors des entretiens auprès des adolescents TCC modéré et de leurs parents. Les résultats de cette étude devraient permettre aux professionnels de la santé une meilleure compréhension de l’inclusion sociale vécue par ces personnes, en plus d’offrir des balises permettant à ceux-ci de mieux soutenir l’inclusion sociale des adolescents TCC et de venir en aide aux familles dans cette situation difficile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trois protéines de la famille TRIM (Motif TRIpartite), TIF1α, β (Transcriptional Intermediary Factor 1) et PML (ProMyelocytic Leukaemia¬), font l’objet de cette étude. TIF1α est connu comme un coactivateur des récepteurs nucléaires et TIF1β comme le corépresseur universel des protéines KRAB-multidoigt de zinc dont le prototype étudié ici est ZNF74. PML possède divers rôles dont le plus caractérisé est celui d’être l’organisateur principal et essentiel des PML-NBs (PML-Nuclear Bodies), des macrostructures nucléaires très dynamiques regroupant et coordonnant plus de 40 protéines. Il est à noter que la fonction de TIF1α, β et PML est régulée par une modification post-traductionnelle, la sumoylation, qui implique le couplage covalent de la petite protéine SUMO (Small Ubiquitin like MOdifier) à des lysines de ces trois protéines cibles. Cette thèse propose de développer des méthodes utilisant le BRET (Bioluminescence Resonance Energy Transfert) afin de détecter dans des cellules vivantes et en temps réel des interactions non-covalentes de protéines nucléaires mais aussi leur couplage covalent à SUMO. En effet, le BRET n’a jamais été exploré jusqu’alors pour étudier les interactions non-covalentes et covalentes de protéines nucléaires. L’étude de l’interaction de protéines transcriptionnellement actives est parfois difficile par des méthodes classiques du fait de leur grande propension à agréger (famille TRIM) ou de leur association à la matrice nucléaire (ZNF74). L’homo et l’hétérodimérisation de TIF1α, β ainsi que leur interaction avec ZNF74 sont ici testées sur des protéines entières dans des cellules vivantes de mammifères répondant aux résultats conflictuels de la littérature et démontrant que le BRET peut être avantageusement utilisé comme alternative aux essais plus classiques basés sur la transcription. Du fait de l’hétérodimérisation confirmée de TIF1α et β, le premier article présenté ouvre la possibilité d’une relation étroite entre les récepteurs nucléaires et les protéines KRAB- multidoigt de zinc. Des études précédentes ont démontré que la sumoylation de PML est impliquée dans sa dégradation induite par l’As2O3 et dépendante de RNF4, une E3 ubiquitine ligase ayant pour substrat des chaînes de SUMO (polySUMO). Dans le second article, grâce au développement d’une nouvelle application du BRET pour la détection d’interactions covalentes et non-covalentes avec SUMO (BRETSUMO), nous établissons un nouveau lien entre la sumoylation de PML et sa dégradation. Nous confirmons que le recrutement de RNF4 dépend de SUMO mais démontrons également l’implication du SBD (Sumo Binding Domain) de PML dans sa dégradation induite par l’As2O3 et/ou RNF4. De plus, nous démontrons que des sérines, au sein du SBD de PML, qui sont connues comme des cibles de phosphorylation par la voie de la kinase CK2, régulent les interactions non-covalentes de ce SBD mettant en évidence, pour la première fois, que les interactions avec un SBD peuvent dépendre d’un évènement de phosphorylation (“SBD phospho-switch”). Nos résultats nous amènent à proposer l’hypothèse que le recrutement de PML sumoylé au niveau des PML-NBs via son SBD, favorise le recrutement d’une autre activité E3 ubiquitine ligase, outre celle de RNF4, PML étant lui-même un potentiel candidat. Ceci suggère l’existence d’une nouvelle relation dynamique entre phosphorylation, sumoylation et ubiquitination de PML. Finalement, il est suggéré que PML est dégradé par deux voies différentes dépendantes de l’ubiquitine et du protéasome; la voie de CK2 et la voie de RNF4. Enfin une étude sur la sumoylation de TIF1β est également présentée en annexe. Cette étude caractérise les 6 lysines cibles de SUMO sur TIF1β et démontre que la sumoylation est nécessaire à l’activité répressive de TIF1β mais n’est pas impliquée dans son homodimérisation ou son interaction avec la boîte KRAB. La sumoylation est cependant nécessaire au recrutement d’histones déacétylases, dépendante de son homodimérisation et de l’intégrité du domaine PHD. Alors que l’on ne connaît pas de régulateur physiologique de la sumoylation outre les enzymes directement impliquées dans la machinerie de sumoylation, nous mettons en évidence que la sumoylation de TIF1β est positivement régulée par son interaction avec le domaine KRAB et suggérons que ces facteurs transcriptionnels recrutent TIF1β à l’ADN au niveau de promoteur et augmentent son activité répressive en favorisant sa sumoylation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis les années 90, les Projets Intégrés de Conservation et Développement ont été présentés comme des modèles fonctionnels de développement durable pour un site spécifique dans une perspective de réalisation. Le but est d’intégrer les objectifs biologiques de la conservation aux objectifs sociaux et économiques du développement. Ces projets, qui répondent à de multiples dénominations et stratégies, sont implantés dans des contextes naturellement hétérogènes et dynamiques, où l’aménagement du territoire ne doit pas être un outil de planification étatique, désigné et imposé dans une logique conservationniste. Les aires protégées représentent une certaine vision du rapport entre l’être humain et la nature, apparue dans le contexte nord-américain avec la création des premiers grands parcs nationaux en 1870. Aujourd'hui, la forte volonté d'impliquer la population se heurte avec la difficulté de concilier la gestion de ces espaces avec les pratiques, les nécessités et les intérêts locaux. Le parc naturel Obô, qui occupe 30% du territoire de São Tomé et Principe, doit affronter la difficile intégration entre les représentations de la nature et les usages locaux avec les objectifs globaux des politiques conservationnistes, ainsi qu’avec les intérêts touristiques et économiques des investisseurs locaux et étrangers. Les représentations sociales de la nature, établissant une forme de connaissance pratique, déterminent la vision du monde et la relation qu'un certain groupe social peut avoir avec le territoire. Ainsi, chaque communauté possède ses propres mécanismes d'adaptation au milieu basés sur ce système représentationnel. Dans le cas des communautés sãotoméennes, la nature présente un caractère spirituel (associé à des croyances, des rites et des pratiques médicales traditionnelles) et utilitaire (la nature, à travers l'agriculture, la récolte ou la chasse, répond au besoin de subsistance). L’objectif de ce projet de thèse est donc de mieux comprendre la synergie existante entre savoir endogène et gestion de la biodiversité pour adapter l’aménagement du territoire à la réalité des populations qui y vivent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dépression postnatale (DP) est un problème de santé publique très fréquent dans différentes cultures (Affonso et al, 2000). En effet, entre 10% à 15% des mères souffrent d’une symptomatogie dépressive ainsi que l’indiquent Gorman et al. (2004). La prévention de la DP est l’objectif de différents programmes prénatals et postnatals (Dennis, 2005; Lumley et al, 2004). Certains auteurs notent qu’il est difficile d’avoir accès aux femmes à risque après la naissance (Evins et al, 2000; Georgiopoulos et al, 2001). Mais, les femmes fréquentent les centres de santé pendant la grossesse et il est possible d’identifier les cas à risque à partir des symptômes prénataux dépressifs ou somatiques (Riguetti-Veltema et al, 2006); d’autant plus qu’un grand nombre de facteurs de risque de la DP sont présents pendant la grossesse (O’Hara et Gorman, 2004). C’est pourquoi cette étude fut initiée pendant le premier trimestre de la grossesse à partir d’une détection précoce du risque de DP chez n= 529 femmes de classes moyenne et défavorisée, et, cela, au moyen d’un questionnaire validé utilisé à l’aide d’une entrevue. L’étude s’est effectuée dans trois villes : Barcelone, Figueres, et Béziers au cours des années 2003 à 2005. Objectif général : La présente étude vise à évaluer les effets d’un programme prénatal de groupes de rencontre appliqué dans la présente étude chez des couples de classe socioéconomique non favorisée dont les femmes sont considérées comme à risque de dépression postnatale. L’objectif spécifique est de comparer deux groupes de femmes (un groupe expérimental et un groupe témoin) par rapport aux effets du programme prénatal sur les symptômes de dépression postnatale mesurés à partir de la 4ème semaine après l’accouchement avec l’échelle EPDS. Hypothèse: Les femmes participant au programme prénatal de groupe adressé aux couples parentaux, composé de 10 séances hebdomadaires et inspiré d’une orientation psychosomatique présenteront, au moins, un taux de 6% inférieur de cas à risque de dépression postnatale que les femmes qui ne participent pas, et cela, une fois évaluées avec l’échelle EPDS (≥12) 4 semaines après leur accouchement. Matériel et méthode: La présente étude évaluative est basée sur un essai clinique randomisé et longitudinal; il s’étend de la première ou deuxième visite d’échographie pendant la grossesse à un moment situé entre la 4ème et la 12ème semaine postnatale. Les participants à l’étude sont des femmes de classes moyenne et défavorisée identifiées à risque de DP et leur conjoint. Toutes les femmes répondant aux critères d’inclusion à la période du recrutement ont effectué une entrevue de sélection le jour de leur échographie prénatale à l’hôpital (n=529). Seules les femmes indiquant un risque de DP furent sélectionnées (n= 184). Par la suite, elles furent distribuées de manière aléatoire dans deux groupes: expérimental (n=92) et témoin (n=92), au moyen d’un programme informatique appliqué par un statisticien considérant le risque de DP selon le questionnaire validé par Riguetti-Veltema et al. (2006) appliqué à l’aide d’une entrevue. Le programme expérimental consistait en dix séances hebdomadaires de groupe, de deux heures et vingt minutes de durée ; un appel téléphonique entre séances a permis d’assurer la continuité de la participation des sujets. Le groupe témoin a eu accès aux soins habituels. Le programme expérimental commençait à la fin du deuxième trimestre de grossesse et fut appliqué par un médecin et des sages-femmes spécialement préparées au préalable; elles ont dirigé les séances prénatales avec une approche psychosomatique. Les variables associées à la DP (non psychotique) comme la symptomatologie dépressive, le soutien social, le stress et la relation de couple ont été évaluées avant et après la naissance (pré-test/post-test) chez toutes les femmes participantes des deux groupes (GE et GC) utilisant : l’échelle EPDS (Cox et al,1987), le Functional Social Support Questionnaire (Broadhead et al, 1988), l’évaluation du stress de Holmes et Rahe (1967) et, l’échelle d’ajustement dyadique de Spanier (1976). La collecte des données prénatales a eu lieu à l’hôpital, les femmes recevaient les questionnaires à la fin de l’entrevue, les complétaient à la maison et les retournaient au rendez-vous suivant. Les données postnatales ont été envoyées par les femmes utilisant la poste locale. Résultats: Une fois évalués les symptômes dépressifs postnatals avec l’échelle EPDS entre la 4ème et la 12ème semaine postnatale et considérant le risque de DP au point de césure ≥ 12 de l’échelle, le pourcentage de femmes à risque de DP est de 39,34%; globalement, les femmes étudiées présentent un taux élevé de symptomatologie dépressive. Les groupes étant comparables sur toutes les variables prénatales, notons une différence dans l’évaluation postnatale de l’EPDS (≥12) de 11,2% entre le groupe C et le groupe E (45,5% et 34,3%). Et la différence finale entre les moyennes de l’EPDS postnatal est de 1,76 ( =11,10 ±6,05 dans le groupe C et =9,34 ±5,17 dans le groupe E) ; cette différence s’aproche de la limite de la signification (p=0,08). Ceci est dû à un certain nombre de facteurs dont le faible nombre de questionnaires bien complétés à la fin de l’étude. Les femmes du groupe expérimental présentent une diminution significative des symptômes dépressifs (t=2,50 / P= 0,01) comparativement au pré-test et indiquant une amélioration au contraire du groupe témoin sans changement. Les analyses de régression et de covariance montrent que le soutien social postnatal, les symptômes dépressifs prénatals et le stress postnatal ont une relation significative avec les symptômes dépressifs postnatals (P<0,0001 ; P=0.003; P=0.004). La relation du couple n’a pas eu d’impact sur le risque de DP dans la présente étude. Par contre, on constate d’autres résultats secondaires significatifs: moins de naissances prématurées, plus d’accouchements physiologiques et un plus faible taux de somatisations non spécifiques chez les mères du groupe expérimental. Recommandations: Les résultats obtenus nous suggèrent la considération des aspects suivants: 1) il faudrait appliquer les mesures pour détecter le risque de DP à la période prénatale au moment des visites d’échographie dont presque toutes les femmes sont atteignables; il est possible d’utiliser à ce moment un questionnaire de détection validé car, son efficacité semble démontrée; 2) il faudrait intervenir auprès des femmes identifiées à risque à la période prénatale à condition de prolonger le programme préventif après la naissance, tel qu’indiqué par d’autres études et par la demande fréquente des femmes évaluées. L’intervention prénatale de groupe n’est pas suffisante pour éviter le risque de DP chez la totalité des femmes. C’est pourquoi une troisième recommandation consisterait à : 3) ajouter des interventions individuelles pour les cas les plus graves et 4) il paraît nécessaire d’augmenter le soutien social chez des femmes défavorisées vulnérables car cette variable s’est révélée très liée au risque de dépression postnatale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les résultats de cette recherche faite auprès de cadres intermédiaires qui sont les gestionnaires des infirmières travaillant dans des programmes de personnes âgées en perte d'autonomie liée au vieillissement(PALV) montrent qu'il est difficile d'y attirer de nouvelles infirmières en raison du peu de popularité du domaine de la gériatrie.Afin d'y attirer des candidates, les cadres peuvent faire valoir le défi de gérer des situations de santé souvent complexes, la flexibilité des horaires de travail,l'autonomie dont elles disposent dans l'organisation de leur travail, le nombre de week-end de travail moins élevé que dans les hôpitaux et l'absence de travail supplémentaire obligatoire. Selon ces cadres, la rétention des infirmières dans de tels programmes PALV ne crée pas problème. Pour favoriser davantage cette rétention, des mesures élaborées d'orientation et d'encadrement des nouvelles infirmières de même que des mécanismes d'évaluation formelle doivent être mis en place, des efforts doivent être faits pour répartir équitablement les tâches, pour amener les infirmières à agir en tant que gestionnaires de cas et à se délester de tâches au profit des infirmières auxiliaires, et pour les sensibiliser à l'importance de la notion de prise en charge de sa santé par le client; des activités de formation continue significatives pour les infirmières doivent être élaborées à partir de l'analyse de leurs propres besoins et enfin des charges de travail particulières doivent être offertes aux infirmiàres de 55 ans et plus dans le but de les retenir au travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La bio-informatique est un champ pluridisciplinaire qui utilise la biologie, l’informatique, la physique et les mathématiques pour résoudre des problèmes posés par la biologie. L’une des thématiques de la bio-informatique est l’analyse des séquences génomiques et la prédiction de gènes d’ARN non codants. Les ARN non codants sont des molécules d’ARN qui sont transcrites mais pas traduites en protéine et qui ont une fonction dans la cellule. Trouver des gènes d’ARN non codants par des techniques de biochimie et de biologie moléculaire est assez difficile et relativement coûteux. Ainsi, la prédiction des gènes d’ARNnc par des méthodes bio-informatiques est un enjeu important. Cette recherche décrit un travail d’analyse informatique pour chercher des nouveaux ARNnc chez le pathogène Candida albicans et d’une validation expérimentale. Nous avons utilisé comme stratégie une analyse informatique combinant plusieurs logiciels d’identification d’ARNnc. Nous avons validé un sous-ensemble des prédictions informatiques avec une expérience de puces à ADN couvrant 1979 régions du génome. Grace à cette expérience nous avons identifié 62 nouveaux transcrits chez Candida albicans. Ce travail aussi permit le développement d’une méthode d’analyse pour des puces à ADN de type tiling array. Ce travail présente également une tentation d’améliorer de la prédiction d’ARNnc avec une méthode se basant sur la recherche de motifs d’ARN dans les séquences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’infertilité affecte environ 15% des couples en âge de se reproduire. Dans près de la moitié des cas, des facteurs masculins sont à la base de l’infertilité, quoique les causes exactes demeurent souvent inconnues. Les spermatozoïdes de mammifères subissent une série d’étapes de maturation avant d’acquérir la capacité de féconder un ovocyte. Les premiers changements ont lieu à l’intérieur de l’épididyme, où les spermatozoïdes gagnent la capacité de se mouvoir ainsi que de reconnaître et d’interagir avec l’ovocyte. Suite à l’éjaculation, ils doivent subir une seconde série de modifications à l’intérieur du tractus génital femelle, nommée capacitation. Nous avons préalablement démontré que chez le bovin, la famille de protéines BSP (Binder of SPerm) est essentielle à la capacitation. Des homologues des BSP ont aussi été isolés du fluide séminal de porc, de bouc, de bélier, de bison et d’étalon. Malgré la détection d’antigènes apparentés aux BSP dans le fluide séminal de souris et d’humain, les homologues des BSP n’ont jamais été caractérisés chez ces espèces. Nous avons émis l’hypothèse que des homologues des BSP seraient exprimés chez la souris et l’humain et joueraient un rôle dans la maturation des spermatozoïdes. Nous avons démontré que des séquences homologues aux BSP sont présentes dans les génomes murin et humain. Le génome murin contient trois séquences; Bsph1, Bsph2a et Bsph2b, tandis qu’une seule séquence (BSPH1) a été identifée chez l’humain. Les séquences d’ADNc de Bsph1, Bsph2a et BSPH1 ont été clonées, tandis que Bsph2b serait probablement un pseudogène. Les trois gènes sont exprimés uniquement dans l’épididyme et font partie d’une sous-famille distincte à l’intérieur de la famille des BSP. Chez les ongulés, les BSP sont exprimées par les vésicules séminales, sont ajoutées aux spermatozoïdes lors de l’éjaculation et représentent une proportion significative des protéines du plasma séminal. Au contraire, les BSP épididymaires ne sont retrouvées qu’en faibles quantités dans le fluide séminal. L’étude de leur rôle dans les fonctions spermatiques était donc plus difficile que chez les ongulés, où l’isolement des protéines natives du plasma séminal à l’aide de techniques de chromatographie était possible. Afin d’étudier sa fonction, nous avons exprimé BSPH1 recombinante dans E. coli. Les ponts disulfure des domaines de type-II caractéristiques de ces protéines ont fait en sorte que l’expression de BSPH1 fusionnée à une étiquette hexahistidine ou glutathion-S-transférase a donné lieu à des protéines insolubles dans les corps d’inclusion. La production de BSPH1 soluble a été possible grâce à l’ajout d’une étiquette thiorédoxine et l’expression dans une souche au cytoplasme oxidatif. BSPH1 a été purifiée par affinité et sa liaison aux partenaires connus des BSP, la phosphatidylcholine, les lipoprotéines de faible densité et la membrane des spermatozoïdes, suggérait que la protéine recombinante possédait sa conformation native et pouvait être utilisée pour des essais fonctionnels. La forme native de BSPH1 a été détectée dans le plasma séminal humain suite au fractionnement par gel filtration. La liaison de BSPH1 native à une colonne d’affinité à l’héparine a indiqué qu’elle partage aussi cette propriété de liaison avec la famille des BSP, et pourrait lier les GAGs semblables à l’héparine du tractus génital féminin. Une colonne d’immunoaffinité anti-BSPH1 a été préparée à l’aide d’anticorps générés contre des protéines recombinantes, et a permis d’isoler BSPH1 native à partir d’extraits de spermatozoïdes humains. Nos résultats montrent que BSPH1 native serait localisée dans les microdomaines « rafts » de la membrane. Sa masse moléculaire apparente était de 32 kDa, ce qui est supérieur à la masse prédite selon sa séquence en acides aminés, indiquant la présence probable de modifications post-traductionnelles, ou d’une migration anormale. L’effet de BSPH1 recombinante et des anticorps anti-BSPH1 sur la motilité, la viabilité et la capacitation a aussi été étudié. Les deux dernières variables ont été mesurées par un essai de cytométrie en flux, optimisé dans cette étude. Aucun effet des protéines recombinantes ou des anticorps sur la motilité et la viabilité des spermatozoïdes n’a été noté. Quoiqu’une stimulation modeste, quoique significative, de la capacitation ait été observée à la plus faible concentration de BSPH1, les concentrations plus élevées n’ont pas montré d’effet. De la même manière, les anticorps anti-BSPH1 n’ont pas eu d’effet significatif sur la capacitation. Ces résultats suggèrent que BSPH1 produite dans E. coli n’affecte pas la capacitation de façon marquée. Cependant, puisque BSPH1 native possède probablement des modifications post-traductionnelles, une protéine recombinante produite dans des cellules de mammifères pourrait affecter les fonctions spermatiques. De manière alternative, les BSP épididymaires remplissent peut-être un rôle différent dans les fonctions spermatiques que celles sécrétées par les vésicules séminales des ongulés. Les résultats décrits dans cette thèse pourraient contribuer à améliorer le diagnostic de l’infertilité masculine, ainsi que les techniques de reproduction assistée et éventuellement, pourraient mener au développement de contraceptifs masculins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’interféron-α pegylé en combinaison avec la ribavirin est le seul traitement approuvé pour le traitement de l’infection au virus de l’hépatite C (VHC). L’efficacité est de 50-75%, la thérapie est coûteuse et induit beaucoup d’effets secondaires. Il est impératif d’avoir une meilleure compréhension de la pathogenèse du VHC afin de développer des traitements plus efficaces ou un vaccin. À cette fin, notre approche est de caractériser la réponse immunitaire cellulaire induite par ARFP, un antigène nouveau et conservé chez le VHC, et de cartographier les épitopes de la réponse immunitaire cellulaire d’un patient infecté au génotype 3a ayant résolu spontanément. Le génotype 3a, étant prévalant chez les utilisateurs de drogues intraveineuses (IDUs) constitue 60% des nouvelles infections. Peu d’épitopes furent identifiés auparavant pour ce génotype, ce qui rend l’étude de la réponse immunitaire difficile chez cette population. Dans cette étude, pour la réponse immunitaire cellulaire dirigée contre ARFP, nous n’avons pas observé de différence significative entre les patients ayant résolu spontanément comparativement avec ceux ayant développé une infection persistante. Ceci suggère fortement que ARFP ne joue pas un rôle majeur lors de la résolution de l’infection aigue au VHC. Pour la caractérisation de la réponse immunitaire cellulaire chez un des patients infectés au génotype 3a, nous avons identifié et caractérisé 5 épitopes spécifiquement reconnus par des lymphocytes T, CD3+, CD4+ et CD8- : E2504-521, NS31064-1081, NS4b1759-1776, NS5a2074-2091, NS5b2421-2436. Nous avons comparé avec ceux connus pour le génotype 1a. Nous avons identifié 4 nouveaux épitopes. Enfin, l’épitope NS4b1759-1776, identifié auparavant, pourrait s’avérer être un candidat intéressant dans la mise au point d’un vaccin à base de peptides immunogéniques contre le VHC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les champignons mycorhiziens à arbuscules (CMA), classés dans le phylum Glomeromycota, ne peuvent pas être facilement identifiés par la morphologie de leurs spores et leurs mycélia à l'intérieur ou à l'extérieur des racines de leurs hôtes. Ce problème fondamental d'identification rend l'étude de leur diversité, en particulier dans leur habitat naturel (sol et racine) extrêmement difficile. Les gènes ribosomaux ont été largement utilisés pour développer des amorces spécifiques et en inférer des arbres phylogénétiques. Cependant, ces gènes sont très polymorphes et existent en plusieurs copies dans le génome des CMA, ce qui complique l’interprétation des résultats. Dans notre étude, nous avons étudié le polymorphisme intra- et inter-spécifique du gène β-tubuline, présent en faible nombre de copies dans le génome des CMA, afin d’obtenir de nouvelles séquences nucléotidiques pour développer des marqueurs moléculaires. Les gènes β-tubuline amplifiés à partir de l'ADN génomique de cinq espèces du genre Glomus ont été clonés et séquencés. L’analyse des séquences indique un polymorphisme intraspécifique chez trois espèces de CMA. Deux séquences paralogues très variables ont été nouvellement identifiées chez les G. aggregatum, G. fasciculatum et G. cerebriforme. Aucun polymorphisme n’a été détecté chez les G. clarum et G. etunicatum. Toutes les séquences montrent la présence de deux introns hautement variables. La majorité des substitutions ont été localisées dans les exons et sont synonymes à 90%. La conservation des acides aminés suggère un niveau élevé de sélection négative sur le gène β-tubuline et nous permet de confirmer que les CMA représentent un ancien groupe fongique (400 million d’années). L’analyse phylogénétique, réalisée avec vingt et une séquences nucléotidiques du gène β-tubuline, a révélé que les séquences des Glomaceae forment un groupe monophylétique bien supporté, avec les Acaulosporaceae et Gigasporaceae comme groupe frère. Les séquences paralogues nouvellement identifiées chez les G. aggregatum et G. fasciculatum n'ont pas été monophylétiques au sein de chaque espèce. Les oligonucléotides ont été choisis sur la base des régions variables et conservées du gène β-tubuline. Le test PCR des amorces β-Tub.cerb.F/ β-Tub.cerb.R a révélé des bandes spécifiques de 401 pb pour les séquences paralogues du G. cerebriforme. Deux paires d’amorces ont été développées afin d’identifier les séquences du groupe nommé Tub.1. Les tests PCR nous ont permis d’identifier certaines séquences du groupe Tub.1. Une paire d’amorce β-Tub.2.F/ β-Tub.2.R nous a permis d’identifier certaines séquences paralogues du groupe nommé Tub.2. L’analyse d’autres gènes combinée à celle du gène β-tubuline permettra le développement de marqueurs moléculaires plus spécifiques pour l’identification de CMA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’épidémie du VIH-1 dure maintenant depuis plus de 25 ans. La grande diversité génétique de ce virus est un obstacle majeur en vue de l’éradication de cette pandémie. Au cours des années, le VIH-1 a évolué en plus de cinquante sous-types ou formes recombinantes. Cette diversité génétique est influencée par diverses pressions de sélection, incluant les pressions du système immunitaire de l’hôte et les agents antirétroviraux (ARV). En effet, bien que les ARV aient considérablement réduit les taux de morbidité et de mortalité, en plus d’améliorer la qualité et l’espérance de vie des personnes atteintes du VIH-1, ces traitements sont complexes, dispendieux et amènent leur lot de toxicité pouvant mener à des concentrations plasmatiques sous-optimales pour contrôler la réplication virale. Ceci va permettre l’émergence de variantes virales portant des mutations de résistance aux ARV. Ce phénomène est encore plus complexe lorsque l’on prend en considération l’immense diversité génétique des différents sous-types. De plus, le virus du VIH est capable de persister sous forme latente dans diverses populations cellulaires, rendant ainsi son éradication extrêmement difficile. Des stratégies pouvant restreindre la diversité virale ont donc été préconisées dans le but de favoriser les réponses immunes de l’hôte pour le contrôle de l’infection et d’identifier des variantes virales offrant une meilleure cible pour des stratégies vaccinales ou immunothérapeutiques. Dans cet esprit, nous avons donc étudié, chez des sujets infectés récemment par le VIH-1, l’effet du traitement ARV précoce sur la diversité virale de la région C2V5 du gène enveloppe ainsi que sur la taille des réservoirs. En deuxième lieu, nous avons caractérisé la pression de sélection des ARV sur des souches virales de sous types variés non-B, chez des patients du Mali et du Burkina Faso afin d’évaluer les voies d’échappement viral dans un fond génétique différent du sous-type B largement prévalent en Amérique du Nord. Notre étude a démontré la présence d’une population virale très homogène et peu diversifiée dans les premières semaines suivant l’infection, qui évolue pour atteindre une diversification de +0,23% à la fin de la première année. Cette diversification est plus importante chez les sujets n’ayant pas initié de traitement. De plus, ceci s’accompagne d’un plus grand nombre de particules virales infectieuses dans les réservoirs viraux des cellules mononucléées du sang périphérique (PBMC) chez ces sujets. Ces résultats suggèrent que l’initiation précoce du traitement pourrait avoir un effet bénéfique en retardant l’évolution virale ainsi que la taille des réservoirs, ce qui pourrait supporter une réponse immune mieux ciblée et potentiellement des stratégies immunothérapeutiques permettant d’éradiquer le virus. Nous avons également suivi 801 sujets infectés par des sous-types non-B sur le point de débuter un traitement antirétroviral. Bien que la majorité des sujets ait été à un stade avancé de la maladie, plus de 75% des individus ont obtenu une charge virale indétectable après 6 mois d’ARV, témoignant de l’efficacité comparable des ARV sur les sous-types non-B et B. Toutefois, contrairement aux virus de sous-type B, nous avons observé différentes voies moléculaires de résistance chez les sous type non-B, particulièrement chez les sous-types AGK/AK/K pour lesquels les voies de résistances étaient associées de façon prédominante aux TAM2. De plus, bien que la divergence entre les virus retrouvés chez les patients d’une même région soit faible, nos analyses phylogénétiques ont permis de conclure que ces mutations de résistance se sont produites de novo et non à partir d’un ancêtre commun porteur de résistance. Cependant, notre dernière étude au Mali nous a permis d’évaluer la résistance primaire à près de 10% et des études phylogénétiques seront effectuées afin d’évaluer la circulation de ces souches résistantes dans la population. Ces études suggèrent qu’un contrôle de la réplication virale par les ARV peut freiner la diversité du VIH et ainsi ouvrir la voie à un contrôle immunologique ciblé, utilisant de nouvelles stratégies vaccinales ou immunothérapeutiques. Toutefois, une thérapie antirétrovirale sous-optimale (adhérence, toxicité) peut conduire à l’échappement virologique en favorisant l’émergence et la dissémination de souches résistantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’industrie forestière est un secteur qui, même s’il est en déclin, se trouve au cœur du débat sur la mondialisation et le développement durable. Pour de nombreux pays tels que le Canada, la Suède et le Chili, les objectifs sont de maintenir un secteur florissant sans nuire à l’environnement et en réalisant le caractère fini des ressources. Il devient important d’être compétitif et d’exploiter de manière efficace les territoires forestiers, de la récolte jusqu’à la fabrication des produits aux usines, en passant par le transport, dont les coûts augmentent rapidement. L’objectif de ce mémoire est de développer un modèle de planification tactique/opérationnelle qui permet d’ordonnancer les activités pour une année de récolte de façon à satisfaire les demandes des usines, sans perdre de vue le transport des quantités récoltées et la gestion des inventaires en usine. L’année se divise en 26 périodes de deux semaines. Nous cherchons à obtenir les horaires et l’affectation des équipes de récolte aux blocs de coupe pour une année. Le modèle mathématique développé est un problème linéaire mixte en nombres entiers dont la structure est basée sur chaque étape de la chaine d’approvisionnement forestière. Nous choisissons de le résoudre par une méthode exacte, le branch-and-bound. Nous avons pu évaluer combien la résolution directe de notre problème de planification était difficile pour les instances avec un grand nombre de périodes. Cependant l’approche des horizons roulants s’est avérée fructueuse. Grâce à elle en une journée, il est possible de planifier les activités de récolte des blocs pour l’année entière (26 périodes).