728 resultados para Demi (nuortenlehti)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: Les centres de jour offrent des interventions de groupe à des personnes âgées qui présentent des incapacités, dans le but de favoriser leur maintien à domicile. Des études récentes tendent à démontrer qu’une utilisation régulière du service serait nécessaire pour induire des effets bénéfiques. Objectifs: Cette recherche visait à documenter l’utilisation des centres de jour par des personnes âgées qui présentent des incapacités. Elle comportait trois principaux objectifs: 1) Caractériser les utilisateurs de centre de jour et ce qui les distingue des non-utilisateurs et analyser les déterminants de l’utilisation du centre de jour. 2) Explorer l’adéquation entre les activités offertes par les centres de jour et les caractéristiques d’autonomie et de santé des utilisateurs. 3) Définir les facteurs associés à la régularité de la participation. Méthodes: Cette recherche s’appuie sur une analyse secondaire de données recueillies auprès de 723 personnes âgées qui ont participé au projet de démonstration SIPA (Services intégrés pour personnes âgées) implanté dans deux CLSC de la région de Montréal. L’utilisation du centre de jour a été documentée pendant une période de six mois, auprès des cinq centres de jour existant sur ce même territoire. Des informations sur le fonctionnement des centres de jour ont été obtenues par des entrevues et des rencontres de groupe auprès de coordonnateurs de ces centres. Les données ont été analysées à l’aide de statistiques descriptives, d’analyses en regroupement et d’analyses de régression logistique et multiple. Résultats: Les résultats sont présentés dans trois articles, soit un pour chacun des objectifs. Article 1: La proportion d’utilisateurs de centre de jour est de 18,8% (IC-0,95: 16,0 à 21,7%). Les facteurs suivants augmentent la probabilité d’utiliser le centre de jour: être plus jeune (RC: 1,12; IC-0,95: 1,06 à 1,19); ne pas avoir une éducation universitaire (RC: 1,92; IC-0,95: 1,04 à 3,57); recevoir l’aide du CLSC pour les activités de vie quotidienne plus d’une fois par semaine (RC: 1,73 et 2,48 pour aide de deux à cinq fois par semaine et aide de six à sept fois par semaine respectivement; IC-0,95: 1,06 à 2,80 et 1,22 à 5,06); faire partie du bassin de desserte d’un centre de jour dont les coûts sont moins élevés (RC: 1,054 ; IC-0,95: 1,001 à 1,108 pour chaque augmentation de 1$); et pour les hommes seulement, avoir déjà subi un accident vasculaire cérébral et présenter davantage d’incapacités fonctionnelles (interaction entre le sexe et la présence d’un AVC: RC: 0,298; IC-0,95: 0,108 à 0,825; interaction entre le sexe et les capacités fonctionnelles mesurées à l’OARS: RC: 1,096; IC-0,95: 1,019 à 1,178). De plus, on observe une plus grande probabilité d’utiliser le centre de jour chez les personnes qui cohabitent avec une personne de soutien. Toutefois, cette relation ne s’observe que chez les personnes nées au Canada (interaction entre la cohabitation avec la personne de soutien et le pays de naissance: RC: 0,417; IC-0,95: 0,185 à 0,938). Article 2: Des analyses en regroupement ont permis de distinguer quatre profils de participants ayant des caractéristiques similaires: 1) les personnes fragilisées par un âge avancé et un grand nombre de problèmes de santé; 2) les participants plus jeunes et plus autonomes que la moyenne, qui semblent des utilisateurs précoces; 3) les personnes qui présentent des incapacités d’origine cognitive; et 4) celles qui présentent des incapacités d’origine motrice. Les activités de groupe des centres de jour ont été regroupées en huit catégories: exercices physiques; groupe spécifique pour un diagnostic ou un problème fonctionnel commun; activités fonctionnelles; stimulation cognitive; activités musicales ou de réminiscence; sports et jeux physiques; intégration sociale; prévention et promotion de la santé. Les activités les plus fréquentes sont les exercices physiques et les activités d’intégration sociale auxquelles ont participé plus de 90% des utilisateurs de centre de jour, et ce en moyenne à respectivement 78% (±23%) et 72% (±24%) de leurs présences au centre de jour. Les autres catégories d’activités rejoignent de 45% à 77% des participants, et ce en moyenne à 35% (±15%) à 46% (±33%) de leurs présences. La participation aux diverses catégories d’activités a été étudiée pour chaque profil d’utilisateurs et comparée aux activités recommandées pour divers types de clientèle. On observe une concordance partielle entre les activités offertes et les besoins des utilisateurs. Cette concordance apparaît plus grande pour les participants qui présentent des problèmes de santé physique ou des incapacités d’origine motrice et plus faible pour ceux qui présentent des symptômes dépressifs ou des atteintes cognitives. Article 3: Les participants au centre de jour y sont inscrits en moyenne à raison de 1,56 (±0,74) jours par semaine mais sont réellement présents à 68,1% des jours attendus. Les facteurs suivants sont associés à une participation plus régulière au centre de jour en termes de taux de présences réelles / présences attendues: ne pas avoir travaillé dans le domaine de la santé (b: ,209; IC-0,95: ,037 à ,382); recevoir de l’aide du CLSC les jours de fréquentation du centre de jour (b: ,124; IC-0,95: ,019 à ,230); être inscrit pour la journée plutôt que la demi-journée (b: ,209: IC-0,95: ,018 à ,399); lors de ses présences au centre de jour, avoir une moins grande proportion d’activités de prévention et promotion de la santé (b: ,223; IC-0,95: ,044 à ,402); et enfin, avoir un aidant qui présente un fardeau moins élevé pour les personnes avec une atteinte cognitive et un fardeau plus élevé pour les personnes sans atteinte cognitive (interaction entre la présence d’atteinte cognitive et le fardeau de l’aidant: b: -,008; IC-0,95: -,014 à -,044). Conclusion: Conformément à leur mission, les centres de jour rejoignent une bonne proportion des personnes âgées qui présentent des incapacités. Cette étude fait ressortir les caractéristiques des personnes les plus susceptibles d’y participer. Elle suggère la nécessité de revoir la planification des activités pour assurer une offre de services qui tienne davantage compte des besoins des participants, en particulier de ceux qui présentent des atteintes cognitives et des symptômes de dépression. Elle démontre aussi que l’intensité d’exposition au service semble faible, ce qui soulève la question des seuils d’exposition nécessaires pour induire des effets favorables sur le maintien à domicile et sur la qualité de vie de la clientèle cible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’expansion des cellules souches hématopoïétiques ex vivo représente une option des plus intéressante afin d’améliorer les greffes de moelle osseuse. Le facteur de transcription HOXB4 semble être le candidat ayant le plus de potentiel jusqu’à présent. Cependant, la très courte demi-vie de la protéine représente un obstacle majeur dans l’élaboration de protocoles cliniques. Par contre, la substitution d’un acide aminé (3 mutations individuelles) dans la partie N-terminale de la protéine augmente de près de 3 fois la stabilité intracellulaire de HOXB4. Nous avons comparé l’activité biologique de ces mutants à celle de HOXB4 natif (« wt ») dans des essais in vitro et in vivo. Nous avons démontré que la surexpression de HOXB4 muté par infection des cellules souches hématopoïétiques n’affectait pas leur pouvoir de reconstitution hématopoïétique à long terme dans des souris transplantées. Par ailleurs, nous avons noté que dans les essais de reconstitution hématopoïétique en compétition et en non compétition, les cellules surexprimant les protéines mutées ont une expansion supérieure in vitro et reconstituent le sang et la rate avec une répartition de cellules lymphoïdes et myéloïdes plus près de souris non-transplantées comparativement aux cellules exprimant HOXB4 « wt ». De plus, les cellules surexprimant la protéine HOXB4 mutée apparaissent beaucoup plus rapidement et en plus grande proportion dans le sang comparativement aux cellules surexprimant la forme native. Une des protéines HOXB4 mutées (1426) ne permet pas l’expansion des progéniteurs myéloïdes immatures (CMP) contrairement à la protéine « wt ». Et finalement, par les études de modulation intracellulaire protéique, nous avons démontré que les comportements des protéines HOXB4 « wt » et mutées envers les cellules souches hématopoïétiques et progéniteurs n’étaient pas complètement dus à un effet de concentration protéique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les pyréthrinoïdes et les pyréthrines sont des insecticides neurotoxiques auxquels on attribue également des effets néfastes sur les systèmes immunitaire, hormonal et reproducteur. Ils sont abondamment utilisés en agriculture, mais aussi en horticulture, en extermination et dans le traitement d’infestations parasitaires humaines et animales (gale, poux). Il y a donc un intérêt en santé environnementale à connaître l’ampleur de l’exposition humaine à ces pesticides. La mesure des métabolites urinaires des pyréthrinoïdes et des pyréthrines apparaît une approche de choix pour arriver à cette fin puisqu’elle permet, en théorie, d’obtenir un portrait global de l’exposition. Or,traditionnellement et par soucis de simplicité les concentrations volumiques ou ajustées pour la créatinine) de ces biomarqueurs dans des urines ponctuelles sont déterminées, mais l’effet de l’utilisation de ces unités sur la validité des estimations de dose quotidienne absorbée n’a jamais été vérifié. L’objectif général de cette thèse était donc de développer, appliquer et valider une nouvelle stratégie de mesure et d’analyse de biomarqueurs pour améliorer la précision et la fiabilité des évaluations de l’exposition individuelles et populationnelles aux pyréthrinoïdes et pyréthrines. Les objectifs spécifiques étaient : i) de caractériser l’exposition humaine à ces contaminants en région urbaine et rurale au Québec et ii) de comparer la validité de la nouvelle stratégie de mesure et d’analyse de biomarqueurs urinaires proposée avec les autres méthodes plus usuelles utilisées pour estimer l’exposition individuelle et populationnelle et les doses absorbées de pyréthrinoïdes. Des adultes et des enfants, recrutés dans la population de l’Île de Montréal et de la Montérégie ont recueilli leurs urines pendant une période d’au moins douze heures et complété un questionnaire documentant les sources potentielles d’exposition. Les quantités de métabolites de pyréthrinoïdes et pyréthrines (pmol) mesurées dans les urines ont été ajustées pour une période de douze heures exactement et pour le poids corporel. Les quantités excrétées en région urbaine ont été comparées à celles excrétées en région rurale et les données individuelles et populationnelles ont été comparées à celles qui auraient été obtenues si des concentrations volumiques ou ajustées pour la créatinine avaient été mesurées. Les résultats montrent que l’exposition à ces pesticides est ubiquiste puisque plus de 90% des participants excrétaient les principaux métabolites de pyréthrinoïdes et pyréthrines à un niveau supérieur au seuil de détection analytique. Les résultats suggèrent que l’alimentation pourrait être à l’origine de ce niveau de base puisque les autres sources d’exposition connues n’ont été que rarement rapportées. Au Québec, l’exposition en milieu rural apparaissait légèrement plus importante qu’en milieu urbain et certains facteurs d’exposition, comme l’utilisation de pesticides domestiques, ont été rapportés plus fréquemment en milieu rural. Enfin, il a été démontré que la mesure des concentrations volumiques ou ajustées pour la créatinine de biomarqueurs est une approche qui peut entraîner des biais importants (jusqu’à 500% d’erreur et plus) en particulier lors de l’évaluation de l’exposition individuelle. Il est évident que les autorités de santé publique et de santé environnementale employant des biomarqueurs urinaires afin d’évaluer l’exposition aux pyréthrinoïdes et aux pyréthrines (ainsi qu’à d’autres molécules ayant des demi-vies d’élimination similaire)devraient diriger leurs efforts vers la mesure des quantités excrétées pendant une période d’au moins douze heures pour obtenir un portrait le plus valide possible de l’exposition. Il serait aussi souhaitable de mieux documenter la toxicocinétique de ces molécules chez l’humain afin d’établir avec une plus grande confiance la relation entre les quantités excrétées de biomarqueurs et les doses absorbées de ces contaminants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'eugénol (2-methoxy-4-(2-propenyl) phénol), produit dérivé du clou de girofle (Eugenia aromatica), fut tout d’abord utilisé en application topique à des fins d’analgésie dentaire. Il produit également une anesthésie chirurgicale lorsque administré en immersion chez les poissons. L’eugénol agit sur les récepteurs vanilloïdes, sensibles à la chaleur, aux protons et à certaines molécules lipidiques. Ces récepteurs jouent un rôle important dans le mécanisme de l’inflammation et de l’hyperalgésie. L’eugénol pourrait également produire ses effets par antagonisme des récepteurs glutamaergiques (NMDA) et par son activation des récepteurs GABAergiques. Considérant que l’eugénol produit des effets analgésiques et anesthésiques, des études de pharmacocinétique et de pharmacodynamie furent réalisées chez la grenouille (Xenopus laevis), le poisson (Oncorhynchus mykiss) et le rat (Rattus norvegicus). Les résultats démontrent que l’eugénol administré par immersion à une dose efficace permet d’atteindre une anesthésie chirurgicale chez les grenouilles (350 mg/L) et les poissons (75 mg/L). Suite à des analyses plasmatiques par LC/MS/MS, la pharmacocinétique des grenouilles, des poissons et des rats montre que la drogue est éliminée et qu’il pourrait y avoir une recirculation entérohépathique plus importante chez la grenouille et le rat. La longue demi-vie chez le rat suggère aussi une accumulation dans les tissus après des administrations répétées. Suite à l’administration intraveineuse d’une dose de 20 mg/kg chez le rat, l’eugénol induit une anesthésie chirurgicale pour une très courte période de temps variant autour de 167 s. Les résultats de sensibilité thermique confirment l’efficacité de l’eugénol pour réduire l’hyperalgésie induite chez des rats neuropathiques. L’effet pharmacologique de l’eugénol a démontré une augmentation progressive constante de l’analgésie sur une période de cinq jours de traitements journaliers. En conclusion, l’eugénol possède des propriétés analgésiques et anesthésiques chez la grenouille africaine à griffes (Xenopus laevis), le poisson (Oncorhynchus mykiss) et le rat (Rattus norvegicus).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La surexpression rétrovirale du facteur de transcription HOXB4 résulte en une expansion sélective des cellules souches hématopoïétiques (CSH) in vitro et in vivo et ce, sans induire de leucémie. Par contre, la demi-vie intracellulaire de la protéine est de seulement une heure et le fait que la protéine disparaît du milieu de culture après environ 4 heures représente un obstacle majeur à l’utilisation clinique de la protéine HOXB4. Trois mutants HOXB4 ayant une substitution d`un seul acides aminés (AA) parmi les 31 premiers AA ont démontré une augmentation de la stabilité de la protéine. Nous avons donc évalué l’effet de HOXB4 et de ses trois mutants sur la production de cellules progénitrices myéloïdes. L’expression ectopique de HOXB4 sauvage (s-HOXB4) et HOXB4 mutant (m-HOXB4) a un effet comparable sur la fréquence des cellules progénitrices myéloïdes en essai clonogénique. Par contre, la capacité de prolifération des cellules progénitrices myéloïdes qui surexpriment s-HOXB4 et 1423 m-HOXB4 a été supérieure à celle des cellules contrôles (GFP seul) et des deux autres mutants. De plus, malgré le fait que toutes les variantes de HOXB4 confèrent une capacité d’autorenouvellement similaire aux cellules progénitrices multipotents (GEMM), la production des progéniteurs granulocytaires (CFU-G) est compromise lorsque les cellules surexpriment 1426 et 1427 m-HOXB4. D’autre part, la densité cellulaire des colonies myéloïdes qui surexpriment ces deux mutants est diminuée, ce qui suggère que ces mutations ont non seulement augmenté sa stabilité, mais potentiellement affecté certaines fonctions biologiques de s-HOXB4. Enfin, 1423 m-HOXB4 semble n’avoir perdu aucune fonction de s-HOXB4 dans nos évaluations clonogéniques in vitro, ce qui fait de ce mutant une molécule intéressante pour des applications cliniques d’expansion des cellules progénitrices hématopoïétiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construction d'un quotient, en topologie, est relativement simple; si $G$ est un groupe topologique agissant sur un espace topologique $X$, on peut considérer l'application naturelle de $X$ dans $X/G$, l'espace d'orbites muni de la topologie quotient. En géométrie algébrique, malheureusement, il n'est généralement pas possible de munir l'espace d'orbites d'une structure de variété. Dans le cas de l'action d'un groupe linéairement réductif $G$ sur une variété projective $X$, la théorie géométrique des invariants nous permet toutefois de construire un morphisme de variété d'un ouvert $U$ de $X$ vers une variété projective $X//U$, se rapprochant autant que possible d'une application quotient, au sens topologique du terme. Considérons par exemple $X\subseteq P^{n}$, une $k$-variété projective sur laquelle agit un groupe linéairement réductif $G$ et supposons que cette action soit induite par une action linéaire de $G$ sur $A^{n+1}$. Soit $\widehat{X}\subseteq A^{n+1}$, le cône affine au dessus de $\X$. Par un théorème de la théorie classique des invariants, il existe alors des invariants homogènes $f_{1},...,f_{r}\in C[\widehat{X}]^{G}$ tels que $$C[\widehat{X}]^{G}= C[f_{1},...,f_{r}].$$ On appellera le nilcone, que l'on notera $N$, la sous-variété de $\X$ définie par le locus des invariants $f_{1},...,f_{r}$. Soit $Proj(C[\widehat{X}]^{G})$, le spectre projectif de l'anneau des invariants. L'application rationnelle $$\pi:X\dashrightarrow Proj(C[f_{1},...,f_{r}])$$ induite par l'inclusion de $C[\widehat{X}]^{G}$ dans $C[\widehat{X}]$ est alors surjective, constante sur les orbites et sépare les orbites autant qu'il est possible de le faire; plus précisément, chaque fibre contient exactement une orbite fermée. Pour obtenir une application régulière satisfaisant les mêmes propriétés, il est nécessaire de jeter les points du nilcone. On obtient alors l'application quotient $$\pi:X\backslash N\rightarrow Proj(C[f_{1},...,f_{r}]).$$ Le critère de Hilbert-Mumford, dû à Hilbert et repris par Mumford près d'un demi-siècle plus tard, permet de décrire $N$ sans connaître les $f_{1},...,f_{r}$. Ce critère est d'autant plus utile que les générateurs de l'anneau des invariants ne sont connus que dans certains cas particuliers. Malgré les applications concrètes de ce théorème en géométrie algébrique classique, les démonstrations que l'on en trouve dans la littérature sont généralement données dans le cadre peu accessible des schémas. L'objectif de ce mémoire sera, entre autres, de donner une démonstration de ce critère en utilisant autant que possible les outils de la géométrie algébrique classique et de l'algèbre commutative. La version que nous démontrerons est un peu plus générale que la version originale de Hilbert \cite{hilbert} et se retrouve, par exemple, dans \cite{kempf}. Notre preuve est valide sur $C$ mais pourrait être généralisée à un corps $k$ de caractéristique nulle, pas nécessairement algébriquement clos. Dans la seconde partie de ce mémoire, nous étudierons la relation entre la construction précédente et celle obtenue en incluant les covariants en plus des invariants. Nous démontrerons dans ce cas un critère analogue au critère de Hilbert-Mumford (Théorème 6.3.2). C'est un théorème de Brion pour lequel nous donnerons une version un peu plus générale. Cette version, de même qu'une preuve simplifiée d'un théorème de Grosshans (Théorème 6.1.7), sont les éléments de ce mémoire que l'on ne retrouve pas dans la littérature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durant le dernier demi-siècle, la religion, comme tous les autres domaines d’activité humaine, a connu plusieurs transformations importantes. La diminution considérable, durant cette période, de la pratique religieuse institutionnalisée est accompagnée de l’apparition d’une multitude de nouvelles formes de spiritualités qui tentent de répondre aux besoins religieux de l’homme occidental. Parmi les multiples manifestations de ce genre, on découvre une spiritualité distincte, appelée néo-chamanisme ou chamanisme urbain, réunissant de nombreuses pratiques contemporaines qui se définissent comme chamaniques. Dans le cadre de ce mémoire, nous nous sommes concentrés sur l’étude du phénomène néo-chamanique de Michael Harner, ex-professeur et directeur du département d’anthropologie au Graduate Faculty of the New School for Social Research à New York, et fondateur de la Foundation for Shamanic Studies (à l’avenir : FSS). La présente recherche a pour but d’analyser le néo-chamanisme de Harner et de définir sa place parmi les nouvelles formes de religiosités. La théorie de la recomposition du religieux de Danièle Hervieu-Léger sert de cadre d’analyse pour cette nouvelle forme de spiritualité. Dans la première partie, nous traitons le phénomène religieux contemporain sous l’angle socioreligieux. Nous présentons un aperçu global des transformations que celui-ci subit en modernité sous l’impact de la sécularisation. À l’aide de la théorie des nouvelles formes religieuses de Danièle Hervieu-Léger, nous mettons en lumière les principales règles selon lesquelles une nouvelle configuration du religieux se déploie dans le contexte occidental contemporain. Dans la seconde partie, nous examinons le chamanisme traditionnel sous l’angle anthropologique. Nous faisons la lecture d’études classiques sur le chamanisme. Il apparaît que le chamanisme classique est communautaire, réservé à quelques personnes choisies par les esprits et que le processus laborieux d’initiation permettant d’accéder à cette fonction implique certains éléments spécifiques parmi lesquels on compte la maladie initiatique, la mort rituelle et la résurrection de la personne. Dans la troisième partie, nous examinons le néo-chamanisme de Harner. Nous rendons compte de son ouvrage majeur La voie spirituelle du chamane : Le Secret d'un sorcier indien d’Amérique du Nord et nous examinons l’expérience chamanique de la Foundation for Shamanic Studies (FSS). Il se dégage de cette étude que l’approche de Harner se veut l’expression d’un chamanisme fondamental et universel adapté à la société contemporaine. La pratique néo-chamanique de Harner se focalise sur le voyage chamanique et sur le contact avec le monde des esprits comme des éléments qui sont au cœur du chamanisme traditionnel. C’est une pratique axée principalement sur l’individu à des fins d’accomplissement de soi et d’(auto)guérison. Elle attire généralement des personnes dont le niveau de scolarité est élevé, disposées à payer pour les services fournis par la fondation. À la fin de notre étude, nous dégageons les conclusions générales suivantes : le néo-chamanisme de Harner s’éloigne de la tradition chamanique et la transforme en une spiritualité nouvelle adaptée aux besoins des Occidentaux; il reflète les transformations subies par le fait religieux pendant la période moderne; il s’adresse principalement à un public en quête de services spirituels ciblés et ponctuels et il favorise une forme de communalisation temporaire et intense; cependant, l’individuation de la pratique chamanique est porteuse de ses effets politiques et néocoloniaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse examine les impacts sur la morphologie des tributaires du fleuve Saint-Laurent des changements dans leur débit et leur niveau de base engendrés par les changements climatiques prévus pour la période 2010–2099. Les tributaires sélectionnés (rivières Batiscan, Richelieu, Saint-Maurice, Saint-François et Yamachiche) ont été choisis en raison de leurs différences de taille, de débit et de contexte morphologique. Non seulement ces tributaires subissent-ils un régime hydrologique modifié en raison des changements climatiques, mais leur niveau de base (niveau d’eau du fleuve Saint-Laurent) sera aussi affecté. Le modèle morphodynamique en une dimension (1D) SEDROUT, à l’origine développé pour des rivières graveleuses en mode d’aggradation, a été adapté pour le contexte spécifique des tributaires des basses-terres du Saint-Laurent afin de simuler des rivières sablonneuses avec un débit quotidien variable et des fluctuations du niveau d’eau à l’aval. Un module pour simuler le partage des sédiments autour d’îles a aussi été ajouté au modèle. Le modèle ainsi amélioré (SEDROUT4-M), qui a été testé à l’aide de simulations à petite échelle et avec les conditions actuelles d’écoulement et de transport de sédiments dans quatre tributaires du fleuve Saint-Laurent, peut maintenant simuler une gamme de problèmes morphodynamiques de rivières. Les changements d’élévation du lit et d’apport en sédiments au fleuve Saint-Laurent pour la période 2010–2099 ont été simulés avec SEDROUT4-M pour les rivières Batiscan, Richelieu et Saint-François pour toutes les combinaisons de sept régimes hydrologiques (conditions actuelles et celles prédites par trois modèles de climat globaux (MCG) et deux scénarios de gaz à effet de serre) et de trois scénarios de changements du niveau de base du fleuve Saint-Laurent (aucun changement, baisse graduelle, baisse abrupte). Les impacts sur l’apport de sédiments et l’élévation du lit diffèrent entre les MCG et semblent reliés au statut des cours d’eau (selon qu’ils soient en état d’aggradation, de dégradation ou d’équilibre), ce qui illustre l’importance d’examiner plusieurs rivières avec différents modèles climatiques afin d’établir des tendances dans les effets des changements climatiques. Malgré le fait que le débit journalier moyen et le débit annuel moyen demeurent près de leur valeur actuelle dans les trois scénarios de MCG, des changements importants dans les taux de transport de sédiments simulés pour chaque tributaire sont observés. Ceci est dû à l’impact important de fortes crues plus fréquentes dans un climat futur de même qu’à l’arrivée plus hâtive de la crue printanière, ce qui résulte en une variabilité accrue dans les taux de transport en charge de fond. Certaines complications avec l’approche de modélisation en 1D pour représenter la géométrie complexe des rivières Saint-Maurice et Saint-François suggèrent qu’une approche bi-dimensionnelle (2D) devrait être sérieusement considérée afin de simuler de façon plus exacte la répartition des débits aux bifurcations autour des îles. La rivière Saint-François est utilisée comme étude de cas pour le modèle 2D H2D2, qui performe bien d’un point de vue hydraulique, mais qui requiert des ajustements pour être en mesure de pleinement simuler les ajustements morphologiques des cours d’eau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le 8 mars 1963, un coup d’État en Syrie permet à une secte minoritaire marginalisée au sein du parti Baas, à idéologie radicale et révolutionnaire, de s’emparer des rênes de l’État avec l’appui des militaires et de conserver le pouvoir depuis. Ainsi la Syrie, premier pays arabe à connaître le système pluraliste parlementaire dès 1919, sera soumise à un régime militaire et autoritaire pendant presque un demi siècle. Ce mémoire vise à expliquer comment cette faction, groupusculaire à l’origine, a su profiter des circonstances et des fenêtres d’opportunité politique ouvertes par les comportements de l’élite traditionnelle syrienne, au pouvoir depuis le Mandat français, s’étant trouvée affaiblie, isolée et illégitime aux yeux de la population. Cette fragmentation exprimée par des agitations internes, avait provoqué des décisions contradictoires, des conflits d’intérêts ainsi que des divisions de nature identitaire, générationnelle, sociale, économique, militaire et politique. La Syrie a de ce fait, depuis son indépendance en 1941, été victime du jeu de son élite, un jeu dont ce mémoire est consacré à étudier la dynamique. Cette étude, qui définit le concept de l’élite théoriquement, s’appuie sur l’état des liens entre élites, l’envergure et les modes de leur circulation, pour confirmer qu’une élite fragmentée s’affaibli, perd sa légitimité et mène la société à l’instabilité. Ceci soutien l’hypothèse centrale de l’étude que la fragmentation de l’élite syrienne traditionnelle a ouvert des fenêtres d’opportunité politique devant le parti Baas, minoritaire et radical, qui a su les saisir pour conquérir le pouvoir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

XerC et XerD, deux recombinases impliquées dans la recombinaison site spécifique, résolvent les multimères d’ADN en monomères. Cette réaction se produit au niveau du site dif du chromosome, et nécessite le domaine C-terminale de la protéine de division cellulaire FtsK. Caulobacter crescentus est une bactérie aquatique de type Gram-négative qui se retrouve dans plusieurs environnements. Elle présente un cycle cellulaire asymétrique avec deux types de cellules distinctes. Cette propriété peut être utilisée pour synchroniser la croissance d’une population bactérienne pour permettre l’étude de l’expression de gènes à travers le temps et les liens entre le cycle cellulaire et le développement de la bactérie. La liaison à l’ADN et la capacité de former des complexes covalents (phosphotyrosyl) avec le site dif de C. crescentus (ccdif) ont été testé pour les recombinases de C. crescentus (ccXerC et ccXerD). Les deux recombinases ont eu une meilleure liaison au demi-site gauche de ccdif et sont incapable d’effectuer une liaison coopérative, contrairement à ce qui se produit au niveau du site dif de E. coli. La formation de complexes covalents a été testé en utilisant des «substrats suicides avec bris» marqués à la fluorescence ainsi que des protéines de fusion (marquées ou non à la fluorescence). Des complexes ADN-protéines résistants à la chaleur et au SDS ont été observé lors de la réaction de ccXerC et ccXerD de type sauvage avec ccdif, mais pas lors de la réaction de mutants avec le même ADN. Des complexes covalents phosphotyrosine sont formés de façon plus efficace sur les substrats suicides avec un bris au niveau du brin supérieur que ceux ayant un bris au niveau du brin inférieur. Dans les deux cas, c’est ccXerC qui est resté lié de façon covalente à l’ADN de ccdif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n’est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu’elle permet de quantifier l’exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d’études sur les animaux, et les données chez l’humain sont limitées. Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l’exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d’intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l’acide phtalique, dans le plasma et l’urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant des volontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l’acide phtalique qui a été mesuré seulement dans l’urine; iii) de valider les biomarqueurs d’exposition sélectionnés et d’évaluer l’exposition réelle des travailleurs et les voies prédominantes d’exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d’activités de traitement et d’effeuillage pendant sept jours consécutifs. Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l’exposition au captan et au folpet, respectivement, chez l’humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d’ailleurs une élimination rapide, avec une demi-vie d’élimination dans l’urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu’une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d’exposition. Des profils parallèles sont aussi observés entre le PI et l’acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d’acide phtalique que de PI. Quant à l’étude des agriculteurs, elle montre que la voie principale d’exposition de ces travailleurs est la voie cutanée. Il est aussi souligné qu’il est important 1) de favoriser les collectes d’urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d’associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s’appliquer à d’autres fongicides, voire d’autres substances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La bursite infectieuse aviaire (IBD) est une des causes majeures de pertes économiques pour l’industrie aviaire. La vaccination est le principal outil de contrôle de cette maladie et les oiseaux susceptibles doivent être vaccinés aussitôt que le niveau des anticorps maternels (MA) anti-IBDV est suffisamment bas. L’estimation du moment de vaccination est habituellement déterminée par la formule de Deventer qui utilise le titre initial de MA anti-IBDV et la demi-vie des anticorps pour prédire l’évolution du titre. Dans la présente étude, l’effet du gain de poids sur la vitesse de disparition des MA a été étudié dans le but de l’utiliser pour prédire la détermination du moment de la vaccination. L’analyse des taux d’anticorps neutralisants par ELISA a montré que les poussins avec une forte croissance avaient un taux de disparition plus rapide des MA que ceux à faible croissance. Une formule pour la prédiction du moment de vaccination contre le IBDV, basée sur le gain de poids et le niveau des MA a été développée et vérifiée. La prédiction du moment de vaccination avec cette formule a montré une haute corrélation avec les titres de MA mesurés par ELISA. Le virus de l’anémie infectieuse aviaire (CIAV) est une cause importante d’immunosuppression chez le poulet augmentant la pathogénicité des infections secondaires et en entraînant une réponse humorale suboptimale et une forte mortalité. D’autre part, l’infections sub-clinique du au CIAV provoque une immunosuppression qui facilite la coinfection par d’autre virus tel que le IBDV. Les effets de la coinfection à J1 avec une souche vaccinale de CIAV CAV-VAC® (Intervet) et à J14 avec une souche faiblement virulente de IBDV isolée au Québec, sur l’état de santé des poussins, sur la persistance virale et sur la réponse immunitaire ont été étudiés autant chez des poussins de 1 jour d’âge exempts d’agents pathogènes specifique (SPF) que ceux provenant d’élevages commerciaux. Les résultats ont montré que l’inoculation de la souche vaccinale du CIAV a entraîné une infection sub-clinique, une persistance virale dans la rate et le thymus, une altération de la thymopoièse et une réponse humorale temporaire chez les poussins SPF. Ces effets ont aussi été mis en évidence chez des poussins d’élevage commerciaux malgré des taux élevés de MA. Lors de l’infection avec la souche de IBDV chez des poussins déjà vaccinés contre le CIAV, la persistance du CIAV dans les organes lymphoïdes a été aggravée par une présence de réponses humorales temporaires contre les deux virus et une altération des populations lymphocytaires dans les organes lymphoïdes. Par contre, la présence des MA contre le CIAV a limité temporairement ces effets. Ces travaux ont mis en évidence des désordres immunitaires cellulaires et humoraux et une persistance virale chez des poussins vaccinés contre le CIAV et co-infectés avec le IBDV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le lait écrémé est utilisé depuis plus d’un demi-siècle comme diluant protecteur des spermatozoïdes de mammifères. Depuis quelques années, il existe une demande grandissante pour des diluants exempts de produits d’origine animale. Toutefois, le mécanisme par lequel le lait protège les spermatozoïdes n’est pas connu, ce qui rend difficile de lui trouver un substitut. Les protéines majeures du plasma séminal de taureau, les protéines « Binder of SPerm » (BSP), sont néfastes lors de la conservation de la semence. Les spermatozoïdes sont en contact avec une grande concentration de protéines BSP qui stimulent une extraction continuelle de cholestérol/phospholipides de leur membrane plasmique. Les lipoprotéines de faible densité (LDL) du jaune d’oeuf, un autre composé utilisé dans les diluants, empêcheraient les protéines BSP de se lier à la membrane des spermatozoïdes de taureaux et de stimuler un efflux des lipides membranaires, ce qui les protégerait durant la conservation. Notre hypothèse était que les protéines du lait protègent les spermatozoïdes durant la conservation en séquestrant les protéines BSP. Premièrement, nous avons démontré par filtration sur gel qu’il y a une interaction entre les protéines BSP bovines et les protéines du lait. Le lait écrémé a été fractionné en trois fractions : F1 (alpha-lactalbumine, bêta-lactoglobuline et caséine kappa), F2 (toutes les protéines du lait) et F3 (sels, sucres et petits peptides). Les protéines BSP1 et BSP5 ont une affinité plus grande pour F1 que BSP3, tandis que toutes les protéines BSP ont une affinité pour F2. Le titrage calorimétrique isotherme a permis de confirmer l’interaction entre les protéines BSP et les protéines du lait. L’association entre la protéine BSP1 bovine et les micelles de caséines est caractérisée par une constante d’affinité (Ka) de 3.5 × 10^5 M-1 et un paramètre stoichiométrique (n) de 4,5 BSP1 pour une caséine. L’association entre la protéine BSP1 bovine et l’alpha-lactalbumine (une protéine du sérum principale), est caractérisée par un Ka de 2.4 × 10^5 M-1 et une valeur “n” de 0,8. Ces résultats indiquent que le lait protège les spermatozoïdes bovins en séquestrant les protéines BSP grâce à une interaction protéine : protéine, tandis que le jaune d’oeuf les protège grâce à une interaction protéine : lipoprotéine. Deuxièmement, nous avons démontré par filtration sur gel que les protéines homologues aux BSP bovines retrouvées dans le plasma séminal de porc, d’étalon et de bélier ont une affinité avec les protéines du lait, ce qui suggère que le mécanisme de protection des spermatozoïdes par le lait pourrait être le même chez ces espèces. Troisièmement, nous avons caractérisé l’interaction entre BSP1 bovine et les LDL du jaune d’oeuf qui a un Ka de 3.4 ± 0.4 × 10^6 M-1 et une valeur de « n » de 104 BSP1 pour une particule de LDL, indiquant qu’il existe des différences entre le mécanisme de protection des spermatozoïdes par le lait et le jaune d’oeuf. Nous croyons que les résultats présentés dans cette thèse aideront à créer de nouveaux diluants ne contenant pas de produits d’origine animale afin de cryoconserver les spermatozoïdes des mammifères.