565 resultados para Bien-être psychologique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aujourd’hui, la satisfaction des utilisateurs des services de santé est reconnue comme une mesure de la qualité des soins. Au Québec, le congé précoce en obstétrique constitue la norme pour les mères ayant donné naissance à un bébé en santé. Selon la littérature, cette pratique n’entraîne pas de répercussions négatives pour la santé des mères et de leur nouveau-né à condition qu’un suivi adéquat soit assuré. D’autre part, bien qu’il semble que la diminution de la durée du séjour hospitalier soit appréciée par les mères, peu de données sont disponibles relativement aux caractéristiques menant à l’appréciation du suivi postnatal. Objectifs : Cette étude s’intéresse principalement à la première visite à domicile effectuée par une infirmière suite au congé précoce en obstétrique. Dans un premier temps, elle vise à tracer un portrait des mères en fonction du délai de la première visite à domicile et, dans un second temps, à connaître les facteurs associés à l’appréciation, par les mères, du délai de cette visite. Méthode : Les données de cette étude ont été recueillies au Québec, entre janvier 2002 et janvier 2003, lors d’une enquête téléphonique effectuée auprès de mères de bébés nés en santé, un mois suivant leur accouchement vaginal sans complication (n=1548). Pour nos analyses, nous avons retranché les mères ayant eu une durée de séjour de plus de 60 heures, une grossesse de moins de 37semaines et un bébé pesant moins de 2500 g à la naissance. Notre échantillon se compose donc de 1351 mères. Résultats : 86,2 % des mères ont reçu une offre de visite à domicile. La majorité (80.2 %) des mères ont reçu la visite dans les trois premiers jours suivant leur retour à la maison, dont près du tiers (28,1 %), dans les 24 premières heures. Comparativement aux mères visitées au deuxième ou troisième jour suivant le congé, celles visitées dans les 24 premières heures ont jugé la durée de séjour hospitalier trop courte (p=0,018) et reçu un appel de l’infirmière qui a duré plus longtemps (p=0, 009). De plus, au moment du congé, elles perçoivent leur bébé en moins bonne santé (p=0,029). Elles ont aussi accouché d’un bébé plus petit (p=0,052) qui a tendance à avoir présenté des signes d’ictères pendant le séjour hospitalier (p=0,100). D’autre part, la majorité des mères (86,4 %) disent que le délai de la première visite à domicile est adéquat alors que 11,6 % le jugent trop court et 2,3 % trop long. Pour les mères visitées au premier jour, l’analyse multivariée révèle que certaines caractéristiques et certains besoins sont associés à la perception que le délai de la visite est trop court : une seule visite postnatale, un revenu familial de plus de 40 000 $, la perception que la durée de séjour est trop longue et le fait de ne pas allaiter. Pour les mères qui reçoivent la visite au deuxième et troisième jour, ce sont, seulement, le fait d’avoir été au rendez-vous médical et le fait d’avoir reçu une seule visite qui sont associés à la perception que le délai de la visite est trop court. Pour conclure, au Québec, le programme de suivi postnatal universel semble en mesure d’offrir une visite à domicile dans les délais prescrits à une majorité de mères. Les résultats de cette étude suggèrent que le délai de la première visite à domicile n’est pas optimal pour toutes les mères et permettent d’envisager que certaines mères auraient souhaité recevoir une seconde visite plus tardivement au cours de la période postnatale. D’autres recherches devront être effectuées afin de parfaire nos connaissances relativement au moment idéal pour réaliser les interventions postnatales.Mots clefs : Satisfaction, appréciation des utilisateurs, qualité des soins, programme universel, suivi postnatal, congé précoce en obstétrique, visite à domicile, délai de la visite, provision des services.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La plasticité synaptique est une propriété indispensable à l’acquisition de la mémoire chez toutes les espèces étudiées, des invertébrés aux primates. La formation d’une mémoire débute par une phase de plasticité qui inclut une restructuration synaptique ; ensuite elle se poursuit par la consolidation de ces modifications, contribuant à la mémoire à long terme. Certaines mémoires redeviennent malléables lorsqu’elles sont rappelées. La trace mnésique entre alors dans une nouvelle de phase de plasticité, au cours de laquelle certaines composantes de la mémoire peuvent être mises à jour, puis reconsolidées. L’objectif de la présente thèse est d’étudier les mécanismes cellulaires et moléculaires qui sont activés lors du rappel d’une mémoire. Nous avons utilisé un modèle de conditionnement Pavlovien, combiné à l’administration d’agents pharmacologiques et à l’analyse quantitative de marqueurs de plasticité synaptique, afin d’étudier la dynamique de la mémoire de peur auditive chez des rats Sprague Dawley. La circuiterie neuronale et les mécanismes associatifs impliqués dans la neurobiologie de cette mémoire sont bien caractérisés, en particulier le rôle des récepteurs glutamatergiques de type NMDA et AMPA dans la plasticité synaptique et la consolidation. Nos résultats démontrent que le retour de la trace mnésique à un état de labilité nécessite l’activation des récepteurs NMDA dans l’amygdale baso-latérale à l’instant même du rappel, alors que les récepteurs AMPA sont requis pour l’expression comportementale de la réponse de peur conditionnée. D’autre part, les résultats identifient le rappel comme une phase bien plus dynamique que présumée, et suggèrent que l’expression de la peur conditionnée mette en jeu la régulation du trafic des récepteurs AMPA par les récepteurs NMDA. Le présent travail espère contribuer à la compréhension de la neurobiologie fondamentale de la mémoire. De plus, il propose une intégration des résultats aux modèles animaux d’étude des troubles psychologiques conséquents aux mémoires traumatiques chez l’humain, tels que les phobies et les syndromes de stress post-traumatiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le virus de l’Herpès simplex de type 1 (HSV-1) est le pathogène humain responsable des lésions herpétiques labiales, plus communément appelé « feux sauvages ». Annuellement, il est responsable de plusieurs cas d’encéphalites et d’infections de l’appareil visuel qui sont la principale cause de cécité en Amérique du Nord. Bien qu’il existe quelques traitements antiviraux, aucun vaccin ou médicament ne permet de prévenir ou de guérir les infections causées par ce virus. Aujourd’hui, les infections produites par l’HSV-1 sont présentes partout sur la planète. Récemment, une étude en protéomique effectuée sur les virus matures extracellulaires a permis d’identifier la présence d’ubiquitines libres et d’enzymes reliées à la machinerie d’ubiquitination dans le virus. De plus, le virus exploite cette machinerie au cours de l’infection. Il est connu que certaines protéines virales sont ubiquitinées durant une infection et que le virus imite même certaines enzymes d’ubiquitination. Nous avons donc entrepris des recherches afin d’identifier des protéines virales ubiquitinées qui pourraient être présentes dans les virus matures ainsi que leurs rôles potentiels. La protéine majeure de la capside, VP5, un constituant très important du virus, a été identifiée. Nos recherches nous ont permis de caractériser le type d’ubiquitination, une monoubiquitination sur les lysines K810 et/ou K1275 de VP5. Le rôle que pourrait jouer l’ubiquitination de VP5 dans le cycle de réplication virale et dans les virus matures n’est toutefois pas encore connu.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé Cette recherche a débuté avec l’idée que l’Internet est en train de changer la manière dont nous créons des connaissances et du contenu culturel. Notre point de départ était d’utiliser l’Internet afin de rassembler et amplifier plusieurs points de vue dans un processus de design. Une approche complexe a exposé l’Internet comme un système et conséquemment comme une plateforme pour l’innovation. La structure ouverte de l’Internet a soutenu le mouvement participatif des usagers qui ont choisi de partager leurs besoins, leurs désirs et leurs solutions. Notre recherche a pour but d’étudier ce contenu généré par les usagers en ligne et comprendre sa valeur pour les designers. Les usagers créatifs veulent s’exprimer et participer activement dans le processus de design. Notre recherche tente de démontrer que les designers ont beaucoup à apprendre du contenu généré par les usagers car ceux-ci soumettent des éléments qui ont attrait à toutes les étapes du processus de design et révèlent des relations présentes dans la situation de design à l’étude. Pour en apprendre plus sur ce contenu nous nous demandons : Quel type d’information offre le contenu généré par les usagers pour la phase de recherche dans le processus de design. Afin de centrer la portée de l’étude, nous nous sommes aussi questionné si cette information est plus pertinente au design de produits, au design de services ou au design de système de produits et de services. Aspirant aux idéaux du design participatif, notre méthodologie fut développée afin d’apprendre comment le contenu généré par les usagers pourrait influencer le processus de design. Pour ce faire, nous avons choisi de chercher sur l’Internet pour du contenu qui concerne la mobilité via l’usage d’une automobile. Les trois différents types de média considérés étaient les vidéos sur YouTube, les images sur Flickr et les textes sur Blogger. Afin de répondre à notre première question de recherche, nous nous sommes penchés sur deux éléments lorsque l’on recherche pour le design : les espaces de design et les relations de design. Premièrement, nous avons catégorisé le contenu récolté selon l’espace problème, créatif et solution. Deuxièmement, nous avons catégorisé le contenu dépendant de laquelle des relations de design elle démontrait soit une combinaison d’usagers, objets et contextes. Dans le but de répondre à la deuxième question de cette recherche, nous avons examiné trois types V de produits de design : les automobiles privées comme produit, le partage de voiture comme système de produit et de service, et le taxi comme service. Chaque élément pertinent généré par les usagés trouvé dans cette recherche fut catégorisé jusqu’à ce que l’on récolte 50 échantillons pour chaque combinaison de ces variables. Nous en sommes arrivés avec une matrice de 50 éléments de chaque produit de design, pour chacun des médias, puis catégorisé selon les espaces de design et les relations dans le design. Cette recherche démontre que l’Internet, comme médium, produit les conditions avantageuses pour que les usagers partagent de grandes quantités de contenu original et diversifié qui est pertinent aux situations de design. À partir de nos données de recherche, nous avons identifié des tendances dans le contenu généré par les usagers. Notamment, nous sommes en mesure d’affirmer que le contenu généré par les usagers offre de l’information pertinente à la recherche pour le design, et ce dans tous les espaces de design et toutes les relations de design. Il en fut de même pour les différentes issues du design car du contenu sur les produits, les systèmes de produits et de services et les services était présent et pertinent. Bref, nous avons démontré que l’Internet supporte la créativité et conséquemment il y abonde de contenu créatif produit par les usagers. Suivant dans les traces dessinées par d’autres chercheurs en design participatif, cette étude devrait être considérée comme un nouvel exemple des moyens qu’ont les designers pour percevoir les besoins tacites des usagers en leur permettant d’exprimer leurs idées. Alors que ceux-ci créent librement et intuitivement ainsi exposant leurs besoins, solutions et idées, les designers peuvent porter un regard de tierce partie sur les résultats. Jumelant des techniques comme le crowdsourcing et le brainstorming, nous avons créé une nouvelle activité et le néologisme : brainsourcing. En demeurant dans une forme de pratique réflexive, les designers peuvent réfléchir et ajouter au contenu généré par les usagers qui lui n’est pas biaisé par une éducation ou une culture du design. Ce processus est similaire au design participatif professionnel où le brainsourcing est une activité parallèle lorsque le designer fait des recherches pour le design. C’est cette perspective sur la somme des idées des participants qui peut contribuer à comprendre la complexité de la situation de design. VI Cette recherche a aussi soulevé des questions par rapport à l’effet de démocratisation de l’Internet. Bien que les usagers n’ont pas l’éducation, ni les habiletés des designers, ils aspirent à démocratiser le processus du design en voulant participer activement et en exposant leurs besoins, idées et solutions. Nous avons pu déterminer que les usagers n’étaient pas qualifiés pour entreprendre le processus complet du design comme les designers professionnels, mais nous avons observé directement la capacité des usagers à mettre de l’avant leur créativité. À propos de la relation entre les usagers créatifs et les designers, nous avons étudié des langages communs tels les scénarios et les prototypes. Tous deux sont présents dans le contenu généré par les usagers que nous avons récolté dans nos recherches sur Internet. Ceci nous a mené vers une nouvelle perspective sur l’activité du design où des opportunités créatives ressortent d’une conversation avec les usagers. Cette recherche a dévoilé de grandes tendances dans la manière dont les usagers communiquent naturellement dans un processus de design. Nous espérons avoir offert un aperçu de comment les designers peuvent prendre avantage de tous les types de contenu généré par les usagers en ligne. Dans le futur, nous souhaitons que les designers aient la possibilité d’interagir avec les participants en prenant le rôle de facilitateur de la conversation. La responsabilité du résultat ne tombe pas sur les épaules du designer car son mandat est d’assurer le bon fonctionnement du processus. Les designers rejoignent les usagers en ne demandant plus comment les choses peuvent être créées, mais pourquoi elles devraient exister. En tant que designers, nous aspirons à générer plus à partir de nouvelles connaissances, nous aspirons à créer plus de sens. Mots clés: Recherche en design, complexité, design participatif, contenu généré par les usagers, démocratisation, Internet, créativité, crowdsourcing, brainstorming, brainsourcing, réflexion-en-action.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Suite à une consultation publique, la ministre de la Justice Anne McLellan a voulu répondre aux groupes et aux citoyens en intégrant, dans le projet de loi omnibus C-17, des amendements visant le droit criminel quant à la cruauté envers les animaux. Le projet de loi étant devenu caduc aux dernières élections fédérales, ces nouvelles dispositions étaient reprises par le projet de loi C-15 qui a lui-même été prorogé à la fin de la première session de la 37 législature. Les modifications qu'il proposait sont intégralement reprises par le projet de loi C-IO, déposé en octobre 2002. Les membres du Sénat renvoyaient récemment ce dernier devant le Comité permanent des affaires juridiques et constitutionnelles, chargé de le scinder en deux afin qu'un nouveau projet de loi, le ClOB, soit bientôt déposé et porte exclusivement sur la cruauté envers les animaux. Devant l'imminence de telles modifications, il est intéressant de se questionner autant sur leur contexte que sur leur portée. Dans une première partie, nous présentons quelques éléments du contexte philosophique et sociétal justifiant l'intérêt grandissant pour la question animale. L'émergence de nouvelles théories morales accordant plus de valeur à l'animal, les critiques et revendications des groupes de pression et des citoyens en général, ainsi que les récentes études démontrant un lien entre la cruauté envers les animaux et la violence dirigée contre l'homme, exigent une remise en question des rapports homme/animal. Une révision de ces différents facteurs contextuels permet de mieux comprendre à quoi répondent ces projets de loi. Dans une deuxième partie, nous relevons plusieurs incohérences du droit actuel afin d'identifier ce qui devrait être modifié par le législateur. Les incohérences sont à plusieurs niveaux: cohabitation de lois visant à protéger l'animal défini comme un être sensible et de lois portant sur la gestion des animaux considérés comme de simples ressources utiles à l'homme; intégration d'infractions visant à protéger l'animal dans la section du Code criminel portant sur les biens; gravité relativement importante des crimes contre les animaux par comparaison à certaines infractions contre la personne; problèmes 11 liés au libellé des infractions particulières et distinctions quant au degré de protection des animaux en fonction de leur intérêt pour 1'homme. Ensuite, le droit proposé sera examiné pour vérifier s'il règlera ces problèmes. Retirées de la partie concernant les biens, les infractions porteront davantage sur la sensibilité de l'animal plutôt que vers son utilité pour l'homme. Au niveau des régimes de responsabilité, l'ambiguïté constitutionnelle entraînée par la présomption du paragraphe 446(3) C.cr. sera évacuée. Quant aux peines, le durcissement prévu risque de rendre les infractions démesurément sévères par comparaison à certains crimes contre la personne. Bien qu'actualisées, les infractions seront toujours nombreuses et anecdotiques. Finalement, les changements de nature strictement juridique sont surtout cosmétiques, alors que la valeur symbolique des projets de loi est, quant à elle, plus significative. En effet, si quelques considérations anthropocentriques sont à l'origine des projets de loi, une reconnaissance de la valeur intrinsèque de l'animal semble aussi les avoir inspirés. Malheureusement, le paradigme de l'animal proposé, encore plus que celui qui est actuellement reconnu, se concilie difficilement avec l'utilisation des animaux pour les fins égocentriques de l'homme

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent mémoire analyse l'impact du contexte d'insolvabilité sur le devoir fiduciaire d'agir dans le meilleur intérêt de la compagnie, devoir imposer aux administrateurs de compagnies par la législation corporative canadienne. L'objectif du mémoire est de déterminer un standard de conduite à être adopté par l'administrateur d'une compagnie insolvable en vue de répondre à ce devoir fiduciaire. Dans un premier temps, comment peut-on définir ce que constitue le « meilleur intérêt de la compagnie» ? L'auteur en vient à la conclusion que l'intérêt de la compagnie est au carrefour d'une communauté d'intérêts lui étant sous-jacents. L'intérêt de la compagnie, bien qu'indépendant de ces intérêts sous-jacents, ne peut s'analyser en faisant abstraction de ces derniers. La jurisprudence et la doctrine récentes laissent entrevoir que l'impact du contexte d'insolvabilité se fait sentir sur la détermination de ces intérêts sous-jacents à celui de la compagnie susceptibles d'être affectés par la finalité poursuivie par la compagnie, finalité axée sur la maximisation des profits à partir des opérations de l'entreprise exploitée par la compagnie. Dans un contexte d'insolvabilité, le créancier, à l'instar de l'actionnaire dans un contexte de solvabilité, supporte le risque commercial résiduel et doit recevoir une attention appropriée par les administrateurs. Par conséquent, dans la détermination de ce que constitue le meilleur intérêt de la compagnie, l'administrateur ne peut, lorsque la compagnie est insolvable, faire abstraction de l'intérêt des créanciers. Ainsi, dans un deuxième temps, qui sont les véritables bénéficiaires du devoir fiduciaire d'agir dans le meilleur intérêt de la compagnie dans un contexte d'insolvabilité? L'auteur en vient à la conclusion que le créancier est un bénéficiaire indirect de ce devoir fiduciaire lorsque la compagnie est insolvable. Tout comme l'actionnaire dans un contexte de solvabilité, le créancier doit être en mesure d'intenter un recours de nature dérivée en vue d'obtenir réparation, pour et au nom de la compagnie. Le contexte d'insolvabilité fait naître, à l'endroit des administrateurs, une obligation de nature fiduciaire de prendre en considération l'intérêt des créanciers tout en permettant à ces derniers d'intenter un tel recours dérivé en vue d'obtenir réparation à la suite d'une violation du devoir fiduciaire d'agir dans le meilleur intérêt de la compagnie. En plus d'être soutenue par une revue de la législation, de la jurisprudence et de la doctrine canadiennes, cette conclusion s'appuie sur une revue de la législation, de la jurisprudence et de la doctrine de certains pays du Commonwealth (Angleterre, Australie et Nouvelle-Zélande) et des États-Unis, juridictions avec lesquelles le Canada entretient des relations privilégiés, historiquement ou économiquement. Finalement, que doit faire l'administrateur d'une compagnie insolvable en vue de répondre à ce devoir fiduciaire d'agir dans le meilleur intérêt de la compagnie? L'auteur arrive à la conclusion que cette obligation de prendre en considération l'intérêt du créancier dans un contexte d'insolvabilité se traduit par un exercice de conciliation entre les intérêts du créancier et ceux des actionnaires. Les paramètres de cet exercice de conciliation sont déterminés en fonction du scénario envisagé par les administrateurs face à la situation d'insolvabilité. Plus le scénario se rapproche d'une liquidation plus ou moins formelle des actifs tangibles et facilement dissociables de la compagnie, moins cet exercice en sera un de conciliation et plus l'intérêt du créancier devra recevoir une attention prépondérante. À l'opposé, plus le scénario en est un de restructuration fondée sur une relance de l'entreprise exploitée par la compagnie insolvable, plus l'intérêt de l'actionnaire devra recevoir une attention particulière.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis plusieurs années, les études ont bien démontré que les troubles du sommeil tendent à être héréditaires. Il existe de plus en plus d’évidence scientifique démontrant l’implication des facteurs génétiques dans la manifestation des terreurs nocturnes. Les études de jumeaux sont essentielles pour évaluer l’influence des facteurs génétiques et environnementaux dans les affections complexes comme les terreurs nocturnes. Cependant, la plupart des études antérieures de jumeaux sur les terreurs nocturnes sont, soient des études rétrospectives ou encore des études avec un échantillon insuffisant de patients, ce qui résulte en des résultats peu concluants. L’objectif de ce mémoire était de déterminer la contribution des facteurs génétiques et des facteurs environnementaux dans la manifestation des terreurs nocturnes d’une large cohorte de jeunes jumeaux suivis d’une façon prospective. Ce mémoire a montré que la proportion de la variance phénotypique totale des terreurs nocturnes due aux influences génétiques est plus que 40% pour les jumeaux âgés de 18 et de 30 mois. La corrélation polychorique, à l’âge de 18 mois, est de 0,63 chez les jumeaux monozygotes et de 0,36 chez les jumeaux dizygotes du même âge. À l’âge de 30 mois, cette corrélation est de 0,68 chez les monozygotes et de 0,24 chez les dizygotes. Ceci démontre que les facteurs génétiques jouent un rôle important dans la manifestation des terreurs nocturnes chez les enfants de très jeune âge. Basée sur l’héritabilité, cette étude suggère que la prédisposition génétique soit associée avec la persistance des symptômes des terreurs nocturnes jusqu’à l’âge de 30 mois.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les actionnaires sont au centre du gouvernement des entreprises. Bien qu'une certaine passivité leur soit parfois reprochée, simultanément, des craintes existent qu'une démocratie des actionnaires ne limite excessivement la gestion quotidienne des entreprises. Loin d'être incompatibles, ces deux remarques reflètent la diversité des actionnaires. En pratique, leurs attentes et leur comportement dépendent fortement de deux éléments : la part du capital ou des voix qu'ils détiennent de même que leur identité. Notre recherche porte sur la protection des actionnaires minoritaires dans le cadre d'opérations de prises de contrôle de sociétés publiques. Le sujet soulève une problématique d'une grande actualité dans le contexte canadien, contexte caractérisé par une concentration de l'actionnariat des sociétés publiques. Le sujet fait la conjonction de deux problèmes d'actualité. D'une part, la multiplication des prises de contrôle s'est accrue lors des dernières décennies et ce phénomène semble, plus que jamais, promis à un brillant avenir. D'autre part, le problème de la protection des actionnaires minoritaires se pose de façon toujours plus aiguë, dans le cadre des sociétés par actions de plus en plus importantes où leur rôle tend à s'amenuiser.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La contribution de l’inhalation et de la voie percutanée à l’exposition totale à des composés organiques volatils (COV) présents dans l’eau potable est une problématique qui suscite un intérêt grandissant en santé publique et au niveau réglementaire. Jusqu’à tout récemment, seule l’ingestion était considérée dans l’évaluation du risque des contaminants de l’eau. L’objectif de ce projet était de caractériser l’impact de l’exposition multivoie sur la pharmacocinétique et la dose interne de trois COV : le toluène (TOL), le n-hexane (HEX) et le cyclohexane (CYCLO). À cette fin, un modèle expérimental animal a été utilisé et un modèle toxicocinétique à base physiologique (TCBP) a été adapté pour le TOL. Des rats Sprague-Dawley ont été exposés par voies uniques (inhalation, orale et percutanée) ou simultanées (multivoie) aux solvants. Pour le TOL, les trois voies ont été expérimentées, alors que la voie percutanée n’a pas été retenue pour le HEX et le CYCLO. Des prélèvements sanguins ont permis de caractériser les cinétiques sanguines. Les niveaux sanguins, obtenus lors des expositions multivoies, étaient généralement plus élevés que la somme des niveaux associés aux expositions par voies uniques, fait illustré par le rapport des surfaces sous la courbe expérimentale versus les prédictions (TOL : 1,30 et 2,19 ; HEX : 1,55 ; CYCLO : 0,98 et 0,99). Le modèle TCBP prédit bien la cinétique du TOL lors d’expositions par voies uniques et par multivoies. Les données expérimentales obtenues suggèrent que la dose interne résultant d’une exposition multivoie ne peut pas toujours être prédite par la somme des doses internes obtenues lors d’expositions par voies uniques. Ce phénomène serait explicable par la saturation du métabolisme. La modélisation TCBP est un outil efficace pour l’estimation du risque relatif à l’exposition multivoie aux COV présents dans l’eau potable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire a comme objectif de présenter une revue de la littérature et une analyse comparative des différents modèles existants pour le calcul de la capacité de support d’un plan d’eau aux apports en phosphore. Ce document a aussi pour but d’évaluer les différentes options pour l’utilisation de ce genre d’outil au Québec, ainsi que d’amorcer une réflexion sur les applications possibles de ce concept au niveau local, en lien avec l’aménagement du territoire des bassins versants. L’analyse comparative des modèles théoriques, combinée à la réflexion d’acteurs clés impliqués actuellement dans un processus qui consiste à tester leur utilisation dans les Laurentides au Québec, a permis de mettre en relief l’importance de calibrer les modèles régionalement. De plus, certains avantages semblent résider dans l’utilisation d’un modèle de nature empirique afin d’effectuer les prédictions sur les apports naturels et totaux en phosphore pour les lacs de cette région. Par contre, l’utilisation d’une approche de type « bilan de masse », s’avère tout de même indispensable afin de relativiser l’importance des différents apports anthropiques en phosphore du bassin versant. Dans l’avenir, l’utilisation de tels modèles permettra possiblement de justifier certaines mesures restrictives au développement des bassins versants, qui pourront s’insérer parmi les outils d’urbanisme actuels. Ce sont principalement les municipalités qui détiennent les pouvoirs nécessaires afin d’intégrer les prescriptions découlant de ce genre d’analyse à l’aménagement du territoire des bassins versants. Plusieurs outils d’urbanisme, tels que les plans d’aménagement d’ensemble (PAE) ou bien les règlements de zonage et de lotissement, semblent donner assez de latitude afin de permettre aux municipalités d’intervenir en ce sens. Toutefois, les modèles de capacité de support ne pourront pas être utilisés afin de calculer un nombre précis d’habitations qu’il est possible de construire dans le bassin versant d’un lac.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les lésions de la moelle épinière ont un impact significatif sur la qualité de la vie car elles peuvent induire des déficits moteurs (paralysie) et sensoriels. Ces déficits évoluent dans le temps à mesure que le système nerveux central se réorganise, en impliquant des mécanismes physiologiques et neurochimiques encore mal connus. L'ampleur de ces déficits ainsi que le processus de réhabilitation dépendent fortement des voies anatomiques qui ont été altérées dans la moelle épinière. Il est donc crucial de pouvoir attester l'intégrité de la matière blanche après une lésion spinale et évaluer quantitativement l'état fonctionnel des neurones spinaux. Un grand intérêt de l'imagerie par résonance magnétique (IRM) est qu'elle permet d'imager de façon non invasive les propriétés fonctionnelles et anatomiques du système nerveux central. Le premier objectif de ce projet de thèse a été de développer l'IRM de diffusion afin d'évaluer l'intégrité des axones de la matière blanche après une lésion médullaire. Le deuxième objectif a été d'évaluer dans quelle mesure l'IRM fonctionnelle permet de mesurer l'activité des neurones de la moelle épinière. Bien que largement appliquées au cerveau, l'IRM de diffusion et l'IRM fonctionnelle de la moelle épinière sont plus problématiques. Les difficultés associées à l'IRM de la moelle épinière relèvent de sa fine géométrie (environ 1 cm de diamètre chez l'humain), de la présence de mouvements d'origine physiologique (cardiaques et respiratoires) et de la présence d'artefacts de susceptibilité magnétique induits par les inhomogénéités de champ, notamment au niveau des disques intervertébraux et des poumons. L'objectif principal de cette thèse a donc été de développer des méthodes permettant de contourner ces difficultés. Ce développement a notamment reposé sur l'optimisation des paramètres d'acquisition d'images anatomiques, d'images pondérées en diffusion et de données fonctionnelles chez le chat et chez l'humain sur un IRM à 3 Tesla. En outre, diverses stratégies ont été étudiées afin de corriger les distorsions d'images induites par les artefacts de susceptibilité magnétique, et une étude a été menée sur la sensibilité et la spécificité de l'IRM fonctionnelle de la moelle épinière. Les résultats de ces études démontrent la faisabilité d'acquérir des images pondérées en diffusion de haute qualité, et d'évaluer l'intégrité de voies spinales spécifiques après lésion complète et partielle. De plus, l'activité des neurones spinaux a pu être détectée par IRM fonctionnelle chez des chats anesthésiés. Bien qu'encourageants, ces résultats mettent en lumière la nécessité de développer davantage ces nouvelles techniques. L'existence d'un outil de neuroimagerie fiable et robuste, capable de confirmer les paramètres cliniques, permettrait d'améliorer le diagnostic et le pronostic chez les patients atteints de lésions médullaires. Un des enjeux majeurs serait de suivre et de valider l'effet de diverses stratégies thérapeutiques. De telles outils représentent un espoir immense pour nombre de personnes souffrant de traumatismes et de maladies neurodégénératives telles que les lésions de la moelle épinière, les tumeurs spinales, la sclérose en plaques et la sclérose latérale amyotrophique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le glioblastome multiforme (GBM) représente la tumeur cérébrale primaire la plus agressive et la plus vascularisée chez l’adulte. La survie médiane après le diagnostic est de moins d’un an en l’absence de traitement. Malheureusement, 90% des patients traités avec de la radiothérapie après la résection chirurgicale d’un GBM développent une récidive tumorale. Récemment, le traitement des GBM avec radiothérapie et témozolomide, un agent reconnu pour ses propriétés antiangiogéniques, a permis de prolonger la survie médiane à 14,6 mois. Des efforts sont déployés pour identifier des substances naturelles capables d’inhiber, de retarder ou de renverser le processus de carcinogenèse. Epigallocatechin-3-gallate (EGCG), un polyphénol retrouvé dans le thé vert, est reconnu pour ses propriétés anticancéreuses et antiangiogéniques. L’EGCG pourrait sensibiliser les cellules tumorales cérébrales et les cellules endothéliales dérivées des tumeurs aux traitements conventionnels. Le chapitre II décrit la première partie de ce projet de doctorat. Nous avons tenté de déterminer si l’EGCG pourrait sensibiliser la réponse des GBM à l’irradiation (IR) et si des marqueurs moléculaires spécifiques sont impliqués. Nous avons documenté que les cellules U-87 étaient relativement radiorésistantes et que Survivin, une protéine inhibitrice de l’apoptose, pourrait être impliquée dans la radiorésistance des GBM. Aussi, nous avons démontré que le pré-traitement des cellules U-87 avec de l’EGCG pourrait annuler l’effet cytoprotecteur d’une surexpression de Survivin et potentialiser l’effet cytoréducteur de l’IR. Au chapitre III, nous avons caractérisé l’impact de l’IR sur la survie de cellules endothéliales microvasculaires cérébrales humaines (HBMEC) et nous avons déterminé si l’EGCG pouvait optimiser cet effet. Bien que les traitements individuels avec l’EGCG et l’IR diminuaient la survie des HBMEC, le traitement combiné diminuait de façon synergique la survie cellulaire. Nous avons documenté que le traitement combiné augmentait la mort cellulaire, plus spécifiquement la nécrose. Au chapitre IV, nous avons investigué l’impact de l’IR sur les fonctions angiogéniques des HBMEC résistantes à l’IR, notamment la prolifération cellulaire, la migration cellulaire en présence de facteurs de croissance dérivés des tumeurs cérébrales, et la capacité de tubulogenèse. La voie de signalisation des Rho a aussi été étudiée en relation avec les propriétés angiogéniques des HBMEC radiorésistantes. Nos données suggèrent que l’IR altère significativement les propriétés angiogéniques des HBMEC. La réponse aux facteurs importants pour la croissance tumorale et l’angiogenèse ainsi que la tubulogenèse sont atténuées dans ces cellules. En conclusion, ce projet de doctorat confirme les propriétés cytoréductrices de l’IR sur les gliomes malins et propose un nouveau mécanisme pour expliquer la radiorésistance des GBM. Ce projet documente pour la première fois l’effet cytotoxique de l’IR sur les HBMEC. Aussi, ce projet reconnaît l’existence de HBMEC radiorésistantes et caractérise leurs fonctions angiogéniques altérées. La combinaison de molécules naturelles anticancéreuses et antiangiogéniques telles que l’EGCG avec de la radiothérapie pourrait améliorer l’effet de l’IR sur les cellules tumorales et sur les cellules endothéliales associées, possiblement en augmentant la mort cellulaire. Cette thèse supporte l’intégration de nutriments avec propriétés anticancéreuses et antiangiogéniques dans le traitement des gliomes malins pour sensibiliser les cellules tumorales et endothéliales aux traitements conventionnels.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les efforts investis pour diminuer les risques de développer un infarctus du myocarde sont nombreux. Aujourd’hui les médecins prennent connaissance des divers facteurs de risque connus prédisposant aux syndromes coronariens aigus (SCA) dans le but de prendre en charge les patients «à risque» [1]. Bien que le suivi rigoureux et le contrôle de certains facteurs de risque modifiables aient permis une meilleure gestion des cas de SCA, les cas d’infarctus persistent de manière encore trop fréquente dans le monde. Puisque d’importantes études ont démontré que les SCA pouvaient survenir sans même la présence des facteurs de risque conventionnels [2, 3], les chercheurs se sont penchés sur un autre mécanisme potentiellement responsable de l’avènement des SCA : l’inflammation. L’inflammation joue un rôle prépondérant dans l’initiation, la progression et les complications de l’athérosclérose [4, 5] mais aussi dans les situations post-infarctus [6, 7]. Au cours des dernières années, le contrôle du processus inflammatoire est devenu une cible de choix dans la prévention et le traitement des SCA. Cependant, malgré les efforts investis, aucun de ces traitements ne s’est avéré pleinement efficace dans l’atteinte du but ultime visé par une diminution de l’inflammation : la diminution de la mortalité. Le complément est un système complexe reconnu principalement pour son rôle primordial dans l’immunité [2]. Cependant, lorsqu’il est activé de manière inappropriée ou excessive, il peut être à l’origine de nombreux dommages cellulaires caractéristiques de plusieurs pathologies inflammatoires dont font partie les complications de l’athérosclérose et des événements post-infarctus. Le travail effectué dans le cadre de mon doctorat vise à établir les rôles physiopathologiques du complément dans les interactions de l’axe thrombose-inflammation caractéristiques des SCA dans le but ultime d’identifier des cibles thérapeutiques permettant le développement de nouvelles approches pour la prévention et le traitement de ces pathologies. Les principaux résultats obtenus durant mon cursus suggèrent d’abord que la voie alterne du complément peut représenter une cible thérapeutique de choix dans les maladies coronariennes aiguës puisque l’activation terminale du complément semble y être principalement causée par l’activation du cette voie. De faibles niveaux sériques de MBL (mannan-binding lectin) et une activation terminale négligeable du complément caractérisent plutôt la maladie coronarienne stable. En comparant l’activité relative de chacune des voies du complément chez des cohortes de patients traités ou non par un anticorps spécifique à la protéine C5 du complément (pexelizumab), un second volet démontre quant à lui qu’une inhibition de l’activation du C5 n’a pas d’effet bénéfique majeur sur l’inhibition de la formation du complexe sC5b-9 ou sur les événements cliniques subséquents. Par conséquent, nous avons exploré, à l’aide d’un modèle in vitro, les raisons de l’inefficacité du traitement. Les résultats révèlent que le blocage du C5 avec le pexelizumab inhibe la production de l’anaphylatoxine pro-inflammatoire C5a et du complexe terminal du complément sans toutefois avoir d’effet sur l’apoptose des cellules endothéliales produites induite par le sérum des patients atteints de STEMI. Finalement, une autre section stipule que l’atorvastatine diminue l’activation du complément induite par les plaquettes sanguines chez des patients hypercholestérolémiques, mettant en évidence l’importance du rôle de cette statine dans la réduction des effets délétères de l’activation du système du complément médié par les plaquettes. Ensemble, l’étude du rôle spécifique des différentes voies d’activation du complément dans des contextes pathologiques variés, l’analyse des effets d’une inhibition spécifique de la protéine C5 du complément dans la progression des SCA et la mise en évidence des interactions entre l’activation du complément et les plaquettes activées ont contribué au développement d’une meilleure connaissance des rôles physiopathologiques du complément dans la progression de la maladie coronarienne.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins