430 resultados para Approches et validation expérimentales


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’eau a longtemps été considérée comme une ressource commune non susceptible d’appropriation et accessible à tous. De nos jours, toutefois, face à l’inégale répartition de l’eau sur la planète, à l’augmentation constante de la population et à la multiplication des usages qui entraînent la surexploitation et la pollution des ressources hydriques, l’eau prend une valeur nouvelle. L’eau devient de plus en plus un enjeu stratégique, politique et commercial. En conséquence, la redéfinition du statut juridique de l’eau devient un objet de débat important. Ce débat est avant tout un débat rhétorique et une « bataille » idéologique entre des groupes qui soutiennent différentes approches et qui cherchent à obtenir le monopole de la nouvelle réalité et créer ainsi le nouveau droit. Deux grandes approches s’affrontent pour redéfinir la ressource. La première, celle qui envisage l’eau comme un bien économique, soutient que pour éviter les problèmes de gaspillage et de pollution, l’eau doit être soumise aux lois de l’offre et de la demande. La deuxième, celle qui considère l’eau comme une chose commune, non appropriable et hors commerce, soutient que la valeur d’une ressource aussi vitale que l’eau ne peut être établie par les lois du marché puisque cette alternative ne permet pas d’assurer l’accès à l’eau aux plus démunis de la société. Cette approche prône également la reconnaissance d’un droit humain à l’eau. Notre thèse tente de déterminer comment s’effectue le choix du statut juridique de l’eau, et ce, tant au Québec qu’au Mexique. Notre question de recherche est traitée selon une perspective constructiviste en vertu de laquelle le statut juridique de l’eau serait une réalité « construite » et le nouveau droit serait le résultat des luttes, des oppositions et des compromis entre les acteurs sociaux impliqués. Notre terrain d’étude est le Québec et le Mexique. En effet, ce sont des territoires intégrés économiquement par le biais de l’ALENA où l’on observe des variations importantes en termes de ressources, de prélèvements et de consommation. Au Québec, nous analysons le débat qui a eu lieu lors de la Consultation sur la gestion de l’eau au Québec (1999), notamment les discours concernant le statut de l’eau, la gestion publique/privée des services d’eau et l’exportation en vrac de la ressource. Au Mexique, nous analysons les représentations des acteurs sociaux à l’occasion de l’adoption de la Loi des eaux nationales de 1992, notamment les questions qui comportent un lien étroit avec la symbolique de l’eau. Or, nous avons remarqué que le résultat de ces constructions sociales au sein de ces territoires est complètement différent. Au Québec, on a confirmé le statut de l’eau en tant que chose commune, tandis qu’au Mexique, c’est plutôt la symbolique de l’eau en tant que bien économique qui a été adoptée dans la nouvelle législation portant sur l’eau.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maîtrise ès sciences (M. Sc.) option expertise-conseil en soins infirmiers

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Suite aux grands changements politiques, économiques et sociaux que l’Occident a connus depuis plus d’un siècle, de nombreux problèmes ont émergé, de nouveaux défis ont été lancés et plusieurs approches et solutions ont été avancées. L’avènement de la démocratie, un exploit humain inestimable, a plus ou moins règlementé la pluralité idéologique, pour permettre un exercice politique organisé. Aujourd’hui, dans le nouvel ordre mondial, c’est la pluralité morale et religieuse qui a besoin d’être gérée; un défi pour les institutions démocratiques et pour la société civile, afin de réaliser un mieux vivre-ensemble dans le dialogue, la compréhension et le compromis. Or, beaucoup de travail est encore à faire : dans un premier temps, à l’intérieur de chaque tradition religieuse; dans un deuxième temps, entre les différentes traditions; et dans un troisième temps, entre ces traditions et la modernité. Le ‘dogmatisme’ est au cœur de ces débats, qu’il soit d’ordre traditionnel ou moderne, il entrave la raison dans son processus de libération et d’émancipation. La problématique de ce mémoire concerne la gestion de la pluralité morale et religieuse en Occident. Dans ce travail, nous allons essayer de démontrer comment la libération du dogmatisme en général et la libération du ‘dogmatisme’ musulman, en particulier, peuvent contribuer à la réalisation d’un mieux vivre-ensemble en Occident. Pour ce faire, nous analyserons les projets de deux penseurs musulmans contemporains : Muhammad Arkoun et Tariq Ramadan. Notre recherche va essentiellement se pencher sur leurs attitudes vis-à-vis de la tradition et de la modernité, car, nous pensons que l’enjeu du ‘dogmatisme’ est lié aux rapports des musulmans à leur tradition et à la modernité. Selon nos deux penseurs, la libération du ‘dogmatisme’ musulman n’est possible qu’à condition de pouvoir changer à la fois notre rapport à la tradition et à la modernité. Arkoun pense que ce changement doit suivre le modèle de la libération occidentale, au moyen d’une critique subversive de la tradition islamique. Cependant, Ramadan opte pour une réforme radicale de la pensée islamique qui vise une critique globale de la tradition, mais, qui épargne les fondements de la foi : le ‘sacré’.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les institutions de mémoire et de savoir (par exemple, les bibliothèques, les archives, les musées) font face à des défis importants dans leurs responsabilités d’assurer la pérennité du patrimoine documentaire à l’ère numérique. Citons la surabondance de l’information numérique, la possibilité de production, théoriquement illimitée, offerte aux individus comme aux groupes sociaux, les limites dans les capacités de stockage et de diffusion de l’information numérique qui sont à la disposition des institutions mandataires du patrimoine documentaire. De plus, il est apparu que les approches et les méthodes utilisées pour identifier, gérer, préserver et diffuser le patrimoine documentaire de la société canadienne dans un environnement analogique n’étaient transférables à un environnement numérique. Nous suggérons que la théorie sociale de la connaissance peut servir de base à une réflexion portant sur le développement d’une politique publique qui viserait à encadrer l’identification, la sélection, la gestion et la préservation du patrimoine documentaire d’une société à l'ère numérique. Nous définissons la problématique puis proposons des réponses à travers trois articles scientifiques. Les résultats indiquent que les connaissances et les pratiques professionnelles utilisées demeurent persistantes et limitent la formulation et l'application de nouveaux cadres théoriques, de politiques administratives et de techniques associés à l'identification et la sélection du patrimoine documentaire. Cette recherche propose un cadre conceptuel qui permet de développer des politiques publiques sur le patrimoine documentaire du Canada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’appropriation de la thématique du multiculturalisme par les partisans du républicanisme fait l’objet de cet article. Dans un premier temps, il est permis de se demander si l’idée même d’un multiculturalisme républicain fait sens ; mais comme je le montrerai, le refus d’un projet multiculturel républicain est une exception française. Or, chez les penseurs néo-républicains, tels Philip Pettit, John Maynor et Cécile Laborde, le multiculturalisme a reçu une attention particulière. Je montrerai les particularités de chacune de ces approches et en particulier, comment les travaux de Laborde arrivent à résoudre des tensions que la pensée néo-républicaine entretient avec la reconnaissance de la diversité culturelle, en ajoutant une perspective critique à la voie délibérative ouverte par Maynor. L’originalité du multiculturalisme républicain consiste ainsi à rappeler le caractère instrumental de la politisation des identités minoritaires, puisqu’il s’agit à chaque fois de lutter contre l’assignation identitaire que subissent les membres des minorités, et non pas de valoriser publiquement leurs différences.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’accès aux traitements de base est un enjeu crucial pour la santé, la pauvretet le développement. La responsabilité en matière d’accès est alors une question essentielle. Le huitième Objectif du Millénaire pour le Développement postule qu’en coopération avec les firmes pharmaceutiques, l’accès aux traitements essentiels doit être assuré. Les principales parties prenantes qui doivent engager leur responsabilité pour l’accès aux médicaments sont (1) l’industrie pharmaceutique, (2) les gouvernements, (3) la société au sens large, et (4) les individus (qu’ils soient ou non malades). Quatre approches permettent d’appréhender la responsabilité: (a) l’approche déontologique; (b) l’utilitarisme; (c) l’égalitarisme; (b) l’approche basée sur les droits de l’homme. Ces quatre arguments peuvent être utilisés pour assigner une responsabilité aux gouvernements dans l’accès aux médicaments. Le papier conclut qu’il est parfois difficile de distinguer entre ces quatre approches et qu’un « glissement-d’échelle » de la responsabilité est une voie utile pour appréhender les rôles des quatre principales parties prenantes dans l’accès aux médicaments, dépendant du pays ou de la région et de son environnement interne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette mémoire a pour objectif de mettre en évidence le délaissement dont a souffert et souffre encore dans l’actualité l’enseignement de la prononciation dans les cours d’espagnol comme langue étrangère (ELE), réaffirmer son importance et défendre la nécessité de son intégration dans les salles de classe. C’est un fait qu’avec l’actuelle approche communicative et « par devoirs », les étudiants acquièrent des connaissances supérieures en langue écrite et des résultats peu satisfaisants dans la prononciation. D’autre part, les enseignants ne comptent pas sur des méthodes d’intégration de la prononciation de ces approches, et la carence de matériels se fait plus qu’évidente. Les conceptions curriculaires actuelles n’ont pas intégré de forme naturelle l’enseignement de la prononciation dans ses exposés méthodologiques. La sélection et analyse de certains des manuels d’enseignement d’ELE, avec ce dont on travaille actuellement dans la province du Québec, confirme ces carences. Dans la dernière partie du travail on présente une sélection d’exercices que l’on considère utiles pour l’enseignement et le développement de la prononciation, incluant les éléments suprasegmentaires, d’une façon ludique, dans un contexte réel et communicatif et de manière intégrée. Une didactique de l’enseignement qui prête attention au système formel de la langue, la grammaire et le lexique, peut aussi contempler l’enseignement de la prononciation depuis la même perspective. L’important c’est qu’elle soit intégrée comme une phase supplémentaire du processus d’apprentissage, et cesse d’être une matière à repasser dans les curriculums.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les antibiotiques aminoglycosidiques sont des agents bactéricides de grande valeur et d’efficacité à large spectre contre les pathogènes Gram-positifs et Gram-négatifs, dont plusieurs membres naturels et semisynthétiques sont importants dans l’histoire clinique depuis 1950. Des travaux crystallographiques sur le ribosome, récompensés par le prix Nobel, ont démontré comment leurs diverses structures polyaminées sont adaptées pour cibler une hélice d’ARN dans le centre de codage de la sous-unité 30S du ribosome bactérien. Leur interférence avec l’affinité et la cinétique des étapes de sélection et vérification des tARN induit la synthèse de protéines à basse fidélité, et l’inhibition de la translocation, établissant un cercle vicieux d’accumulation d’antibiotique et de stress sur la membrane. En réponse à ces pressions, les pathogènes bactériens ont évolué et disséminé une panoplie de mécanismes de résistance enzymatiques et d’expulsion : tels que les N acétyltransférases, les O phosphotransférases et les O nucleotidyltransférases qui ciblent les groupements hydroxyle et amino sur le coeur des aminoglycosides; des méthyl-transférases, qui ciblent le site de liaison ribosomale; et des pompes d’expulsion actives pour l’élimination sélective des aminoglycosides, qui sont utilisés par les souches Gram-négatives. Les pathogènes les plus problématiques, qui présentent aujourd’hui une forte résilience envers la majorité des classes d’antibiotiques sur le bord de la pan-résistance ont été nommés des bactéries ESKAPE, une mnémonique pour Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa et Enterobacteriaceae. La distribution globale des souches avec des mécanismes de résistance envers les standards cliniques aminoglycosides, tels que la tobramycine, l’amikacine et la gentamicine, est comprise entre 20 et 60% des isolées cliniques. Ainsi, les aminoglycosides du type 4,6-disubstitués-2-deoxystreptamine sont inadéquats comme thérapies anti-infectieuses à large spectre. Cependant, la famille des aminoglycosides 4,5-disubstitués, incluant la butirosine, la neomycine et la paromomycine, dont la structure plus complexe, pourrait constituter une alternative. Des collègues dans le groupe Hanessian et collaborateurs d’Achaogen Inc. ont démontré que certains analogues de la paraomomycine et neomycine, modifiés par désoxygénation sur les positions 3’ et 4’, et par substitution avec la chaîne N1-α-hydroxy-γ-aminobutyramide (HABA) provenant de la butirosine, pourrait produire des antibiotiques très prometteurs. Le Chapitre 4 de cette dissertation présente la conception et le développement d’une stratégie semi-synthétique pour produire des nouveaux aminoglycosides améliorés du type 4,5 disubstitués, inspiré par des modifications biosynthétiques de la sisomicine, qui frustrent les mécanismes de résistance bactérienne distribuées globalement. Cette voie de synthèse dépend d’une réaction d’hydrogénolyse de type Tsuji catalysée par palladium, d’abord développée sur des modèles monosaccharides puis subséquemment appliquée pour générer un ensemble d’aminoglycosides hybrides entre la neomycine et la sisomicine. Les études structure-activité des divers analogues de cette nouvelle classe ont été évaluées sur une gamme de 26 souches bactériennes exprimant des mécanismes de résistance enzymatique et d’expulsion qui englobe l’ensemble des pathogènes ESKAPE. Deux des antibiotiques hybrides ont une couverture antibacterienne excellente, et cette étude a mis en évidence des candidats prometteurs pour le développement préclinique. La thérapie avec les antibiotiques aminoglycosidiques est toujours associée à une probabilité de complications néphrotoxiques. Le potentiel de toxicité de chaque aminoglycoside peut être largement corrélé avec le nombre de groupements amino et de désoxygénations. Une hypothèse de longue date dans le domaine indique que les interactions principales sont effectuées par des sels des groupements ammonium, donc l’ajustement des paramètres de pKa pourrait provoquer une dissociation plus rapide avec leurs cibles, une clairance plus efficace et globalement des analogues moins néphrotoxiques. Le Chapitre 5 de cette dissertation présente la conception et la synthèse asymétrique de chaînes N1 HABA β substitutées par mono- et bis-fluoration. Des chaînes qui possèdent des γ-N pKa dans l’intervalle entre 10 et 7.5 ont été appliquées sur une neomycine tétra-désoxygénée pour produire des antibiotiques avancés. Malgré la réduction considérable du γ N pKa, le large spectre bactéricide n’a pas été significativement affecté pour les analogues fluorés isosteriques. De plus, des études structure-toxicité évaluées avec une analyse d’apoptose propriétaire d’Achaogen ont démontré que la nouvelle chaîne β,β difluoro-N1-HABA est moins nocive sur un modèle de cellules de rein humain HK2 et elle est prometteuse pour le développement d’antibiotiques du type neomycine avec des propriétés thérapeutiques améliorées. Le chapitre final de cette dissertation présente la proposition et validation d’une synthèse biomimétique par assemblage spontané du aminoglycoside 66-40C, un dimère C2 symétrique bis-imine macrocyclique à 16 membres. La structure proposée du macrocycle a été affinée par spectroscopie nucléaire à un système trans,trans-bis-azadiène anti-parallèle. Des calculs indiquent que l’effet anomérique de la liaison α glycosidique entre les anneaux A et B fournit la pré-organisation pour le monomère 6’ aldéhydo sisomicine et favorise le produit macrocyclique observé. L’assemblage spontané dans l’eau a été étudié par la dimérisation de trois divers analogues et par des expériences d’entre croisement qui ont démontré la généralité et la stabilité du motif macrocyclique de l'aminoglycoside 66-40C.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Coran et la Sunna (la tradition du prophète Muḥammad) relatée dans les aḥâdîth (les traditions orales du Prophète) représentent la source éternelle d’inspiration et de savoir à laquelle les Musulmans se réfèrent pour agir, réagir et interagir. Par le fait même, tout au long de l’histoire musulmane, ces sources sacrées ont été à la base des relations des Musulmans avec autrui, incluant les Chrétiens. Les trois éléments majeurs de différenciation entre l’islam et le christianisme sont : la nature divine de Jésus, la trinité ainsi que la crucifixion et la mort de Jésus sur la croix. La position tranchée du Coran quant aux deux premiers points ne laisse place à aucun débat académique. Cependant, l’ambiguïté du texte coranique quant à la crucifixion de Jésus et sa mort a favorisé de nombreux débats entre mufassirûn (les exégètes du Coran). Cette thèse est une analyse textuelle des deux passages coraniques qui traitent de cette troisième différence. Pour cette étude textuelle et intertextuelle, les tafâsîr (interprétations du Coran) de huit mufassirûn appartenant à différentes madhâhib (écoles d’interprétation) et périodes de l’histoire des relations musulmanes-chrétiennes sont utilisés en combinaison avec certaines approches et méthodes récentes telles que : historico-critique et critique rédactionnelle. De plus, trois nouvelles théories développées dans la thèse enrichissent les outils herméneutiques de la recherche : la « théorie des cinq couches de sens », la « théorie des messages coraniques doubles » et la « théorie de la nature humaine tripartite ». À la lumière de ces théories et méthodes, il apparaît que l’ambiguïté coranique au sujet de la crucifixion et de la mort de Jésus est une invitation claire de la part du Coran incitant les Musulmans et les Chrétiens à vivre avec cette ambiguïté insoluble. La conclusion de cette thèse contribue directement à de meilleures relations musulmanes-chrétiennes, renforçant l’appel coranique (Coran 3:64, 103) à ces deux communautés leurs demandant de se cramponner aux points communs majeurs, d’intégrer leurs différences mineures et de consacrer leurs énergies pour une vie harmonieuse entre eux et laisser le reste dans les mains du Dieu qu’ils ont en commun.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le problème de la direction du temps est un problème classique autant en physique qu’en philosophie. Quoiqu’il existe plusieurs façons de s’interroger sur ce problème, l’approche thermodynamique est la plus fréquemment utilisée. Cette approche consiste à considérer la flèche du temps thermodynamique comme la flèche fondamentale de laquelle les autres flèches ne sont que des manifestations. Ce mémoire vise à fournir une analyse philosophique de cette approche. Pour ce faire, nous esquisserons la problématique générale, nous exposerons les différentes approches et théories alternatives visant à résoudre ce problème et nous présenterons la thèse forte soutenant l’approche thermodynamique. Ensuite, nous évaluerons la pertinence du recours à la mécanique statistique et à la cosmologie visant à remédier aux déficiences de cette même approche. Enfin, nous analyserons en quoi cette approche, et plus particulièrement la notion d’entropie, est en mesure de fournir un cadre conceptuel pour la résolution du problème de la flèche du temps.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En tant que moyen de communication qui détermine les structures de base des langues, la métaphore se classe parmi les enjeux les plus importants du domaine de la traductologie, d’où la complexité de la rendre traduisible. La nature indirecte de la métaphore étant problématique, celle-ci exige une étude approfondie, surtout vis-à-vis le transfert de la culture d’une langue à une autre. Un survol de la littérature académique traitant des théories et des approches différentes en traductologie révèle une façon de rendre possible la traduction de la métaphore. Cette étude traite de la traduction des métaphores du perse aux sous-titres anglais. Elle indique également les approches et les stratégies appliquées à la traduction des expressions linguistiques métaphoriques telles que proposées par Newmark (1988). En se fondant sur des exemples authentiques tirés des textes sources (deux films perses bien connus) et leurs traductions anglaises, cette étude démontre la façon dont certains traducteurs iraniens traduisent des expressions métaphoriques en se servant d’une des sept stratégies proposées par Newmark. Elle explique également comment certains éléments (par ex. les difficultés de la traduction) ont été influents sur leurs conclusions, tout en soutenant l’hypothèse que la reproduction d’une même image d’une langue source dans une langue cible ainsi que l’effacement sont respectivement la plus fréquente et la moins fréquente des stratégies employées par les sous-titreurs iraniens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This research aims to enrich the understanding of the constitution of a sense of belonging to an aboriginal community in Montreal. It has been demonstrated that there is indeed a social cohesion in Montreal based on the collective aboriginal ethnic identity, or aboriginality. This cohesion is supported by aboriginal organizations and associations, whise approaches and engagements have a direct impact on their inclusion into the community. These institutions are considered as the source of communitarian social bond in the city. By the empowerment of a shared aboriginal identity, the representation of community interests, the integration in the urban life, the service delivery to members of the middle class and the creation of secured spaces dedicated to their cultural heritage, aboriginal associations are creating social ties to the community. On the other hand, some problems like the lack of communication between organizations, their hermetic nature, their excessive bureaucratic methods, the way women in the community monopolize the institutions, the presence of non-aboriginal people as well as the gang phenomenon are all experienced in the organizations. These problems produce harmful consequences on the member’s relations to the communitarian system and reduce their participation and attendance. Also, the social bond within the native community is weakened by various factors outside the grasp of the institutions. Some internal discriminations and stereotypes, sometimes tied to the use of administrative indicators of the Canadian Aboriginal Law, the lack of a native district in Montreal, and the different socio-economic members’ situations create divisions and affect the community spirit. This thesis focuses on the native community construction in an urban area through its institutional sphere, which differs from other studies on urban Natives. The objective is to understand the urban realities and the way the urban native communities are developing themselves.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Doctorat réalisé en cotutelle entre l'Université de Montréal et l'Université Paul Sabatier-Toulouse III

Relevância:

50.00% 50.00%

Publicador:

Resumo:

En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.