68 resultados para Forêts

em Université de Montréal, Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de recherche

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Selon des thèses développées au cours des années 1990 et 2000, le développement économique constitue à la fois la source et la solution aux problèmes environnementaux. Au sujet des forêts, les transitions forestières (c’est-à-dire le passage de la déforestation à la reforestation) documentées dans certains pays développés seraient causées par des dynamiques universelles intrinsèques au développement et à la modernisation des sociétés. Nos travaux ont porté sur l’application de cette vision optimiste et controversée à l’évolution des superficies forestières en Thaïlande. S’appuyant sur une recension de la littérature, sur des données secondaires ainsi que nos travaux de terrain dans la région de Phetchabun, la thèse offre les apports suivants. Elle démontre que contrairement à l’idée répandue en Thaïlande, le ralentissement de la déforestation a été suivi par une expansion forestière substantielle entre environ 1995 et 2005. Ce regain forestier est lié à la disparition presque complète de l’expansion agricole, à l’établissement de plantations sylvicoles et, surtout, à l’abandon de terres agricoles. Cet abandon agricole découle d’abord et avant tout de la faible et incertaine rentabilité de l’agriculture dans certaines zones non irriguées. Ce phénomène s’explique, entre autres, par la dégradation des sols et par l’incapacité des agriculteurs à contrer l’impact des transformations économiques internes et externes à la Thaïlande. L’accroissement de la pression de conservation n’a pu contribuer à l’expansion forestière que dans certains contextes (projets de reforestation majeurs appuyés par l’armée, communautés divisées, terres déjà abandonnées). Sans en être une cause directe, l’intensification agricole et la croissance des secteurs non agricoles ont rendu moins pénibles la confiscation et l’abandon des terres et ont permis que de tels phénomènes surviennent sans entraîner d’importants troubles sociaux. Dans un contexte d’accroissement des prix agricoles, notamment celui du caoutchouc naturel, une partie du regain forestier aurait été perdu depuis 2005 en raison d’une ré-expansion des surfaces agricoles. Cela illustre le caractère non permanent de la transition forestière et la faiblesse des mesures de conservation lorsque les perspectives de profit sont grandes. La thèse montre que, pour être robuste, une théorie de la transition forestière doit être contingente et reconnaître que les variables macro-sociales fréquemment invoquées pour expliquer les transitions forestières (ex. : démocratisation, intensification agricole, croissance économique) peuvent aussi leur nuire. Une telle théorie doit également prendre en compte des éléments d’explication non strictement économiques et souvent négligés (menaces à la sécurité nationale, épuisement des terres perçues comme arables et libres, degré d’attachement aux terres et capacité d’adaptation et résilience des systèmes agricoles). Finalement, les écrits sur la transition forestière doivent reconnaître qu’elle a généralement impliqué des impacts sociaux et même environnementaux négatifs. Une lecture de la transition forestière plus nuancée et moins marquée par l’obsession de la seule reforestation est seule garante d’une saine gestion de l’environnement en respect avec les droits humains, la justice sociale et le développement durable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le domaine de la gestion durable des ressources naturelles, l’approche participative est apparue depuis une vingtaine d’années comme une voie alternative de gestion entre l’Etat et le marché. L’efficacité de cette approche dépend cependant de l’implication de toutes les parties prenantes, notamment des populations locales. Quels sont les déterminants de cette implication ? Quelles en sont les modalités ? L’analyse des systèmes de production agrosylvicoles en Côte d’Ivoire a permis de mettre en évidence l’importance des variables de capabilités, comme le revenu et le capital social. La perspective de soutenabilité sociale implique une contextualisation qui permet de prendre en compte les effets de seuil susceptibles de caractériser un processus de résilience ou non. Les variables de capabilités peuvent dès lors servir de leviers d’implication des populations locales dans la mise en oeuvre des projets forestiers participatifs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les forêts occidentales sont aujourd’hui de plus en plus prisées pour la pratique d’activités récréatives en milieu naturel. Dès lors, la mise en place d’une gestion intégrée des forêts est plus que jamais indispensable au maintien des conditions nécessaires à la pratique de l’ensemble des activités sur le territoire. Le Québec s’est doté d’une nouvelle législation pour répondre aux nombreux enjeux qui touchent le milieu forestier, notamment en ce qui a trait à l’harmonisation entre les activités récréatives et la production ligneuse. Dans le cadre de cette recherche, nous nous sommes intéressés au concept d’expérience du visiteur comme moyen de faciliter cette harmonisation. Il s’agissait à la fois de caractériser l’expérience de visite des utilisateurs d’un parc régional et de se questionner sur son opérationnalisation dans l’aménagement forestier. Deux méthodes qualitatives complémentaires ont été utilisées : d’une part, l’analyse de récits inscrits dans des livres d’or placés dans différents hébergements et d’autre part, des entrevues ont été conduites auprès de visiteurs rencontrés sur le site. Les résultats révèlent la pertinence de considérer l’expérience du visiteur pour favoriser une utilisation plurielle et harmonieuse du territoire forestier. Son étude permet une compréhension fine des composantes communes et spécifiques des expériences, en fonction des visiteurs. Par ailleurs, l’étude témoigne de la possibilité de mettre en relation des typologies d’expériences recherchées et les modalités d’harmonisation. Enfin, au-delà de l’expérience, le suivi de la perception de la foresterie et des représentations peut également s’avérer pertinent pour les gestionnaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Consacré à la tétralogie Le Sang des promesses — composée des pièces Littoral, Incendies, Forêts et Ciels — de Wajdi Mouawad, le présent mémoire s’appuie sur un retour remarqué de la catharsis dans les discours sur le théâtre contemporain pour questionner la capacité du théâtre à développer une pensée du vivre-ensemble. Il est divisé en trois chapitres : le premier porte sur la place du genre de la tragédie et du concept du tragique dans la tétralogie ainsi que la réappropriation par Mouawad de certaines figures de la mythologie grecque ; le second s’intéresse au devenir contemporain de la catharsis, à son articulation autour des émotions de peur et compassion et à l’importance de la parole-action au sein de l’œuvre. Enfin, le troisième chapitre cherche à définir les rapports entre le cathartique et le concept de « solidarité des ébranlés » théorisé par Jan Patočka avant d’analyser la réception critique des pièces pour y trouver des exemples concrets de l’effet cathartique propre au théâtre de Mouawad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La situation de la forêt tropicale dans les pays en développement en général, et en République Démocratique du Congo (RDC) en particulier, est inquiétante. Les émissions de dioxyde de carbone dues au déboisement sont de l’ordre de 1,6 GtCO2e/an, soit 17% des émissions mondiales de « gaz à effet de serre ». Sous l’égide de la Convention-cadre des Nations Unies sur les changements climatiques, le REDD+ a été institué pour lutter contre cette déforestation et la dégradation des forêts. Cette étude examine les différentes opportunités qu’offre ce programme pour l’aménagement écosystémique du couvert forestier de la RDC et les obstacles contextuels à sa mise en oeuvre. Pour la RDC, le REDD+ présente un certain nombre d’opportunités : réduction des émissions liées au déboisement et à la dégradation des forêts; amorce des travaux d’afforestation et de reforestation par une gestion durable des ressources conduisant à la création des emplois et favorisant la croissance des PIB et des exports; accroissement du rendement et maintien d’une plus grande couverture des besoins alimentaires. Le REDD+ peut favoriser la croissance du Produit intérieur brut agricole. Il peut contribuer à l’électrification des ménages et réduire de moitié les dépenses des ménages dépendant de l’exploitation minière et des hydrocarbures et, ainsi, générer des milliers d’emplois en infrastructures. Pour les populations locales et autochtones, il peut contribuer aussi à protéger et à valoriser les cultures liées à la forêt. Mais, face aux pesanteurs d’ordre juridique, politique, social, économique, technologique et culturel caractéristiques de ce pays, ces opportunités risquent d’être amenuisées, sinon annihilées. Étant donné que l’essentiel du déploiement du dispositif du REDD+ se réalisera dans les zones rurales congolaises, l’obstacle majeur reste le droit coutumier. La solution serait d’harmoniser les exigences et finalités du REDD+ non seulement avec le Code forestier de 2002 et ses mesures d’exécution mais aussi avec le droit coutumier auquel les communautés locales et autochtones s’identifient.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au début du XVe siècle, les forêts domaniales devinrent un enjeu majeur dans les affaires du royaume de France. Gérées par l’administration des Eaux et Forêts, elles furent sur ordre du roi l’objet d’une surveillance particulière. L’étude du Coutumier d’Hector de Chartres, un registre du XVe siècle consignant les droits d’usage de centaines d’usagers des forêts du domaine normand de Charles VI, révèle la place que ces dernières occupaient dans la société en France dans les derniers siècles du Moyen Âge. D’une part, le Coutumier démontre qu’elles étaient non seulement importantes dans l’économie de la province mais qu’elles jouaient aussi un rôle essentiel dans la vie autant à la campagne que dans les villes. D’autre part, avec l’analyse des ordonnances forestières du XIVe siècle et du début du XVe siècle, il illustre comment elles furent d’une importance capitale pour le roi puisque ce dernier y prenait le bois nécessaire à la construction de sa marine et à l’entretien de ses forteresses normandes et qu’il en tirait d’importants revenus dans un contexte d’hostilités avec l’Angleterre. Ainsi, une relation de réciprocité bénéfique pour le roi et les usagers s’installa à travers un complexe système d’usages et de redevances. En cherchant à protéger ces bénéfices, les rois de France tentèrent de gérer adéquatement leurs forêts, établissant ainsi les jalons d’une foresterie durable tournée vers la préservation des ressources sylvicoles et se posant en gardiens du bien commun.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'urbanisation représente une menace majeure pour la biodiversité. Ce mémoire de maîtrise vise à comprendre ses effets sur la composition fonctionnelle et l'homogénéisation biotique dans les forêts riveraines. Des inventaires floristiques ont été réalisés dans 57 forêts riveraines de la région de Montréal. Afin d'étudier la variation de la composition fonctionnelle avec l'urbanisation, des moyennes pondérées de traits par communauté ont été calculées pour les arbres, arbustes et herbacées. Chaque forêt a été caractérisée par des variables relatives au paysage urbain environnant, aux conditions locales des forêts et aux processus spatiaux. Les conditions locales, notamment les inondations, exerçaient une pression de sélection dominante sur les traits. L'effet du paysage était indirect, agissant via l'altération des régimes hydrologiques. La dispersion le long des rivières était aussi un processus important dans la structuration des forêts riveraines. Les changements dans la diversité β taxonomique et fonctionnelle des herbacées ont été étudiés entre trois niveaux d'urbanisation et d'inondation. Alors que l'urbanisation a favorisé une différenciation taxonomique, les inondations ont favorisé une homogénéisation taxonomique, sans influencer la diversité β fonctionnelle. L'urbanisation était l'élément déclencheur des changements de la diversité β, directement, en causant un gain en espèces exotiques et une diminution de la richesse totale dans les forêts très urbanisées, et, indirectement, en entraînant un important turnover d'espèces par l'altération des régimes hydrologiques. Globalement, ces résultats suggèrent que la modification des processus naturels par les activités anthropiques est le principal moteur de changements dans les communautés riveraines urbaines.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est reconnu, depuis une centaine d’années, que des désordres de la coagulation, regroupés sous le terme de coagulopathies, sont souvent associés au développement néoplasique. Pendant de nombreuses années, ces coagulopathies furent souvent reconnues comme une simple conséquence du développement du cancer. D’ailleurs, pour les cliniciens, l’apparition de ces anomalies sanguines constitue souvent le premier signe clinique d’un cancer occulte. Toutefois, l’étude approfondie du lien existant entre le système hémostatique et le cancer indique que différents facteurs hémostatiques vont interagir avec soit l’environnement tumoral ou soit la tumeur elle-même et influencer le développement du cancer. Au cours de nos travaux, nous avons porté une attention particulière à deux protéines jouant un rôle primordial dans l’hémostase. Le facteur tissulaire (TF) et l’inhibiteur du facteur tissulaire (TFPI) peuvent jouer des rôles pro- ou anti-néoplasique, et ce indépendamment de leurs fonctions hémostatiques normales. Dans le premier volet de cette thèse, nous avons étudié les propriétés antiangiogéniques de TFPI. L’angiogenèse, soit la formation de nouveaux vaisseaux sanguins à partir du réseau pré-existant, est reconnue comme étant une étape clée du développement tumoral. D’après nos travaux, le TFPI peut inhiber la formation de structures de type capillaire des cellules endothéliales (CEs) de la veine ombilicale humaine (HUVEC), et ce à une IC 50 de 5 nM, soit la concentration physiologique de l’inhibiteur. De plus, le TFPI bloque la migration des cellules endothéliales lorsque ces dernières sont stimulées par la sphingosine-1-phosphate (S1P), une molécule relâchée lors de l’activation des plaquettes sanguines. Cette inhibition de la migration cellulaire s’explique par l’effet du TFPI sur l’adhésion des CEs. En effet, TFPI inhibe la phosphorylation de deux protéines clées participant à la formation des complexes d’adhésion focales soit FAK (focal adhesion kinase) et PAX (paxilin). L’inhibition de ces deux protéines suggère qu’il y ait une réorganisation des complexes focaux, pouvant expliquer la perte d’adhérence. Finalement, des études de microscopie confocale démontrent que les cellules traitées au TFPI changent de morphologie au niveau du cytosquelette d’actine provoquant une désorganisation des structures migratoires (pseudopodes). Les effets du TFPI au niveau de la migration, de l’adhésion et de la morphologie cellulaire sont strictement spécifiques aux cellules endothéliales humaines, puisque aucun n’effet n’est observé en traitant des cellules cancéreuses de glioblastomes (GB) humains, qui sont normalement des tumeurs hautement vascularisées. En résumé, cette première étude démontre que le TFPI est un inhibiteur de l’angiogenèse. Dans le second volet de cette thèse, nous nous sommes intéressés aux différents rôles de TF, le principal activateur de la coagulation. Cette protéine est également impliquée dans le développement néoplasique et notamment celui des médulloblastomes (MB) chez l’enfant via des fonctions hémostatiques et non-hémostatiques. Nos travaux démontrent que l’expression de TF est induite par la voie de signalisation de HGF (hepatocyte growth factor) et de son récepteur Met. Cet effet de HGF/Met semble spécifique aux MB puisque HGF ne peut stimuler l’expression de TF au niveau des cellules cancéreuses de glioblastomes. TF, exprimé à la surface des cellules médulloblastiques (DAOY), est responsable de l’activité pro-thrombogénique de ces cellules, ainsi qu’un acteur important de la migration de ces cellules en réponse au facteur VIIa (FVIIa). De plus, en étudiant 18 spécimens cliniques de MB, nous avons établi un lien entre l’intensité d’expression de TF et de Met. L’importance de cette corrélation est également suggérée par l’observation que les cellules exprimant les plus forts taux de TF et de Met sont également les plus agressives en termes d’index de prolifération et de dissémination métastatiques. En résumé, ces travaux représentent le point de départ pour la mise au point de TF comme un marqueur diagnostique clinique dans les cas de tumeurs du cerveau pédiatriques. De plus, l’élucidation de la voie de signalisation moléculaire responsable de l’expression de TF permet de mieux comprendre la biologie et le fonctionnement de ces tumeurs et de relier le profil d’expression de TF aux phénotypes agressifs de la maladie. Il est reconnu que HGF peut également jouer un rôle protecteur contre l’apoptose. Dans le troisième volet de cette thèse, nous avons remarqué que cette protection est corrélée à l’expression de TF. En réduisant à néant l’expression de TF à l’aide de la technologie des ARN silencieux (siRNA), nous démontrons que HGF ne protège plus les cellules contre l’apoptose. Donc, TF médie l’activité anti-apoptotique de HGF. TF assume cette protection en inactivant la phosphorylation de p53 sur la sérine 15, empêchant ainsi la translocation de p53 au noyau. Finalement, l’expression de TF et son interaction avec le FVIIa, au niveau des cellules médulloblastiques favorise la survie de ces dernières et ce même si elles sont soumises à de fortes concentrations de médicaments couramment utilisées en cliniques. Ce troisième et dernier volet démontre l’implication de TF en tant que facteur impliqué dans la survie des cellules cancéreuses, favorisant ainsi le développement de la tumeur. Dans son ensemble, cette thèse vise à démontrer que les facteurs impliqués normalement dans des fonctions hémostatiques (TFPI et TF) peuvent contribuer à réguler le développement tumoral. Tout système physiologique et pathologique est dépendant d’un équilibre entre activateur et inhibiteur et la participation de TF et de TFPI à la régulation du développement néoplasique illustre bien cette balance délicate. Par sa contribution anti- ou pro-néoplasique le système hémostatique constitue beaucoup plus qu’une simple conséquence du cancer; il fait partie par l’action de TF des stratégies élaborées par les cellules cancéreuses pour assurer leur croissance, leur déplacement et leur survie, alors que TFPI tente de limiter la croissance tumorale en diminuant la vascularisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente l’étude de cas de la ville de St George, ancienne capitale du protectorat britannique des Bermudes. Sa situation géographique particulière et la présence d’un ensemble architectural colonial britannique et d’ouvrages militaires lui ont récemment valu le titre de Site du patrimoine mondial de l’UNESCO, ce qui constitue une reconnaissance de la valeur exceptionnelle universelle de cet ensemble urbain. Cette inscription survient au moment où les autorités locales souhaitaient diversifier l’économie de l’archipel en misant davantage sur le tourisme culturel et patrimonial. L’hypothèse centrale de ce mémoire est que la ville St George se révèle, au sens où l’entendent G.J. Ashworth et J.E. Tunbridge dans leur ouvrage The tourist-historic city, un « joyau du patrimoine », ce dernier étant défini comme une petite collectivité territoriale recelant des ressources historiques exceptionnelles qui en définissent de manière notable la morphologie urbaine et l’identité paysagère et orientent les politiques municipales. La recherche, suite à la présentation d’un cadre théorique sur le patrimoine mondial et le tourisme patrimonial, a par ailleurs permis de montrer que le concept de « cité historico-touristique » développé par les mêmes auteurs s’applique aux Bermudes à la condition qu’un transfert d’échelle soit opéré. En effet, nous ne sommes pas en présence d’un espace touristique constitué de deux secteurs d’une même ville qui contribuent, chacun à sa façon, à la définition de l’attractivité touristique, mais plutôt de deux petites villes voisines – St-George et Hamilton, la capitale – qui constituent le substrat d’une cité historico-touristique éclatée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré les problèmes que pose la délinquance juvénile au Sénégal, les réponses des décideurs semblent inefficaces, surtout pour les filles déviantes. Ainsi, l’objectif de notre étude est de déterminer les caractéristiques familiales, scolaires et des amis des adolescentes judiciarisées à Dakar en les comparant à celles de Montréal. Les enquêtes se sont déroulées à Dakar sur trente adolescentes interrogées avec un instrument adapté du MASPAQ. Les similitudes entre les échantillons concernent l’âge moyen et le statut judiciaire quasi-identiques, le milieu socio-économique défavorisé et la structure familiale en majorité monoparentale matricentrique. Les autres résultats concernent surtout les liens sociaux plus forts chez les dakaroises alors que l’activité marginale est plus importante chez les montréalaises. Les liens sociaux des dakaroises constitueraient une protection contre la déviance. Le contexte culturel également, en favorisant un contrôle social, pousserait à développer plus de contraintes internes, autre protection contre la déviance. Des perspectives sont envisagées notamment utiliser l’instrument avec des garçons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude était d’obtenir une meilleure compréhension du concept de force mentale appliqué dans un contexte sportif. Pour se faire, des entrevues ont été réalisées avec dix athlètes québécois francophones de niveau universitaire. L’analyse des données s’est effectuée en suivant les principes de la version abrégée de la théorisation ancrée. Les résultats appuient globalement la littérature scientifique. En somme, la force mentale serait composée de caractéristiques de base interreliées, telles que la motivation internalisée, la confiance en soi, la maturité et la détermination. La force mentale serait sollicitée non seulement lorsque l’athlète fait face à des situations difficiles comme l’adversité, mais également lorsque le contexte dans lequel il évolue est exempt de complications (à l’entraînement ou lors de victoire). Les résultats des entrevues indiquent que face à ces deux types de situation, les athlètes forts mentalement possèderaient un mode réactionnel tridimensionnel (dimension cognitive, affective et comportementale) se caractérisant par la gestion et le contrôle de l’attention, l’interprétation optimiste des situations, le contrôle de l’activation et du langage corporel, la gestion des émotions et la résilience. Contrairement à la littérature, les résultats suggèrent que la force mentale ne serait pas nécessairement liée aux athlètes performants au plus haut niveau de leur sport, mais à la capacité des athlètes à donner de bonnes performances en fonction de leur potentiel individuel. Cette étude constitue le premier pas vers le développement d’un instrument de mesure permettant d’évaluer le niveau de force mentale chez les athlètes francophones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.