213 resultados para problème des deux échantillons


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les milieux humides sont parmi les écosystèmes les plus menacés de la planète que ce soit par le drainage, l’exploitation des ressources naturelles ou les changements climatiques. Dans une optique de conservation, il est primordial de comprendre la part des facteurs autogènes et allogènes dans la dynamique temporelle de ces écosystèmes. Dans ce contexte, les objectifs de cette étude étaient de : 1) reconstituer la dynamique des communautés végétales de deux secteurs ombrotrophes du complexe de milieux humides des Tourbières-de-Lanoraie au cours des trois derniers millénaires et 2) déterminer l’impact des activités humaines depuis les 500 dernières années sur cette dynamique. Pour ce faire, une approche paléoécologique pluridisciplinaire a été utilisée. La dynamique végétale a été semblable dans les deux secteurs étudiés. Elle a d’abord été caractérisée par une ombrotrophication des systèmes tourbeux puis par une transformation graduelle d’une tourbière ombrotrophe ouverte, dominées par les sphaignes et les éricacées, vers des tourbières ombrotrophes forestières. L’ombrotrophication se serait amorcée peu avant le Petit-Âge glaciaire (1570-1850 AD), période associée à des conditions plus fraiches et plus sèches. Le développement de la phase forestière serait beaucoup plus récent (début 1900) et semble être associé à une période d’intensification de l’empreinte anthropique dans le paysage, notamment du drainage. Ce travail montre que les perturbations anthropiques constituent depuis le début du XXème siècle le moteur principal de la dynamique de la végétation des deux secteurs étudiés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est organisée en trois chapitres. Les deux premiers s'intéressent à l'évaluation, par des méthodes d'estimations, de l'effet causal ou de l'effet d'un traitement, dans un environnement riche en données. Le dernier chapitre se rapporte à l'économie de l'éducation. Plus précisément dans ce chapitre j'évalue l'effet de la spécialisation au secondaire sur le choix de filière à l'université et la performance. Dans le premier chapitre, j'étudie l'estimation efficace d'un paramètre de dimension finie dans un modèle linéaire où le nombre d'instruments peut être très grand ou infini. L'utilisation d'un grand nombre de conditions de moments améliore l'efficacité asymptotique des estimateurs par variables instrumentales, mais accroit le biais. Je propose une version régularisée de l'estimateur LIML basée sur trois méthodes de régularisations différentes, Tikhonov, Landweber Fridman, et composantes principales, qui réduisent le biais. Le deuxième chapitre étend les travaux précédents, en permettant la présence d'un grand nombre d'instruments faibles. Le problème des instruments faibles est la consequence d'un très faible paramètre de concentration. Afin d'augmenter la taille du paramètre de concentration, je propose d'augmenter le nombre d'instruments. Je montre par la suite que les estimateurs 2SLS et LIML régularisés sont convergents et asymptotiquement normaux. Le troisième chapitre de cette thèse analyse l'effet de la spécialisation au secondaire sur le choix de filière à l'université. En utilisant des données américaines, j'évalue la relation entre la performance à l'université et les différents types de cours suivis pendant les études secondaires. Les résultats suggèrent que les étudiants choisissent les filières dans lesquelles ils ont acquis plus de compétences au secondaire. Cependant, on a une relation en U entre la diversification et la performance à l'université, suggérant une tension entre la spécialisation et la diversification. Le compromis sous-jacent est évalué par l'estimation d'un modèle structurel de l'acquisition du capital humain au secondaire et de choix de filière. Des analyses contrefactuelles impliquent qu'un cours de plus en matière quantitative augmente les inscriptions dans les filières scientifiques et technologiques de 4 points de pourcentage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le traitement de l’épilepsie chez le jeune enfant représente un enjeu majeur pour le développement de ce dernier. Chez la grande majorité des enfants atteints de spasmes infantiles et chez plusieurs atteints de crises partielles complexes réfractaires, le vigabatrin (VGB) représente un traitement incontournable. Cette médication, ayant démontré un haut taux d’efficacité chez cette population, semble toutefois mener à une atteinte du champ visuel périphérique souvent asymptomatique. L’évaluation clinique des champs visuels avec la périmétrie chez les patients de moins de neuf ans d’âge développemental est toutefois très difficile, voire impossible. Les études électrophysiologiques classiques menées auprès de la population épileptique pédiatrique suggèrent l’atteinte des structures liées aux cônes de la rétine. Les protocoles standards ne sont toutefois pas spécifiques aux champs visuels et les déficits soulignés ne concordent pas avec l’atteinte périphérique observée. Cette thèse vise donc à élaborer une tâche adaptée à l’évaluation des champs visuels chez les enfants en utilisant un protocole objectif, rapide et spécifique aux champs visuels à partir des potentiels évoqués visuels (PEVs) et à évaluer, à l’aide de cette méthode, les effets neurotoxiques à long terme du VGB chez des enfants épileptiques exposés en bas âge. La validation de la méthode est présentée dans le premier article. La stimulation est constituée de deux cercles concentriques faits de damiers à renversement de phase alternant à différentes fréquences temporelles. La passation de la tâche chez l’adulte permet de constater qu’une seule électrode corticale (Oz) est nécessaire à l’enregistrement simultané des réponses du champ visuel central et périphérique et qu’il est possible de recueillir les réponses électrophysiologiques très rapidement grâces l’utilisation de l’état-stationnaire (steady-state). La comparaison des données d’enfants et d’adultes normaux permet de constater que les réponses recueillies au sein des deux régions visuelles ne dépendent ni de l’âge ni du sexe. Les réponses centrales sont aussi corrélées à l’acuité visuelle. De plus, la validité de cette méthode est corroborée auprès d’adolescents ayant reçu un diagnostic clinique d’un déficit visuel central ou périphérique. En somme, la méthode validée permet d’évaluer adéquatement les champs visuels corticaux central et périphérique simultanément et rapidement, tant chez les adultes que chez les enfants. Le second article de cette thèse porte sur l’évaluation des champs visuels, grâce à la méthode préalablement validée, d’enfants épileptiques exposés au VGB en jeune âge en comparaison avec des enfants épileptiques exposés à d’autres antiépileptiques et à des enfants neurologiquement sains. La méthode a été bonifiée grâce à la variation du contraste et à l’enregistrement simultané de la réponse rétinienne. On trouve que la réponse corticale centrale est diminuée à haut et à moyen contrastes chez les enfants exposés au VGB et à haut contraste chez les enfants exposés à d’autres antiépileptiques. Le gain de contraste est altéré au sein des deux groupes d’enfants épileptiques. Par contre, l’absence de différences entre les deux groupes neurologiquement atteints ne permet pas de faire la distinction entre l’effet de la médication et celui de la maladie. De plus, la réponse rétinienne périphérique est atteinte chez les enfants épileptiques exposés au Sabril® en comparaison avec les enfants neurologiquement sains. La réponse rétinienne périphérique semble liée à la durée d’exposition à la médication. Ces résultats corroborent ceux rapportés dans la littérature. En somme, les résultats de cette thèse offrent une méthode complémentaire, rapide, fiable, objective à celles connues pour l’évaluation des champs visuels chez les enfants. Ils apportent aussi un éclairage nouveau sur les impacts à long terme possibles chez les enfants exposés au VGB dans la petite enfance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec la participation de 38 Montréalais d'origine congolaise, dont 21 femmes et 17 hommes

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’entre-deux-guerres représente une période charnière dans l’évolution de la pensée économique au Canada. Le contexte économique et social des années 1920-1940 est des plus favorables au foisonnement de nouvelles idées et de nouvelles approches. Face à la crise et à l’urgence d’en sortir, les économistes, les intellectuels et les milieux politiques commencent à se questionner sérieusement sur les dysfonctions du capitalisme et de l’économie de marché. Pénétrée par des courants émergents, dont le keynésianisme et le corporatisme, et en parallèle avec une discipline économique en pleine formation, la pensée économique évolue considérablement durant ces années alors que les économistes s’interrogent sur les orientations des politiques gouvernementales. L’étude des deux grandes revues d’économie-politique, L’Actualité économique et le Canadian Journal of Economics and Political Sciences, ainsi que l’analyse des travaux des principaux économistes de l’époque, incarnés par Harold A. Innis, W. A. Mackintosh, Esdras Minville et Édouard Montpetit, révèlent les nouvelles orientations face aux problèmes qui confronte le Canada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Jeu, un phénomène difficile à définir, se manifeste en littérature de différentes manières. Le présent travail en considère deux : l’écriture à contrainte, telle que la pratique l’Oulipo, et l’écriture de l’imaginaire, en particulier les romans de Fantasy française. La première partie de cette étude présente donc, sous forme d’essai, les origines et les visées des deux groupes d’écrivains, mettant en lumière les similitudes pouvant être établies entre eux malgré leurs apparentes différences. Tandis que l’Oulipo cherche des contraintes capables de générer un nombre infini de textes et explore la langue par ce moyen, la Fantasy se veut créatrice de mondes imaginaires en puisant généralement à la source de Tolkien et des jeux de rôle. Il en résulte que le jeu, dans les deux cas, se révèle un puissant moteur de création, que le récit appelle un lecteur-explorateur et qu’il crée une infinité de mondes possibles. Malgré tout, des divergences demeurent quant à leurs critiques, leurs rapports avec le jeu et les domaines extralittéraires, et leurs visées. Considérant ce fait, je propose de combiner les deux styles d’écriture en me servant du cycle des Hortense de Jacques Roubaud (structuré au moyen de la sextine) et des Chroniques des Crépusculaires de Mathieu Gaborit (figure de proue en fantasy « pure »). Ce projet a pour but de combler le fossé restant encore entre les deux groupes. Ainsi, la seconde partie de mon travail constitue une première tentative de réunion des deux techniques d’écriture (à contrainte et de l’imaginaire). Six héros (trois aventuriers et trois mercenaires) partent à la recherche d’un objet magique dérobé à la Reine du Désert et capable de bouleverser l’ordre du monde. Le récit, divisé en six chapitres, rapporte les aventures de ce groupe jusqu’à leur rencontre avec l’ennemi juré de la Reine, un puissant sorcier elfe noir. Chaque chapitre comporte six sections plus petites où sont permutés – selon le mouvement de la sextine – six éléments caractéristiques des jeux de rôles : 1-Une description du MJ (Maître du Jeu) ; 2-Un combat ; 3-Une énigme à résoudre ou un piège à désarmer ; 4-Une discussion entre les joueurs à propos de leurs avatars ; 5-L’acquisition d’un nouvel objet ; 6-Une interaction avec un PNJ (Personnage Non Joueur). Tout au long du texte, des références aux Chroniques des Crépusculaires de Mathieu Gaborit apparaissent, suivant également un ordre sextinien. D’autres allusions, à Tolkien, Queneau, Perec ou Roubaud, agrémentent le roman.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce travail, j’étudierai principalement un modèle abélien de Higgs en 2+1 dimensions, dans lequel un champ scalaire interagit avec un champ de jauge. Des défauts topologiques, nommés vortex, sont créés lorsque le potentiel possède un minimum brisant spontanément la symétrie U(1). En 3+1 dimensions, ces vortex deviennent des défauts à une dimension. Ils ap- paraissent par exemple en matière condensée dans les supraconducteurs de type II comme des lignes de flux magnétique. J’analyserai comment l’énergie des solutions statiques dépend des paramètres du modèle et en particulier du nombre d’enroulement du vortex. Pour le choix habituel de potentiel (un poly- nôme quartique dit « BPS »), la relation entre les masses des deux champs mène à deux types de comportements : type I si la masse du champ de jauge est plus grande que celle du champ sca- laire et type II inversement. Selon le cas, la dépendance de l’énergie au nombre d’enroulement, n, indiquera si les vortex auront tendance à s’attirer ou à se repousser, respectivement. Lorsque le flux emprisonné est grand, les vortex présentent un profil où la paroi est mince, permettant certaines simplifications dans l’analyse. Le potentiel, un polynôme d’ordre six (« non-BPS »), est choisi tel que le centre du vortex se trouve dans le vrai vide (minimum absolu du potentiel) alors qu’à l’infini le champ scalaire se retrouve dans le faux vide (minimum relatif du potentiel). Le taux de désintégration a déjà été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste d’abord à établir l’existence de vortex classi- quement stables de façon numérique. Puis, ma contribution fut une analyse des paramètres du modèle révélant le comportement énergétique de ceux-ci en fonction du nombre d’enroulement. Ce comportement s’avèrera être différent du cas « BPS » : le ratio des masses ne réussit pas à décrire le comportement observé numériquement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Différents dessins d’implants de prothèse totale de genou (PTG) sont utilisés en pratique clinique et chacun présente des caractéristiques biomécaniques spécifiques. Aucun implant n’a réussi à ce jour à reproduire parfaitement la biomécanique du genou naturel. Les objectifs de cette étude sont de comparer les résultats cliniques et biomécaniques tridimensionnels (3D) de deux types de PTG chez le même patient, puis de comparer la cinématique des PTG à celle d’un groupe de genoux asymptomatiques. Une cohorte de quinze patients avec un implant traditionnel dans un genou et un implant de nouvelle génération permettant un pivot dans le genou contralatéral a été étudiée. Le groupe contrôle était composé de trente-cinq genoux asymptomatiques. L’analyse de la cinématique 3D a été réalisée avec l’outil KneeKG (Emovi Inc. Canada) lors de la marche sur tapis roulant. L’évaluation clinique comprenait l’amplitude de mouvement ainsi que les questionnaires de perception articulaire, KOOS, Womac et SF-12. La comparaison de la cinématique des deux types de PTG a démontré quelques différences statistiquement significatives dans les plans sagittal et frontal alors que la comparaison des PTG et des genoux asymptomatiques a révélé plusieurs différences significatives dans les trois plans. Les scores cliniques des deux PTG ne comportaient pas de différence significative. Dans notre cohorte de patients, le design de l’implant a eu peu d’influence sur les résultats biomécaniques et cliniques. Les PTG n’ont pas reproduit une cinématique normale de genou. Beaucoup de travail et de recherche dans le développement de nouveaux implants sont encore nécessaires afin d’améliorer les résultats cliniques et de mieux reproduire la cinématique du genou naturel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire s’intéresse à la formation des partis politiques et l’origine de la loyauté partisane à la Chambre d’assemblée du Bas-Canada entre 1791 et 1840. Pour ce faire, le présent mémoire fait une analyse systématique de tous les votes tenus en Chambre grâce à l’indice de loyauté et à la méthode de la Classification optimale (Optimal Classification) développée par Poole (2005). Il soutient la thèse selon laquelle l’ethnicité est la principale source de division entre les députés lors des votes tenus à la Chambre d’assemblée du Bas-Canada lors des premières législatures et que c’est plutôt l’opposition entre les réformistes constitutionnels et les conservateurs favorables à l’ancien régime qui explique les divisions entre les députés lors des deux dernières législatures. Il soutient également que le statut social des députés, le type de comté dans lequel ils sont élus, l’occupation civile des députés ou leur expérience parlementaire n’expliquent pas l’opposition entre les députés lors des votes au Parlement. Ce mémoire émet également l’hypothèse selon laquelle les partis politiques ont peu d’impact sur le comportement législatif de leurs membres : les députés sont libres de voter selon leurs préférences individuelles sans véritable discipline partisane.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Plusieurs études ont montré que les maladies cardiovasculaires constituent un risque majeur de développement du trouble dépressif chez l’homme. Plus précisément, à la suite d’un infarctus du myocarde, 15 à 30 % des patients développent une dépression majeure dans les 6 à 8 mois suivant l’évènement cardiaque. Dans un modèle d’infarctus du myocarde chez le rat, développé dans notre laboratoire, nous avons noté la présence de comportements compatibles avec une dépression, deux semaines après l’infarctus. Nous avons également détecté des cellules apoptotiques dans le système limbique dès les premières minutes de reperfusion, nombre qui atteint son apogée à 3 jours de reperfusion. Nous avions émis l’hypothèse que l’apoptose que l’on observe dans le système limbique serait reliée à la réponse inflammatoire induite par l’infarctus du myocarde. Les comportements reliés à de la dépression ont été prévenus par l’administration d’un inhibiteur de la synthèse des cytokines pro-inflammatoires, la pentoxifylline, le célécoxib, un inhibiteur de la cyclooxygenase-2, par des probiotiques ainsi que par différents antidépresseurs. Les résultats des deux premières études de cette thèse montrent que la desvenlafaxine, un Inhibiteur de la recapture de la sérotonine et noradrénaline (IRSN) prévient les comportements dépressifs tout en diminuant l’apoptose à 3 jours post-infarctus dans le système limbique. Les comportements similaires à ceux d’une dépression que présentent les rats deux semaines après l’évènement cardiaque sont encore présents à 4 mois post-infarctus, si aucun traitement n’est entrepris. De plus, ces animaux développent des troubles d’apprentissage que la desvenlafaxine peut prévenir, et ceci même si le traitement n’est présent que pendant les 2 premières semaines post-infarctus. Dans la troisième étude de cette thèse, nous avons voulu savoir si le nerf vague était impliqué dans les effets bénéfiques de deux probiotiques sur l’apoptose dans le système limbique après un infarctus du myocarde. Nos résultats ont démontré que les probiotiques réduisent l’apoptose dans le système limbique après un infarctus du myocarde, mais que cet effet est perdu en présence d’une vagotomie. Les résultats obtenus démontrent que l’infarctus du myocarde induit une mort par apoptose dans le système limbique de même que des comportements dépressifs et des problèmes d’apprentissage à long terme. Ces problèmes peuvent être diminués par un traitement à la desvenlafaxine, et ceci même si le traitement n’est présent que pour les deux premières semaines post-infarctus. Finalement, nous avons observé que les probiotiques avaient des effets bénéfiques sur l’apoptose dans le système limbique par un mécanisme impliquant le nerf vague. En conclusion, plusieurs interventions différentes sont efficaces pour limiter les conséquences de l’infarctus du myocarde sur le système limbique et un traitement court est efficace pour prévenir les problèmes à plus long terme.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude a pour but de présenter le dialogue entre les juges de la Cour européenne des droits de l’homme (CEDH) et de la Cour interaméricaine des droits de l’homme (CIADH), deux Cours régionales supranationales, visant toutes deux à garantir le respect des droits fondamentaux. Le dialogue est étudié à travers l’analyse du contentieux portant sur l’intégrité de la personne humaine et sur la protection des droits économiques et sociaux. Ce sujet se rattache au contexte de mondialisation qui vient transformer les relations de pouvoir et révèle l’émancipation des juges dans la régulation transgouvernementale. Le présent mémoire conclut que le dialogue vise à établir une cohérence entre les systèmes afin de faire prévaloir une vision commune des droits de l’homme à travers la constitution d’un espace euro-américain, tel un réseau d’échange informel. Néanmoins, le dialogue est limité par certains facteurs contextuels liés aux réalités contrastées des deux systèmes régionaux ainsi que par la volonté des acteurs étatiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

À l’aide des données du recensement canadien de 2006, ce mémoire examine les assortiments éducationnels des couples exogames immigrants-natifs à titre d’indicateur de stratification sociale. Premièrement, les résultats tirés de régressions logistiques multinomiales confirment la présence d’échange (social status exchange : Merton 1941; Davis 1941) entre les natifs et les immigrants, c’est-à-dire qu’un immigrant est davantage susceptible de s’unir avec un natif s’il est plus scolarisé que ce dernier. Ces résultats supportent l’existence d’une stratification sociale entre les immigrants et les natifs. Deuxièmement, l’analyse révèle que l’échange apparait chez les immigrants des deux sexes ayant au moins un baccalauréat, alors que chez les moins scolarisés l’échange ne ressort que chez les hommes. Troisièmement, chez les immigrants de minorité visible, l’échange perdure de la première à la deuxième génération d’immigrant, alors que parmi ceux n’appartenant pas à une minorité visible, l’échange ne concerne que les immigrants de première génération.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’adoption de la Charte des Nations unies à San Francisco le 26 juin 1945 et son entrée en vigueur le 24 octobre de la même année a matérialisé la volonté des Vainqueurs d'éviter une troisième catastrophe à l'humanité. Cet accord a eu la bénédiction des super puissances et scellé la naissance d'une Organisation à vocation universelle qu'est l'ONU, susceptible de faire asseoir des instruments nécessaires pour pallier aux manquements de la défunte SDN. Aussi, cette naissance est perçue comme le parachèvement de l'évolution du droit international, ayant édifié, non seulement une structure plus solide, mais aussi capable d'encadrer l'usage de la force par les États. Par ailleurs, cet encadrement est confié au Conseil de sécurité, son organe le plus puissant dans la mesure où il est le seul compétent pour constater la violation par un État de ses obligations en matière de respect de la paix et de la sécurité internationales. Cependant, les critiques sont de plus en plus nombreuses à son égard. En effet, dans son ossature actuelle, il paraît obsolète, car n'est pas en phase avec les réalités géopolitiques et économiques du moment. Depuis plusieurs décennies, des propositions de réforme ont été suggérées sans pourtant parvenir à un consensus au niveau des États membres, plus spécifiquement des membres permanents du Conseil. Ce mémoire vise premièrement à effectuer une analyse des différentes propositions puis deuxièmement à présenter une formule de « sortie de crise ». Des deux types de propositions que nous avons identifiés (Groupes de travail vs Groupes d'États), à l'exception de l'équipe « Unis pour le consensus », préconisent à l'unanimité la modification de la catégorie des membres permanents. Notre analyse révèle que les principaux privilèges, à savoir le droit de véto et la permanence au Conseil de sécurité constituent les points d'achoppement de la réforme dans la mesure où leur modification reviendrait à amoindrir les prérogatives du club des cinq. À cet effet, nous courons le risque de nous engager dans une solution utopique. Pour notre part, nous avons souhaité la solution de la « régionalisation de la sécurité », c'est-à-dire, confier les opérations de maintien de la paix et de la sécurité de chacune des régions du monde à son organisation correspondante. Pour y parvenir, il est primordial de renforcer les pouvoirs desdites organisations, afin d'avoir toute l'autonomie nécessaire dans les prises de décisions dans la prévention et la gestion de ces différents conflits régionaux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La production de biodiésel par des microalgues est intéressante à plusieurs niveaux. Dans le premier chapitre, un éventail de pour et contres concernant l’utilisation de microalgues pour la production de biocarburant sont ici révisés. La culture d’algues peut s'effectuer en utilisant des terres non-arables, de l’eau non-potable et des nutriments de base. De plus, la biomasse produite par les algues est considérablement plus importante que celle de plantes vasculaires. Plusieurs espèces on le contenu lipidique en forme de triacylglycérols (TAGs), qui peut correspondre jusqu'à 30% - 40% du poids sec de la biomasse. Ces proportions sont considérablement plus élevées que celui des huiles contenues dans les graines actuellement utilisées pour le biodiésel de première génération. Par contre, une production pratique et peu couteuse de biocarburant par des microalgues requiert de surpasser plusieurs obstacles. Ceci inclut le développement de systèmes de culture efficace à faible coût, de techniques de récupération requérant peu d’énergie, et de méthodes d’extraction et de conversion de l’huile non-dommageables pour l’environnement et peu couteuses. Le deuxième chapitre explore l'une des questions importantes soulevées dans le premier chapitre: la sélection d'une souche pour la culture. Une collection de souches de microalgues d'eau douce indigène au Québec a été établi et examiné au niveau de la diversité physiologique. Cette collection est composée de cent souches, que apparaissaient très hétérogènes en terme de croissance lorsque mises en culture à 10±2 °C ou 22±2 °C sur un effluent secondaire d’une usine municipale de traitement des eaux usées (EU), défini comme milieu Bold's Basal Medium (BBM). Des diagrammes de dispersion ont été utilisés pour étudier la diversité physiologique au sein de la collection, montrant plusieurs résultats intéressants. Il y avait une dispersion appréciable dans les taux de croissance selon les différents types de milieux et indépendamment de la température. De manière intéressante, en considérant que tous les isolats avaient initialement été enrichis sur milieu BBM, la distribution était plutôt symétrique autour de la ligne d’iso-croissance, suggérant que l’enrichissement sur BBM n’a pas semblé biaiser la croissance des souches sur ce milieu par rapport aux EU. Également, considérant que les isolats avaient d’abord été enrichis à 22°C, il est assez surprenant que la distribution de taux de croissance spécifiques soit aussi symétrique autour de la ligne d’iso-croissance, avec grossièrement des nombres égaux d’isolats de part et d’autre. Ainsi, l’enrichissement à 22°C ne semble pas biaiser les cellules vers une croissance à cette température plutôt que vers 10°C. Les diagrammes de dispersion obtenus lorsque le pourcentage en lipides de cultures sur BBM ont été comparées à des cultures ayant poussé sur EU soit à 10°C ou 22°C rendent évident que la production de lipides est favorisée par la culture sur EU aux deux températures, et que la production lipidique ne semble pas particulièrement plus favorisée par l’une ou l’autre de ces températures. Lorsque la collection a été examinée pour y déceler des différences avec le site d’échantillonnage, une analyse statistique a montré grossièrement que le même degré de diversité physiologique était retrouvé dans les échantillons des deux différents sites. Le troisième chapitre a poursuivi l'évaluation de la culture d'algues au Québec. L’utilisation de déchets industriels riches en nutriments minéraux et en sources de carbone pour augmenter la biomasse finale en microalgues et le produit lipidique à faible coût est une stratégie importante pour rendre viable la technologie des biocarburants par les algues. Par l’utilisation de souches de la collection de microalgues de l’Université de Montréal, ce rapport montre pour la première fois que des souches de microalgues peuvent pousser en présence de xylose, la source de carbone majoritairement retrouvée dans les eaux usées provenant des usines de pâte et papier, avec une hausse du taux de croissance de 2,8 fois par rapport à la croissance photoautotrophe, atteignant jusqu’à µ=1,1/jour. En présence de glycérol, les taux de croissance atteignaient des valeurs aussi élevées que µ=1,52/jour. La production lipidique augmentait jusqu’à 370% en présence de glycérol et 180% avec le xylose pour la souche LB1H10, démontrant que cette souche est appropriée pour le développement ultérieur de biocarburants en culture mixotrophe. L'ajout de xylose en cultures d'algues a montré certains effets inattendus. Le quatrième chapitre de ce travail a porté à comprendre ces effets sur la croissance des microalgues et la production de lipides. Quatre souches sauvages indigènes ont été obersvées quotidiennement, avant et après l’ajout de xylose, par cytométrie en flux. Avec quelques souches de Chlorella, l’ajout de xylose induisait une hausse rapide de l’accumulation de lipide (jusqu’à 3,3 fois) pendant les premières six à douze heures. Aux temps subséquents, les cellules montraient une diminution du contenu en chlorophylle, de leur taille et de leur nombre. Par contre, l’unique membre de la famille des Scenedesmaceae avait la capacité de profiter de la présence de cette source de carbone sous culture mixotrophe ou hétérotrophe sans effet négatif apparent. Ces résultats suggèrent que le xylose puisse être utilisé avant la récolte afin de stimuler l’augmentation du contenu lipidique de la culture d’algues, soit en système de culture continu ou à deux étapes, permettant la biorestauration des eaux usées provenant de l’industrie des pâtes et papiers. Le cinquième chapitre aborde une autre déché industriel important: le dioxyde de carbone et les gaz à effet de serre. Plus de la moitié du dioxyde de carbone qui est émis dans l'atmosphère chaque jour est dégagé par un processus stationnaire, soit pour la production d’électricité ou pour la fabrication industrielle. La libération de CO2 par ces sources pourrait être atténuée grâce à la biorestauration avec microalgues, une matière première putative pour les biocarburants. Néanmoins, toutes les cheminées dégagent un gaz différent, et la sélection des souches d'algues est vitale. Ainsi, ce travail propose l'utilisation d’un état de site particulier pour la bioprospection de souches d'algues pour être utilisé dans le processus de biorestauration. Les résultats montrent que l'utilisation d'un processus d'enrichissement simple lors de l'étape d'isolement peut sélectionner des souches qui étaient en moyenne 43,2% mieux performantes dans la production de biomasse que les souches isolées par des méthodes traditionnelles. Les souches isolées dans ce travail étaient capables d'assimiler le dioxyde de carbone à un taux supérieur à la moyenne, comparées à des résultats récents de la littérature.