20 resultados para Global analysis (Mathematics)
em Université de Montréal, Canada
Resumo:
"Suite à plus de deux années de recherches, le projet de l’American Bar Association (ABA) concernant la juridiction du cyberespace, « Achieving Legal and Business Order in Cyberspace: A Report on Global Jurisdiction Issues Created by the Internet », a été publié dans l’édition du mois d’août 2000 de la revue juridique The Business Lawyer. Ce rapport poursuivait deux objectifs distincts : Tout d’abord, effectuer une analyse globale des complexités potentielles entourant les conflits juridictionnels découlant du commerce en ligne. Ensuite, élaborer une liste exhaustive des solutions pouvant être utilisées pour résoudre de tels conflits. Le présent article se veut un résumé concis et accessible des trois grandes sections du « Cyberspace Jurisdiction Report » : (1) les solutions proposées aux problèmes juridictionnels découlant des conflits résultant du commerce électronique ; (2) afin d’appuyer les solutions proposées : l’utilisation d’exemples d’occasions où la technologie a déjà, par le passé, causé la métamorphose de certains paradigmes juridictionnels; et (3) afin d’appuyer les solutions proposées : l’utilisation d’un contexte doctrinal."
Resumo:
Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audiovisuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.
Resumo:
Ce mémoire est une analyse socio-juridique de la discrimination en milieu de travail et de son impact sur le devoir juridique de représentation syndicale, ou plus précisément, sur la responsabilité syndicale en contexte de diversité. Partant d’une première approche sociométrique du phénomène, suivie d’une deuxième davantage socio-juridique, le constat est à l’effet que la discrimination en milieu de travail a des répercussions jusque dans les milieux syndiqués,où les flux d’immigration semblent, à plusieurs égards, bousculer l’ordre établi. La revue de littérature permet de dégager deux grands axes de recherche : un premier concernant les forums : dans l’état actuel du droit, ce sont les Tribunaux des droits de la personne qui élaborent les normes applicables au devoir juridique de représentation syndicale dans les cas allégués de discrimination au travail, les Commissions des relations de travail s’adaptant mais lentement, sinon avec réticence, à la nouvelle donne ; le deuxième concernant spécifiquement la partie syndicale : cette dernière pondère l’effet des normes applicables en matière de discrimination au travail tant en fonction de ses propres intérêts stratégiques, que de l’attente des membres, que des préjugés et stéréotypes présents dans le milieu de travail. L’analyse globale porte sur 689 décisions en provenance de quatre Commissions des relations de travail — Québec, Fédéral, Ontario et Colombie-Britannique — et ainsi que des quatre Tribunaux des droits de la personne correspondants, sur une période de dix ans, allant du 1er janvier 2000 au 31 décembre 2009. Quant aux forums, la conclusion est à l’effet qu’au cours de la période étudiée, aucune institution n’a de préséance sur l’autre en ce qui a trait aux motifs illicites de discrimination. Les deux se complétent sans presque se chevaucher, et chacune à leur manière, contribuent fortement à faire progresser les droits de la personne. Par contre, les Commissions des relations de travail ont préséance quant au harcèlement, tandis que les Tribunaux des droits de la personne sont prépondérants face aux mesures d’accommodement. Quant à la partie syndicale, si elle a toujours agi, pour des raisons historiques, en fonction de ses intérêts stratégiques, de l’attente des membres, et des préjugés et stéréotypes présents sur les lieux de travail. Mais, ce qui change au fil du temps, c’est tout ce qui entoure le devoir juridique de représentation syndicale, c’est-à-dire tout le climat général d’application, ainsi que tout le contexte d’analyse et d’évaluation des situations. Quel est donc l’impact de la discrimination en milieu de travail sur le devoir juridique de représentation syndicale ? Dans la mesure où le contexte d’analyse et d’évaluation des situations est la lecture que font les agents, du climat général d’application, et des changements qu’ils y apportent en fonction de leurs propres intérêts stratégiques, du point de vue syndical, cet impact est triple : d’abord, devant chaque cas d’espèce, (1) l’acteur syndical doit désormais jongler avec beaucoup plus de facteurs qu’auparavant ; deuxièmement, (2) envers les salariés de l’unité de négociation, la marge de manoeuvre est beaucoup plus restreinte en contexte de lutte contre la discrimination ; enfin, et c’est le point le plus important, (3) l’économie générale des droits de la personne a pour effet d’introduire une hiérarchie dans les normes applicables, ce qui oblige l’acteur syndical à s’adapter, de façon constante, à un climat général d’application sans cesse changeant, auquel tous les agents contribuent, y compris lui-même.
Resumo:
Cet article présente le chapitre 11 de l’ALÉNA à titre de question d’actualité non seulement juridique mais également sociale et politique. Après avoir retracé son origine historique et expliqué la controverse qui y est relative ainsi que ses implications, l’auteur analyse l’impact du chapitre en posant trois questions: le chapitre 11 de l’ALÉNA a-t-il l’effet recherché ? A-t-il des effets secondaires ? Quelle est leur importance relative ? Afin de combler une lacune dans la doctrine existante, une analyse globale des poursuites et des jugements déjà rendus est effectuée, tableaux de travail à l’appui, État par État. Ceci permet de constater notamment que les États-Unis n’ont jamais été condamnés à payer des dommages-intérêts en vertu de ce chapitre alors que les entreprises américaines ont raflé la quasi-totalité des dommages-intérêts payés par le Canada et le Mexique. Les entreprises canadiennes n’ont jamais obtenu de dommages-intérêts en vertu de ce chapitre. On constate aussi que le Canada est actuellement l’État poursuivi pour le montant le plus élevé en vertu de ce chapitre et que les poursuites intentées contre le Canada se sont multipliées par quatre, ce qui n’augure pas bien de l’avenir.
Resumo:
In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.
Resumo:
Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.
Resumo:
Problématique : La pénurie d’organes qui sévit actuellement en transplantation rénale incite les chercheurs et les équipes de transplantation à trouver de nouveaux moyens afin d’en améliorer l’efficacité. Le Groupe de recherche transdisciplinaire sur les prédicteurs du risque immunologique du FRSQ travaille actuellement à mettre en place de nouveaux outils facilitant la quantification du risque immunologique global (RIG) de rejet de chaque receveur en attente d’une transplantation rénale. Le calcul du RIG s’effectuerait en fonction de facteurs scientifiques et quantifiables, soit le biologique, l’immunologique, le clinique et le psychosocial. La détermination précise du RIG pourrait faciliter la personnalisation du traitement immunosuppresseur, mais risquerait aussi d’entraîner des changements à l’actuelle méthode de sélection des patients en vue d’une transplantation. Cette sélection se baserait alors sur des critères quantifiables et scientifiques. L’utilisation de cette méthode de sélection possède plusieurs avantages, dont celui d’améliorer l’efficacité de la transplantation et de personnaliser la thérapie immunosuppressive. Malgré tout, cette approche soulève plusieurs questionnements éthiques à explorer chez les différents intervenants œuvrant en transplantation rénale quant à sa bonne utilisation. Buts de l’étude : Cette recherche vise à étudier les perceptions de néphrologues transplanteurs et référents de la province de Québec face à l’utilisation d’une méthode de sélection des patients basée sur des critères scientifiques et quantifiables issus de la médecine personnalisée. Les résultats pourront contribuer à déterminer la bonne utilisation de cette méthode et à étudier le lien de plus en plus fort entre science et médecine. Méthodes : Des entretiens semi-dirigés combinant l’emploi de courtes vignettes cliniques ont été effectués auprès de 22 néphrologues québécois (transplanteurs et référents) entre juin 2007 à juillet 2008. Le contenu des entretiens fut analysé qualitativement selon la méthode d’analyse de Miles et Huberman. Résultats : Les résultats démontrent une acceptation généralisée de cette approche. La connaissance du RIG pour chaque patient peut améliorer le traitement et la prise en charge post-greffe. Son efficacité serait supérieure à la méthode actuelle. Par contre, la possible exclusion de patients pose un important problème éthique. Cette nouvelle approche doit toutefois être validée scientifiquement et accorder une place au jugement clinique. Conclusions : La médecine personnalisée en transplantation devrait viser le meilleur intérêt du patient. Malgré l’utilisation de données scientifiques et quantifiables dans le calcul du RIG, le jugement clinique doit demeurer en place afin d’aider le médecin à prendre une décision fondée sur les données médicales, son expertise et sa connaissance du patient. Une réflexion éthique approfondie s’avère nécessaire quant à l’exclusion possible de patients et à la résolution de la tension entre l’équité et l’efficacité en transplantation rénale.
Resumo:
Thomas Pogge’s notion of moral loopholes serves to provide support for two claims: first, that the ethical code of the global economic order contains moral loopholes that allow participants in special social arrangements to reduce their obligations to those outside the social arrangement, which leads to morally objectionable actions for which no party feels responsible and that are also counterproductive to the overall objective of the economic system; and, second, that these moral loopholes are more likely to exist as our economic order becomes more global. Finally, it will be shown that attempts to rectify the situation with voluntary corporate codes of conduct are inadequate. The argument proceeds through analysis of one case study, concerning action by the executive of the Cerrejón mining operation at La Guajira Penisular, Colombia.
Resumo:
Thomas Pogge’s notion of moral loopholes serves to provide support for two claims: first, that the ethical code of the global economic order contains moral loopholes that allow participants in special social arrangements to reduce their obligations to those outside the social arrangement, which leads to morally objectionable actions for which no party feels responsible and that are also counterproductive to the overall objective of the economic system; and, second, that these moral loopholes are more likely to exist as our economic order becomes more global. Finally, it will be shown that attempts to rectify the situation with voluntary corporate codes of conduct are inadequate. The argument proceeds through analysis of one case study, concerning action by the executive of the Cerrejón mining operation at La Guajira Penisular, Colombia.
Resumo:
Thomas Pogge’s notion of moral loopholes serves to provide support for two claims: first, that the ethical code of the global economic order contains moral loopholes that allow participants in special social arrangements to reduce their obligations to those outside the social arrangement, which leads to morally objectionable actions for which no party feels responsible and that are also counterproductive to the overall objective of the economic system; and, second, that these moral loopholes are more likely to exist as our economic order becomes more global. Finally, it will be shown that attempts to rectify the situation with voluntary corporate codes of conduct are inadequate. The argument proceeds through analysis of one case study, concerning action by the executive of the Cerrejón mining operation at La Guajira Penisular, Colombia.
Resumo:
Parallèlement au travail du mouvement du commerce équitable, la notion d’équité fait l’objet dans les négociations commerciales multilatérales d’un véritable conflit d’interprétation opposant les pays développés au pays en développement. Or, ce conflit s’est récemment transformé à la faveur de l’émergence de nombreuses coalitions interétatiques du Sud global à l’Organisation mondiale du commerce. En le comparant à l’idéologie tiers-mondiste, cet article se propose d’analyser le discours sur l’équité porté par ces coalitions tel qu’il a évolué au cours de l’inachevé Cycle de Doha sur le développement. Plus précisément, les champs sémantiques de la « marge de manoeuvre politique » et de la « proportionnalité » témoignent d’un niveau d’opérationnalisation approfondi des nouvelles figures de l’équité à l’OMC et, peut-être, d’une plus grande institutionnalisation.
Resumo:
Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Étant donné leur facilité d’application, ces méthodes sont largement répandues dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement en analyse bayésienne. Depuis l’apparition de la première méthode MCMC en 1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue d’être une aire de recherche active. Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement méconnues. L’objectif de ce mémoire est de tenter d’établir l’impact d’un paramètre clé de cette méthode sur la performance globale de l’approche. Un second objectif est de comparer cet algorithme à d’autres méthodes MCMC plus versatiles afin de juger de sa performance de façon relative.
Resumo:
Récemment plusieurs récepteurs couplés aux protéines G (RCPGs) ont été caractérisés au niveau des membranes intracellulaires, dont la membrane nucléaire. Notre objectif était de déterminer si les sous-types de récepteurs β-adrénergiques (βAR) et leurs machineries de signalisation étaient fonctionnels et localisés à la membrane nucléaire des cardiomyocytes. Nous avons démontré la présence des β1AR et β3AR, mais pas du β2AR à la membrane nucléaire de myocytes ventriculaires adultes par immunobuvardage, par microscopie confocale, et par des essais fonctionnels. De plus, certains partenaires de signalisation comme les protéines GαS, Gαi, l’adénylate cyclase II, et V/VI y étaient également localisés. Les sous-types de βAR nucléaires étaient fonctionnels puisqu'ils pouvaient lier leurs ligands et activer leurs effecteurs. En utilisant des noyaux isolés, nous avons observé que l'agoniste non-sélectif isoprotérénol (ISO), et que le BRL37344, un ligand sélectif du β3AR, stimulaient l'initiation de la synthèse de l’ARN, contrairement à l'agoniste sélectif du β1AR, le xamotérol. Cette synthèse était abolie par la toxine pertussique (PTX). Cependant, la stimulation des récepteurs nucléaires de type B de l’endothéline (ETB) causaient une réduction de l'initiation de la synthèse d’ARN. Les voies de signalisations impliquées dans la régulation de la synthèse d’ARN par les RCPGs ont ensuite été étudiées en utilisant des noyaux isolés stimulés par des agonistes en présence ou absence de différents inhibiteurs des voies MAP Kinases (proteines kinases activées par mitogènes) et de la voie PI3K/PKB. Les protéines impliquées dans les voies de signalisation de p38, JNK, ERK MAP Kinase et PKB étaient présents dans les noyaux isolés. L'inhibition de PKB par la triciribine, inhibait la synthèse d’ARN. Nous avons ensuite pu mettre en évidence par qPCR que la stimulation par l’ISO entrainait une augmentation du niveau d'ARNr 18S ainsi qu’une diminution de l'expression d’ARNm de NFκB. En contraste, l’ET-1 n’avait aucun effet sur le niveau d’expression de l’ARNr 18S. Nous avons ensuite montré que la stimulation par l’ISO réduisait l’expression de plusieurs gènes impliqués dans l'activation de NFκB, tandis que l’inhibition de ERK1/2 et PKB renversait cet effet. Un microarray global nous a ensuite permis de démontrer que les βARs et les ETRs nucléaires régulaient un grand nombre de gènes distincts. Finalement, les βARs et ETRs nucléaires augmentaient aussi une production de NO de noyaux isolés, ce qui pouvait être inhibée par le LNAME. Ces résultats ont été confirmés dans des cardiomyocytes intacts en utilisant des analogues cagés et perméables d’ISO et de l'ET-1: l'augmentation de NO nucléaire détectée par DAF2-DA, causée par l'ET-1 et l'ISO, pouvait être prévenue par le LNAME. Finalement, l’augmentation de l’initiation de la transcription induite par l'ISO était aussi bloquée par le L-NAME ou par un inbitheur de PKG, le KT5823, suggérant que la voie NO-GC-PKG est impliquée dans la régulation de la transcription par les βAR. En conclusion, les βARs et les ETRs nucléaires utilisent des voies de signalisation différentes et exercent ainsi des effets distincts sur l’expression des gènes cardiaques. Ils représentent donc une avenue intéressante pour le développement de drogues pharmacologiques.
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.