993 resultados para Ide
Resumo:
L'économie de la Chine a connu au cours des trois dernières décennies une effervescence sans précédent. Dorénavant ouvert sur le monde, ce nouveau marché de près de 1,3 milliard d'individus possède un potentiel commercial et des perspectives de croissance n'ayant aucun équivalent en Occident. Toutefois, partir à la conquête de l'Empire du Milieu peut s'avérer être une aventure périlleuse pour celui qui ne maîtrise pas le cadre contextuel et légal dans lequel les affaires s'opèrent en ces lieux. Le présent mémoire se veut une étude en deux parties des considérations afin de mener à terme avec succès un projet d'investissement en sol chinois. Dans un premier temps, la présente étude tente de démystifier le climat économique, social et légal entourant le monde des affaires en Chine. L'investisseur étranger a tout intérêt à comprendre cet environnement dans lequel nos repères occidentaux sont parfois inexistants. Il s'agit donc, initialement, de comprendre l'évolution récente de ce pays et les transformations profondes que la Chine a connues dans les dernières décennies. Du socialisme à l'économie de marché, le plus grand marché potentiel sur terre s'est ouvert progressivement sur le monde. Sans délai, l'investissement étranger a alors afflué massivement en ces lieux. Fort de l'évolution de son environnement légal, qui se poursuit d'ailleurs toujours à l'heure actuelle, quels sont les principaux enjeux et défis pour un investisseur étranger en Chine? Parmi différentes considérations, l'investisseur étranger doit s'intéresser particulièrement à la place qu'occupent les autorités gouvernementales dans les transactions privées, à la force obligatoire des ententes commerciales et à la résolution de conflits éventuels. Dans un second temps, la présente étude couvre les principales formes juridiques d'investissement accessibles aux investisseurs étrangers afin d'exploiter ou de participer à l'exploitation d'une entreprise en sol chinois. Il s'agit, pour chacune d'entre elles, d'analyser le droit positif posé par le législateur ainsi que de le compléter avec certains éléments pratiques soulevés par des observateurs en la matière. Il s'ensuivra une analyse des différents mécanismes d'acquisition d'entreprise par les investisseurs étrangers. Ultimement, l'étude de cette seconde partie mènera à une analyse comparative des incidences pratiques relativement aux différentes formes d'établissement ou d'acquisition d'entreprise.
Resumo:
L’Écosse du XVIIIe siècle connaît de grands changements qui seront à l’aune des transformations socio-économiques sous-tendant sa Révolution industrielle. L’historiographie sur le sujet est divisée entre deux visions du développement – nommées pour le bienfait de cette étude traditionnelle et révisionniste – à savoir si ces transformations valident la notion d’une « révolution agraire ». Cette étude propose une recension de ces deux courants et propose d’appliquer leur analyse sur une région circonscrite, l’Aberdeenshire. À l’aide de l’Old Statistical Account, source majeure pour l’étude de l’histoire moderne écossaise, nous tenterons de démontrer que le caractère particulier du développement des régions ne correspond pas à l’application des conclusions nationales. Nous accorderons une attention spéciale à la propriété foncière, à l’impact des enclosures et à la temporalité des changements. De par ses spécificités, et son retard de modernisation agraire et agricole, nous croyons que la région suit le schéma dressé par les historiens révisionnistes, c.-à-d. des changements structurels s’étendant sur un temps long et ne s’inscrivant pas directement dans la période 1755-1815, traditionnellement désignée comme « révolution agraire ». Il s’agirait plutôt d’une adaptation partielle et originale des nouvelles idées mises de l’avant par les protagonistes de la modernisation.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Que faut-il entendre par l’Efficacité du contrat ? Chez les économistes et dans les écrits de l’analyse économique du droit, le terme efficacité est souvent employé comme traduction de efficiency. Dans le discours économique, ce terme a un sens technique et s’entend, pour faire court, d’un état de l’économie où aucun réarrangement des ressources ne permettrait d’améliorer le bien-être collectif, tous les gains possibles d’échange ayant été réalisés. En français, on voit employés, pour désigner cette idée, les termes d’efficience et d’efficacité, l’un et l’autre souvent qualifiés par l’adjectif économique, pour bien les distinguer du sens ordinaire des termes.
Resumo:
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Resumo:
La figure du législateur demeure matière à controverse dans la pensée politique de Jean-Jacques Rousseau. Son rôle, consistant à « transformer » la nature humaine en vue de réaliser la vertu civique, a porté certains interprètes à voir dans sa pensée une forme d’autoritarisme. L'erreur de cette interprétation nous apparaît être dans le sens et la portée attribués à l'idée de transformation morale. Cette dernière n'implique pas une transformation radicale des mœurs, mais bien leur parachèvement. Circonscrire cette portée nécessite de concevoir les mœurs comme une matière donnée et qui ne saurait être façonnée indéfiniment, car ses potentialités sont déterminées par son développement historique. Ce caractère décisif attribué par Rousseau au développement historique peut se comprendre à la lumière de sa conception pessimiste de l’évolution des mœurs. D’après cette conception, les mœurs, essentiellement corruptibles, atteignent un stade historique de corruption où elles ne sauraient être parachevées en vertu. Il s’ensuit que seul un peuple dont les mœurs sont non corrompues par le progrès historique a la potentialité d'atteindre la vertu. Ainsi, la tâche du législateur d'effectuer une transformation morale de l'homme doit être entendue non comme celle de créer ex nihilo une nouvelle nature humaine, mais comme celle de parachever les virtualités propres aux mœurs saines.
Resumo:
Je défends actuellement trois capacités éthiques et discursives en faveur de la réalisation des êtres humains: 1) La capacité de se comprendre soi-même ; 2) La capacité de faire reposer ses jugements sur un dialogue avec les personnes concernées ; 3) La capacité de mettre en oeuvre -avec autrui- les projets de justice convenus conjointement. Je les considère ici comme des capacités visant à la «reconnaissance mutuelle». Je soutiens que les types de relation à soi du sujet qui ont été définis par Axel Honneth complètent la capacité de se comprendre soi-même. Honneth propose également une idée de justice que la deuxième capacité mentionnée réexamine. Cependant, à partir de la troisième capacité, je remets en question le concept de «lutte» chez Honneth, en présentant les avantages de la coresponsabilité. Je montre ensuite que ces trois capacités peuvent constituer des indicateurs dans toutes les sphères de la société qui sont aux prises avec des questions éthiques importantes et je donne pour exemple le milieu des entreprises. Enfin, je défends une procédure qui vise à mesurer ces indicateurs au moyen de données concrètes. Cette procédure nous permettra d’estimer la grandeur éthique d’une société grâce à l’évaluation des «capacités éthiques» de ses citoyens.
Resumo:
Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.
Resumo:
Depuis quelques années, les États adoptent des politiques qui cherchent à séparer l’admission des réfugiés sur le territoire d’un État et l’attribution du statut de réfugié. En Europe, ce genre de politique est désigné par le terme externalisation. Cependant, par souci d’objectivité, nous avons choisi d’employer le terme extraterritorial. En effet, l’expression externalisation comporte en elle-même la critique de son objet. En Europe, aucune politique qui dissocie l’attribution du statut de réfugié et l’entrée sur le territoire d’un État n’a été mise en place, toutefois, cette idée fait partie des réflexions institutionnelles et elle reste un objectif de l’agenda européen. Ce mémoire cherche donc à analyser la proposition de traitement extraterritorial des demandes de statut de réfugié, faite en Europe, au regard de l’obligation la plus contraignante au sein du droit international des réfugiés : le principe de non refoulement. En ce sens, il sera nécessaire d'analyser l'étendue ainsi que les limites du principe de non refoulement, au regard de l’interprétation et de la mise en œuvre qui en sont faites. Ce mémoire démontrera que derrière une vive polémique sur la question, la proposition de traitement extraterritorial des demandes de statut de réfugié est compatible avec l’article 33 alinéa 1 de la Convention relative au statut des réfugiés.
Resumo:
David Hull et Philip Kitcher présentent tous deux une description des sciences qui tient compte autant de l'articulation logique des théories que de leur dynamique sociale. Hull (1988a, 2001) tente de rendre compte du progrès scientifique par le biais d'une analyse sélectionniste, en s'appuyant sur les contingences sociales et les biais individuels en tant que pressions de sélections. Pour lui, un processus de sélection darwinien filtre les théories supérieures des théories inadéquates. Kitcher (1993) présente plutôt le progrès scientifique comme un changement de consensus résultant de processus sociaux et psychologiques qui mènent de manière fiable à la vérité. Les théories sont ainsi filtrées par une dynamique sociale qui sélectionne les théories selon la qualité de leur articulation logique. Kitcher (1988) exprime un doute à l'idée qu'un processus de sélection darwinien du type suggéré par Hull puisse ajouter quoi que ce soit à une explication du processus d'avancement des sciences. Ce mémoire tentera d'établir si cette critique de Kitcher est fondée. Dans cette optique, une analyse détaillée de l’approche de Hull sera nécessaire afin d’examiner comment il justifie le lien qu’il établit entre la pratique scientifique et un processus de sélection. Un contraste sera ensuite fait avec l’approche de Kitcher pour tester la force et la nécessité de ce lien et pour expliquer le désaccord de Kitcher. Cette analyse comparative permettra de préciser les avantages et les désavantages uniques à chacune des approches pour déterminer si une analyse sélectionniste est plus prometteuse qu’une analyse non-sélectionniste pour rendre compte du progrès scientifique.
Resumo:
Le développement du logiciel actuel doit faire face de plus en plus à la complexité de programmes gigantesques, élaborés et maintenus par de grandes équipes réparties dans divers lieux. Dans ses tâches régulières, chaque intervenant peut avoir à répondre à des questions variées en tirant des informations de sources diverses. Pour améliorer le rendement global du développement, nous proposons d'intégrer dans un IDE populaire (Eclipse) notre nouvel outil de visualisation (VERSO) qui calcule, organise, affiche et permet de naviguer dans les informations de façon cohérente, efficace et intuitive, afin de bénéficier du système visuel humain dans l'exploration de données variées. Nous proposons une structuration des informations selon trois axes : (1) le contexte (qualité, contrôle de version, bogues, etc.) détermine le type des informations ; (2) le niveau de granularité (ligne de code, méthode, classe, paquetage) dérive les informations au niveau de détails adéquat ; et (3) l'évolution extrait les informations de la version du logiciel désirée. Chaque vue du logiciel correspond à une coordonnée discrète selon ces trois axes, et nous portons une attention toute particulière à la cohérence en naviguant entre des vues adjacentes seulement, et ce, afin de diminuer la charge cognitive de recherches pour répondre aux questions des utilisateurs. Deux expériences valident l'intérêt de notre approche intégrée dans des tâches représentatives. Elles permettent de croire qu'un accès à diverses informations présentées de façon graphique et cohérente devrait grandement aider le développement du logiciel contemporain.
Resumo:
Pour Simone Weil, le malheur est « quelque chose de spécifique, irréductible à toute autre chose, comme les sons, dont rien ne peut donner aucune idée à un sourd-muet ». Il s’apparente à un sacrement, à un rite sacré susceptible de rapprocher l’homme du divin. Et si la pensée weilienne se révèle non-conformiste pour aborder la figure du malheur, c’est parce qu’elle ne se limite pas à une tradition unique, mais trouve écho tant dans la religion chrétienne et le Nouveau Testament que dans la philosophie grecque de l’antiquité – principalement le stoïcisme et le platonisme – et dans certains textes orientaux tels que la Bhagavad-Gîtâ et le Tao Te King. Par un singulier amalgame de ces influences, Weil donne naissance à une méthode spirituelle dont une des étapes fondamentales est le malheur, thème très fécond pour dénouer et affronter le dialogue entre spiritualité et contemporanéité. Parce que cette méthode ne peut pleinement être appréhendée que sur la frontière de l’athéisme et de la croyance religieuse, approfondir ses implications permet d’interroger les traces du sacré dans les civilisations occidentales. Retracer les étapes de son développement permet également de sonder le rapport qu’entretiennent les hommes avec le malheur, ainsi que de porter un regard sensible sur une époque où l’actualité fait souvent état des malheureux alors que le malheur d’autrui semble être une réalité à fuir.
Resumo:
L’objectif de ce mémoire est de comprendre comment une certaine vision du monde, basée sur des croyances théologiques, a contribué à la composition du concerto pour violon Offertorium de Sofia Gubaïdulina. C’est par le biais de cette œuvre qu’est explorée l’idée du dialogue musicothéologique, en proposant des façons par lesquelles la pièce musicale en question peut servir de porteuse ou d’interprète d’une pensée théologique. Afin d’appuyer cette idée, la démarche intertextuelle employée par Heidi Epstein est utilisée. Cette méthode permet de faciliter non seulement le travail interdisciplinaire, mais aussi la lecture théologique de l’œuvre musicale. Le premier chapitre explore les sources, les questions et la problématique qui entoure le dialogue musicothéologique. La conclusion tirée est que l’étude d’Offertorium nécessite une approche équilibrée. Nous entendons par cela, une approche qui prend en ligne de compte la réflexion théologique autant que la recherche musicologique tout en respectant les contributions théologiques que l’œuvre musicale peut apporter en soi. Dans le deuxième chapitre, une analyse thématique d’Offertorium a été tentée ainsi qu’une étude du discours théologique et spirituel de la compositrice. Il a été conclu que l’arrière-plan russe orthodoxe de Gubaidulina a beaucoup influencé sa vision du monde et son approche artistique. Le concerto est porteur d’idées et de symboles liturgiques ou théologiques de l’Orthodoxie dans sa structure et dans sa construction thématique. Le troisième chapitre explore les parallèles entre la pensée de Gubaidulina et les écritures de plusieurs théologiens russes orthodoxes du 20e siècle. La conclusion de ce chapitre démontre que, même s’il est improbable que la compositrice connaisse bien ces auteurs, sa compréhension théologique et spirituelle sort du climat religieux de l’Église Orthodoxe. Cette idée explique les complémentarités et les similarités entre son discours, son œuvre et les propos des théologiens discutés. Le quatrième chapitre évalue la validité d’Offertorium comme moyen d’expression théologique ainsi que de générateur de réflexion théologique. La conclusion de la recherche est qu’Offertorium peut bel et bien être un espace théologique. Ce qui veut dire que des idées théologiques peuvent être communiquées par le biais de l’expérience sonore que ce soit par la mélodie ou l’ambiance générale. Également, cela implique que la musique devient un partenaire égal, quoique différent des méthodes de réflexion traditionnelles au sein de la conversation théologique.
Resumo:
Les fichiers video (d'animation) sont dans un format Windows Media (.wmv)