47 resultados para Unified Lending
em Université de Montréal, Canada
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Microcredit, a non-profit lending approach that is often championed as a source of women’s inclusion and empowerment, has in the past decade been followed by microfinance, a forprofit sibling of a different temperament. Microfinance in India is now in turmoil, precipitated by legislation in the state of Andhra Pradesh, which has encouraged withholding of payment, which in turn has frozen the market. This paper considers one precipitating condition of the crisis: the remarkable, new, and developing burden of formal economic debt that poor women in the state have only recently come to hold – debt that now surpasses one year’s family income, on average. The development of this lending sector follows upon innovation in lending to the poor of the global north over the past two decades, and the practices show noteworthy parallels. Both lending schemes have produced similar disproportionate burdens upon some low-status individuals within their respective economic orders, and both may exploit a vulnerability that is born of aspiration and produces great dysfunction for borrowers. This paper introduces the two lending schemes, sketches the parallels, and introduces the claim that ethical finance arrangements for the poor require attention to vulnerability, an under-utilized category in both liberal ethical theory and in finance.
Resumo:
Les logiciels sont de plus en plus complexes et leur développement est souvent fait par des équipes dispersées et changeantes. Par ailleurs, de nos jours, la majorité des logiciels sont recyclés au lieu d’être développés à partir de zéro. La tâche de compréhension, inhérente aux tâches de maintenance, consiste à analyser plusieurs dimensions du logiciel en parallèle. La dimension temps intervient à deux niveaux dans le logiciel : il change durant son évolution et durant son exécution. Ces changements prennent un sens particulier quand ils sont analysés avec d’autres dimensions du logiciel. L’analyse de données multidimensionnelles est un problème difficile à résoudre. Cependant, certaines méthodes permettent de contourner cette difficulté. Ainsi, les approches semi-automatiques, comme la visualisation du logiciel, permettent à l’usager d’intervenir durant l’analyse pour explorer et guider la recherche d’informations. Dans une première étape de la thèse, nous appliquons des techniques de visualisation pour mieux comprendre la dynamique des logiciels pendant l’évolution et l’exécution. Les changements dans le temps sont représentés par des heat maps. Ainsi, nous utilisons la même représentation graphique pour visualiser les changements pendant l’évolution et ceux pendant l’exécution. Une autre catégorie d’approches, qui permettent de comprendre certains aspects dynamiques du logiciel, concerne l’utilisation d’heuristiques. Dans une seconde étape de la thèse, nous nous intéressons à l’identification des phases pendant l’évolution ou pendant l’exécution en utilisant la même approche. Dans ce contexte, la prémisse est qu’il existe une cohérence inhérente dans les évènements, qui permet d’isoler des sous-ensembles comme des phases. Cette hypothèse de cohérence est ensuite définie spécifiquement pour les évènements de changements de code (évolution) ou de changements d’état (exécution). L’objectif de la thèse est d’étudier l’unification de ces deux dimensions du temps que sont l’évolution et l’exécution. Ceci s’inscrit dans notre volonté de rapprocher les deux domaines de recherche qui s’intéressent à une même catégorie de problèmes, mais selon deux perspectives différentes.
Resumo:
It is well-known that non-cooperative and cooperative game theory may yield different solutions to games. These differences are particularly dramatic in the case of truels, or three-person duels, in which the players may fire sequentially or simultaneously, and the games may be one-round or n-round. Thus, it is never a Nash equilibrium for all players to hold their fire in any of these games, whereas in simultaneous one-round and n-round truels such cooperation, wherein everybody survives, is in both the a -core and ß -core. On the other hand, both cores may be empty, indicating a lack of stability, when the unique Nash equilibrium is one survivor. Conditions under which each approach seems most applicable are discussed. Although it might be desirable to subsume the two approaches within a unified framework, such unification seems unlikely since the two approaches are grounded in fundamentally different notions of stability.
Resumo:
Affiliation: Bryn Williams-Jones : Département de médicine sociale et préventive, Faculté de medecine, Université de Montréal
Resumo:
Ce mémoire porte sur la constitution du tiers secteur français en tant qu’acteur social et politique. Dans de nombreux pays, les relations entre l’État et les organismes mutualistes, coopératifs et associatifs de la société civile (un ensemble hétérogène qu’on appelle ici le « tiers secteur ») ont été récemment formalisées par des partenariats. En France, cette institutionnalisation s’est concrétisée en 2001 par la signature d’une Charte (CPCA). Nous explorons l’hypothèse qu’à travers l’institutionnalisation, le tiers secteur français se construit en tant qu’acteur –ayant une (ou des) identités propres de même qu’un projet de société relativement bien défini. La perspective dominante présente dans la littérature internationale traitant de l’institutionnalisation des rapports entre l’État et le tiers secteur est celle d’une instrumentalisation des organisations du tiers secteur au détriment de leurs spécificités et de leur autonomie. Cette perspective nous semble limitative, car elle semble être aveugle à la capacité d’action des organisations. Par conséquent, dans ce mémoire, nous cherchons à comprendre si une transformation identitaire a eu lieu ou est en cours, au sein du tiers secteur français, et donc s’il se transforme en acteur collectif. Pour apporter certains éléments de réponse à nos hypothèses et questions de recherche, nous avons effectué une analyse des discours via deux sources de données; des textes de réflexion rédigés par des acteurs clés du tiers secteur français et des entretiens effectués avec certains d’entre eux au printemps 2003 et à l’automne 2005. Sur la base de deux inspirations théoriques (Hobson et Lindholm, 1997 et Melucci, 1991), notre analyse a été effectuée en deux étapes. Une première phase nous a permis d’identifier deux cadres cognitifs à partir desquels se définissent les acteurs du tiers secteur français, les cadres « association » et « économie solidaire ». Une deuxième phase d’analyse consistait à déterminer si les deux cadres cognitifs pouvaient être considérés comme étant des tensions existant au sein d’un seul et même acteur collectif. Nos résultats nous permettent de conclure que les organisations du tiers secteur français ne se perçoivent pas globalement comme un ensemble unifié. Néanmoins, nous avons pu dégager certains éléments qui démontrent que les cadres sont partiellement conciliables. Cette conciliation est grandement subordonnée aux contextes sociopolitiques et économiques français, européen et international et est également conditionnelle à la découverte d’un mode de fonctionnement convenant à tous les acteurs.
Resumo:
"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de docteur en droit"
Resumo:
La présente étude examine une des difficultés que soulève l'exécution des contrats de vente mettant en relation des parties situées dans des pays différents. Ces contrats connaissent des problèmes bien particuliers. En effet, en donnant lieu à l'expédition des marchandises vendues, ces contrats obligent aussi le vendeur à transférer à l'acheteur les documents conformes représentatifs de celles-ci. La non-conformité des documents se distingue de la non-conformité des marchandises et constitue une source principale des litiges visant la résolution des contrats dans ce secteur commercial. La diversité des solutions susceptibles de s'y appliquer est devenue une réalité depuis que les droits internes doivent coexister avec les règles de la Convention de Vienne sur la vente internationale de marchandises. En principe, aucune difficulté ne se pose lorsqu'un droit interne est désigné comme étant le droit compétent: il suffirait d'appliquer les solutions de ce droit. Ainsi, par exemple, l'acheteur peut résoudre le contrat si les documents ne sont pas conformes aux stipulations contractuelles sur la base du concept de fundamental breach (en cas de vente non documentaire) ou sur la base de la stricte conformité (en cas de vente documentaire) que retiennent les droits anglo-américain; en revanche dans les systèmes de droit civil (où la distinction entre vente documentaire et vente non documentaire n'existe pas), pareille résolution du contrat basée sur le défaut de conformité des documents n'est possible qu'en présence d'un préjudice important ou d'un défaut majeur. Plusieurs justifications fondamentales sous-tendent la raison d'être des solutions retenues par les droits nationaux: quête de sécurité juridique et recherche de solution conforme aux besoins des opérateurs du commerce international. Néanmoins, il appert que de telles justifications sont également présentes dans la Convention de Vienne. De plus, cette Convention oblige le vendeur à transférer à l'acheteur les documents conformes de la vente. Cependant, elle le fait de manière indirecte sans pour autant préciser quels types de documents doivent faire l'objet du transfert. L'opportunité d'un tel transfert dépendra donc, sous réserves des dispositions impératives, de l'accord des parties et des usages commerciaux qui ont préséance sur les règles unifiées. Ce qui en fait parfois une question d'interprétation du contrat ou une question de comblement des lacunes de ce droit uniforme de la vente internationale. En ce sens, ce dernier droit diffère des droits nationaux qui sont plus clairs à cet égard. Quant aux conditions de la résolution du contrat pour non-conformité des documents, quel que soit le système national considéré, la solution qu'il consacre contraste avec celle prévue par la Convention de Vienne qui n'admet une telle sanction qu'en présence d'une contravention essentielle. Cette dualité entre droits nationaux et droit matériel uniforme nous met en face d'un constat bien évident: l'avènement de la Convention de Vienne sur la vente internationale de marchandises et la règle de la contravention essentielle qu'elle consacre, perturbent le paysage juridique jusqu'ici en vigueur dans chacun des États signataires. Ce qui justifie tout l'intérêt du sujet: la contravention essentielle par opposition à la règle de la stricte conformité et celle basée sur l'importance du préjudice prévues par les droits internes sont-elles des règles exclusives l'une de l'autre? La réponse est loin d'être certaine en dépit des convergences possibles dans le dénouement du contentieux de la résolution, même si par ailleurs il faut admettre qu'il s'agit de régimes juridiques bien différents. Tout en subordonnant la résolution du contrat à l'existence d'une contravention essentielle, lorsque la Convention de Vienne s'applique (DEUXIÈME PARTIE), la présente étude propose une interprétation de celle-ci en examinant son contenu ainsi que les différentes sources qui interfèrent dans sa mise en œuvre afin de démontrer que ce droit uniforme, malgré ses limites, régit les aspects documentaires de la vente internationale (PREMIÈRE PARTIE).
Resumo:
Given the fact of moral disagreement, theories of state neutrality which rely on moral premises will have limited application, in that they will fail to motivate anyone who rejects the moral premises on which they are based. By contrast, contractarian theories can be consistent with moral scepticism, and can therefore avoid this limitation. In this paper, I construct a contractarian model which I claim is sceptically consistent and includes a principle of state neutrality as a necessary condition. The principle of neutrality which I derive incorporates two conceptions of neutrality (consequential neutrality and justificatory neutrality) which have usually been thought of as distinct and incompatible. I argue that contractarianism gives us a unified account of these conceptions. Ultimately, the conclusion that neutrality can be derived without violating the constraint established by moral scepticism turns out to rely on an assumption of equal precontractual bargaining power. I do not attempt to defend this assumption here. If the assumption cannot be defended in a sceptically consistent fashion, then the argument for neutrality given here is claimed to be morally minimal, rather than fully consistent with moral scepticism.
Resumo:
La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.