46 resultados para progênie uniforme
Resumo:
Échange automatisé de messages préprogrammés, communication par courrier électronique, gestion électronique de documents (GED), Data warehouse, EDI… Le monde des affaires vibre depuis quelques années au rythme des nouvelles technologies de l’information. Le droit commercial lui, a du mal à emboîter le pas. Pourtant, les problèmes juridiques soulevés par ce règne de l’immatériel sont majeurs et les incertitudes, grandissantes. La mobilité accrue que permettent ces techniques modernes de transmission et de gestion des informations suggère une solution concertée, qui plus est, tiendra compte de l’évolution hâtée dans ce domaine. Le fondement en a été donné à travers la Loi type des Nations unies sur le commerce électronique en 1996. Plusieurs législations l’ont choisi comme modèle. La législation canadienne est de celles-ci, avec notamment sa Loi uniforme sur le commerce électronique adoptée par la Conférence pour l’harmonisation des lois au Canada en 1999. La législation québécoise aussi a suivi le mouvement. Le 16 juin 2000, un avant-projet de loi portant sur la normalisation juridique des technologies de l’information fut déposé devant l’Assemblée nationale. Cet avant-projet de loi est devenu projet de loi 161, Loi concernant le cadre juridique des technologies de l’information. Mais au-delà des apparences, le législateur québécois semble s’être écarté de la philosophie qui a influencé la Loi type et, conséquemment, la Loi uniforme. Si cette remarque est vérifiée, il faudra craindre l’isolement du Québec et, par ricochet, un positionnement peu concurrentiel dans le commerce international.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU)
Regenerative potential of corneal endothelium from patients with fuchs endothelial corneal dystrophy
Resumo:
La dystrophie cornéenne endothéliale de Fuchs (FECD, pour l’abréviation du terme anglais « Fuchs endothelial corneal dystrophy ») est une maladie de l'endothélium cornéen. Sa pathogenèse est mal connue. Aucun traitement médical n’est efficace. Le seul traitement existant est chirurgical et consiste dans le remplacement de l’endothélium pathologique par un endothélium sain provenant de cornées de la Banque des yeux. Le traitement chirurgical, en revanche, comporte 10% de rejet immunologique. Des modèles expérimentaux sont donc nécessaires afin de mieux comprendre cette maladie ainsi que pour le développement de traitements alternatifs. Le but général de cette thèse est de développer un modèle expérimental de la FECD en utilisant le génie tissulaire. Ceci a été réalisé en trois étapes. 1) Tout d'abord, l'endothélium cornéen a été reconstruit par génie tissulaire en utilisant des cellules endothéliales en culture, provenant de patients atteints de FECD. Ce modèle a ensuite été caractérisé in vitro. Brièvement, les cellules endothéliales cornéennes FECD ont été isolées à partir de membranes de Descemet prélevées lors de greffes de cornée. Les cellules au deuxième ou troisième passages ont ensuite été ensemencées sur une cornée humaine préalablement décellularisée. Suivant 2 semaines de culture, les endothélia cornéens reconstruits FECD (n = 6) ont été évalués à l'aide d'histologie, de microscopie électronique à transmission et d’immunomarquages de différentes protéines. Les endothélia cornéens reconstruits FECD ont formé une monocouche de cellules polygonales bien adhérées à la membrane de Descemet. Les immunomarquages ont démontré la présence des protéines importantes pour la fonctionnalité de l’endothélium cornéen telles que Na+-K+/ATPase α1 et Na+/HCO3-, ainsi qu’une expression faible et uniforme de la protéine clusterine. 2) Deux techniques chirurgicales (DSAEK ; pour « Descemet stripping automated endothelial keratoplasty » et la kératoplastie pénétrante) ont été comparées pour la transplantation cornéenne dans le modèle animal félin. Les paramètres comparés incluaient les défis chirurgicaux et les résultats cliniques. La technique « DSAEK » a été difficile à effectuer dans le modèle félin. Une formation rapide de fibrine a été observée dans tous les cas DSAEK (n = 5). 3) Finalement, la fonctionnalité in vivo des endothélia cornéens reconstruits FECD a été évaluée (n = 7). Les évaluations in vivo comprenaient la transparence, la pachymétrie et la tomographie par cohérence optique. Les évaluations post-mortem incluaient la morphométrie des cellules endothéliales, la microscopie électronique à transmission et des immunomarquage de protéines liées à la fonctionnalité. Après la transplantation, la pachymétrie a progressivement diminué et la transparence a progressivement augmenté. Sept jours après la transplantation, 6 des 7 greffes étaient claires. La microscopie électronique à transmission a montré la présence de matériel fibrillaire sous-endothélial dans toutes les greffes d’endothelia reconstruits FECD. Les endothélia reconstruits exprimaient aussi des protéines Na+-K+/ATPase et Na+/HCO3-. En résumé, cette thèse démontre que les cellules endothéliales de la cornée à un stade avancé FECD peuvent être utilisées pour reconstruire un endothélium cornéen par génie tissulaire. La kératoplastie pénétrante a été démontrée comme étant la procédure la plus appropriée pour transplanter ces tissus reconstruits dans l’œil du modèle animal félin. La restauration de l'épaisseur cornéenne et de la transparence démontrent que les greffons reconstruits FECD sont fonctionnels in vivo. Ces nouveaux modèles FECD démontrent une réhabilitation des cellules FECD, permettant d’utiliser le génie tissulaire pour reconstruire des endothelia fonctionnels à partir de cellules dystrophiques. Les applications potentielles sont nombreuses, y compris des études physiopathologiques et pharmacologiques.
Resumo:
La présente étude examine une des difficultés que soulève la résolution du contrat de vente en droit africain des affaires. L'Organisation pour l'Harmonisation en Afrique du Droit des Affaires (OHADA) créée par le Traité du 17 octobre 1993 organise les règles communautaires relatives à la résolution du contrat de vente. Le Livre VIII de l’Acte uniforme OHADA portant sur le Droit commercial Général a été adopté le 15 décembre 2010 et a abrogé l’Acte du 17 avril 1997. Selon l’article 281 de l’Acte uniforme, la résolution du contrat de vente ne survient que lors de l’inexécution totale ou partielle de l’obligation du cocontractant. Notre étude visera à évaluer les conséquences dans le droit de la vente OHADA de la substitution du critère de privation substantielle par celui de la gravité du comportement du débiteur justifiant une résolution unilatérale du contrat. Cette nouvelle position du droit de la vente OHADA se démarque dans une certaine mesure du droit matériel uniforme et rejoint un courant adapté aux impératifs socioéconomiques du commerce tant régional qu’international. En outre la partie lésée devra déterminer la gravité du comportement du débiteur au risque de voir sa demande sanctionnée pour défaut de droit et donner lieu à des dommages intérêts à l’autre partie. En effet, avec pour optique la nécessité de sauvegarder le contrat au nom du principe favor contractus, comment le juge détermine a posteriori si la gravité du comportement du cocontractant est suffisante pour anéantir le contrat? Ce nouveau critère de la gravité du comportement du cocontractant en droit de la vente OHADA vient supplanter le critère de la privation substantielle et fait cohabiter la traditionnelle résolution judiciaire avec celle de la résolution unilatérale dont les contours demeurent incertains. Les cas d’ouvertures liés à la résolution du contrat de vente OHADA pour inexécution des obligations fondamentales ou accessoires seront passés au crible de même que leurs effets sur les parties. Dans une approche comparatiste avec la Convention de Vienne et les règles de codifications privés telles que les Principes UNIDROIT ou du Droit Européen des Contrats il y a lieu de s’interroger sur la mise en œuvre et les conséquences de la résolution du contrat de vente OHADA par l’inexécution de l’obligation d’une des parties due à un manquement essentiel d’une part et à la gravité du comportement du débiteur d’autre part.
Resumo:
Le clade Dialiinae représente l’une des premières lignées de la sous-famille Caesalpinioideae des Leguminosae. Il se compose de 17 genres (environ 90 espèces), avec des taxons qui sont répandus dans toutes les régions tropicales du monde. Morphologiquement, le groupe comprend un assemblage divers de taxons qui peut représenter une «phase expérimentale» dans l’évolution florale des légumineuses. Différents représentants du clade présentent de la poly-, mono-, et asymétrie, et semblent avoir subi un haut degré de perte d’organe, produisant, dans certains cas, des fleurs extrêmement réduites qui sont à peine reconnaissables comme appartenant à la famille des légumineuses. Afin d’obtenir une image plus claire de l’évolution florale du clade Dialiinae, une phylogénie bien résolue et bien soutenue est nécessaire. Dans le but de créer une telle phylogénie, un total de 37 échantillons d’ADN des Dialiinae a été séquencé pour deux régions chloroplastiques, soit rps16 et trnL. De plus, une étude morphologique complète a été réalisée. Un total de 135 caractères végétatifs et reproductifs a été évalué pour 79 espèces de Dialiinae et pour quatre groupes externes. Les analyses phylogénétiques ont d’abord été effectuées sur un groupe restreint de taxons pour lesquels les trois types de données étaient disponibles. Les nœuds fortement soutenus de cette phylogénie ont ensuite été utilisés comme contrainte pour une seconde analyse de parcimonie avec les données morphologiques d’un ensemble plus important de taxons. Les caractères morphologiques ont été optimisés sur l’un des arbres les plus parcimonieux de cette seconde analyse. Un certain nombre de nouvelles relations au niveau de l’espèce ont été résolues, créant une image plus claire quant à l’évolution de la forme florale dans le temps, particulièrement pour les genres Labichea et Dialium. En plus de leur morphologie florale mature diverse, les Dialiinae sont également très variables dans leur ontogénèse florale, affichant à la fois la perte et la suppression des organes, et présentant une variété de modes d’initiation d’organes. Afin de construire une image plus complète du développement floral et de l’évolution dans ce clade, l’ontogénèse florale de plusieurs espèces non documentées à ce jour a été étudiée. La série complète du développement a été compilée pour six espèces de Dialiinae; quatre de Dialium, ainsi que Poeppigia procera et Mendoravia dumaziana. Le mode et le moment de l’initiation des organes étaient pour la plupart uniforme pour toutes les espèces de Dialium étudiés. Tant pour ce qui est des gains ou des pertes d’organes chez Dialium, une tendance est apparente – l’absence d’organe abaxial. Que ce soit pour les sépales ou les étamines, les gains se produisent toujours en position médiane adaxiale, tandis que les étamines et les pétales perdus sont toujours les organes les plus ventraux. Les taxons étudiés ici illustrent le manque apparent de canalisation du développement observé chez les Caesalpinioideae. Cette plasticité ontogénétique est le reflet de la diversité morphologique au niveau des fleurs tel qu’observée dans l’ensemble de la sous-famille. Une des espèces de Dialiinae, Apuleia leiocarpa, produit une inflorescence andromonoïque, une caractéristique qui est unique en son clade et rare dans les légumineuses dans son ensemble. La microscopie optique et électronique ont été utilisées pour entreprendre une étude détaillée de la morphologie florale de ce taxon. On a constaté que tandis que les fleurs hermaphrodites produisent un seul carpelle et deux étamines, les fleurs staminées produisent trois étamines sans toutefois montrer signe de développement du carpelle. Les inflorescences semblent produire près de quatre fois plus de fleurs staminées que de fleurs hermaphrodites, lesquelles occupent toujours la position centrale de l’inflorescence cymeuse. Ce ratio élevé mâle/bisexuel et la détermination précoce du sexe chez Apuleia sont rares chez les Caesalpinioideae, ce qui suggère que l’andromonoecie se développe dans ce genre comme un moyen d’accroître la dispersion du pollen plutôt qu’en réponse à des limitations de ressources.
Resumo:
Le sujet principal de cette thèse porte sur l'étude de l'estimation de la variance d'une statistique basée sur des données d'enquête imputées via le bootstrap (ou la méthode de Cyrano). L'application d'une méthode bootstrap conçue pour des données d'enquête complètes (en absence de non-réponse) en présence de valeurs imputées et faire comme si celles-ci étaient de vraies observations peut conduire à une sous-estimation de la variance. Dans ce contexte, Shao et Sitter (1996) ont introduit une procédure bootstrap dans laquelle la variable étudiée et l'indicateur de réponse sont rééchantillonnés ensemble et les non-répondants bootstrap sont imputés de la même manière qu'est traité l'échantillon original. L'estimation bootstrap de la variance obtenue est valide lorsque la fraction de sondage est faible. Dans le chapitre 1, nous commençons par faire une revue des méthodes bootstrap existantes pour les données d'enquête (complètes et imputées) et les présentons dans un cadre unifié pour la première fois dans la littérature. Dans le chapitre 2, nous introduisons une nouvelle procédure bootstrap pour estimer la variance sous l'approche du modèle de non-réponse lorsque le mécanisme de non-réponse uniforme est présumé. En utilisant seulement les informations sur le taux de réponse, contrairement à Shao et Sitter (1996) qui nécessite l'indicateur de réponse individuelle, l'indicateur de réponse bootstrap est généré pour chaque échantillon bootstrap menant à un estimateur bootstrap de la variance valide même pour les fractions de sondage non-négligeables. Dans le chapitre 3, nous étudions les approches bootstrap par pseudo-population et nous considérons une classe plus générale de mécanismes de non-réponse. Nous développons deux procédures bootstrap par pseudo-population pour estimer la variance d'un estimateur imputé par rapport à l'approche du modèle de non-réponse et à celle du modèle d'imputation. Ces procédures sont également valides même pour des fractions de sondage non-négligeables.
Resumo:
Le droit des contrats est reconnu comme étant la charnière juridique des activités économiques. Ceci explique, entre autres, l’engouement des organisations supranationales européennes, nord-américaines et asiatiques pour son harmonisation. L’Afrique de l’OHADA n’est pas restée en marge de ce phénomène juridique notamment avec l’avant-projet d’Acte uniforme sur le droit des contrats. Partant de cet avant-projet, véritable décalque des principes d’UNIDROIT, mais sans s’y limiter, l’auteur pose les jalons d’un cadre de référence africain pour un droit des contrats. Cette construction passe d’abord par l’identification des enjeux posés par ce corpus contractuel à vocation panafricaine. Ces enjeux sont à la fois théoriques et pratiques, économiques, juridiques, et extra-juridiques. Sur la base des enjeux ainsi cernés, l’auteur s’emploie à faire des orientations fondamentales au législateur africain de l’OHADA et aux parties contractantes. Il se base ensuite sur ces orientations pour proposer des amendements aux piliers contractuels contemporains en les rapprochant des spécificités contractuelles africaines précisées. Le cadre de référence ainsi esquissé, est enfin confronté à la pratique des expériences européennes et nord-américaines existantes afin d’en apprécier la pertinence pour le bénéfice du commerce transfrontalier africain.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
Au Québec, le policier a l’autorité de faire respecter plusieurs lois et d’assurer le maintien de l’ordre. Puisque le policier peut être confronté à une multiplicité de problématiques, il est, dans certaines circonstances, contraint à employer une force pour se protéger lui-même ou pour protéger toute autre personne contre la mort ou contre des lésions corporelles graves. Cependant, bien que l’usage de la force par la police soit l’un des éléments les plus visibles et les plus controversés de l’intervention policière, les connaissances sur ce sujet spécifique demeurent limitées. Afin de pallier à certaines lacunes de la recherche et de la théorie, l’objectif général de ce mémoire vise à identifier les facteurs individuels, situationnels et contextuels liés au niveau de force utilisé par la police lors d’une intervention dans les postes de quartier et dans les secteurs de recensement. Les données dans le cadre de cette étude proviennent des rapports d’incidents déclarés d’usage de la force d’un service de police canadien pour une période couvrant les années 2007 à 2011, les données issues du recensement canadien de 2006 et les données criminelles issues du Programme de déclaration uniforme de la criminalité (DUC). La stratégie analytique privilégiée est la modélisation hiérarchique qui permettra de tester les liens entre les différents niveaux d’analyse. Au terme des analyses multiniveaux, les résultats indiquent que plusieurs facteurs ont un impact sur le niveau de force utilisé par le policier. Au niveau des déterminants individuels du sujet, c’est le fait d’être un homme, de résister physiquement à l’intervention et de posséder une arme qui est associé à des niveaux plus élevés de force. Au niveau des facteurs contextuels, on découvre que la proportion de minorité visible et le désavantage social ont un impact appréciable sur le niveau de force utilisé par le policier. Ces résultats nous amènent donc à conclure que les policiers tiennent surtout compte de la situation immédiate (facteurs individuels et situationnels) pour évaluer le degré de dangerosité ou de menace, mais qu’ils sont également influencés par l’endroit où ils se trouvent. D’autres études sont toutefois nécessaires pour vérifier la constance de nos résultats.
Resumo:
L’objet du travail est d’étudier les prolongements de sous-copules. Un cas important de l’utilisation de tels prolongements est l’estimation non paramétrique d’une copule par le lissage d’une sous-copule (la copule empirique). Lorsque l’estimateur obtenu est une copule, cet estimateur est un prolongement de la souscopule. La thèse présente au chapitre 2 la construction et la convergence uniforme d’un estimateur bona fide d’une copule ou d’une densité de copule. Cet estimateur est un prolongement de type copule empirique basé sur le lissage par le produit tensoriel de fonctions de répartition splines. Le chapitre 3 donne la caractérisation de l’ensemble des prolongements possibles d’une sous-copule. Ce sujet a été traité par le passé; mais les constructions proposées ne s’appliquent pas à la dépendance dans des espaces très généraux. Le chapitre 4 s’attèle à résoudre le problème suivant posé par [Carley, 2002]. Il s’agit de trouver la borne supérieure des prolongements en dimension 3 d’une sous-copule de domaine fini.
Resumo:
La présente étude visait à développer un protocole de fixation et d'échantillonnage pour le poumon équin suivant les directives publiées sur l’utilisation d’une approche stéréologique de type « design-based ». Les poumons gauches de chevaux contrôles et atteints du souffle ont été fixés avec du formaldéhyde 10% pendant 48h à une pression constante de 25-30 cm d’H2O. Les poumons ont été sectionnés en 20-21 tranches d’une épaisseur d'environ 2,5 cm chacune; de 10-11 tranches ont été sélectionnées de façon aléatoire et systématique pour la mesure du volume de référence avec la méthode de Cavalieri. Un protocole d’échantillonnage systématique, aléatoire et uniforme utilisant le principe du « smooth fractionator » et un poinçon à biopsie de 17 mm ont été utilisés pour échantillonner une fraction représentative de chaque poumon. Les méthodes d’échantillonnage de sections verticales, uniformes et aléatoires (VUR) et d’échantillonnage isotropique, uniforme et aléatoire (IUR) ont toutes deux été effectuées pour comparer le nombre de voies respiratoires en coupe perpendiculaire obtenues à partir de chaque méthode. L'architecture globale et la qualité des tissus fixés ont également été évaluées. Des spécimens pulmonaires équins ont été échantillonnés avec succès selon un protocole visant à produire des données morphométriques valides. Les tissus ont été fixés avec un minimum d'artéfacts et contenaient une quantité suffisante de voies respiratoires en coupe perpendiculaire dans les deux types d’échantillons. En conclusion, un protocole de fixation et d'échantillonnage adapté au poumon équin permettant l'utilisation d'une approche stéréologique de type « design-based » a été élaboré pour l’étude du remodelage des voies respiratoires.
Resumo:
Dans cette thèse, nous étudions les fonctions propres de l'opérateur de Laplace-Beltrami - ou simplement laplacien - sur une surface fermée, c'est-à-dire une variété riemannienne lisse, compacte et sans bord de dimension 2. Ces fonctions propres satisfont l'équation $\Delta_g \phi_\lambda + \lambda \phi_\lambda = 0$ et les valeurs propres forment une suite infinie. L'ensemble nodal d'une fonction propre du laplacien est celui de ses zéros et est d'intérêt depuis les expériences de plaques vibrantes de Chladni qui remontent au début du 19ème siècle et, plus récemment, dans le contexte de la mécanique quantique. La taille de cet ensemble nodal a été largement étudiée ces dernières années, notamment par Donnelly et Fefferman, Colding et Minicozzi, Hezari et Sogge, Mangoubi ainsi que Sogge et Zelditch. L'étude de la croissance de fonctions propres n'est pas en reste, avec entre autres les récents travaux de Donnelly et Fefferman, Sogge, Toth et Zelditch, pour ne nommer que ceux-là. Notre thèse s'inscrit dans la foulée du travail de Nazarov, Polterovich et Sodin et relie les propriétés de croissance des fonctions propres avec la taille de leur ensemble nodal dans l'asymptotique $\lambda \nearrow \infty$. Pour ce faire, nous considérons d'abord les exposants de croissance, qui mesurent la croissance locale de fonctions propres et qui sont obtenus à partir de la norme uniforme de celles-ci. Nous construisons ensuite la croissance locale moyenne d'une fonction propre en calculant la moyenne sur toute la surface de ces exposants de croissance, définis sur de petits disques de rayon comparable à la longueur d'onde. Nous montrons alors que la taille de l'ensemble nodal est contrôlée par le produit de cette croissance locale moyenne et de la fréquence $\sqrt{\lambda}$. Ce résultat permet une reformulation centrée sur les fonctions propres de la célèbre conjecture de Yau, qui prévoit que la mesure de l'ensemble nodal croît au rythme de la fréquence. Notre travail renforce également l'intuition répandue selon laquelle une fonction propre se comporte comme un polynôme de degré $\sqrt{\lambda}$. Nous généralisons ensuite nos résultats pour des exposants de croissance construits à partir de normes $L^q$. Nous sommes également amenés à étudier les fonctions appartenant au noyau d'opérateurs de Schrödinger avec petit potentiel dans le plan. Pour de telles fonctions, nous obtenons deux résultats qui relient croissance et taille de l'ensemble nodal.
Resumo:
Cette thèse est une collection de trois articles en économie de l'information. Le premier chapitre sert d'introduction et les Chapitres 2 à 4 constituent le coeur de l'ouvrage. Le Chapitre 2 porte sur l’acquisition d’information sur l’Internet par le biais d'avis de consommateurs. En particulier, je détermine si les avis laissés par les acheteurs peuvent tout de même transmettre de l’information à d’autres consommateurs, lorsqu’il est connu que les vendeurs peuvent publier de faux avis à propos de leurs produits. Afin de comprendre si cette manipulation des avis est problématique, je démontre que la plateforme sur laquelle les avis sont publiés (e.g. TripAdvisor, Yelp) est un tiers important à considérer, autant que les vendeurs tentant de falsifier les avis. En effet, le design adopté par la plateforme a un effet indirect sur le niveau de manipulation des vendeurs. En particulier, je démontre que la plateforme, en cachant une partie du contenu qu'elle détient sur les avis, peut parfois améliorer la qualité de l'information obtenue par les consommateurs. Finalement, le design qui est choisi par la plateforme peut être lié à la façon dont elle génère ses revenus. Je montre qu'une plateforme générant des revenus par le biais de commissions sur les ventes peut être plus tolérante à la manipulation qu'une plateforme qui génère des revenus par le biais de publicité. Le Chapitre 3 est écrit en collaboration avec Marc Santugini. Dans ce chapitre, nous étudions les effets de la discrimination par les prix au troisième degré en présence de consommateurs non informés qui apprennent sur la qualité d'un produit par le biais de son prix. Dans un environnement stochastique avec deux segments de marché, nous démontrons que la discrimination par les prix peut nuire à la firme et être bénéfique pour les consommateurs. D'un côté, la discrimination par les prix diminue l'incertitude à laquelle font face les consommateurs, c.-à-d., la variance des croyances postérieures est plus faible avec discrimination qu'avec un prix uniforme. En effet, le fait d'observer deux prix (avec discrimination) procure plus d'information aux consommateurs, et ce, même si individuellement chacun de ces prix est moins informatif que le prix uniforme. De l'autre côté, il n'est pas toujours optimal pour la firme de faire de la discrimination par les prix puisque la présence de consommateurs non informés lui donne une incitation à s'engager dans du signaling. Si l'avantage procuré par la flexibilité de fixer deux prix différents est contrebalancé par le coût du signaling avec deux prix différents, alors il est optimal pour la firme de fixer un prix uniforme sur le marché. Finalement, le Chapitre 4 est écrit en collaboration avec Sidartha Gordon. Dans ce chapitre, nous étudions une classe de jeux où les joueurs sont contraints dans le nombre de sources d'information qu'ils peuvent choisir pour apprendre sur un paramètre du jeu, mais où ils ont une certaine liberté quant au degré de dépendance de leurs signaux, avant de prendre une action. En introduisant un nouvel ordre de dépendance entre signaux, nous démontrons qu'un joueur préfère de l'information qui est la plus dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, compléments stratégiques et isotoniques, soit substituts stratégiques et anti-toniques, avec la sienne. De même, un joueur préfère de l'information qui est la moins dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, substituts stratégiques et isotoniques, soit compléments stratégiques et anti-toniques, avec la sienne. Nous établissons également des conditions suffisantes pour qu'une structure d'information donnée, information publique ou privée par exemple, soit possible à l'équilibre.
Resumo:
Ce mémoire s'intéresse à la reconstruction d'un modèle 3D à partir de plusieurs images. Le modèle 3D est élaboré avec une représentation hiérarchique de voxels sous la forme d'un octree. Un cube englobant le modèle 3D est calculé à partir de la position des caméras. Ce cube contient les voxels et il définit la position de caméras virtuelles. Le modèle 3D est initialisé par une enveloppe convexe basée sur la couleur uniforme du fond des images. Cette enveloppe permet de creuser la périphérie du modèle 3D. Ensuite un coût pondéré est calculé pour évaluer la qualité de chaque voxel à faire partie de la surface de l'objet. Ce coût tient compte de la similarité des pixels provenant de chaque image associée à la caméra virtuelle. Finalement et pour chacune des caméras virtuelles, une surface est calculée basée sur le coût en utilisant la méthode de SGM. La méthode SGM tient compte du voisinage lors du calcul de profondeur et ce mémoire présente une variation de la méthode pour tenir compte des voxels précédemment exclus du modèle par l'étape d'initialisation ou de creusage par une autre surface. Par la suite, les surfaces calculées sont utilisées pour creuser et finaliser le modèle 3D. Ce mémoire présente une combinaison innovante d'étapes permettant de créer un modèle 3D basé sur un ensemble d'images existant ou encore sur une suite d'images capturées en série pouvant mener à la création d'un modèle 3D en temps réel.
Resumo:
Les personnes vieillissantes doivent composer au quotidien avec des douleurs chroniques. Le but de ce travail est de mieux comprendre les mécanismes sous-jacents qui contribueraient aux douleurs chroniques liées au vieillissement et par là, ouvrir un chemin vers de nouvelles perspectives thérapeutiques. Les contrôles inhibiteurs diffus nociceptifs (CIDN) ont un rôle qui n’est pas des moindres dans le contrôle de la douleur. Des études expérimentales examinant l’effet analgésique de la contre stimulation hétérotopique nociceptive (HNCS), un protocole permettant de tester l’efficacité de ces CIDN, suggèrent que le recrutement des CIDN au sein de cette population était plus faible (i.e. moins d’inhibition) comparé à une population plus jeune. En revanche, les études examinant la sensibilisation centrale induite par sommation temporelle (TS) de la douleur rapportent des résultats mitigés. De plus, une composante importante influençant l’expérience de douleur, les ressources cognitives, dont l’inhibition cognitive, se voient aussi décliner avec l’âge. Premièrement, le recrutement des CIDN a été comparé entre des participants sains, jeunes et des plus âgés avec la HNCS, et le recrutement des mécanismes de sensibilisation centrale avec la TS. La stimulation électrique du nerf sural a été choisie pour permettre de quantifier la douleur, tout en prenant une mesure indicative de la nociception spinale qu’est le réflexe nociceptif spinal (RIII). Nos sujets ont aussi participé à une tâche cognitive (le Stroop), testant l’inhibition cognitive. Deuxièmement, l’efficacité des CIDN ainsi que de l’inhibition cognitive a été testée chez les jeunes et les aînés en imagerie par résonance magnétique (IRM), afin de vérifier la relation entre ces deux mesures psychophysiques et l’épaisseur corticale des régions qui y sont impliquées ainsi que l’effet de l’âge sur celles-ci. Les résultats suggèrent un moindre recrutement des CIDN chez les plus âgés lors de l’expérimentation de la HNCS. Également, les sujets âgés présentaient des capacités d’inhibitions cognitives plus faibles que les jeunes. En plus, une corrélation entre l’inhibition cognitive et la modulation du réflexe RIII par la HNCS a été mise en évidence. Pour l’expérience de TS, les résultats étaient comparables pour les deux groupes, suggérant que les mécanismes impliqués dans la régulation de la douleur ne subiraient pas l’effet de l’âge de la même manière. Pour l’étude de l’épaisseur corticale, on y trouve une diminution globale de l’épaisseur corticale liée à l’âge, mais aussi une corrélation de l’analgésie par la HNCS avec l’inhibition cognitive et également, une relation des deux avec l’épaisseur corticale du cortex orbitofrontal (OFC) latéral gauche, suggérant la possibilité d’une existence d’un réseau neuronal au moins partiellement commun du contrôle inhibiteur descendant sensoriel et cognitif. Ce travail montre que l’effet de l’âge sur les mécanismes centraux de la régulation de la douleur est loin d’être uniforme. Également, il montre une corrélation entre la modulation endogène de la douleur et l’inhibition cognitive, ces deux processus seraient associés à une même région cérébrale. Ces résultats pourraient contribuer à identifier d’autres méthodes thérapeutiques, ouvrant ainsi une nouvelle avenue vers d’autres options dans la prise en charge des douleurs chroniques chez les personnes vieillissantes.