16 resultados para default
em Université de Montréal, Canada
Resumo:
Rapport de recherche
Resumo:
Plusieurs éléments de la pathogenèse de la scoliose idiopathique de l’adolescent indiquent que les estrogènes pourraient intervenir dans le développement et la progression de cette maladie. Ce projet avait donc pour but d’explorer l’expression et la fonctionnalité des récepteurs aux estrogènes ERα et ERβ ainsi que leurs isoformes dans les ostéoblastes de patients scoliotiques et sains. L’induction des gènes de facteurs influençant la minéralisation et la différenciation des ostéoblastes par les estrogènes a également été étudié. Par immunofluorescence, nous avons remarqué une augmentation de la présence protéique de ERβ dans les ostéoblastes de patients SIA comparé aux sujets contrôles. Les récepteurs aux estrogènes provenant des ostéoblastes des patients sont fonctionnels tout comme ceux des contrôles et aucune différence dans l'interaction ADN-protéine n’a été observée. Il y a également une augmentation de l’expression génique de l’ostéopontine, l’ostéocalcine, le collagène de type I, la phosphatase alkaline et BMP2 dans les ostéoblastes des patients SIA. Un début de minéralisation in vitro a été observé dans les ostéoblastes de patients SIA et contrôles. ERα et ERβ sont présents et fonctionnels dans les ostéoblastes des patients SIA et sains. Leur expression est variable, mais ces variations existent chez les patients SIA et les contrôles. L’implication des estrogènes dans la SIA ne serait donc pas au niveau des récepteurs aux estrogènes mais au niveau de l’interactions des estrogènes avec d’autres facteurs étiologiques tels que la mélatonine, la formation/résorption osseuse ou autres facteurs neuro-endocriniens.
Resumo:
Le contexte culturel particulier à la Chine influe sur le choix du mode de résolution des différends commerciaux comportant un lien d'extranéité. Plusieurs mécanismes de préventions des litiges sont utilisés en Chine. La conciliation et médiation sont issues d'une tradition plus que millénaire en Chine, elles occupent donc un rôle important dans la résolution des différends commerciaux. La conciliation est ainsi presque toujours mise en branle antérieurement à un règlement des différends comportant des solutions contraignantes pour les parties soit un jugement ou une sentence arbitrale. L'analyse de la structure juridique chinoise nous permet de soulever les lacunes relatives à l'utilisation de ce véhicule dans la résolution d'un litige. Effectivement, l'indépendance judiciaire est défaillante ce qui a pour conséquences de préférer l'arbitrage aux tribunaux judiciaires. Malgré cette défaillance, certains investisseurs étrangers pourraient y recourir ce qui nécessite alors une connaissance minimale de ce système juridique. Le règlement des différends, en Chine, relatif à un élément d'extranéité s'effectue principalement par voie arbitrale. De ce fait, deux catégories d'arbitrage doivent alors être présentées ce qui permet d'écarter en Chine l'arbitrage ad hoc qui n'est pas expressément interdit, ni permis. Cette situation a permis à l'arbitrage institutionnel de se développer de façon considérable particulièrement par le biais de la CIETAC qui constitue ainsi l'institution de choix. Mais parallèlement à elle, il ne faut pas négliger les institutions arbitrales étrangères ayant sis sur le territoire chinois qui, de plus en plus, attirent les investisseurs étrangers, et leurs partenaires.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Cette recherche s'intéresse aux perceptions des personnes itinérantes sur leur judiciarisation et leurs incarcérations. La judiciarisation s'opère suite à la remise de constats d'infractions en lien avec les règlementations municipales de la ville, celles de la Société des Transports de Montréal ainsi que le Code de Sécurité Routière. Elle relève donc de la procédure pénale, par opposition au code criminel et concerne des infractions mineures, souvent en lien avec des incivilités. Ultimement, la judiciarisation conduit à l'emprisonnement faute de paiement de l'amende. L'objectif de cette recherche est de mieux comprendre les perceptions à partir d'une compréhension des effets au plan matériel, des relations entretenues avec les différents acteurs socio-judiciaires et du regard que les personnes portent sur la justice à partir de leur expérience. Ancrée dans un cadre théorique fondé sur la reconnaissance (Honneth, 2000), l'expérience de judiciarisation et de l'incarcération est conçue et révélatrice d'un rapport entre la personne itinérante et le système de justice. Pour réaliser cette étude, deux méthodologies complémentaires ont été utilisées. La première s'appuie sur 29 entrevues réalisées avec des personnes itinérantes, portant sur leurs expériences de judiciarisation et sur leur expérience de rue. La seconde a consisté en une analyse statistique descriptive des dossiers judiciaires des 29 personnes, dossiers comprenant l'ensemble des infractions reprochées (criminelles et pénales) ainsi que le processus judiciaire suivi par chacune.
Resumo:
Ce mémoire porte sur le traité de Venise de 1201, passé entre les barons de la Quatrième Croisade et la république de Venise, pour l’affrètement d’une flotte incluant transport et vivres. L’étude du Traité est d’autant plus importante que, les croisés manquant à leurs obligations, cet accord eut un impact déterminant sur la suite de la Croisade, se plaçant ainsi au cœur de sa déviation vers Constantinople. Le mémoire analyse d’abord la nature et l’ampleur des engagements pris par Venise, en essayant de quantifier et de mesurer en termes économiques le nombre de bateaux et de croisés transportés, ainsi que le poids et le coût des provisions pour hommes et chevaux. Cette analyse, basée sur la comparaison avec des contrats analogues, prouve que la somme de 85 000 marcs d’argent convenue avec les barons n’était en rien exagérée. Parallèlement, le mémoire évalue ce que pouvait signifier, dans le contexte économique de l’époque, une telle somme, et tente d’identifier les raisons pour lesquelles les croisés furent dans l’impossibilité d’honorer leur part du contrat. Cette analyse montre que, contrairement à une certaine historiographie traditionnelle, il serait faux d’imputer aux Vénitiens la responsabilité du détournement de la Croisade ou de les taxer d’intransigeance, de cupidité, voire de duplicité. L’effort fourni par la République indique qu’elle mit tout en œuvre pour que l’entreprise fût une réussite. L’interruption du commerce, la construction de nombreux navires, la réquisition de milliers de marins pour manœuvrer la flotte et la logistique pour approvisionner des dizaines de milliers d’hommes témoignent toutes de l’ampleur de l’implication vénitienne. C’est le défaut de paiement des croisés, qui força le doge Henri Dandolo à se commettre plus avant encore, joignant irrémédiablement la fortune de la ville marchande à celle de l’expédition.
Resumo:
Cette thèse examine les effets des imperfections des marchés financiers sur la macroéconomie. Plus particulièrement, elle se penche sur les conséquences de la faillite dans les contrats financiers dans une perspective d'équilibre général dynamique. Le premier papier construit un modèle qui utilise l'avantage comparatif des banques dans la gestion des situations de détresse financière pour expliquer le choix des firmes entre les prêts bancaires et les prêts du marché financier. Le modèle réussit à expliquer pourquoi les firmes plus petites préfèrent le financement bancaire et pourquoi les prêts bancaires sont plus répandus en Europe. Le premier fait est expliqué par le lien négatif entre la valeur nette de l'entreprise et la probabilité de faire faillite. Le deuxième fait s'explique par le coût fixe d'émission de bons plus élevé en Europe. Le deuxième papier examine l'interaction entre les contraintes de financement affectant les ménages et les firmes. Une interaction positive pourrait amplifier et augmenter la persistance de l'effet d'un choc agrégé sur l'économie. Je construis un nouveau modèle qui contient des primes de financement externes pour les firmes et les ménages. Dans le modèle de base avec prix et salaires flexibles, j'obtiens une faible interaction négative entre les coûts de financement des firmes et des ménages. Le facteur clé qui explique ce résultat est l'effet du changement contre cyclique du coût de financement des ménages sur leur offre de travail et leur demande de prêts. Dans une période d'expansion, cet effet augmente les taux d'intérêt, réduit l'investissement et augmente le coût de financement des entreprises. Le troisième papier ajoute les contraintes de financement des banques dans un modèle macroéconomiques avec des prêts hypothécaires et des fluctuations dans les prix de l'immobilier. Les banques dans le modèle ne peuvent pas complètement diversifier leurs prêts, ce qui génère un lien entre les risques de faillite des ménages et des banques. Il y a deux effets contraires des cycles économiques qui affectent la prime de financement externe de la banque. Premièrement, il y a un lien positif entre le risque de faillite des banques et des emprunteurs qui contribue à rendre le coût de financement externe des banques contre cyclique. Deuxiément, le lissage de la consommation par les ménages rend la proportion de financement externe des banques pro cyclique, ce qui tend à rendre le coût de financement bancaire pro cyclique. En combinant ces deux effets, le modèle peut reproduire des profits bancaires et des ratios d'endettement bancaires pro cycliques comme dans les données, mais pour des chocs non-financiers les frictions de financement bancaire dans le modèle n'ont pas un effet quantitativement significatif sur les principales variables agrégées comme la consommation ou l'investissement.
Resumo:
La sous-traitance est une pratique constante dans le domaine de la construction, en raison de ses atouts économiques et techniques. Par cette pratique, les sous-traitants effectuent des travaux sans être, sur le plan juridique, liés contractuellement au maître de l’ouvrage. Comment assurer le paiement de leurs créances, eu égard au risque de défaillance de l'entrepreneur. Le législateur a prévu un régime légal de protection et la pratique a élaboré des mécanismes. Le régime légal, bien qu’il assure efficacement la protection des créances des sous-traitants, comporte certaines faiblesses dans son application qui peuvent causer des inconvénients aux sous-traitants et au propriétaire. L’assurance de titres et des retenues de fonds par l’institution financière ou le notaire peuvent pallier ces difficultés pour le propriétaire. Les mécanismes de protection élaborés par la pratique, tels que le cautionnement et les garanties monétaires, accroissent la protection des sous-traitants lorsqu’ils sont utilisés parallèlement au régime légal et profitent au propriétaire.
Resumo:
La méditation par le ‘mindfulness’ favorise la stabilité émotionelle, mais les mécanismes neuroneux qui sous-tendent ces effets sont peu connus. Ce projet investiga l’effet du ‘mindfulness’ sur les réponses cérébrales et subjectives à des images négatives, positives et neutres chez des méditants expérimentés et des débutants au moyen de l’imagerie par résonance magnétique fonctionnelle (IRMf). Le ‘mindfulness’ atténua l’intensité émotionelle via différents mécanismes cérébraux pour chaque groupe. Comparés aux méditants, les débutants manifestèrent une déactivation de l’amygdale en réponse aux stimuli émotifs durant le ‘mindfulness’. Comparés aux débutants, les méditants exhibèrent une déactivation de régions du réseau du mode par défaut (RMD) pendant le ‘mindfulness’ pour tous stimuli (cortex médian préfrontal [CMP], cortex cingulaire postérieur [CCP]). Le RMD est constitué de régions fonctionnellement connectées, activées au repos et déactivées lors de tâches explicites. Cependant, nous ne connaissons pas les impacts de l’entraînement par la méditation sur la connectivité entre régions du RMD et si ces effets persistent au-delà d’un état méditatif. La connectivité fonctionnelle entre régions du RMD chez les méditants et débutants au repos fut investiguée au moyen de l’IRMf. Comparés aux débutants, les méditants montrèrent une connectivité affaiblie entre subdivisions du CMP, et une connectivité accrue entre le lobule pariétal inférieur et trois regions du RMD. Ces résultats reflètent que les bienfaits immédiats du ‘mindfulness’ sur la psychopathologie pourraient être dûs à une déactivation de régions limbiques impliquées dans la réactivité émotionelle. De plus, les bienfaits à long-terme de la méditation sur la stabilité émotionelle pourrait être dûs à une déactivation de régions corticales et cingulaires impliquées dans l’évaluation de la signification émotive et une connectivité altérée entre régions du RMD à l’état de repos.
Resumo:
L’aphasie est un trouble acquis du langage entraînant des problèmes de communication pouvant toucher la compréhension et/ou l’expression. Lorsque l’aphasie fait suite à un accident vasculaire cérébral, une régression des déficits communicatifs s'observe initialement, mais elle peut demeurer sévère pour certains et est considérée chronique après un an. Par ailleurs, l’aphasie peut aussi être observée dans l’aphasie progressive primaire, une maladie dégénérative affectant uniquement le langage dans les premières années. Un nombre grandissant d’études s’intéressent à l’impact de la thérapie dans l’aphasie chronique et ont démontré des améliorations langagières après plusieurs années. L’hémisphère gauche semble avoir un rôle crucial et est associé à de meilleures améliorations langagières, mais la compréhension des mécanismes de plasticité cérébrale est encore embryonnaire. Or, l’efficacité de la thérapie dans l’aphasie progressive primaire est peu étudiée. À l’aide de la résonance magnétique fonctionnelle, le but des présentes études consiste à examiner les mécanismes de plasticité cérébrale induits par la thérapie Semantic Feature Analysis auprès de dix personnes souffrant d’aphasie chronique et d’une personne souffrant d’aphasie progressive primaire. Les résultats suggèrent que le cerveau peut se réorganiser plusieurs années après une lésion cérébrale ainsi que dans une maladie dégénérative. Au niveau individuel, une meilleure amélioration langagière est associée au recrutement de l’hémisphère gauche ainsi qu’une concentration des activations. Les analyses de groupe mettent en évidence le recrutement du lobule pariétal inférieur gauche, alors que l’activation du gyrus précentral gauche prédit l’amélioration suite à la thérapie. D’autre part, les analyses de connectivité fonctionnelle ont permis d’identifier pour la première fois le réseau par défaut dans l’aphasie. Suite à la thérapie, l’intégration de ce réseau bien connu est comparable à celle des contrôles et les analyses de corrélation suggèrent que l’intégration du réseau par défaut a une valeur prédictive d’amélioration. Donc, les résultats de ces études appuient l’idée que l’hémisphère gauche a un rôle prépondérant dans la récupération de l’aphasie et fournissent des données probantes sur la neuroplasticité induite par une thérapie spécifique du langage dans l’aphasie. De plus, l’identification d’aires clés et de réseaux guideront de futures recherches afin d’éventuellement maximiser la récupération de l’aphasie et permettre de mieux prédire le pronostic.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
I study long-term financial contracts between lenders and borrowers in the absence of perfect enforceability and when both parties are credit constrained. Borrowers repeatedly have projects to undertake and need external financing. Lenders can commit to contractual agreements whereas borrowers can renege any period. I show that equilibrium contracts feature interesting dynamics: the economy exhibits efficient investment cycles; absence of perfect enforcement and shortage of capital skew the cycles toward states of liquidity drought; credit is rationed if either the lender has too little capital or if the borrower has too little collateral. This paper's technical contribution is its demonstration of the existence and characterization of financial contracts that are solutions to a non-convex dynamic programming problem.
Resumo:
Nous présentons les résultats de trois campagnes d'observation d'un mois chacune dans le cadre de l'étude de la collision des vents dans les systèmes binaires Wolf-Rayet + OB. Ce travail se concentre sur l'étude des objets de l'hémisphère sud n'ayant jamais encore fait l'objet d'études poussées dans ce contexte. À cela, nous avons ajouté l'objet archétype pour ce type de systèmes : WR 140 (WC7pd + O5.5fc) qui a effectué son dernier passage périastre en janvier 2009. Les deux premières campagnes (spectroscopiques), ont permis une mise à jour des éléments orbitaux ainsi qu'une estimation de la géométrie de la zone de collision des vents et d'autres paramètres fondamentaux des étoiles pour 6 systèmes binaires : WR 12 (WN8h), 21 (WN5o+O7V), 30 (WC6+O7.5V), 31 (WN4o+O8), 47 (WN6o+O5) et 140. Une période non-orbitale courte (probablement reliée à la rotation) a également été mesurée pour un des objets : WR 69 (WC9d+OB), avec une période orbitale bien plus grande. La troisième campagne (photométrique) a révélé une variabilité étonnamment faible dans un échantillon de 20 étoiles WC8/9. Cela supporte l'idée que les pulsations ne sont pas courantes dans ce type d'étoiles et qu'il est peu probable que celles-ci soient le mécanisme dominant de formation de poussière, suggérant, par défaut, le rôle prédominant de la collision des vents.
Resumo:
"L’enregistrement de noms de domaine, basé sur la règle du « premier arrivé, premier servi », n’a pas échappé à des personnes peu scrupuleuses qui se sont empressées d’enregistrer comme noms de domaine des marques de commerce, phénomène connu sous le nom de « cybersquattage ». L’U.D.R.P. (Uniform domain name Dispute Resolution Policy) est une procédure internationale qui a été adoptée pour régler les différends relatifs à cette pratique. La procédure de l’U.D.R.P. est conçue pour être rapide, efficace et simple. Même si le fardeau de preuve reposant sur le titulaire de marque de commerce peut sembler lourd, l’analyse de la procédure démontre qu’elle n’offre pas aux détenteurs de noms de domaine un procès juste et équitable, notamment en raison des délais très courts, de l’absence de voies de recours internes en cas de défaut et de l’obligation de saisir les tribunaux de droit commun. La procédure de l’U.D.R.P. ne présente aussi aucun caractère dissuasif envers les titulaires de marques qui tenteraient de s’approprier un nom de domaine enregistré dans des conditions légitimes. Une étude des décisions issues de la Procédure U.D.R.P. révèle qu’il existe un déséquilibre flagrant en faveur des titulaires de marques de commerces; les organismes accrédités se taillant la plus grande part du marché sont ceux dont les décisions sont généralement plus favorables aux titulaires de marques. Une variété d’arguments sont avancés pour expliquer ces résultats mais les études démontrent que la Procédure U.D.R.P. doit faire l’objet de réformes. La réforme devrait comprendre deux volets : premièrement, la modification du mode de désignation des organismes accrédités chargés d’administrer la Procédure U.D.R.P. ainsi que la modification du processus de sélection des commissaires; deuxièmement, une réforme relative aux délais, à la langue des procédures et au phénomène des procédures abusives intentées par des détenteurs de marques de commerce à l?égard d’enregistrements légitimes."
Resumo:
Des études récentes ont montré que le noyau caudé interagissait avec le cortex préfrontal et qu’il pourrait être impliqué dans les fonctions exécutives. Le but de cette thèse était d’étudier la contribution du noyau caudé dans les fonctions exécutives, plus précisément dans des tâches de monitoring et de changement de règle, et d’observer comment ces régions fronto-striatales interagissent avec le réseau par défaut (RPD). Dans un premier temps, nous avons étudié le rôle du noyau caudé dans les deux types de monitoring : le monitoring d’origine interne, consistant à effectuer un suivi sur l’état de l’information en mémoire de travail afin de pouvoir faire un choix subséquent, et dans le monitoring d’origine externe où le suivi sur l’état des items est effectué par l’individu, mais la sélection est exécutée par une source externe. Il a été montré que le cortex préfrontal dorsolatéral (CPFDL) est impliqué dans les deux types de monitoring. À l’aide de l’imagerie par résonance magnétique fonctionnelle (IRMf), nos résultats ont montré une augmentation significative du signal BOLD au niveau du CPFDL dans les contrastes des conditions de monitoring d’origine interne et monitoring d’origine externe par rapport à la condition contrôle. De manière plus importante, une augmentation significative de l’activité a été observée dans le noyau caudé seulement dans les soustractions impliquant le monitoring d’origine interne par rapport à la condition contrôle, et par rapport à la condition de monitoring d’origine externe. En deuxième lieu, des études ont montré une contribution spécifique des régions fronto-striatales dans l’exécution d’un changement de règle. Toutefois, l’effet d’un changement de règle sur l’activité cérébrale n’a jamais été étudié sur les essais subséquents. À l’aide de l’IRMf, le cortex préfrontal ventrolatéral (CPFVL) et le noyau caudé ont montré une augmentation significative de leur activité lors des changements de règle continus et lors des changements de règles sporadiques par rapport à la condition contrôle, et aussi lors des essais où le maintien d’une même règle devait être effectué pour une courte durée par opposition au contrôle. Cependant, aucune activité fronto-striatale n’a été observée lorsqu’une même règle devait être appliquée pour une plus longue période. De plus, une diminution significative de l’activité du noyau caudé a été observée lors de la répétition de l’exécution d’une même règle suggérant une meilleure intégration de cette dernière. Finalement, plusieurs études ont montré une déactivation du RPD lors de l’exécution de tâches. À l’aide de l’IRMf, nous avons posé l’hypothèse que le RPD serait corrélé négativement avec les régions fronto-striatales lors de l’exécution d’une tâche de changement de règle. Nos résultats montrent une augmentation significative de l’activité des régions fronto-striatales lors d’une augmentation du nombre d’essais de changement de règle consécutif, pendant que le RPD montre une déactivation continue. De façon intéressante, pendant que les régions fronto-striatales montrent une diminution de leur activité lors de l’exécution d’une même règle pour une longue période, le RPD augmente son activité de façon significative. On conclut donc que le noyau caudé joue un rôle important dans la planification d’une nouvelle action lorsque plusieurs possibilités doivent être considérées en mémoire de travail, et ce en même temps. Finalement, le RPD montre une corrélation négative avec les régions fronto-striatales suggérant sa participation dans l’intégration d’une tâche devenant de plus en plus familière.