464 resultados para Incertitude expérimentale
Resumo:
L’objectif de cette recherche est de démontrer que les décisions arbitrales de la Chambre de commerce internationale peuvent être considérées comme une source potentielle de droit au Canada. Il existe actuellement une incertitude quant au droit matériel utilisé en arbitrage international pour résoudre les différends commerciaux. Bien que l’utilisation de la lex mercatoria pour résoudre un litige soit une option, elle se heurte à de nombreuses incertitudes terminologiques et conceptuelles. L’utilisation d’une approche méthodologique de la lex mercatoria permettrait une classification de ses sources en deux branches: (1) le droit statutaire international et (2) le stare decisis des tribunaux d’arbitrage commercial international. Une telle approche méthodologique conférerait plus de certitude quant à l’application d’un droit uniforme. De plus, elle faciliterait l’étude de l’interlégalité entre les règles de la lex mercatoria et le droit matériel interne. Plus particulièrement, elle permet de comparer les similitudes et les différences des règles du droit matériel entre les décisions arbitrales internationales, le droit statutaire international et les juridictions canadiennes de common law et de droit civil. Cette comparaison rend possible une évaluation de l’influence potentielle des décisions arbitrales de la Chambre de commerce internationale sur le droit matériel canadien et si cette influence est plus importante en droit civil ou en common law.
Resumo:
La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement.
Resumo:
En démontrant sa capacité d’identifier les pneumothorax, de différencier les différentes causes d’insuffisance respiratoire chez les patients dyspnéiques et de confirmer la position d’un tube endotrachéal lors d’une intubation endotrachéale, l’échographie pulmonaire a pris une place prépondérante dans la prise en charge des patients de soins critiques. La majorité des études, notamment celles sur l’intubation endotrachéale, ont évalué la performance de cliniciens possédant une expérience considérable en échographie pulmonaire et souvent dans un cadre idéal permettant des examens d’une durée prolongée. Considérant la disponibilité grandissante de l’échographie ciblée lors des situations de stabilisation et de réanimation des patients de soins critiques, nous voulions évaluer la capacité d’un groupe de clinicien hétérogène en termes de formation échographique à identifier la présence ou l’absence de glissement pleural sur de courtes séquences (comparable à la durée probable d’un examen lors de condition de réanimation) d’échographie pulmonaire enregistrées chez des patients intubés. Un total de 280 courtes séquences (entre 4 et 7 secondes) d’échographie pulmonaire démontrant la présence ou l’absence de glissement pleural chez des patients intubés en salle d’opération ont été enregistrées puis présentées de façon aléatoire à deux groupes de cliniciens en médecine d’urgence. Le deuxième groupe avait la possibilité de s’abstenir advenant une incertitude de leur réponse. Nous avons comparé la performance selon le niveau de formation académique et échographique. Le taux moyen d’identification adéquate de la présence ou l’absence du glissement pleural par participant était de 67,5% (IC 95% : 65,7-69,4) dans le premier groupe et 73,1% (IC 95% : 70,7-75,5) dans le second (p<0,001). Le taux médian de réponse adéquate pour chacune des 280 séquences était de 74,0% (EIQ : 48,0-90,0) dans le premier groupe et 83,7% (EIQ : 53,3-96,2) dans le deuxième (p=0,006). Le taux d’identification adéquate de la présence ou absence d’un glissement pleural par les participants des deux groupes était nettement supérieur pour les séquences de l’hémithorax droit par rapport à celles de l’hémithorax gauche (p=0,001). Lorsque des médecins de formation académique et échographique variable utilisent de courtes séquences d’échographie pulmonaire (plus représentatives de l’utilisation réelle en clinique), le taux d’identification adéquate de la présence ou l’absence de glissement pleural est plus élevé lorsque les participants ont la possibilité de s’abstenir en cas de doute quant à leur réponse. Le taux de bonnes réponses est également plus élevé pour les séquences de l’hémithorax droit, probablement dû à la présence sous-jacente du cœur à gauche, la plus petite taille du poumon gauche et l’effet accru du pouls pulmonaire dans l’hémithorax gauche. Considérant ces trouvailles, la prudence est de mise lors de l’utilisation de l’identification du glissement pleural sur de courtes séquences échographique comme méthode de vérification de la position d’un tube endotrachéal lors d’une intubation endotrachéale, et ce, particulièrement pour l’hémithorax gauche. Aussi, une attention particulière devrait être mise sur la reconnaissance du pouls pulmonaire lors de l’enseignement de l’échographie pulmonaire.
Resumo:
L’expression faciale de la douleur occupe un rôle central dans la communication de la douleur et dans l’estimation de l’intensité de la douleur vécue par autrui. Les propriétés du visage d’une personne en souffrance ont été investiguées principalement à l’aide de méthodes descriptives (e.g. FACS). L’introduction fait le point sur les connaissances de l’expression faciale de douleur et de la communication de cette expérience sur les plans comportemental et cérébral et souligne que les mécanismes et stratégies visuels utilisés par l’observateur pour parvenir à détecter la douleur dans le visage d’autrui demeurent très peu connus. L’étude des processus impliqués dans la reconnaissance de l’expression de la douleur est essentielle pour comprendre la communication de la douleur et éventuellement expliquer des phénomènes ayant des impacts cliniques considérables, tel que l’effet classique de sous-estimation de la douleur d’autrui. L’article 1 vise à établir à l’aide d’une méthode directe (Bubbles) les informations visuelles utilisées efficacement par l’observateur lorsqu’il doit catégoriser la douleur parmi les émotions de base. Les résultats montrent que parmi l’ensemble des caractéristiques du visage typique de la douleur, peu d’informations sont vraiment efficaces pour parvenir à cette discrimination et que celles qui le sont encodent la partie affective- motivationnelle de l’expérience d’autrui. L’article 2 investigue le pouvoir de ces régions privilégiées du visage de la douleur dans la modulation d’une expérience nociceptive chez l’observateur afin de mieux comprendre les mécanismes impliqués dans une telle modulation. En effet, s’il est connu que des stimuli ayant une valence émotionnelle négative, y compris des expressions faciales de douleur, peuvent augmenter les réponses spinales (réflexes) et supra-spinales (ex.: perceptives) de la douleur, l’information visuelle suffisante pour permettre l’activation des voies modulatrices demeure inconnue. Les résultats montrent qu’en voyant les régions diagnostiques pour la reconnaissance de l’expression faciale de douleur, la douleur perçue par l’observateur suite à une stimulation nociceptive est plus grande que lorsqu’il voit les régions les moins corrélées avec une bonne reconnaissance de la douleur. L’exploration post-expérimentale des caractéristiques de nos stimuli suggère que cette modulation n’est pas explicable par l’induction d’un état émotionnel négatif, appuyant ainsi un rôle prépondérant de la communication de la douleur dans la modulation vicariante de l’expérience douloureuse de l’observateur. Les mesures spinales ne sont toutefois pas modulées par ces manipulations et suggèrent ainsi que ce ne sont pas des voies cérébro-spinale qui sont impliquées dans ce phénomène.
Resumo:
Alors qu’un éternel débat oppose les défenseurs de la scission et ceux de l’unité successorale, la professio juris donne une nouvelle perspective à la question de la détermination du droit applicable à une succession internationale, à travers le prisme de l’autonomie de la volonté et de la prévisibilité juridique. En conférant au de cujus la faculté de désigner lui-même le droit qui régira sa succession, elle lui permet d’écarter la règle de conflit objective au profit d’un ou de plusieurs rattachements de son choix et d’éviter l’incertitude reliée à l’appréciation des rattachements objectifs au moment du décès. Instaurée au Québec en 1994, cette institution n’existe que dans quelques États. Quoique présentant des intérêts indéniables en termes de planification, la professio juris a éveillé la crainte que le de cujus ne l’utilise que pour éluder les règles impératives du droit objectivement applicable, dont ses dispositions protectrices comme la réserve héréditaire. Deux types de limites à la professio juris ont ainsi émergé, restreignant l’éventail de lois parmi lesquelles le de cujus peut choisir et proscrivant ensuite certains effets de la désignation. Ce mémoire repose sur l’étude comparative des balises instituées dans plusieurs législations qui connaissent la professio juris, afin d’apporter un certain éclairage sur sa portée au Québec. Cette grille d’analyse permet également d’examiner comment la professio juris a été circonscrite dans d’autres États, de constater qu’elle peut offrir des avenues de planification qui n’ont pas été retenues au Québec et de porter un regard critique sur ces restrictions.
Resumo:
Les études antérieures ont démontré les bénéfices de la satisfaction des besoins intrinsèques et du soutien à l’autonomie dans le domaine de l’éducation. Or, l’applicabilité des tenants principaux de la Théorie de l’Auto-Détermination (TAD; Deci & Ryan, 2000) n’a pas été investiguée auprès d’une population clinique d’adolescents. L’objectif de cette thèse doctorale est de faire la lumière sur la façon dont l'adaptation scolaire et sociale peut être favorisée par les agents de socialisation dans le contexte de la réadaptation sociale. Cette thèse est composée de deux études s’intéressant à l’application des tenants clés de la TAD auprès de deux échantillons d’adolescents vivant des problèmes d’adaptation et recevant des services d’éducation spécialisée et de réadaptation sociale. Les relations entre les concepts motivationnels de base sont étudiés afin de déterminer si, comme la TAD le propose, la satisfaction des besoins intrinsèques des jeunes peut être soutenue par le style interpersonnel des agents de socialisation (c.-à-d., le soutien à l’autonomie, l’implication et la structure). Il est aussi vérifié si ces concepts motivationnels améliorent la motivation ainsi que d’autres conséquences qui résultent de leur expérience, proposées par la TAD. La première étude a évalué si le style interpersonnel des enseignants peut favoriser la satisfaction des besoins des élèves, leur style de motivationl, tout comme leur ajustement scolaire. Les élèves en difficulté d’adaptation (N = 115) inscrits aux écoles internes des Centres de Réadaptation en raison de leurs problématiques émotionnelles et comportementales ont rempli les questionnaires à deux reprises, au début et à la fin de l’année scolaire. Les analyses de modèles d’équations structurelles révèlent que l’augmentation du soutien à l’autonomie et de l’implication (mais pas de la structure) des enseignants pendant l’année est associée à une augmentation de la satisfaction des besoins des élèves qui, conséquemment, conduit à une motivation scolaire plus auto-déterminée et à une diminution d’intentions de décrochage à la fin de l’année scolaire. De plus, l’amélioration de la satisfaction des besoins mène directement à une meilleure expérience affective à l’école. La deuxième étude consiste en une recherche expérimentale conduite auprès d’adolescentes en difficulté d’adaptation (N = 29). Le devis expérimental a permis de comparer l’impact de la présence (c. absence) du soutien à l’autonomie sur l’internalisation d’une tâche et sur les conséquences motivationnelles et expérientielles des jeunes. La tâche, fastidieuse mais importante, consistait à de la résolution de problèmes interpersonnels (activité clinique). Les résultats suggèrent qu’un style interpersonnel soutenant l’autonomie a augmenté la motivation auto-déterminée, la perception de la valeur de la tâche et son appréciation, ainsi que diminué les affects négatifs comparativement à la condition sans soutien à l’autonomie. Les résultats sont discutés en lien avec les implications théoriques et pratiques d’étendre la portée de la TAD à une population clinique d’adolescents aux prises avec des difficultés d’adaptation.
Resumo:
La recherche de nouvelles voies de correction de la scoliose idiopathique a une longue histoire. Le traitement conventionnel de la scoliose idiopathique est présenté par le port du corset ou par la correction opératoire de la déformation. Depuis leur introduction, les deux méthodes ont prouvé leur efficacité. Cependant, malgré des caractéristiques positives évidentes, ces méthodes peuvent causer un nombre important d'effets indésirables sur la santé du patient. Les techniques sans fusion pour le traitement de la scoliose semblent être une alternative perspective de traitement traditionnel, car ils apportent moins de risques et des complications chirurgicales que les méthodes conventionnelles avec la conservation de la mobilité du disque intravertébral. Cependant, l'utilisation de techniques mentionnées exige une connaissance profonde de la modulation de croissance vertébrale. L'objectif principal de la présente étude est d'estimer le potentiel d'agrafes à l’AMF de moduler la croissance des vertèbres porcines en mesurant la croissance osseuse sur la plaque de croissance de vertèbres instrumentées en comparaison avec le groupe contrôle. La méthode est basée sur la loi de Hueter-Volkmann. Nous avons choisi NiTi agrafes à l’AMF pour notre étude et les porcs de race Landrace comme un animal expérimental. Les agrafes ont été insérés sur 5 niveaux thoracique de T6 à T11. En outre, les radiographies ont été prises toutes les 2 semaines. La présence d'agrafes en alliage à mémoire de forme a produit la création de courbes scoliotiques significatives dans 4 de 6 animaux chargés et le ralentissement considérable de la croissance osseuse (jusqu'à 35,4%) comparativement aux groupes contrôle et sham. L'étude a démontré in vivo le potentiel d'agrafes en alliage à mémoire de formes de moduler la croissance des vertèbres en créant des courbes scoliotiques sur les radiographies et en ralentissant le taux de croissance sur les plaques de croissance instrumenté. La position précise de l'agrafe est essentielle pour la modulation de croissance osseuse et le développement de la scoliose expérimentale.
Resumo:
Ce mémoire vise à comprendre le processus menant à un acte de confiance dans un contexte organisationnel en étudiant l’implantation du télétravail. Il explore la manière dont un gestionnaire franchit les différentes étapes du processus menant à un état d’attentes positives à l’égard d’un employé et, sur cette base, prendre le risque de lui autoriser le télétravail. D’un point de vue théorique, j’adopte une vision dynamique de la confiance en mobilisant notamment l’approche processuelle ainsi que le concept de suspension (Möllering, 2001, 2006). Cette étude est basée sur des entrevues semi-structurées réalisées auprès de six gestionnaires ayant autorisé le travail à domicile. Les participants ont été rencontrés à deux reprises et ont chacun rédigé une courte réflexion écrite sur le thème de la confiance. Leurs témoignages ont été analysés selon la méthode d’analyse inductive. Mes résultats révèlent que lorsqu’un gestionnaire envisage d’autoriser le télétravail, il mobilise une banque de connaissances qu’il a préalablement acquises à travers ses interactions avec l’employé pour construire une fiction optimiste de l’avenir. Cet exercice imaginatif lui permet de suspendre son incertitude et d’anticiper avec optimisme le comportement de ses télétravailleurs. La prise du risque que représente l’autorisation du travail à domicile ne découle cependant pas uniquement de cet état d’attentes favorables. Dans les grandes entreprises, la concrétisation de cet acte de confiance semble également reposer sur une suspension collective de l’incertitude et de la vulnérabilité organisationnelle.
Resumo:
Ce mémoire porte sur les intuitions utilisées en philosophie morale contemporaine. Les intuitions sont interrogées sur trois aspects : leur nature, leur fiabilité et leur rôle. Concernant la nature des intuitions, celles-ci sont présentées comme des jugements spontanés ayant une valeur épistémique « à première vue ». Concernant la fiabilité des intuitions, trois grands types de raisons de douter de leur fiabilité sont considérés, à savoir les résultats de certaines études scientifiques montrant de diverses manières leur instabilité, les études réalisées par le mouvement de philosophie expérimentale afin d'illustrer le phénomène du désaccord intuitif, et enfin, le problème de l'origine douteuse des intuitions. Aucune de ces raisons n'est jugée efficace afin de discréditer l'usage des intuitions en philosophie. Concernant le rôle des intuitions, une distinction est proposée entre deux grands types d'usage philosophique contemporain. D'une part, ce qu'on peut appeler la méthodologie standard en philosophie morale contemporaine consiste en une combinaison d’expériences de pensée et de la méthode de l’équilibre réfléchi. Différentes manières d'aborder la méthode de l'équilibre réfléchi sont présentées, et le modèle de l'équilibre réfléchi large développé par Norman Daniels est jugé le plus efficace. D'autre part, les intuitions sont parfois utilisées en philosophie morale contemporaine dans le cadre de la théorie de l'intuitionnisme éthique. La théorie est défendue contre diverses objections, et elle est montrée compatible avec la méthode de l’équilibre réfléchi.
Resumo:
L’extraction aurifère est l’une des activités humaines qui a fortement accru l’émission de contaminants métalliques dans l’environnement. Le mercure (Hg), l’arsenic (As) et le sélénium (Se) sont 3 polluants métalliques de grande toxicité environnementale. En milieu aquatique, ils peuvent subir des transformations menant à des composés capables de bioaccumulation et de bioamplification. Il peut en résulter des concentrations 106 fois celle mesurée dans l’eau chez les poissons et les organismes situés en haut des chaînes alimentaires posant de ce fait de graves menaces pour la santé de ces organismes ainsi que leurs consommateurs y compris les humains. Cette étude a évalué les teneurs en Hg, As et Se dans les milieux aquatiques au Burkina Faso, une région d’Afrique sub-saharienne soumise à une exploitation minière intensive. Le risque potentiel pour les organismes aquatiques et les humains a été évalué en considérant les effets des interactions antagonistes Se/Hg et As/Se. La bioaccumulation et le transfert du Hg et du Se dans les réseaux trophiques sont également décrits. L’exposition au Hg de poissons par les humains a été également évalué au laboratoire par mesure de la bioaccessibilité comme équivalent de la biodisponibilité par simulation de la digestion humaine. En général, les milieux aquatiques étudiés étaient peu affectés par ces 3 métal(loïd)s bien que certaines espèces de poisson issus des réservoirs les plus profonds indiquent des teneurs de Hg au dessus de 500 ngHg/g (poids frais) recommandé par l’OMS. Ces niveaux sont susceptibles de présenter des risques toxicologiques pour les poissons et pour leurs consommateurs. En considérant l’antagonisme Se/Hg, 99 % des échantillons de poisson seraient moins exposés à la toxicité du Hg dû à la présence simultanée du sélénium dans le milieu et pourraient être consommés sans risque. Cependant, les effets potentiels de l’antagonisme As/Se pourraient réduire les effets bénéfiques du Se et ramener cette proportion à 83 %. L’application des mesures de signatures en isotopes stables d’azote (δ15N) et de carbone (δ13C) des organismes aquatiques a permis le traçage des voies de transfert du Hg et du Se dans les réseaux trophiques. On y observe des chaînes trophiques très courtes (3 - 4 niveaux trophiques) et des poissons majoritairement benthiques. L’approche isotopique n’a cependant pas permis de détecter les variations saisonnières des niveaux de contamination en Hg des poissons. L’exploration des contenus stomacaux des poissons a permis de mieux expliquer la baisse des concentrations en Hg et Se observées chez certains poissons au cours de la saison sèche en lien avec la variation de la composition des proies que l’analyse isotopique n’a pas cerné. L’étude suggère que l’analyse de contenus stomacaux ainsi que l’étude de la dynamique des communautés d’invertébrés couplées à celle des métaux pourraient améliorer la compréhension du fonctionnement des écosystèmes étudiés. Enfin, l’évaluation expérimentale de l’exposition au Hg indique que les modes de traitement avant consommation ainsi que l’usage de composés alimentaires tels le thé, le café lors de repas de poisson par certaines communautés humaines ont un impact sur la bioaccessibilité du Hg de poisson. Ces résultats, sous réserve de validation par des modèles animaux, suggèrent la prise en compte des habitudes alimentaires des communautés dans l’élaboration adéquat des avis de consommation de poisson.
Resumo:
La pléthysmographie pénienne est reconnue comme la méthode la plus rigoureuse pour l’évaluation des intérêts sexuels. Cet instrument pourrait cependant bénéficier d’amélioration au niveau de sa validité écologique et de sa vulnérabilité aux tentatives de falsification. Cet outil est également confronté aux contraintes éthiques et légales liées à la présentation de stimuli produits à partir de modèle humain pour susciter l’excitation sexuelle. La présente thèse doctorale propose de pallier aux lacunes de la procédure pléthysmographique en la combinant à des stimuli générés par ordinateur présentés en immersion virtuelle et à la vidéo-oculographie. Dans le cadre d’une première étude empirique, il s’agit de déterminer si l’usage de stimuli générés par ordinateur présentés en immersion virtuelle est préférable à la modalité auditive actuellement utilisée. Les réponses érectiles d’agresseurs sexuels d’enfants et d’hommes sans paraphilie connue sont enregistrées et la capacité des deux modalités à produire des profils d’excitation sexuels et des indices de déviance propres aux intérêts sexuels est comparée. Dans le cadre d’une seconde étude expérimentale, les mouvements oculaires sont analysés afin de détecter les tentatives de contrôle volontaire de la réponse érectile lors d’une procédure d’évaluation pléthysmographique. Les réponses érectiles et les mouvements oculaires d’hommes sans dossier judiciaire sont enregistrés lors du visionnement de stimuli sous trois différentes conditions, dont une tâche de suppression de la réponse érectile. Dans l’ensemble, les résultats démontrent que les stimuli générés par ordinateur présentés en immersion virtuelle génèrent des profils d’excitation sexuelle ainsi que des indices de déviance ayant une précision de classification et de discrimination significativement supérieure à la modalité auditive. D’autre part, les résultats soulignent la capacité des mouvements oculaires à identifier une signature oculaire propre à l’utilisation d’une stratégie cognitive d’inhibition de la réponse érectile qui se caractérise notamment par la mise à l’écart du contenu sexuel et le ralentissement global du processus d’exploration visuel. Ce projet de recherche souligne les avantages inhérents à la présentation en immersion virtuelle de stimuli générés par ordinateur ainsi qu’à l’étude des mouvements oculaires lors de l’évaluation pléthysmographique et vient appuyer l’implantation progressive de cette modalité dans les milieux d’évaluations cliniques.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
Les surfaces de subdivision fournissent une méthode alternative prometteuse dans la modélisation géométrique, et ont des avantages sur la représentation classique de trimmed-NURBS, en particulier dans la modélisation de surfaces lisses par morceaux. Dans ce mémoire, nous considérons le problème des opérations géométriques sur les surfaces de subdivision, avec l'exigence stricte de forme topologique correcte. Puisque ce problème peut être mal conditionné, nous proposons une approche pour la gestion de l'incertitude qui existe dans le calcul géométrique. Nous exigeons l'exactitude des informations topologiques lorsque l'on considère la nature de robustesse du problème des opérations géométriques sur les modèles de solides, et il devient clair que le problème peut être mal conditionné en présence de l'incertitude qui est omniprésente dans les données. Nous proposons donc une approche interactive de gestion de l'incertitude des opérations géométriques, dans le cadre d'un calcul basé sur la norme IEEE arithmétique et la modélisation en surfaces de subdivision. Un algorithme pour le problème planar-cut est alors présenté qui a comme but de satisfaire à l'exigence topologique mentionnée ci-dessus.
Resumo:
Thèse de doctorat réalisé en cotutelle avec l'Université catholique de Louvain, Belgique (Faculté de médecine, Institut de Neuroscience)
Resumo:
Étude de cas / Case study