47 resultados para False-medideira caterpillar


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les propriétés d'une nouvelle classe de chimie de surface basée sur les monocouches auto-assemblées de liquides ioniques (ILs-SAMs), ont été étudiées pour une utilisation dans la construction de biocapteurs basés sur la résonance des plasmons de surface (SPR). Les biocapteurs sont utiles pour détecter des biomolécules spécifiques dans une matrice biologique complexe. Cependant, le signal analytique de la biomolécule spécifique peut être masqué par l’adsorption non spécifique de la matrice biologique, produisant une réponse faussement positive. Par ailleurs, l'activité des récepteurs moléculaires est souvent réduite par des techniques d'immobilisation chimique. Ainsi, il est essentiel de déterminer une surface idéale pour la préparation de biocapteurs. Les liquides ioniques sont bien connus pour favoriser l'activité des récepteurs moléculaires et cette étude enquête si cette propriété importante peut se traduire sur des capteurs SPR. Différents liquides ioniques ont été utilisés pour former des monocouches auto-assemblées sur une surface d'or. Les ILs-SAMs sont tous basés sur les sels de mercapto-(chaîne alkyle)nCH2-méthylimidazolium avec différentes chaînes alkyles (n = 3, 6, 9, 12) et différents contre-anions (Br-, BF4-, PF6-, NTf2-). Des études cinétiques de l'adsorption non spécifique de sérum bovin ont été réalisées sur des capteurs SPR avec un instrument construit sur mesure, basé sur l'interrogation des longueurs d’ondes SPR sur un prisme d’inversion d’image (dove). Par la suite, l’anti-IgG de chèvre sélective à l’IgG humain a été utilisé en tant que modèle pour la confection de biocapteurs sur les ILs-SAMs. En solution, il est possible d’effectuer des échanges du contre-anion des liquides ioniques pour un contre-anion de plus en plus hydrophobe. Cependant, l’échange inverse, soit vers des anions de plus en plus hydrophile, s’avère impossible. Toutefois, il a été observé par les travaux présentés dans ce mémoire, que les liquides ioniques immobilisés sur une surface d'or ont la capacité d'échanger leurs contre-anions réversiblement, procurant une méthode simple de moduler leurs propriétés physico-chimiques. Ce phénomène a été observé par la mesure d’angles de contacts et par les techniques spectroscopiques de l’infrarouge moyen (mid-IR), des photoélectrons de rayon-X (XPS) et par la diffusion Raman exaltée par les surfaces (SERS) ii ainsi que par la spectrométrie de masse (MS). La connaissance des propriétés d’échange d’anion est importante pour prédire le comportement de ces surfaces de liquides ioniques dans les tampons et fluides biologiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage par projet est une méthode pédagogique importante dans le réseau des cégeps, particulièrement depuis la Réforme scolaire collégiale de 1993 (Piché & Lapostolle, 2009). Toutefois, la quantité d’études sur les conditions d’efficacité de cette méthode pédagogique, particulièrement les études longitudinales, est limitée dans le milieu collégial. La présente étude analyse le rôle de plusieurs variables issues de la recherche en psychologie organisationnelle. D’abord, on considère le rôle de deux variables de personnalité affectées par la complexité d’une tâche : l’orientation envers les buts (Dweck & Leggett, 1988) et le style de gestion des conflits (Rubin, Pruitt, & Kim, 1994). Deux variables processuelles sont aussi étudiées : les types de conflits (Jehn 1995, 1997) et la proactivité (Griffin, Neale, & Parker, 2007). À l’aide d’analyses de médiation (Preacher & Hayes, 2008), les résultats démontrent que les orientations envers les buts et les styles de gestion des conflits utiles aux tâches complexes le sont également dans un contexte de projet au collégial, favorisant la proactivité des étudiants. Pour les types de conflits, un examen de leur évolution dans le temps permet de conclure à un effet généralement négatif en raison de la forte association entre eux. Une explication possible est la présence de mésattribution (Simons & Peterson, 2000), c’est-à-dire que les conflits reliés à la tâche sont faussement interprétés comme des conflits interpersonnels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si le rapport entre Derrida et Bergson n’a pas fait l’objet de nombreuses études, les commentaires existants témoignent à peu près tous d’une vision commune : entre les deux philosophes, les divergences peuvent être atténuées, voire dissoutes, par la considération de convergences plus fondamentales. Les pages qui suivent seront l’occasion pour nous de faire contrepoids à cette vulgate interprétative. Sans nier l’existence de points de contact entre Derrida et Bergson, nous voudrions en effet montrer qu’un important désaccord subsiste entre eux au sujet de la possibilité de l’intuition. Alors que Derrida met en cause les doctrines intuitionnistes, Bergson érige l’intuition en méthode philosophique. Le présent mémoire prendra pour fil conducteur les motifs de cette discorde. Réduit à sa plus simple expression, l’objectif que nous y poursuivrons sera de montrer que les pensées bergsonienne et derridienne, lorsque mises en dialogue, révèlent un désaccord partiel qui permet de réfléchir de façon féconde sur la possibilité de l’intuition. Pour être plus exact, nous caresserons ici une triple ambition : i/ cerner étroitement l’objet du litige entre Derrida et Bergson, trop peu souligné par les commentateurs, et dont nous montrons qu’il s’articule à une entente partielle ; ii/ tirer au clair les diverses raisons qui amènent l’un à s’en prendre à l’intuition, l’autre à embrasser la méthode intuitive ; iii/ établir que certains arguments de Bergson, bien qu’ils connaissent un regain d’intérêt depuis quelques années, paraissent lacunaires lorsqu’on les confronte à différentes objections.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif principal du présent travail de recherche est d’établir un lien entre les proverbes (refranes) du Quichotte et l’enseignement de l’espagnol comme langue étrangère (ELE). En premier lieu, afin de mieux définir l’utilisation des parémies à travers les siècles, nous observons leur origine en lien avec l’oralité et la culture écrite, liée avec la Bible. De plus, nous considérons nécessaire de définir de manière claire les termes utilisés en parémiologie, tels que la parémie, le refrán espagnol et le proverbe. Cette précision terminologique est importante dans le processus d’apprentissage d’une nouvelle langue, par exemple afin de ne pas faire de fausses associations entre la langue maternelle et la langue apprise. La définition du refrán suit une matrice de traits essentiels ou optionnels. De plus, afin d’actualiser ces notions, nous présentons l’espace qu’occupent les proverbes ou les refranes de nos jours. Face au manque d’études sur l’utilisation des proverbes au Québec, nous avons réalisé un sondage parmi les étudiants québécois de cégeps afin d’observer leur opinion et son emploi. En ce qui a lieu à la relation directe entre les proverbes et l’enseignement de l’espagnol, nous remarquons que ce type d’énoncé n’est pas introduit en profondeur dans les documents officiels, tels que le Cadre européen commun de référence (2002), le Plan curricular del Instituto Cervantes (2005) et le Espagnol, langue tierce du Ministère de l’éducation, du loisir et du sport de Québec (MELS). Cette présence peu active est soulignée par le peu d’importance qui leur est attribuée dans les manuels d’enseignement. L’inclusion de la littérature en enseignement d’ELE, comme force didactique, a été généralement peu considérée. Le corpus de notre recherche, sélectionné du roman de Don Quichotte de la Manche, nous est utile pour connaître le lien entre les refranes, la littérature et ELE, présentant les proverbes comme un type de littérature en soi, grâce à un éventail d’activités, avec l’objectif qu’elles soient reconsidérées à sa juste valeur, dès les premiers niveaux d’enseignement. Mots-clés: Enseignement de l’espagnol comme langue étrangère (ELE), Littérature, Don Quichotte, proverbes (le refrán espagnol), activités

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La variabilité génétique actuelle est influencée par une combinaison complexe de variables historiques et contemporaines. Dès lors, une interprétation juste de l’impact des processus actuels nécessite une compréhension profonde des processus historiques ayant influencé la variabilité génétique. En se basant sur la prémisse que des populations proches devraient partager une histoire commune récente, nombreuses études, effectuées à petite échelle spatiale, ne prennent pas en considération l’effet potentiel des processus historiques. Cette thèse avait pour but de vérifier la validité de cette prémisse en estimant l’effet de la dispersion historique à grande et à petite échelle spatiale. Le premier volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la répartition des organismes à grande échelle spatiale. Pour ce faire, les moules d’eau douce du genre flotteurs (Pyganodon spp.) ont servies de modèle biologique. Les moules d'eau douce se dispersent principalement au stade larvaire en tant que parasites des poissons. Une série de modèles nuls ont été développés pour évaluer la co-occurrence entre des parasites et leurs hôtes potenitels. Les associations distinctes du flotteur de Terre-Neuve (P. fragilis) avec des espèces de poissons euryhalins permettent d’expliquer sa répartition. Ces associations distinctes ont également pu favoriser la différenciation entre le flotteur de Terre-Neuve et son taxon soeur : le flotteur de l’Est (P. cataracta). Cette étude a démontré les effets des associations biologiques historiques sur les répartitions à grande échelle spatiale. Le second volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la variabilité génétique, à petite échelle spatiale. Cette fois, différentes populations de crapet de roche (Ambloplites rupestris) et de crapet soleil (Lepomis gibbosus), dans des drainages adjacents ont servies de modèle biologique. Les différences frappantes observées entre les deux espèces suggèrent des patrons de colonisation opposés. La faible diversité génétique observée en amont des drainages et la forte différenciation observée entre les drainages pour les populations de crapet de roche suggèrent que cette espèce aurait colonisé les drainages à partir d'une source en aval. Au contraire, la faible différenciation et la forte diversité génétique observées en amont des drainages pour les populations de crapet soleil suggèrent une colonisation depuis l’amont, induisant du même coup un faux signal de flux génique entre les drainages. La présente étude a démontré que la dispersion historique peut entraver la capacité d'estimer la connectivité actuelle, à petite échelle spatiale, invalidant ainsi la prémisse testée dans cette thèse. Les impacts des processus historiques sur la variabilité génétique ne sont pas faciles à démontrer. Le troisième volet de cette thèse avait pour but de développer une méthode permettant de les détecter. La méthode proposée est très souple et favorise la comparaison entre la variabilité génétique et plusieurs hypothèses de dispersion. La méthode pourrait donc être utilisée pour comparer des hypothèses de dispersion basées sur le paysage historique et sur le paysage actuel et ainsi permettre l’évaluation des impacts historiques et contemporains sur la variabilité génétique. Les performances de la méthode sont présentées pour plusieurs scénarios de simulations, d’une complexité croissante. Malgré un impact de la différentiation globale, du nombre d’individus ou du nombre de loci échantillonné, la méthode apparaît hautement efficace. Afin d’illustrer le potentiel de la méthode, deux jeux de données empiriques très contrastés, publiés précédemment, ont été ré analysés. Cette thèse a démontré les impacts de la dispersion historique sur la variabilité génétique à différentes échelles spatiales. Les effets historiques potentiels doivent être pris en considération avant d’évaluer les impacts des processus écologiques sur la variabilité génétique. Bref, il faut intégrer l’évolution à l’écologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Affirmer que les citoyens des démocraties occidentales sont l’objet d’une surveillance systématique efficace et à grande échelle a de quoi provoquer une réaction incrédule. Démagogie, diront certains. Pourtant, les progrès réalisés dans les technologies de collecte, de traitement et de stockage d’information forcent une réflexion sur cette hypothèse. Il a été souligné justement que les coûts élevés liés aux moyens rudimentaires employés par les polices secrètes d’antan endiguaient en quelque sorte la menace. Les filatures, les infiltrations, les rapts nocturnes de dissidents pêchaient par manque de subtilité. Au contraire, le génie des techniques modernes vient de ce qu’elles n’entravent pas le quotidien des gens. Mais au-delà du raffinement technique, le contrôle panoptique de la masse atteint un sommet d’efficience dès lors que celle-ci est amenée à y consentir. Comme le faisait remarquer le professeur Raab : « [TRADUCTION] La surveillance prospère naturellement dans les régimes autoritaires qui ne s’exposent pas au débat public ni à la critique. Lorsqu’elle est utilisée dans des régimes dits démocratiques, elle est légitimée et circonscrite par des arguments de nécessité ou de justifications spéciales, tout comme la censure »[1]. Or, le droit, en tant que discours de rationalité, accomplit savamment ce travail de légitimation. C’est dans cet esprit qu’une analyse radicale des règles de droit encadrant le droit à la vie privée apporte une lucidité nouvelle sur notre faux sentiment de sécurité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement accéléré des technologies de communication, de saisie et de traitement de l’information durant les dernières années décennies ouvre la voie à de nouveaux moyens de contrôle social. Selon l’auteur Gary Marx ceux-ci sont de nature non coercitive et permettent à des acteurs privés ou publics d’obtenir des informations personnelles sur des individus sans que ceux-ci y consentent ou mêmes sans qu’ils en soient conscients. Ces moyens de contrôle social se fondent sur certaines valeurs sociales qui sont susceptibles de modifier le comportement des individus comme le patriotisme, la notion de bon citoyen ou le volontarisme. Tout comme les moyens coercitifs, elles amènent les individus à adopter certains comportements et à divulguer des informations précises. Toutefois, ces moyens se fondent soit sur le consentement des individus, consentement qui est souvent factice et imposée, soit l’absence de connaissance du processus de contrôle par les individus. Ainsi, l’auteur illustre comment des organisations privées et publiques obtiennent des informations privilégiées sur la population sans que celle-ci en soit réellement consciente. Les partisans de tels moyens soulignent leur importance pour la sécurité et le bien publique. Le discours qui justifie leur utilisation soutient qu’ils constituent des limites nécessaires et acceptables aux droits individuels. L’emploi de telles méthodes est justifié par le concept de l’intérêt public tout en minimisant leur impact sur les droits des individus. Ainsi, ces méthodes sont plus facilement acceptées et moins susceptibles d’être contestées. Toutefois, l’auteur souligne l’importance de reconnaître qu’une méthode de contrôle empiète toujours sur les droits des individus. Ces moyens de contrôle sont progressivement intégrés à la culture et aux modes de comportement. En conséquence, ils sont plus facilement justifiables et certains groupes en font même la promotion. Cette réalité rend encore plus difficile leur encadrement afin de protéger les droits individuels. L’auteur conclut en soulignant l’important décalage moral derrière l’emploi de ces méthodes non-coercitives de contrôle social et soutient que seul le consentement éclairé des individus peut justifier leur utilisation. À ce sujet, il fait certaines propositions afin d’encadrer et de rendre plus transparente l’utilisation de ces moyens de contrôle social.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des dernières années, le domaine de la consommation a grandement évolué. Les agents de marketing ont commencé à utiliser l’Internet pour influencer les consommateurs en employant des tactiques originales et imaginatives qui ont rendus possible l’atteinte d'un niveau de communication interpersonnelle qui avait précédemment été insondable. Leurs interactions avec les consommateurs, en utilisant la technologie moderne, se manifeste sous plusieurs formes différentes qui sont toutes accompagnés de leur propre assortiment de problèmes juridiques. D’abord, il n'est pas rare pour les agents de marketing d’utiliser des outils qui leur permettent de suivre les actions des consommateurs dans le monde virtuel ainsi que dans le monde physique. Les renseignements personnels recueillis d'une telle manière sont souvent utilisés à des fins de publicité comportementale en ligne – une utilisation qui ne respecte pas toujours les limites du droit à la vie privée. Il est également devenu assez commun pour les agents de marketing d’utiliser les médias sociaux afin de converser avec les consommateurs. Ces forums ont aussi servi à la commission d’actes anticoncurrentiels, ainsi qu’à la diffusion de publicités fausses et trompeuses – deux pratiques qui sont interdites tant par la loi sur la concurrence que la loi sur la protection des consommateurs. Enfin, les agents de marketing utilisent diverses tactiques afin de joindre les consommateurs plus efficacement en utilisant diverses tactiques qui les rendent plus visible dans les moteurs de recherche sur Internet, dont certaines sont considérés comme malhonnêtes et pourraient présenter des problèmes dans les domaines du droit de la concurrence et du droit des marques de commerce. Ce mémoire offre une description détaillée des outils utilisés à des fins de marketing sur Internet, ainsi que de la manière dont ils sont utilisés. Il illustre par ailleurs les problèmes juridiques qui peuvent survenir à la suite de leur utilisation et définit le cadre législatif régissant l’utilisation de ces outils par les agents de marketing, pour enfin démontrer que les lois qui entrent en jeu dans de telles circonstances peuvent, en effet, se révéler bénéfiques pour ces derniers d'un point de vue économique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les chutes chez les personnes âgées représentent un problème important de santé publique. Des études montrent qu’environ 30 % des personnes âgées de 65 ans et plus chutent chaque année au Canada, entraînant des conséquences néfastes sur les plans individuel, familiale et sociale. Face à une telle situation la vidéosurveillance est une solution efficace assurant la sécurité de ces personnes. À ce jour de nombreux systèmes d’assistance de services à la personne existent. Ces dispositifs permettent à la personne âgée de vivre chez elle tout en assurant sa sécurité par le port d'un capteur. Cependant le port du capteur en permanence par le sujet est peu confortable et contraignant. C'est pourquoi la recherche s’est récemment intéressée à l’utilisation de caméras au lieu de capteurs portables. Le but de ce projet est de démontrer que l'utilisation d'un dispositif de vidéosurveillance peut contribuer à la réduction de ce fléau. Dans ce document nous présentons une approche de détection automatique de chute, basée sur une méthode de suivi 3D du sujet en utilisant une caméra de profondeur (Kinect de Microsoft) positionnée à la verticale du sol. Ce suivi est réalisé en utilisant la silhouette extraite en temps réel avec une approche robuste d’extraction de fond 3D basée sur la variation de profondeur des pixels dans la scène. Cette méthode se fondera sur une initialisation par une capture de la scène sans aucun sujet. Une fois la silhouette extraite, les 10% de la silhouette correspondant à la zone la plus haute de la silhouette (la plus proche de l'objectif de la Kinect) sera analysée en temps réel selon la vitesse et la position de son centre de gravité. Ces critères permettront donc après analyse de détecter la chute, puis d'émettre un signal (courrier ou texto) vers l'individu ou à l’autorité en charge de la personne âgée. Cette méthode a été validée à l’aide de plusieurs vidéos de chutes simulées par un cascadeur. La position de la caméra et son information de profondeur réduisent de façon considérable les risques de fausses alarmes de chute. Positionnée verticalement au sol, la caméra permet donc d'analyser la scène et surtout de procéder au suivi de la silhouette sans occultation majeure, qui conduisent dans certains cas à des fausses alertes. En outre les différents critères de détection de chute, sont des caractéristiques fiables pour différencier la chute d'une personne, d'un accroupissement ou d'une position assise. Néanmoins l'angle de vue de la caméra demeure un problème car il n'est pas assez grand pour couvrir une surface conséquente. Une solution à ce dilemme serait de fixer une lentille sur l'objectif de la Kinect permettant l’élargissement de la zone surveillée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’histoire du concept d’idéologie est riche des différentes définitions qui ont tenté de le circonscrire, en tension entre la description de visions du monde et la dénonciation de la « fausse conscience ». Chez les penseurs regroupés sous le nom d’ « École de Francfort », l’idéologie en vient à équivaloir au phénomène de l’industrie culturelle, c’est-à-dire la mise au service de la raison technique dans la production de la culture. Le statut du cinéma est intéressant à cet égard : non seulement est-ce un art né à l’époque industrielle et indissociable des possibilités techniques offertes par celle-ci, mais il a été mobilisé pour de nombreuses entreprises propagandistes, plus ou moins subtiles. La question directrice de l’interrogation est donc la suivante : selon la théorie critique de l’École de Francfort, le cinéma peut-il être considéré comme de l’art ou est-il confiné au domaine de l’idéologie ? Autrement dit, le cinéma peut-il revendiquer un statut qui ne ferait pas de lui qu’un support de la domination de l’humain par l’humain ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diagnostic de l’acouphène repose sur le rapport verbal du patient. Cependant, les paramètres psychoacoustiques, tels que la hauteur et la sonie de l’acouphène, sont essentiels pour l’évaluation et pour discriminer les fausses plaintes. Quantifier le percept de l’acouphène reste un objectif de recherche important. Nous avons cherché à: (1) évaluer la précision d'une nouvelle méthode d'évaluation des acouphènes du type « likeness rating » avec une méthode de présentation continue de la hauteur, en considérant la formation musicale, et (2) vérifier si les mesures psychoacoustiques de l’acouphène ont la sensibilité et la spécificité pour détecter les personnes simulant un acouphène. Nous avons recruté des musiciens et des non-musiciens souffrant d'acouphènes et des simulateurs sans acouphènes. La plupart d’entre eux ont été testés une seconde fois quelques semaines plus tard. La hauteur de l’acouphène a d’abord été évaluée en utilisant la méthode « likness rating ». Des sons purs ont été présentés de manière aléatoire de 0.25 kHz à 16 kHz et les participants devaient coter la ressemblance de chaque son par rapport à leur acouphène, et en ajuster son volume de 0 à 100 dB SPL. La hauteur a ensuite été évaluée par une méthode, où les participants devaient apparier la hauteur de leur acouphène en déplaçant leur doigt sur une bande tactile générant des sons purs en continu de 0.5 kHz à 20 kHz par pas de 1 Hz. Les capacités à apparier des sons externes ont été évaluées en utilisant cet appareil. La hauteur prédominante de l’acouphène était similaire entre les deux méthodes pour les musiciens et les non-musiciens, bien que les musiciens montraient de meilleures capacités d’appariement face à des sons externes. Les simulateurs ont coté la sonie bien au-dessus que les autres groupes avec un grand degré de spécificité (94,4%), et ont été inconsistants dans l’appariement de cette sonie (pas de la hauteur) d’une session à une autre. Les données de la seconde session montrent des réponses similaires pour l’appariement de la hauteur pour les deux méthodes ainsi que pour tous nos participants. En conclusion, la hauteur et la sonie correspondent au percept de l’acouphène et doivent en plus être utilisées avec des échelles visuelles analogiques, qui sont plus corrélées avec la gêne et la détresse. Enfin, l’appariement de la sonie est sensible et spécifique à déterminer la présence de l’acouphène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’auteur s’intéresse à la question de savoir si le droit du travail américain est plus favorable à l’investissement direct étranger (IDE) que le droit du travail québécois dans le contexte de l’ALENA. Pour ce faire, il fait une revue de littérature sur les déterminants de la localisation de l’IDE afin de clarifier l’importance du droit du travail national dans les décisions d’investissement des entreprises multinationales. Celle-ci révèle que la localisation de l’IDE est un processus complexe et multidimensionnel impliquant un grand nombre de facteurs, dont certains sont associés à la demande, d’autres aux coûts, d’autres aux caractéristiques des pays-hôtes, et d’autres, enfin, au risque. Le droit du travail national, bien que revêtant une certaine importance, n’est qu’un facteur parmi d’autres. Elle révèle également que l’importance relative des déterminants de la localisation de l’IDE, incluant le droit du travail national, varie elle-même en fonction d’autres facteurs, comme le secteur d’activité de l’entreprise, sa stratégie, sa taille et la motivation de l’IDE. Ensuite, il fait une étude de droit comparé entre le Québec et le Massachusetts afin d’identifier les principales différences qui existent entre les deux régimes de droit du travail. Cette étude a permis d’identifier des différences importantes entre les deux systèmes étudiés. Ainsi, dans l’ensemble, le droit du travail applicable au Massachusetts se fonde davantage sur les principes de la liberté contractuelle et du laisser-faire que le droit du travail québécois, qui est beaucoup plus interventionniste. Enfin, l’auteur analyse les différences observées dans le cadre de l’étude de droit comparé à la lumière des conclusions de sa revue de littérature sur les déterminants de la localisation de l’IDE. Il en vient à la conclusion que bien qu’à de nombreux égards le droits du travail québécois s’avère plus avantageux que le droit du travail applicable au Massachusetts aux fins de la localisation de l’IDE, c’est plutôt ce dernier qui, de façon générale, s’avère le plus avantageux à ce chapitre. En effet, dans l’ensemble, le droit du travail québécois est susceptible d’imposer des coûts de main-d’œuvre supérieurs et de réduire la flexibilité du marché du travail davantage que le droit du travail applicable au Massachusetts. Or, considérant que le droit du travail national n’est qu’un facteur parmi d’autres dans la décision de localisation de l’IDE, le Québec n’est pas sans moyens. En effet, il possède d’autres avantages comparatifs qu’il peut faire valoir auprès des entreprises qui œuvrent dans des secteurs d’activités où ces avantages concurrentiels sont valorisés et susceptibles d’être exploités. De plus, considérant que le droit du travail national a un importance relative qui varie elle-même en fonction d’autres facteurs, le droit du travail québécois n’a pas nécessairement le même effet sur tous les investisseurs. Enfin, considérant que le droit du travail remplit des fonctions sociales autant que des fonctions économiques, c’est un faux débat que de mettre l’accent uniquement sur les conséquences « négatives » du droit du travail national sur l’IDE. En effet, c’est faire complètement abstraction de la question des coûts sociaux que le droit du travail permet de prévenir au sein d’une société.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les contre-exemples de Frankfurt sont inoffensifs contre l’argument de la conséquence (consequence argument), l’argument qui, à partir du principe des possibilités alternatives et du déterminisme, montre que nous ne pouvons être tenus moralement responsables de nos actions. En effet, ils sont formulés soit dans un cadre déterministe, soit dans un cadre indéterministe. S’ils sont formulés dans un cadre indéterministe, ils sont inoffensifs parce qu’ils contreviennent à un principe méthodologique que nous défendons : le principe de non-négation des prémisses (PNNP). En fait, nous montrons que pour tout argument donné, il est proscrit de supposer la négation d’une prémisse afin de réfuter une autre prémisse à moins que l’attaque réussisse à réfuter les deux prémisses en question. Or, d’une part, les contre-exemples de Frankfurt indéterministes supposent explicitement qu’une prémisse de l’argument de la conséquence – le déterminisme est vrai – est fausse; et d’autre part, ils ne peuvent pas nous donner de raisons de croire en l’indéterminisme, ce que nous montrons grâce à des considérations sur la transmission de la justification. Construire des contre-exemples de Frankfurt indéterministes est donc incorrect pour des raisons méthodologiques et logiques. S’ils sont formulés dans un cadre déterministe, les contre-exemples de Frankfurt font face à une autre accusation d’entorse argumentative, présentée dans la défense du dilemme (Dilemma Defence) de Kane-Ginet-Widerker : celle de la pétition de principe. Nous inspectons et nuançons cette accusation, mais concluons qu’elle tient puisque les contre-exemples de Frankfurt déterministes supposent au final une analyse des agents contrefactuels dans les mondes déterministes et de la relation « rendre inévitable » que ne peuvent endosser ni les incompatibilistes de la marge de manœuvre (leeway incompatibilists), ni les incompatibilistes de la source (source incompatibilists) ni non plus les semicompatibilistes. Conséquemment, les contre-exemples de Frankfurt ne peuvent plus soutenir la forme de compatibilisme à laquelle ils ont donné naissance. L’incompatibilisme de la source ne peut plus être préféré à l’incompatibilisme de la marge de manœuvre ni non plus rejeter toute participation des possibilités alternatives dans l’explication de la responsabilité morale sur cette seule base.