990 resultados para BAS
Resumo:
La caractérisation de matériaux par spectroscopie optique d’émission d’un plasma induit par laser (LIPS) suscite un intérêt qui ne va que s’amplifiant, et dont les applications se multiplient. L’objectif de ce mémoire est de vérifier l’influence du choix des raies spectrales sur certaines mesures du plasma, soit la densité électronique et la température d’excitation des atomes neutres et ionisés une fois, ainsi que la température d’ionisation. Nos mesures sont intégrées spatialement et résolues temporellement, ce qui est typique des conditions opératoires du LIPS, et nous avons utilisé pour nos travaux des cibles binaires d’aluminium contenant des éléments à l’état de trace (Al-Fe et Al-Mg). Premièrement, nous avons mesuré la densité électronique à l’aide de l’élargissement Stark de raies de plusieurs espèces (Al II, Fe II, Mg II, Fe I, Mg I, Halpha). Nous avons observé que les densités absolues avaient un comportement temporel différent en fonction de l’espèce. Les raies ioniques donnent des densités électroniques systématiquement plus élevées (jusqu’à 50 % à 200 ns après l’allumage du plasma), et décroissent plus rapidement que les densités issues des raies neutres. Par ailleurs, les densités obtenues par les éléments traces Fe et Mg sont moindres que les densités obtenues par l’observation de la raie communément utilisée Al II à 281,618 nm. Nous avons parallèlement étudié la densité électronique déterminée à l’aide de la raie de l’hydrogène Halpha, et la densité électronique ainsi obtenue a un comportement temporel similaire à celle obtenue par la raie Al II à 281,618 nm. Les deux espèces partagent probablement la même distribution spatiale à l’intérieur du plasma. Finalement, nous avons mesuré la température d’excitation du fer (neutre et ionisé, à l’état de trace dans nos cibles), ainsi que la température d’ionisation, à l’aide de diagrammes de Boltzmann et de Saha-Boltzmann, respectivement. À l’instar de travaux antérieurs (Barthélémy et al., 2005), il nous est apparu que les différentes températures convergeaient vers une température unique (considérant nos incertitudes) après 2-3 microsecondes. Les différentes températures mesurées de 0 à 2 microsecondes ne se recoupent pas, ce qui pourrait s’expliquer soit par un écart à l’équilibre thermodynamique local, soit en considérant un plasma inhomogène où la distribution des éléments dans la plume n’est pas similaire d’un élément à l’autre, les espèces énergétiques se retrouvant au cœur du plasma, plus chaud, alors que les espèces de moindre énergie se retrouvant principalement en périphérie.
Resumo:
La Ruah YHWH joue un rôle important dans la transformation créative de l’univers et des entités actuelles; cependant, une réflexion concernant les modalités de ce rôle reste à développer. La théologie processuelle offre une plateforme à partir de laquelle sont examinées diverses facettes des rôles que peut jouer la Ruah YHWH dans un monde où le chaos semble dominer. L’objectif de ce mémoire est justement d’explorer la Ruah YHWH dans son rôle de transformation créative au service, ultimement de l’ordre, de la paix et de l’harmonie dans le monde, les communautés, la vie des entités actuelles, etc. Le Chapitre 1 passe en revue des notions clés de la théologie processuelle. Le concept des “entités actuelles” est d’abord défini. Sont ensuite examinées les différentes phases du devenir d’une entité actuelle. Finalement, les concepts de “créativité” et de “transformation”, dans une perspective de la Ruah YHWH font l’objet d’observations attentives avant d’aborder « trois natures » de Dieu, à savoir primordiale, conséquente, et superjective. Le Chapitre 2 s’intéresse à la péricope centrale de ce mémoire : Juges 13:24-14:20. Le découpage de la structure de cette péricope est basé sur des critères de critique textuelle et d’analyse syntaxique. La première analyse s’attarde aux difficultés que le texte hébreu présente, alors que la deuxième met l’accent sur l’organisation structurelle des propositions grammaticales des versets. Les deux analyses me permettent ensuite de proposer une traduction du péricope. Le Chapitre 3 se veut une application de ce qui a été élaboré au Chapitre 1 sur la péricope analysée au Chapitre 2. Ce troisième chapitre permet de mettre en pratique une approche processuelle originale développée par Robert David dans son livre Déli_l’ ÉCRITURE. Dans la foulée des chapitres qui le précèdent, le Chapitre 4 propose quelques principes herméneutiques contemporains pouvant éclairer le rôle de la Ruah YHWH dans l’avancée créative du monde : vie, amour, et paix.
Resumo:
Entre 1988 et 2008, les Philippines ont mis en oeuvre le Comprehensive Agrarian Reform Program (CARP) qui visait à redistribuer 9 million d‟hectares de terres agricoles aux paysans sans terre. En dépit des échappatoires du programme et d‟une structure sociale très inégale qui freinent sa mise en oeuvre, ce modèle de réforme agraire présente des résultats surprenants alors que 82% des terres ont été redistribuées. Concernant les terres plus litigieuses appartenant à des intérêts privés, Borras soutient que le succès surprenant de plusieurs cas de luttes agraires s‟explique par l‟utilisation de la stratégie bibingka qui consiste à appliquer de la pression par le bas et par le haut afin de forcer la redistribution. Sa théorie cependant ne donne que peu de détails concernant les éléments qui rendent un cas plus ou moins litigieux. Elle ne traite pas non plus de la manière dont les éléments structurels et l‟action collective interagissent pour influencer le résultat des luttes agraires. Dans ce mémoire, nous nous attardons d‟abord à la manière dont certains éléments structurels – le type de récolte et le type de relation de production - influencent le degré de résistance des propriétaires terriens face aux processus du CARP, contribuant ainsi à rendre les cas plus ou moins litigieux. Ensuite nous analysons l‟influence du contexte structurel et des stratégies paysannes sur le résultat de la mise en oeuvre du programme de réforme agraire. Pour répondre à nos deux questions de recherche, nous présentons quatre études de cas situés dans la province de Cebu.
Resumo:
Trajectoires développementales de l’IMC durant l’enfance: Une étude longitudinale sur 8 ans. Introduction : L’obésité infantile, origine de nombreux problèmes de santé, représente un grand défi en santé publique. Récemment, l’importance d’étudier l’évolution du surpoids durant l’enfance ainsi que les facteurs de risques précoces pour l’obésité a été reconnue. Les trajectoires développementales d’indice de masse corporelle (IMC) chez les jeunes représentent une approche innovatrice qui nous permet de mieux comprendre cette problématique importante. Objectifs: 1) Identifier des trajectoires développementales distinctes de groupes d’enfants selon leur IMC durant l’enfance, et 2) Explorer les facteurs de risques précoces qui prédisent l’appartenance de l’enfant à la trajectoire d’IMC le plus élevé Hypothèses: 1) On s’attend à retrouver un groupe d’enfants qui suit une trajectoire d’IMC élevée durant l’enfance. 2) On s’attend à ce que certaines caractéristiques de la mère (ex : tabac pendant la grossesse et IMC élevé), soient associées à l’appartenance de l’enfant au groupe ayant la trajectoire «IMC élevé ». Méthodes: Estimation des trajectoires développementales d’IMC d’enfants, dans un échantillon populationnel (n=1957) au Québec (ELDEQ). Les IMC ont été calculés à partir de données fournies par les mères des enfants et recueillis chaque année sur une durée de 8 ans. Des données propres à l’enfant sa mère, ainsi que socioéconomiques, ont étés recueillies. Une régression logistique multinomiale a été utilisée pour distinguer les enfants avec un IMC élevé des autres enfants, selon les facteurs de risques précoces. Les programmes PROC TRAJ (extension de SAS), SPSS (version 16), et SAS (version 9.1.3) ont été utilisés pour ces analyses. Résultats: Trois trajectoires d’IMC ont étés identifiées : IMC « bas-stable » (54,5%), IMC « modéré » (41,0%) et IMC « élevé et en hausse » (4,5%). Le groupe « élevé et en hausse » incluait des enfants pour qui l’IMC à 8 ans dépassait la valeur limite pour l’obésité. Les analyses de régression logistique ont révélé que deux facteurs de risques maternels étaient significativement associés avec la trajectoire “en hausse” par rapport aux deux autres groupes : le tabac durant la grossesse et le surpoids maternel. Conclusions: Des risques d’obésité infantile peuvent êtres identifiés dès la grossesse. Des études d’intervention sont requises pour identifier la possibilité de réduire le risque d’obésité chez l’enfant en ciblant le tabac et le surpoids maternelle durant la grossesse. Mots clés: Indice de masse corporelle (IMC), obésité infantile, trajectoires développementales de groupe, facteurs de risque précoce, étude populationnelle, tabac pendant la grossesse, obésité maternelle.
Resumo:
Généralement, les problèmes de conception de réseaux consistent à sélectionner les arcs et les sommets d’un graphe G de sorte que la fonction coût est optimisée et l’ensemble de contraintes impliquant les liens et les sommets dans G sont respectées. Une modification dans le critère d’optimisation et/ou dans l’ensemble de contraintes mène à une nouvelle représentation d’un problème différent. Dans cette thèse, nous nous intéressons au problème de conception d’infrastructure de réseaux maillés sans fil (WMN- Wireless Mesh Network en Anglais) où nous montrons que la conception de tels réseaux se transforme d’un problème d’optimisation standard (la fonction coût est optimisée) à un problème d’optimisation à plusieurs objectifs, pour tenir en compte de nombreux aspects, souvent contradictoires, mais néanmoins incontournables dans la réalité. Cette thèse, composée de trois volets, propose de nouveaux modèles et algorithmes pour la conception de WMNs où rien n’est connu à l’ avance. Le premiervolet est consacré à l’optimisation simultanée de deux objectifs équitablement importants : le coût et la performance du réseau en termes de débit. Trois modèles bi-objectifs qui se différent principalement par l’approche utilisée pour maximiser la performance du réseau sont proposés, résolus et comparés. Le deuxième volet traite le problème de placement de passerelles vu son impact sur la performance et l’extensibilité du réseau. La notion de contraintes de sauts (hop constraints) est introduite dans la conception du réseau pour limiter le délai de transmission. Un nouvel algorithme basé sur une approche de groupage est proposé afin de trouver les positions stratégiques des passerelles qui favorisent l’extensibilité du réseau et augmentent sa performance sans augmenter considérablement le coût total de son installation. Le dernier volet adresse le problème de fiabilité du réseau dans la présence de pannes simples. Prévoir l’installation des composants redondants lors de la phase de conception peut garantir des communications fiables, mais au détriment du coût et de la performance du réseau. Un nouvel algorithme, basé sur l’approche théorique de décomposition en oreilles afin d’installer le minimum nombre de routeurs additionnels pour tolérer les pannes simples, est développé. Afin de résoudre les modèles proposés pour des réseaux de taille réelle, un algorithme évolutionnaire (méta-heuristique), inspiré de la nature, est développé. Finalement, les méthodes et modèles proposés on été évalués par des simulations empiriques et d’événements discrets.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
Résumé Cette étude quasi expérimentale consistait à élaborer et à mettre à l’essai une mesure de soutien à l’intention d’enseignants débutants ainsi qu’à évaluer l’efficacité de celle-ci. L’une des particularités de cette mesure, appelée Dispositif de soutien en gestion de classe, était qu’elle était centrée essentiellement sur le développement de la compétence à gérer la classe. L’application du dispositif, échelonnée sur une année scolaire, portait sur une trentaine d’enseignants débutants œuvrant au primaire, en milieu défavorisé, à Montréal. Basé sur les trois phases du modèle théorique d’Archambault et Chouinard (2003), le dispositif se déclinait selon trois cycles de formation : l’établissement du fonctionnement de la classe, le maintien de celui-ci et le soutien à la motivation scolaire, ainsi que l’intervention pour résoudre des problèmes de comportement. Chaque cycle commençait par une journée de formation et d’appropriation (JFA) durant laquelle il y avait présentation d’un contenu théorique puis des ateliers d’appropriation. Par la suite, les enseignants effectuaient des mises en pratique dans leur classe. Pour terminer le cycle, un autre type de rencontre, la rencontre de suivi (RS), servait entre autres à objectiver la pratique. L’aspect original de cette mesure de soutien était que la première rencontre de formation était offerte une semaine avant la rentrée scolaire. Sur le thème « Commencer l’année du bon pied en gestion de classe », cette journée avait pour objectif de soutenir les enseignants débutants dans l’installation du fonctionnement de leur classe. L’efficacité du dispositif a été évaluée sur la base de trois dimensions : l’établissement et le maintien de l’ordre et de la discipline, le sentiment d’efficacité personnelle ainsi que la motivation professionnelle. Les perceptions du groupe d’enseignants débutants ayant pris part aux activités du dispositif (n = 27) ont été comparées à celles d’un groupe témoin (n = 44). Les participants avaient, en moyenne, 2,9 années d’expérience et leur âge variait de 23 à 56 ans. Les données ont été recueillies à l’aide d’un questionnaire auto rapporté rempli en deux temps, soit au deuxième et au huitième mois de l’année scolaire. Les scores des enseignants débutants du dispositif ont augmenté dans le temps pour l’ensemble des variables à l’étude. De plus, les analyses de variance à mesures répétées ont révélé que le dispositif a eu une triple incidence positive, attestée par des effets d’interaction. Les enseignants débutants engagés dans la démarche ont connu une augmentation de leur capacité à implanter les règles de classe, de leur sentiment d’efficacité personnelle à gérer les situations d’apprentissage et de leur motivation professionnelle. En effet, alors que, au début de l’étude, ils rapportaient des scores significativement inférieurs à ceux du groupe témoin, à la fin, les scores étaient équivalents. Les résultats ont aussi montré que les participants du groupe expérimental se distinguaient en affichant un meilleur sentiment d’efficacité à faire apprendre leurs élèves. L’étude nous apprend également que le sentiment d’efficacité personnelle à faire face aux problèmes de comportement et la capacité à gérer les comportements se sont renforcés de façon significative dans le temps chez l’ensemble des enseignants débutants. Finalement, aucun changement significatif n’a été détecté pour deux des huit variables à l’étude : le sentiment d’efficacité personnelle à avoir un effet sur le comportement des élèves et l’application des règles de classe. En définitive, ces résultats sont encourageants. Ils montrent l’enrichissement professionnel que les enseignants débutants peuvent retirer lorsqu’ils sont soutenus adéquatement. Nous croyons que la journée de formation portant sur l’installation du fonctionnement de la classe, avant la rentrée scolaire, a joué un rôle central dans les succès vécus par les enseignants débutants participants. C’est pourquoi nous recommandons ce type de formation assorti d’un suivi à long terme, où d’autres composantes entrent en jeu, afin de nourrir le sentiment d’efficacité personnelle et la motivation professionnelle des nouveaux enseignants.
Resumo:
Le but de ce mémoire est de poser un regard comparatiste sur les conséquences éventuelles de la politique eugénique totalitaire du Troisième Reich, et ce, dans l’optique où ce régime aurait eu la chance de poursuivre ses ambitions à ce niveau. En portant respectivement notre attention sur la structure organisationnelle du NSDAP, de l’État et de l’autorité, sur les étapes spécifiques de l’établissement du totalitarisme hitlérien, sur les diverses techniques de propagande et d’endoctrinement utilisées par les nazis pour accomplir l’unification du peuple allemand, ainsi que sur l’application pratique et le discours relatif à la politique eugénique dans le Reich et sur les territoires occupés, nous comprendrons que le mouvement propre au totalitarisme hitlérien, en changeant constamment sa définition respective de l’« élite » et de l’être « dépravé », n’aurait jamais mis fin à la purge raciale de la population sous son joug. Par conséquent, la place de l’« allemand moyen » aurait été quasi inexistante. Le Troisième Reich, par élimination et élevage social constant, aurait donc créé un « homme nouveau », basé sur l’idéologie arbitraire et instable du régime et pigé dans les peuples occupés à divers degré. Au bout de plusieurs générations, cet être nouveau aurait constitué le « noyau racial » de la population d’une nouvelle Europe aryanisée, construite sur le cadavre de la plus grande partie des anciens peuples du continent, incluant le peuple allemand.
Resumo:
L’étude des attitudes linguistiques, entreprise par la sociolinguistique et la psychologie sociale, a permis de confirmer que toutes les variétés linguistiques ne reçoivent pas le même traitement. La langue standard, étant en règle générale la langue du groupe de prestige, bénéficie d’une reconnaissance sociale en comparaison avec les variétés non-standards ou minoritaires, qui, au contraire, suscitent généralement des attitudes plus négatives. Dans ce mémoire, nous analysons les attitudes linguistiques des mexicains à l’égard du slang mexicain. La méthodologie du projet comporte deux parties principales. Dans un premier temps, des conversations spontanées et naturelles entre locuteurs de slang sont enregistrées. Des fragments de ces enregistrements sont ensuite écoutés par un groupe de sujets qui, simultanément, remplit un questionnaire évaluant leurs attitudes linguistiques dirigées envers l’usage du slang ainsi qu’envers les individus qui le parle. L’analyse statistique des résultats permet de faire quelques constats : Il y a une différence très significative entre la façon dont les dimensions de solidarité et de prestige sont jugées, les pointages donnés aux aspects tels que l’intelligence et le succès des locuteurs de slang s’avérant beaucoup plus bas que ceux accordés aux aspects reliés à leur personnalité, comme la bonté et la générosité. Aussi, les variables de l’âge et du sexe ont une influence sur les attitudes linguistiques : les femmes ainsi que la génération plus âgée s’avèrent plus sévères dans leur évaluation du slang. Ce mémoire se divise en cinq chapitres. Les deux premiers explorent les concepts théoriques sur lesquels se basent le projet, soit les attitudes linguistiques et le slang comme phénomène linguistique et social. Les trois chapitres suivants se consacrent au projet en soit : la méthodologie, l’analyse des résultats et l’interprétation de ceux-ci.
Resumo:
Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.
Resumo:
Les avocats, praticiens et universitaires qui sont engagés dans le droit des transports internationaux de marchandises par mer ont l’habitude de travailler avec un régime complexe de responsabilité du transporteur maritime. La coexistence de plusieurs conventions régissant ce régime et l’imprécision des textes de ces différentes législations rendent leur application difficile d’où l’échec permanent du voeu d’uniformisation de ce droit. En premier lieu, nous retrouvons le régime de base celui de la Convention de Bruxelles sur l’unification de certaines règles en matière de connaissement, ratifiée le 25 août 1924 et ses Protocoles modificatifs annexés en 1968 et 1979. Il s’agit d’un régime fondé sur la présomption de responsabilité comprenant une liste de cas exonératoires appelés « cas exceptés ». En second lieu figurent les Règles de Hambourg, édictées en 1978, qui établissent un régime basé sur la présomption de faute du transporteur à l’exception de deux cas exonératoires : l’incendie et l’assistance ou la tentative de sauvetage. Enfin, apparaît la Convention sur le contrat de transport international de marchandises effectué entièrement ou partiellement par mer, adoptée par les Nations unies en 2009, sous l’appellation « Les Règles de Rotterdam », qui adopte un régime de responsabilité « particulier ». Cette étude a tenté d’analyser ces mécanismes juridiques mis en place. Pour ce faire, nous nous sommes concentrées sur les sources du dysfonctionnement de ces régimes, afin de favoriser le développement d’initiatives d’uniformisation des règles de responsabilité du propriétaire du navire. L’analyse des textes positifs, de la doctrine et de la jurisprudence, nous a permis de constater que les différentes approches du régime juridique du transporteur maritime des marchandises sous ces différentes législations ne garantissent pas la prévisibilité et la sécurité juridiques recherchées par les différents acteurs maritimes. Par conséquent, l’absence d’un régime cohérent et unifié a créé des incertitudes au sein de la communauté maritime internationale et au sein des tribunaux en cas de litige. Pour surmonter cette réalité complexe, notre thèse propose une approche qui pourra simplifier ce régime, l’approche objective.
Resumo:
Parc marin du Saguenay - Saint-Laurent, Groupe de recherche et d'éducation sur les mammifères marins, GREMM, excursions aux baleines, bélugas, Tadoussac, règlementation, ArcCatalog, ArcMap.
Resumo:
Lors d’une tâche de pointage manuel, la présence de corrections rapides, adaptées, automatiques et même réflexes (Franklin et Wolpert, 2008) suite à une perturbation par saut de curseur a pu être observée dans de nombreuses études. Ici, nous avons souhaité déterminer si ces corrections étaient purement réflexes où si elles étaient amorcées seulement lorsque la perturbation mettait en péril l’atteinte de la cible ; ces corrections ont-elles aussi un aspect fonctionnel ? Dans une première expérience nous avons fait varier la taille des cibles (5 ou 30 mm de diamètre) et des sauts du curseur (5, 15 ou 25 mm) de manière à obtenir certaines combinaisons où la cible pourrait être atteinte sans qu’aucune correction du mouvement pour contrecarrer l’effet du saut du curseur ne soit nécessaire. Des corrections réduisant l’erreur d’environ 65% ont été observées dans toutes les conditions. Dans une seconde expérience, les participants devaient atteindre une très grande cible (arc de 30°) et un saut de curseur de 15 mm était introduit pour certains essais peu de temps après l’amorce du mouvement. Les participants ont modifié leur mouvement dans le sens opposé à celui de la perturbation, et cela même s’ils n’avaient pas détecté consciemment le saut. Cependant, ces corrections étaient moins rapides et plus petites (42% de l’amplitude du saut de curseur) que celles observées lors de la première expérience. Nos résultats supportent le fait que l’amorce des corrections pour des erreurs de trajectoire induites expérimentalement soit de nature réflexe. Un deuxième processus serait alors responsable du déroulement de ces corrections ; ce deuxième processus est basé, entre autres, sur les caractéristiques de la cible.
Resumo:
Les papillomavirus sont des virus à ADN qui infectent la peau et les muqueuses. Ils causent des verrues et peuvent aussi mener au développement de cancers, dont le cancer du col de l’utérus. La réplication de leur génome nécessite deux protéines virales : l’hélicase E1 et le facteur de transcription E2, qui recrute E1 à l’origine de réplication virale. Pour faciliter l’étude de la réplication du génome viral, un essai quantitatif et à haut débit basé sur l’expression de la luciférase a été développé. Parallèlement, un domaine de transactivation a été identifié dans la région régulatrice N-terminale de la protéine E1. La caractérisation de ce domaine a montré que son intégrité est importante pour la réplication de l’ADN. Cette étude suggère que le domaine de transactivation de E1 est une région protéique intrinsèquement désordonnée qui permet la régulation de la réplication du génome viral par son interaction avec diverses protéines.
Resumo:
Les pays industrialisés comme le Canada doivent faire face au vieillissement de leur population. En particulier, la majorité des personnes âgées, vivant à domicile et souvent seules, font face à des situations à risques telles que des chutes. Dans ce contexte, la vidéosurveillance est une solution innovante qui peut leur permettre de vivre normalement dans un environnement sécurisé. L’idée serait de placer un réseau de caméras dans l’appartement de la personne pour détecter automatiquement une chute. En cas de problème, un message pourrait être envoyé suivant l’urgence aux secours ou à la famille via une connexion internet sécurisée. Pour un système bas coût, nous avons limité le nombre de caméras à une seule par pièce ce qui nous a poussé à explorer les méthodes monoculaires de détection de chutes. Nous avons d’abord exploré le problème d’un point de vue 2D (image) en nous intéressant aux changements importants de la silhouette de la personne lors d’une chute. Les données d’activités normales d’une personne âgée ont été modélisées par un mélange de gaussiennes nous permettant de détecter tout événement anormal. Notre méthode a été validée à l’aide d’une vidéothèque de chutes simulées et d’activités normales réalistes. Cependant, une information 3D telle que la localisation de la personne par rapport à son environnement peut être très intéressante pour un système d’analyse de comportement. Bien qu’il soit préférable d’utiliser un système multi-caméras pour obtenir une information 3D, nous avons prouvé qu’avec une seule caméra calibrée, il était possible de localiser une personne dans son environnement grâce à sa tête. Concrêtement, la tête de la personne, modélisée par une ellipsoide, est suivie dans la séquence d’images à l’aide d’un filtre à particules. La précision de la localisation 3D de la tête a été évaluée avec une bibliothèque de séquence vidéos contenant les vraies localisations 3D obtenues par un système de capture de mouvement (Motion Capture). Un exemple d’application utilisant la trajectoire 3D de la tête est proposée dans le cadre de la détection de chutes. En conclusion, un système de vidéosurveillance pour la détection de chutes avec une seule caméra par pièce est parfaitement envisageable. Pour réduire au maximum les risques de fausses alarmes, une méthode hybride combinant des informations 2D et 3D pourrait être envisagée.