827 resultados para dispersion longue distance


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche porte sur la pertinence et la faisabilité d’un programme de formation continue à distance des enseignants qualifiés de l’enseignement secondaire général public du Bénin. Elle a deux objectifs spécifiques : l’identification et l’analyse des besoins de formation continue des enseignants du secondaire du Bénin et l’étude des modalités administratives, pédagogiques et techniques de mise en place d’un tel programme dans le contexte béninois. Les recherches sont effectuées sur la base de la mise en œuvre de la technique du groupe nominal (TGN) qui a permis de générer un premier questionnaire soumis à un échantillon de 278 enseignants représentatifs des 1 488 enseignants qualifiés de l’enseignement secondaire général public du Bénin et trois autres questionnaires, basés sur la technique Delphi, adressés à 13 experts du système éducatif béninois. Il apparaît qu’un futur programme de formation continue à distance des enseignants du secondaire devrait comporter, principalement, les trois thèmes ci-après, classés par ordre de priorité : «Technologies de l’information et de la communication »; «Méthodes pédagogiques» et « Matière de spécialité ». L’utilisation de la technique Delphi a permis d’établir une liste de 23 items correspondant aux modalités administratives, pédagogiques et techniques pour la mise en œuvre de la formation. L’analyse des résultats de la technique Delphi et celle des réponses au questionnaire adressé aux enseignants ont permis d’opérer un choix de médias à utiliser et/ou à intégrer pour transmettre le savoir et soutenir l’apprentissage. Il ressort des résultats de la recherche que les enseignants béninois du secondaire ont d’importants besoins de formation continue et que la conception et la mise en œuvre d’un programme de formation à distance axée sur l’utilisation des TIC sont pertinentes et faisables au Bénin. Un modèle organisationnel de formation continue à distance a été proposé.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La variabilité génétique actuelle est influencée par une combinaison complexe de variables historiques et contemporaines. Dès lors, une interprétation juste de l’impact des processus actuels nécessite une compréhension profonde des processus historiques ayant influencé la variabilité génétique. En se basant sur la prémisse que des populations proches devraient partager une histoire commune récente, nombreuses études, effectuées à petite échelle spatiale, ne prennent pas en considération l’effet potentiel des processus historiques. Cette thèse avait pour but de vérifier la validité de cette prémisse en estimant l’effet de la dispersion historique à grande et à petite échelle spatiale. Le premier volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la répartition des organismes à grande échelle spatiale. Pour ce faire, les moules d’eau douce du genre flotteurs (Pyganodon spp.) ont servies de modèle biologique. Les moules d'eau douce se dispersent principalement au stade larvaire en tant que parasites des poissons. Une série de modèles nuls ont été développés pour évaluer la co-occurrence entre des parasites et leurs hôtes potenitels. Les associations distinctes du flotteur de Terre-Neuve (P. fragilis) avec des espèces de poissons euryhalins permettent d’expliquer sa répartition. Ces associations distinctes ont également pu favoriser la différenciation entre le flotteur de Terre-Neuve et son taxon soeur : le flotteur de l’Est (P. cataracta). Cette étude a démontré les effets des associations biologiques historiques sur les répartitions à grande échelle spatiale. Le second volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la variabilité génétique, à petite échelle spatiale. Cette fois, différentes populations de crapet de roche (Ambloplites rupestris) et de crapet soleil (Lepomis gibbosus), dans des drainages adjacents ont servies de modèle biologique. Les différences frappantes observées entre les deux espèces suggèrent des patrons de colonisation opposés. La faible diversité génétique observée en amont des drainages et la forte différenciation observée entre les drainages pour les populations de crapet de roche suggèrent que cette espèce aurait colonisé les drainages à partir d'une source en aval. Au contraire, la faible différenciation et la forte diversité génétique observées en amont des drainages pour les populations de crapet soleil suggèrent une colonisation depuis l’amont, induisant du même coup un faux signal de flux génique entre les drainages. La présente étude a démontré que la dispersion historique peut entraver la capacité d'estimer la connectivité actuelle, à petite échelle spatiale, invalidant ainsi la prémisse testée dans cette thèse. Les impacts des processus historiques sur la variabilité génétique ne sont pas faciles à démontrer. Le troisième volet de cette thèse avait pour but de développer une méthode permettant de les détecter. La méthode proposée est très souple et favorise la comparaison entre la variabilité génétique et plusieurs hypothèses de dispersion. La méthode pourrait donc être utilisée pour comparer des hypothèses de dispersion basées sur le paysage historique et sur le paysage actuel et ainsi permettre l’évaluation des impacts historiques et contemporains sur la variabilité génétique. Les performances de la méthode sont présentées pour plusieurs scénarios de simulations, d’une complexité croissante. Malgré un impact de la différentiation globale, du nombre d’individus ou du nombre de loci échantillonné, la méthode apparaît hautement efficace. Afin d’illustrer le potentiel de la méthode, deux jeux de données empiriques très contrastés, publiés précédemment, ont été ré analysés. Cette thèse a démontré les impacts de la dispersion historique sur la variabilité génétique à différentes échelles spatiales. Les effets historiques potentiels doivent être pris en considération avant d’évaluer les impacts des processus écologiques sur la variabilité génétique. Bref, il faut intégrer l’évolution à l’écologie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"Le contrat-type que voici est une adaptation d’un précédent contrat dont l’intitulé était « Contrat-type d’échange de documents informatisés (EDI) par le biais des « réseaux ouverts » ». La première version de ce contrat-type visait expressément les échanges de documents informatisés (EDI), on l’aura compris; notre nouvelle version est délestée de l’excès de poids que leur présence aurait constitué par rapport à l’équilibre du texte si on y avait laissé en l’état tous les éléments présents à l’origine. Nous avons voulu mettre au point un contrat-type beaucoup plus général, susceptible de convenir à tout type de relation électronique de longue durée. En renonçant à focaliser l’attention sur les EDI, nous avons pu étendre l’applicabilité de l’acte juridique envisagé à d’autres types de communications électroniques, quels qu’ils puissent être. Évidemment, à cause de sa généralité, un contrat-type ne peut couvrir toutes les hypothèses. Il faudra tout spécialement prendre garde aux situations particulières qui naîtront de la présence au contrat de parties dont les besoins et les goûts tout autant que les intérêts et les exigences seront forcément très diversifiés."

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’attention visuelle est un processus cognitif qui priorise le traitement de l’information visuelle d’une région particulière du champ visuel. En électroencéphalographie, la méthode des potentiels reliés aux évènements permet l’extraction de composantes associées à divers processus cognitifs. La N2pc, une composante latéralisée caractérisée par une déflexion négative entre 180 et 300 ms post-stimulus du côté controlatéral à l’hémichamp dans lequel l’attention est déployée, reflète les processus impliqués dans le déploiement de l’attention visuo-spatiale. De nombreuses études antérieures ont soulevé plusieurs facteurs pouvant moduler cette composante, provenant d’autant de processus de bas niveau que de processus de haut niveau. Cette présente étude comporte une série d’expériences qui approfondit les connaissances sur le rôle de l’attention sur le traitement et la représentation des items dans les champs récepteurs des aires extrastriées du cortex visuel. Ces études démontrent ainsi que l’attention peut effectivement éliminer l’influence d’un distracteur dissimilaire à la cible lorsque celui-ci se retrouve dans le même champ visuel que l’item auquel l’attention est attribuée. Cependant, lorsque l’item est similaire à la cible, son influence ne peut être éliminée. De plus, cette présente étude identifie le rôle des filtres précoces et tardifs de haut niveau sur la sélection attentionnelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La majorité des personnes atteintes de démence en soins de longue durée (SLD) souffre d’une détérioration de la cognition, des interactions sociales, de la santé mentale et de la qualité de vie (QdV). Par conséquent, les proches aidants et les soignants de cette population peuvent éprouver des difficultés, tel que le stress, en raison de la complexité du syndrome. Il s’avère essentiel de valider des interventions psychosociales adaptées à la population atteinte de démence et à ses aidants. La réminiscence, une intervention psychosociale misant sur les capacités résiduelles des personnes atteintes de démence, se fonde sur la remémoration des souvenirs anciens agréables. L’objectif général du mémoire était de valider la mise en œuvre d’une intervention de réminiscence menée par le personnel soignant auprès des personnes atteintes de démence et leurs familles dans un centre de SLD, en faisant appel aux avis experts des soignants et des familles des personnes atteintes de démence dans le contexte d’entrevues. Une évaluation pré-post intervention a permis de mesurer la santé mentale et la QdV des personnes atteintes de démence avant l’intervention, une semaine après et trois mois après l’intervention. Les résultats indiquent que la réminiscence a été bien appréciée par les soignants, les personnes atteintes de démence et leurs familles, et valident sa mise en œuvre en SLD. Des améliorations significatives (Wilcoxon p < 0,025) à court et à long terme ont été observées au niveau de la santé mentale et la QdV des personnes atteintes de démence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les naines brunes sont des objets de masse intermédiaire entre celle nécessaire pour former une étoile et celle d'une planète. Les naines brunes sont classées, des plus chaudes aux plus froides, en types spectraux L, T et Y, caractérisés par une couleur J-K moyenne qui varie de 1.2 à 1.8 pour les étoiles de type L0 à L8, et de 1.8 à -0.5 pour les étoiles de type L8 à T8. Par ailleurs, la couleur J-K de certains types spectraux présente une dispersion de l'ordre d'une magnitude. Ce travail tente de faire la lumière sur la nature de cette grande dispersion, présente dans la couleur J-K des naines brunes de type L2. Les observations ont été réalisées avec la caméra infrarouge CPAPIR à l'Observatoire du Mont Mégantic. Nous avons ciblé un total de 22 naines brunes qui ont été observées en K, et 12 parmi celles-ci ont aussi été observées en J. Chacune des naines brunes a été calibrée à l'aide d'une étoile standard, ce qui rend nos résultats indépendants des données 2MASS. Nous observons une corrélation entre les couleurs J-K de nos données et de celles de 2MASS. Cela montre que la grande dispersion en J-K de nos données et des données 2MASS est due aux propriétés physiques des naines brunes et non à des erreurs observationnelles. L'examen des facteurs qui pourraient être responsables de cette grande dispersion, soit la classification spectrale, la métallicité, la gravité de surface, une binarité non résolue, la présence de nuages de condensats et la rotation, montre que la gravité de surface serait le facteur le plus susceptible d'être responsable de la grande dispersion des valeurs de J-K.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Réalisé en co-tutelle avec le laboratoire Santé-Individu-Société, Ecole doctorale Interdisciplinaire Sciences et Santé, Université de Lyon, avec l'obtention du grade de docteur en sociologie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire propose une analyse du discours et de l’expérience corporelle des adeptes de la scène musicale électronique underground-house de Montréal. Il cherche à contribuer au champ des études sur les formations culturelles expressives contemporaines sur deux axes. Sur le plan méthodologique, cette recherche illustre la portée de l’entretien d’explicitation lorsqu’il s’agit d’accompagner la mise en mots d’impressions sensorielles, d’émotions, de pensées ou d’actions. Combinée à une démarche immersive de longue haleine sur le terrain, cette méthode innovante développée par le chercheur Pierre Vermersch (1994) s’avère ici un outil rigoureux donnant accès à la mémoire incarnée des sujets, laquelle regorge d’informations d’une étonnante précision. Sur le plan ethnographique, cette étude s’intéresse aux nouveaux espaces de solidarité et d’expression balisant l’expérience des Québécois de parents haïtiens issus des classes moyenne et moyenne élevée. Les résultats de cette recherche démontrent, en premier lieu, que l’expérience de la « vibe », expression idiomatique largement utilisée par les acteurs, constitue la clé de voûte maintenant la cohésion entre les représentations, les croyances et les activités corporelles des participants. En deuxième lieu, la scène underground-house se présenterait comme l’expression d’une nouvelle contre-culture en établissant une distance critique avec, d’une part, la « culture hip hop » commerciale et sa représentation médiatique « ghettoïsée » et, d’autre part, l’espace culturel dominant en promouvant une expérience de corps et d’esprit subversive. Cet espace de transmission et de communion inédit propose des modèles de sociabilités nouveaux qui contribuent de manière inusuelle au dialogue interculturel urbain montréalais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Une composante PRE (potentiel relié aux événements) nommée la N2pc est associée au déploiement de l’attention visuo-spatiale. Nous avons examiné la modulation de la N2pc en fonction de la présence ou l’absence d’une cible, la séparation physique de deux items saillants ainsi que leur similarité. Les stimuli présentés étaient des lignes variant selon leur orientation et leur couleur, les items saillants étant bleus et les items non saillants, gris. Les résultats démontrent une augmentation de l’amplitude de la N2pc en lien avec la distance séparant deux items saillants ainsi qu’une augmentation de l’amplitude de la N2pc lorsque les items saillants avaient des orientations plus similaires. Aucune interaction entre ces deux facteurs n’a été observée. Une interaction significative a par contre été observée entre la présence/absence d’une cible et la similarité du distracteur avec la cible recherchée. Ces résultats montrent une dissociation entre l’activité reliée à la distance entre les items saillants et celle qui est reliée à la similarité distracteur-cible, car ils ne peuvent pas être expliqués par un seul mécanisme. Donc, les résultats suggèrent qu’une combinaison de traitement ascendant et de traitement descendant module la composante N2pc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La démarche scientifique (ou expérimentale) en milieu scolaire nécessite des savoir-faire expérimentaux qui ne s’acquièrent habituellement qu’en présentiel, c’est-à-dire en laboratoire institutionnel où l’enseignant ou le technicien sont présents et peuvent, à tout moment, assister pleinement l’apprenant dans sa démarche d’investigation scientifique et technologique. Ils peuvent l’orienter, le diriger, susciter sa réflexion, faire des démonstrations réelles ou contrôler son expérimentation en lui montrant comment paramétrer les outils d’expérimentation assistée par ordinateur (ExAO). Pour répondre aux besoins de la formation à distance, cette recherche de développement en didactique des sciences et de la technologie propose de mettre à la disposition des apprenants et des enseignants un environnement de laboratoire informatisé, contrôlé et assisté à distance. Cet environnement, axé sur un microlaboratoire d’ExAO (MicrolabExAO), que nous avons nommé Ex@O pour le distinguer, a été testé de manière fonctionnelle, puis évalué en situation réelle par des étudiants-maîtres et des élèves de l’éducation des adultes qui ont pratiqué et expérimenté la démarche scientifique, en situation de laboratoire réel, mais à distance. Pour ce faire, nous avons couplé le logiciel MicrolabExAO à un logiciel de prise en main à distance avec outils audio et vidéo (Teamviewer). De plus, nous avons créé et inséré, dans le logiciel MicrolabExAO, une aide en ligne pour télécharger et faciliter la prise en main à distance. Puisque cet environnement Ex@O permet de multiplier les contacts des apprenants avec une expérimentation concrète, ce prototype répond bien à l’un des objectifs du Programme de formation de l’école québécoise (PFEQ) qui est de rendre l’apprenant plus actif dans ses apprentissages. Et parce que ce premier prototype d’environnement Ex@O permet d’effectuer des activités en laboratoire à distance, nous avons pu vérifier qu’il met aussi l’accent, non seulement sur les savoirs, mais également sur les savoir-faire expérimentaux en sciences et technologie, traditionnellement développés dans les locaux des laboratoires institutionnels. Notons ici que la démarche expérimentale s’acquiert très majoritairement en laboratoire en pratiquant, souvent et régulièrement, le processus inductif et déductif propre à cette démarche. Cette pratique de la démarche expérimentale, à distance, avec la technologie Ex@O qui l’accompagne, nous a permis de vérifier que celle-ci était possible, voire comparable à la réalisation, pas-à-pas, d’un protocole expérimental effectué dans un laboratoire institutionnel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous vivons dans une époque où la mobilité internationale est une pratique très courante; ainsi, de plus en plus de partenaires doivent maintenir leurs relations à distance. Le phénomène va de pair avec le développement des nouvelles technologies, qui introduisent de nouvelles formes et de pratiques pour maintenir l’intimité. Cela soulève des questions sur les pratiques de connexion (ou déconnexion) lorsque les couples sont séparés par la distance et le temps. Ce mémoire propose d’explorer comment les femmes dans des relations amoureuses à distance utilisent divers modes d’expression (visuels, textuels, oraux et tactiles) ainsi que plusieurs sens à travers de multiples technologies mobiles, qui lui permettent de reconstruire la présence et l’intimité avec l’autre. Inspiré par le new mobilities paradigm (Sheller & Urry, 2006), ainsi que les concepts de mobile intimacy (Hjorth & Lim, 2012; Elliott & Urry, 2010) et la présence imaginée (Chayko, 2002; Elliott & Urry, 2010), je propose les notions de (dé) connectivité virtuelle, le lieu virtuel, ainsi que la présence/absence technologique. Utilisant une approche méthodologique mixte, venant des données d’entrevues semi-dirigées, de l’autoethnographie, de la recherche création et de journaux de bord multimédias, certaines pratiques de contrôle et de surveillance, des formes émergentes de travail, l’immédiateté et la réciprocité émergent dans une époque d’interconnectivité.