965 resultados para Résolution de superpositions


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les stimuli naturels projetés sur nos rétines nous fournissent de l’information visuelle riche. Cette information varie le long de propriétés de « bas niveau » telles que la luminance, le contraste, et les fréquences spatiales. Alors qu’une partie de cette information atteint notre conscience, une autre partie est traitée dans le cerveau sans que nous en soyons conscients. Les propriétés de l’information influençant l’activité cérébrale et le comportement de manière consciente versus non-consciente demeurent toutefois peu connues. Cette question a été examinée dans les deux derniers articles de la présente thèse, en exploitant les techniques psychophysiques développées dans les deux premiers articles. Le premier article présente la boîte à outils SHINE (spectrum, histogram, and intensity normalization and equalization), développée afin de permettre le contrôle des propriétés de bas niveau de l'image dans MATLAB. Le deuxième article décrit et valide la technique dite des bulles fréquentielles, qui a été utilisée tout au long des études de cette thèse pour révéler les fréquences spatiales utilisées dans diverses tâches de perception des visages. Cette technique offre les avantages d’une haute résolution au niveau des fréquences spatiales ainsi que d’un faible biais expérimental. Le troisième et le quatrième article portent sur le traitement des fréquences spatiales en fonction de la conscience. Dans le premier cas, la méthode des bulles fréquentielles a été utilisée avec l'amorçage par répétition masquée dans le but d’identifier les fréquences spatiales corrélées avec les réponses comportementales des observateurs lors de la perception du genre de visages présentés de façon consciente versus non-consciente. Les résultats montrent que les mêmes fréquences spatiales influencent de façon significative les temps de réponse dans les deux conditions de conscience, mais dans des sens opposés. Dans le dernier article, la méthode des bulles fréquentielles a été combinée à des enregistrements intracrâniens et au Continuous Flash Suppression (Tsuchiya & Koch, 2005), dans le but de cartographier les fréquences spatiales qui modulent l'activation de structures spécifiques du cerveau (l'insula et l'amygdale) lors de la perception consciente versus non-consciente des expressions faciales émotionnelles. Dans les deux régions, les résultats montrent que la perception non-consciente s'effectue plus rapidement et s’appuie davantage sur les basses fréquences spatiales que la perception consciente. La contribution de cette thèse est donc double. D’une part, des contributions méthodologiques à la recherche en perception visuelle sont apportées par l'introduction de la boîte à outils SHINE ainsi que de la technique des bulles fréquentielles. D’autre part, des indications sur les « corrélats de la conscience » sont fournies à l’aide de deux approches différentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est difficile, en sociologie, de parler des problèmes éducatifs sans remettre sur le tapis les définitions de la socialisation, des normes et des valeurs; sans faire un détour sur le passé en rapport avec l’avenir; et sans questionner le rôle des sociologues dans la société. Notre travail vise à faire état des débats sur ces questions délicates, tout en proposant d’autres pistes pouvant alimenter la réflexion. Ainsi, à partir d’une étude de terrain avec des enfants du primaire, on essayera de mettre de l’avant ce qu’on appellera des problèmes culturels, dont la résolution est fonction de la capacité humaine d’innover. Le regard tourné vers les nuisances, pratiques nocives au développement de cette capacité, on s’interrogera sur les conditions de maintien de la vie sociale humaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude présente une caractérisation du mécanisme procédural de l'intervention des tiers en droit judiciaire privé québécois. Développée en trois volets, elle aborde successivement l'origine historique de l'intervention des tiers, qui révèle sa pérennité et sa longévité (première partie). Un modèle conceptuel de sa forme contemporaine selon lequel son bien-fondé repose sur sa légitimité et son utilité est proposé (deuxième partie). Enfin, une étude critique, dans une perspective sociologique et comparative, de la place de l'intervention des tiers dans les projets de réforme de la procédure civile, expose son incompatibilité avec les modes alternatifs de résolution des conflits et trouve, dans le pouvoir judiciaire de l'ordonner d'office présent la législation étrangère, une assurance contre l'iniquité à laquelle le droit québécois devrait souscrire (troisième partie).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conciliation, un mécanisme alternatif de résolution des conflits, cherche à la fois à maintenir une relation d'affaires ainsi qu'à raviver la communication et l’équilibre des pouvoirs entre deux parties opposées. Son véritable esprit consiste à faire en sorte que le citoyen récupère son rôle principal dans la solution de ses conflits et qu’il agisse sans l'intervention de l'État. Contrairement aux autres systèmes juridiques, le système juridique colombien donne au conciliateur un pouvoir décisionnel et/ou consultatif dans un cas concret. Aussi, les termes médiation et conciliation sont parfois utilisés comme synonymes. Cependant, ces termes se différencient selon la participation du tiers conciliateur ou médiateur au processus de résolution des conflits. In mediation, the mediator controls the process through different and specific stages: introduction, joint session, caucus, and agreement, while the parties control the outcome. Par ailleurs, même si ce sont des concepts universels grâce aux textes juridiques, ces mécanismes de résolution des conflits demeurent encore méconnus des citoyens. La pratique de la conciliation ne connaît pas de frontières; elle est répandue partout dans le monde. Dans les années 90, les pays d’Amérique latine, plus précisément la Colombie, ont commencé à envisager la possibilité de prendre part dans cette enrichissante expérience grâce aux progrès législatifs et institutionnels qui ont été réalisés en matière de mécanismes alternatifs de résolution des conflits. En matière de conciliation, en Colombie, il y a une grande richesse normative mais les lois, dispersées et difficiles à interpréter, génèrent de l’insécurité et de l’incertitude juridique. De plus, entamer le processus de conciliation se fait de diverses manières, la plus controversée étant sans doute la conciliation préalable obligatoire. Cette méthode imposée a été la cible de diverses critiques. En effet, ces critiques concernent le fait qu’une telle pratique obligatoire enfreint le volontariat, un pilier fondamental de la conciliation. Aussi, le tiers conciliateur, ayant une formation de haut niveau, représente une pièce maîtresse dans le processus de conciliation vu sa grande responsabilité dans le bon déroulement de cette méthode de résolution des conflits.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse vise à définir une nouvelle méthode d’enseignement pour les systèmes tutoriels intelligents dans le but d’améliorer l’acquisition des connaissances. L’apprentissage est un phénomène complexe faisant intervenir des mécanismes émotionnels et cognitifs de nature consciente et inconsciente. Nous nous intéressons à mieux comprendre les mécanismes inconscients du raisonnement lors de l’acquisition des connaissances. L’importance de ces processus inconscients pour le raisonnement est bien documentée en neurosciences, mais demeure encore largement inexplorée dans notre domaine de recherche. Dans cette thèse, nous proposons la mise en place d’une nouvelle approche pédagogique dans le domaine de l’éducation implémentant une taxonomie neuroscientifique de la perception humaine. Nous montrons que cette nouvelle approche agit sur le raisonnement et, à tour de rôle, améliore l’apprentissage général et l’induction de la connaissance dans un environnement de résolution de problème. Dans une première partie, nous présentons l’implémentation de notre nouvelle méthode dans un système tutoriel visant à améliorer le raisonnement pour un meilleur apprentissage. De plus, compte tenu de l’importance des mécanismes émotionnels dans l’apprentissage, nous avons également procédé dans cette partie à la mesure des émotions par des capteurs physiologiques. L’efficacité de notre méthode pour l’apprentissage et son impact positif observé sur les émotions a été validée sur trente et un participants. Dans une seconde partie, nous allons plus loin dans notre recherche en adaptant notre méthode visant à améliorer le raisonnement pour une meilleure induction de la connaissance. L’induction est un type de raisonnement qui permet de construire des règles générales à partir d’exemples spécifiques ou de faits particuliers. Afin de mieux comprendre l’impact de notre méthode sur les processus cognitifs impliqués dans ce type de raisonnement, nous avons eu recours à des capteurs cérébraux pour mesurer l’activité du cerveau des utilisateurs. La validation de notre approche réalisée sur quarante-trois volontaires montre l’efficacité de notre méthode pour l’induction de la connaissance et la viabilité de mesurer le raisonnement par des mesures cérébrales suite à l’application appropriée d’algorithmes de traitement de signal. Suite à ces deux parties, nous clorons la thèse par une discussion applicative en décrivant la mise en place d’un nouveau système tutoriel intelligent intégrant les résultats de nos travaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur la capacité à détecter des compagnons de faible intensité en présence de bruit de tavelures dans le contexte de l’imagerie à haute gamme dynamique pour l’astronomie spatiale. On s’intéressera plus particulièrement à l’imagerie spectrale différentielle (ISD) obtenue en utilisant un étalon Fabry-Pérot comme filtre accordable. Les performances d’un tel filtre accordable sont présentées dans le cadre du Tunable Filter Imager (TFI), instrument conçu pour le télescope spatial James Webb (JWST). La capacité de l’étalon à supprimer les tavelures avec ISD est démontrée expérimentalement grâce à un prototype de l’étalon installé sur un banc de laboratoire. Les améliorations de contraste varient en fonction de la séparation, s’étendant d’un facteur 10 pour les séparations supérieures à 11 lambda/D jusqu’à un facteur 60 à 5 lambda/D. Ces résultats sont cohérents avec une étude théorique qui utilise un modèle basé sur la propagation de Fresnel pour montrer que les performances de suppression de tavelures sont limitées par le banc optique et non pas par l’étalon. De plus, il est démontré qu’un filtre accordable est une option séduisante pour l’imagerie à haute gamme dynamique combinée à la technique ISD. Une seconde étude basée sur la propagation de Fresnel de l’instrument TFI et du télescope, a permis de définir les performances de la technique ISD combinée avec un étalon pour l’astronomie spatiale. Les résultats prévoient une amélioration de contraste de l’ordre de 7 jusqu’à 100, selon la configuration de l’instrument. Une comparaison entre ISD et la soustraction par rotation a également été simulée. Enfin, la dernière partie de ce chapitre porte sur les performances de la technique ISD dans le cadre de l’instrument Near-Infrared Imager and Slitless Spectrograph (NIRISS), conçu pour remplacer TFI comme module scientifique à bord du Fine Guidance Sensor du JWST. Cent quatre objets localisés vers la région centrale de la nébuleuse d’Orion ont été caractérisés grâce à un spectrographe multi-objet, de basse résolution et multi-bande (0.85-2.4 um). Cette étude a relevé 7 nouvelles naines brunes et 4 nouveaux candidats de masse planétaire. Ces objets sont utiles pour déterminer la fonction de masse initiale sous-stellaire et pour évaluer les modèles atmosphériques et évolutifs futurs des jeunes objets stellaires et sous-stellaires. Combinant les magnitudes en bande H mesurées et les valeurs d’extinction, les objets classifiés sont utilisés pour créer un diagramme de Hertzsprung-Russell de cet amas stellaire. En accord avec des études antérieures, nos résultats montrent qu’il existe une seule époque de formation d’étoiles qui a débuté il y a environ 1 million d’années. La fonction de masse initiale qui en dérive est en accord avec des études antérieures portant sur d’autres amas jeunes et sur le disque galactique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse avait pour objectif d’examiner les liens longitudinaux entre les relations d’amitié et l’évolution des comportements d’agressivité physique en début de scolarisation. Guidé par les principes énoncés par les théoriciens de l’apprentissage social, de l’attachement, du développement de la personnalité et de la théorie du jugement moral, le rôle principal et modérateur de certaines dimensions spécifiques à la qualité de la relation d’amitié, ainsi que des attributs comportementaux des amis et des caractéristiques personnelles de l’enfant a été évalué. Des données provenant de l’Étude Longitudinale du Développement des Enfants du Québec (ELDEQ), de l’Étude des Jumeaux nouveau-nés du Québec (EJNQ) et de l’évaluation des effets d’un programme d’intervention dyadique ont été analysées. Les mesures utilisées dans cette thèse ont été collectées entre la maternelle et la 2e année du primaire, soit de 5 à 8 ans, directement auprès des enfants, de leurs amis, leurs pairs, leurs parents et leurs enseignants par le biais de questionnaires, d’entrevues sociométriques et de mises en situation hypothétiques. En lien avec la perspective de l’apprentissage social, les résultats ont montré que l’association à des amis agressifs en maternelle est liée à une augmentation des comportements d’agressivité physique chez l’enfant. Cependant, en lien avec les théories du développement de la personnalité et la perspective de l’attachement, le fait d’établir une relation d’amitié de bonne qualité est reliée à une diminution des comportements agressifs à travers le temps. De plus, une interaction entre la qualité de la relation et les attributs comportementaux des amis a indiqué que le risque lié à l’association à des amis agressifs est atténué dans le contexte d’une relation d’amitié de bonne qualité. Les résultats indiquent également que chez les garçons, la présence de conflits entre amis à la maternelle est associée de façon linéaire à de plus hauts niveaux de comportements agressifs, indépendamment du risque génétique de l’enfant face à cette problématique. Une interaction triple a par ailleurs révélé que le conflit n’était pas lié à une augmentation de l’agressivité physique dans le contexte d’une relation d’amitié caractérisée par l’affect positif et une bonne capacité à régler les conflits. Enfin, les résultats ont montré un effet indirect d’une intervention dyadique sur la diminution des comportements d’agressivité physique, qui opère à travers l’amélioration de la capacité des amis à régler leurs conflits. Ces résultats appuient le rôle bénéfique de la qualité de la relation d’amitié sur l’évolution des manifestations de comportements d’agressivité physique et suggèrent que cet aspect relationnel soit pris en compte dans les programmes de prévention des conduites agressives. En somme, la mise en évidence d’associations et d’interactions significatives entre la qualité des relations d’amitié, les attributs comportementaux des amis et les manifestations de comportements d’agressivité physique en début de scolarisation suggère que certains aspects et dimensions relationnelles positives peuvent être bénéfiques au développement des enfants agressifs. La prévention du maintien et de l’aggravation des conduites agressives par l’entremise de l’amélioration de la qualité des relations d’amitié représente une avenue prometteuse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La majorité des individus exposés au virus de l’hépatite C (VHC) développent une infection chronique. Une réponse immunitaire adaptative forte et soutenue est associée avec la guérison spontanée du VHC, mais les mécanismes sous-jacents demeurent mal définis. Le rôle des cellules NK et des cellules dendritiques (DC) dans la guérison spontanée du VHC est encore méconnu. Les cellules NK sont la population effectrice la plus importante de l’immunité innée car elles tuent les cellules infectées et sécrètent diverses cytokines. Les DC reconnaissent des agents infectieux et elles sont les premières à initier et réguler l’immunité adaptative. Les cellules NK et les DC interagissent également entre elles afin de réguler l’immunité innée et adaptative. L’hypothèse du projet de doctorat est que l'activité des cellules NK pendant la phase aiguë de l'infection par le VHC module la fonction des DC afin que ces dernières puissent générer une réponse immunitaire adaptative capable d'éliminer le VHC. Le premier objectif était d’établir une corrélation entre l'activité des cellules NK et l'évolution de l'infection au VHC. Nous avons observé une augmentation de la cytotoxicité, mais une diminution de la sécrétion de cytokines par les cellules NK chez les patients chroniques et qui ont résolu spontanément pendant la phase aiguë en comparaison aux contrôles non infectés, démontrant alors une dissociation entre ces deux fonctions. Nos résultats suggèrent que les cellules NK sont activées pendant la phase aiguë indépendamment de l’évolution de l’infection. Le deuxième objectif était d’établir une corrélation entre le phénotype et la fonction des DC, et l'évolution de l'infection. Nous avons d’abord observé que les DC plasmacytoïdes de tous les patients infectés ont un phénotype plus immature que les contrôles, et que ce phénotype est plus prononcé chez les patients ayant résolu spontanément. De plus, en réponse à des stimulations, nous avons observé que pendant la phase aiguë précoce, les DC myéloïdes (mDC) de tous les patients infectés indépendamment de l’évolution de l’infection produisent davantage de cytokines en comparaison aux contrôles. Cependant, cette hyperréactivité n’est pas soutenue au cours de l’évolution chronique. Le troisième objectif était d’établir une corrélation entre les interactions NK/DC et l’évolution de l’infection. Nous avons étudié la capacité des cellules NK à lyser les DC potentiellement tolérogéniques, ainsi que la capacité des DC matures à activer les cellules NK, et nous avons observé aucune différence entre les patients infectés et les contrôles. Finalement, nous avons démontré pour la première fois la capacité des DC immatures à inhiber la fonction des cellules NK. En conclusion, nous avons démontré que les cellules NK sont activées pendant la phase aiguë de l’infection par le VHC indépendamment de l’évolution de l’infection. De plus, la capacité des cellules NK à éliminer les DC potentiellement tolérogéniques est intacte. Finalement, les mDC sont hyperréactives pendant la phase aiguë de l’infection, mais cette hyperréactivité n’est pas soutenue avec la persistance de l’infection. Cette perte d’hyperréactivité des mDC ne semble pas affecter la capacité des DC à activer les cellules NK, mais elle pourrait jouer un rôle dans l’inefficacité de l’immunité adaptative à éliminer le VHC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’accident vasculaire cérébral (AVC) est une cause principale de décès et de morbidité dans le monde; une bonne partie des AVC est causée par la plaque d’athérosclérose carotidienne. La prévention de l’AVC chez les patients ayant une plaque carotidienne demeure controversée, vu les risques et bénéfices ambigus associés au traitement chirurgical ou médical. Plusieurs méthodes d’imagerie ont été développées afin d’étudier la plaque vulnérable (dont le risque est élevé), mais aucune n’est suffisamment validée ou accessible pour permettre une utilisation comme outil de dépistage. L’élastographie non-invasive vasculaire (NIVE) est une technique nouvelle qui cartographie les déformations (élasticité) de la plaque afin de détecter les plaque vulnérables; cette technique n’est pas encore validée cliniquement. Le but de ce projet est d’évaluer la capacité de NIVE de caractériser la composition de la plaque et sa vulnérabilité in vivo chez des patients ayant des plaques sévères carotidiennes, en utilisant comme étalon de référence, l’imagerie par résonance magnétique (IRM) à haute-résolution. Afin de poursuivre cette étude, une connaissance accrue de l’AVC, l’athérosclérose, la plaque vulnérable, ainsi que des techniques actuelles d’imagerie de la plaque carotidienne, est requise. Trente-et-un sujets ont été examinés par NIVE par ultrasonographie et IRM à haute-résolution. Sur 31 plaques, 9 étaient symptomatiques, 17 contenaient des lipides, et 7 étaient vulnérables selon l’IRM. Les déformations étaient significativement plus petites chez les plaques contenant des lipides, avec une sensibilité élevée et une spécificité modérée. Une association quadratique entre la déformation et la quantité de lipide a été trouvée. Les déformations ne pouvaient pas distinguer les plaques vulnérables ou symptomatiques. En conclusion, NIVE par ultrasonographie est faisable chez des patients ayant des sténoses carotidiennes significatives et peut détecter la présence d’un coeur lipidique. Des études supplémentaires de progression de la plaque avec NIVE sont requises afin d’identifier les plaques vulnérables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Peut-être mieux connu sous son appellation anglaise d' «online dispute resolution» ou ODR, le règlement en ligne des différends réfère à la migration, vers Internet, des modes alternatifs de résolution des conflits, dont font entre autres partie la négociation, la conciliation, la médiation et l'arbitrage. Cet article présente d'abord brièvement les quatre procédés d'ODR les plus souvent rencontrés en pratique, soit la négociation  automatisée, la négociation en ligne assistée par ordinateur, la médiation en ligne et l'arbitrage en ligne. Il examine ensuite les types de conflits qui trouvent actuellement une solution par l'entremise de l'Internet, conflits qui peuvent naître aussi bien sur la Toile qu'hors ligne. On y aborde, en troisième lieu, les avantages de la résolution en ligne des litiges, lesquels ont trait à la modicité, la rapidité, la souplesse et la convivialité, en insistant sur l'attrait tout particulier que cette nouvelle forme de justice présente pour les conflits résultant de la cyberconsommation. Puis, après un survol des arguments les plus souvent cités à l'encontre du règlement électronique des différends, on fait état du phénomène d'institutionnalisation de la résolution en ligne, qui investit aujourd'hui les cours de justice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En février 2008, le Kosovo déclare unilatéralement son indépendance politique vis-à-vis de l’État de la Serbie. Nombre d’États reconnaissent un Kosovo souverain et indépendant, d’autres continuent à ne pas le reconnaître, au motif qu’il s’agirait d’une sécession. En juillet 2010, la Cour internationale de Justice, sans répondre à la question de la sécession, émet un avis selon lequel la déclaration unilatérale d’indépendance politique du Kosovo n’est pas contraire au droit international général. Et pourtant, le Kosovo reste sous administration internationale, conformément à la Résolution 1244 (1999) du Conseil de sécurité. Plusieurs questions s’imposent parmi lesquelles: le Kosovo est-il un État ? Peut-on être un État sans être souverain et indépendant, ou mieux un État ne peut-il pas disposer d’une souveraineté interne tout étant dépourvu de souveraineté externe ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ouvrage constitue la thèse de Doctorat de Monsieur Lauri Railas soutenue le 16 Octobre 2004 à la faculté de droit de l’Université de Helsinki. Expert reconnu en droit du commerce international, son parcours professionnel explique les orientations prises dans son étude et son approche très large des transactions relatives à la vente internationale de marchandises comparativement à d’autres travaux dans le même domaine. L’auteur a été conseiller juridique à l’Institut d’arbitrage de la chambre de commerce centrale finlandaise puis secrétaire général de la section finlandaise de la chambre internationale de commerce. Il a, ensuite, occupé le poste d’administrateur principal au secrétariat général du conseil de l’Union Européenne entre 1996 et 2002. Il est, actuellement, associé senior chez Krogerus & Co, un des plus importants cabinets d’avocats de Finlande. L’originalité de la thèse réside dans le fait qu’elle aborde les transactions relatives à la vente internationale de marchandises du point de vue du commerce électronique. L’étude traite de la création d’un cadre juridique uniforme et cohérent encadrant l’utilisation des instruments du commerce élecronique pour la vente internationale de marchandises en se concentrant, uniquement, sur le commerce électronique entre professionnels (B to B) et plus précisément sur les initiatives des organisations internationales pour en diffuser et en faciliter l’usage. S’inspirant des théories de l’analyse économique du droit, le postulat de départ de Monsieur Railas est que le commerce électronique peut changer les procédures du commerce international et apporter d’importante économie de coûts. Pour ce faire, un cadre juridique pour le commerce électronique et plus généralement les affaires électroniques, est en cours d’élaboration par les organisations internationales. L’étude aborde ces développements dans différents domaines comme la formation du contrat, le crédit documentaire ou encore la résolution des conflits.L’approche est holistique et basée sur les efforts déployés pour introduire des sources uniformes de régulation pour les transactions électroniques dans le commerce international. L’auteur recense un large répertoire de règles de droit qui sont en majorité d’origine internationales avec pour objectif la détermination du rôle que peuvent jouer les communications électroniques dans la passation de contrats de vente de marchandises, leur livraison mais aussi dans le recours au service de tiers dans des fonctions comme le transport, l’assurance-transport et la sécurisation des droits des différentes parties impliquées. L’idée de base étant que la vente internationale et le transport constituent une chaine de contrats et de services interreliés. En plus des règles de droits déjà établies, l’auteur analyse différentes initiatives de régulation novatrices pour le commerce électronique initiées par la CNUDCI notamment. L’ouvrage traite, également, des problématiques générales comme la formation des contrats et la signature électronique. Par ailleurs, l’auteur procède à l’analyse des contrats de vente dans lesquels le vendeur a l’obligation de livrer en plus des marchandises, les documents relatifs aux marchandises et ceux de transfert de propriété. Les marchandises étant soumises à différents droits de propriété, les documents de vente et de transport ont un rôle important à jouer dans l’exercice de ces droits. Enfin, l’auteur considère la procédure de résolution des conflits comme une part du cycle de vie de chaque transaction. L’arbitrage en ligne et les autres méthodes de résolution en ligne des conflits contribuant à la réalisation de transactions électroniques réussies. L’ouvrage peut être particulièrement utile pour les personnes qui s’intéressent à l’harmonisation internationale des droits applicables au commerce international. L’auteur fait une analyse, particulièrement intéressante, de plusieurs instruments et projets comme les E-terms 2004 de la chambre internationale de commerce, le système Boléro, le système TEDI (Trade Electronic Data Interchange) et le système de transactions financières SWIFNet. La finalité de la démarche est de trouver une plate-forme commune qui fasse en sorte que les transactions électroniques puissent être conclues de manière sécuritaire en s’inspirant des résultats tangibles d’harmonisation atteints par la convention de Vienne sur la vente internationale de marchandises et par les principes UNIDROIT mais aussi du consensus selon lequel le commerce électronique doit être gouverné dans une large part par les instruments de « droit mou » comme les codes de conduite, et que, les règlements extrajudiciaires des conflits doivent être utilisés pour les transactions électroniques.