17 resultados para Objets manufacturés
Resumo:
Ce mémoire est le fruit d’une réflexion portant sur la pulsion qui m’habite de sans cesse créer de nouveaux objets, ainsi que sur les rapports que j’entretiens avec mes objets d’art et les objets manufacturés qui nous entourent. Elle s’est construite peu à peu, dans un aller-retour entre production à l’atelier et retour critique. Au cours des deux dernières années, j’ai cherché, par l’entremise de sculptures et d’œuvres installatives, à comprendre ma fascination pour le fait de vivre dans une société dont l’activité fondamentale semble être une transformation constante d’énergie et de matière. Dans un premier temps, j’y dresse plusieurs constats relatifs à mon positionnement comme artiste face aux différents discours sur l’art. Essentiellement, je développe l’idée que je n’ai pas besoin de régler le cas de l’art, d’un point de vue théorique, pour faire de l’art. Dans la seconde partie, je réfléchis sur différentes caractéristiques de ma démarche : le fait que je cherche à créer des objets qui s’insèrent et se comportent dans le réel comme des anomalies, que ma démarche est perméable à tout ce qui constitue mon expérience de vie, ou encore que j’active en manipulant de façon intuitive du matériel chargé de significations multiples. Dans un troisième temps, je présente la nature de l’imaginaire qui m’habite et explique la façon dont ce dernier influence ma manière de faire de l’art et la morphologie de mes œuvres. Vient ensuite un chapitre dans lequel je me penche sur mon passé de designer industriel et de musicien, dans lequel j’illustre la façon dont ces deux expériences de création, bien que fort différentes de l’art contemporain, influencent ma pratique actuelle. Finalement, je ferai une représentation schématisée des concepts, des méthodes et des dynamiques à l’œuvre dans mon processus créatif. Cette multitude de regards différents sur ma pratique permettra de faire ressortir, tout au long de ce mémoire, que ma démarche est nourrie par une série de tensions que je cherche à réconcilier, sans vraiment y parvenir, et que c’est cette impossibilité qui me pousse constamment à créer des nouvelles œuvres. Bien que mes œuvres soient souvent interprétées comme des commentaires sur l’actualité, le présent mémoire n’a pas comme point central l’actualité, mais bien mon travail de création, la façon dont il fonctionne, ce à quoi il est relié, etc. Je ne me pose pas la question « pourquoi et comment transformons-nous l’énergie et la matière? », mais plutôt « comment puis-je transformer le monde en transformant autrement l’énergie et la matière? »
Resumo:
Les préhenseurs robotiques sont largement utilisés en industrie et leur déploiement pourrait être encore plus important si ces derniers étaient plus intelligents. En leur conférant des capacités tactiles et une intelligence leur permettant d’estimer la pose d’un objet saisi, une plus vaste gamme de tâches pourraient être accomplies par les robots. Ce mémoire présente le développement d’algorithmes d’estimation de la pose d’objets saisis par un préhenseur robotique. Des algorithmes ont été développés pour trois systèmes robotisés différents, mais pour les mêmes considérations. Effectivement, pour les trois systèmes la pose est estimée uniquement à partir d’une saisie d’objet, de données tactiles et de la configuration du préhenseur. Pour chaque système, la performance atteignable pour le système minimaliste étudié est évaluée. Dans ce mémoire, les concepts généraux sur l’estimation de la pose sont d’abord exposés. Ensuite, un préhenseur plan à deux doigts comprenant deux phalanges chacun est modélisé dans un environnement de simulation et un algorithme permettant d’estimer la pose d’un objet saisi par le préhenseur est décrit. Cet algorithme est basé sur les arbres d’interprétation et l’algorithme de RANSAC. Par la suite, un système expérimental plan comprenant une phalange supplémentaire par doigt est modélisé et étudié pour le développement d’un algorithme approprié d’estimation de la pose. Les principes de ce dernier sont similaires au premier algorithme, mais les capteurs compris dans le système sont moins précis et des adaptations et améliorations ont dû être appliquées. Entre autres, les mesures des capteurs ont été mieux exploitées. Finalement, un système expérimental spatial composé de trois doigts comprenant trois phalanges chacun est étudié. Suite à la modélisation, l’algorithme développé pour ce système complexe est présenté. Des hypothèses partiellement aléatoires sont générées, complétées, puis évaluées. L’étape d’évaluation fait notamment appel à l’algorithme de Levenberg-Marquardt.
Resumo:
Les élèves vivant dans la crainte d’être victimisés par leurs pairs peuvent se comporter de différentes façons, notamment en évitant de se rendre à l’école ou encore en imaginant différents moyens d’autoprotection (ex., apporter divers objets potentiellement dangereux à l’école). L’objectif de ce mémoire est de vérifier s’il existe des liens entre la victimisation par les pairs et le fait d’apporter des objets potentiellement dangereux et pouvant servir d’arme à l’école. L’échantillon est composé de 28 015 élèves de la première à la cinquième secondaire (12 à 17 ans) en provenance des écoles secondaires publiques du Québec. Les participants ont rempli le Questionnaire sur la Sécurité et la Violence à l’école Révisé (QSVE-R) visant à dresser le portrait de la violence dans les établissements scolaires du Québec. Les résultats démontrent que 5,1 % des élèves, davantage de garçons (8,2 %) que de filles (2,1 %) disent avoir déjà apporté un objet potentiellement dangereux à l’école. Le risque d’apporter ces objets augmente avec l’âge et c’est le couteau qui est l’objet le plus populaire auprès des répondants. L’étude confirme l’influence de la victimisation de type direct (insultes-menaces et agressions physiques), du sexe (garçons) et de l’âge (17 ans et plus) sur le fait d’apporter un objet pouvant servir d’arme à l’école. En plus de proposer des pistes d’études futures pour en connaître davantage sur ce que vivent les élèves victimisés à l’école, les conclusions de cette recherche soulèvent l’importance d’aider ces jeunes victimes à développer de meilleures stratégies afin de mieux gérer cette situation pénible, et amènent des réflexions pour orienter les interventions visant à créer des milieux scolaires sécurisants pour tous.
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
La structuration laser femtoseconde de verres d’oxydes est aujourd’hui un domaine de recherche en pleine expansion. L’interaction laser-matière est de plus en plus utilisée pour sa facilité de mise en œuvre et les nombreuses applications qui découlent de la fabrication des composants photoniques, déjà utilisés dans l’industrie des hautes technologies. En effet, un faisceau d’impulsions ultracourtes focalisé dans un matériau transparent atteint une intensité suffisante pour modifier la matière en trois dimensions sur des échelles micro et nanométriques. Cependant, l’interaction laser-matière à ces régimes d’intensité n’est pas encore complètement maîtrisée, et les matériaux employés ne sont pas entièrement adaptés aux nouvelles applications photoniques. Par ce travail de thèse, nous nous efforçons donc d’apporter des réponses à ces interrogations. Le mémoire est articulé autour de deux grands volets. Le premier aborde la question de l’interaction de surface de verres avec de telles impulsions lumineuses qui mènent à l’auto-organisation périodique de la matière structurée. L’influence du dopage en ions photosensibles et des paramètres d’irradiation est étudiée afin d’appuyer et de conforter le modèle d’incubation pour la formation de nanoréseaux de surface. À travers une approche innovante, nous avons réussi à apporter un contrôle de ces structures nanométriques périodiques pour de futures applications. Le second volet traite de cristallisation localisée en volume induite en grande partie par l’interaction laser-matière. Plusieurs matrices vitreuses, avec différents dopages en sel d’argent, ont été étudiées pour comprendre les mécanismes de précipitation de nanoparticules d’argent. Ce travail démontre le lien entre la physicochimie de la matrice vitreuse et le caractère hors équilibre thermodynamique de l’interaction qui influence les conditions de nucléation et de croissance de ces nano-objets. Tous ces résultats sont confrontés à des modélisations de la réponse optique du plasmon de surface des nanoparticules métalliques. Les nombreuses perspectives de ce travail ouvrent sur de nouvelles approches quant à la caractérisation, aux applications et à la compréhension de l’interaction laser femtoseconde pour l’inscription directe de briques photoniques dans des matrices vitreuses.
Resumo:
L’Internet Physique (IP) est une initiative qui identifie plusieurs symptômes d’inefficacité et non-durabilité des systèmes logistiques et les traite en proposant un nouveau paradigme appelé logistique hyperconnectée. Semblable à l’Internet Digital, qui relie des milliers de réseaux d’ordinateurs personnels et locaux, IP permettra de relier les systèmes logistiques fragmentés actuels. Le but principal étant d’améliorer la performance des systèmes logistiques des points de vue économique, environnemental et social. Se concentrant spécifiquement sur les systèmes de distribution, cette thèse remet en question l’ordre de magnitude du gain de performances en exploitant la distribution hyperconnectée habilitée par IP. Elle concerne également la caractérisation de la planification de la distribution hyperconnectée. Pour répondre à la première question, une approche de la recherche exploratoire basée sur la modélisation de l’optimisation est appliquée, où les systèmes de distribution actuels et potentiels sont modélisés. Ensuite, un ensemble d’échantillons d’affaires réalistes sont créé, et leurs performances économique et environnementale sont évaluées en ciblant de multiples performances sociales. Un cadre conceptuel de planification, incluant la modélisation mathématique est proposé pour l’aide à la prise de décision dans des systèmes de distribution hyperconnectée. Partant des résultats obtenus par notre étude, nous avons démontré qu’un gain substantiel peut être obtenu en migrant vers la distribution hyperconnectée. Nous avons également démontré que l’ampleur du gain varie en fonction des caractéristiques des activités et des performances sociales ciblées. Puisque l’Internet physique est un sujet nouveau, le Chapitre 1 présente brièvement l’IP et hyper connectivité. Le Chapitre 2 discute les fondements, l’objectif et la méthodologie de la recherche. Les défis relevés au cours de cette recherche sont décrits et le type de contributions visés est mis en évidence. Le Chapitre 3 présente les modèles d’optimisation. Influencés par les caractéristiques des systèmes de distribution actuels et potentiels, trois modèles fondés sur le système de distribution sont développés. Chapitre 4 traite la caractérisation des échantillons d’affaires ainsi que la modélisation et le calibrage des paramètres employés dans les modèles. Les résultats de la recherche exploratoire sont présentés au Chapitre 5. Le Chapitre 6 décrit le cadre conceptuel de planification de la distribution hyperconnectée. Le chapitre 7 résume le contenu de la thèse et met en évidence les contributions principales. En outre, il identifie les limites de la recherche et les avenues potentielles de recherches futures.
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Proposition de nouvelles fonctionnalités WikiSIG pour supporter le travail collaboratif en Geodesign
Resumo:
L’émergence du Web 2.0 se matérialise par de nouvelles technologies (API, Ajax…), de nouvelles pratiques (mashup, geotagging…) et de nouveaux outils (wiki, blog…). Il repose principalement sur le principe de participation et de collaboration. Dans cette dynamique, le Web à caractère spatial et cartographique c’est-à-dire, le Web géospatial (ou GéoWeb) connait lui aussi de fortes transformations technologiques et sociales. Le GéoWeb 2.0 participatif se matérialise en particulier par des mashups entre wikis et géobrowsers (ArgooMap, Geowiki, WikiMapia, etc.). Les nouvelles applications nées de ces mashups évoluent vers des formes plus interactives d’intelligence collective. Mais ces applications ne prennent pas en compte les spécificités du travail collaboratif, en particulier la gestion de traçabilité ou l’accès dynamique à l’historique des contributions. Le Geodesign est un nouveau domaine fruit de l’association des SIG et du design, permettant à une équipe multidisciplinaire de travailler ensemble. Compte tenu de son caractère émergent, le Geodesign n’est pas assez défini et il requiert une base théorique innovante, de nouveaux outils, supports, technologies et pratiques afin de s’adapter à ses exigences complexes. Nous proposons dans cette thèse de nouvelles fonctionnalités de type WikiSIG, bâties sur les principes et technologies du GéoWeb 2.0 et visant en particulier à supporter la dimension collaborative du processus de Geodesign. Le WikiSIG est doté de fonctionnalités wiki dédiées à la donnée géospatiale (y compris dans sa composante géométrique : forme et localisation) permettant d’assurer, de manière dynamique, la gestion documentée des versions des objets et l’accès à ces versions (et de leurs métadonnées), facilitant ainsi le travail collaboratif en Geodesign. Nous proposons également la deltification qui consiste en la capacité de comparer et d’afficher les différences entre deux versions de projets. Finalement la pertinence de quelques outils du géotraitement et « sketching » est évoquée. Les principales contributions de cette thèse sont d’une part d’identifier les besoins, les exigences et les contraintes du processus de Geodesign collaboratif, et d’autre part de proposer des nouvelles fonctionnalités WikiSIG répondant au mieux à la dimension collaborative du processus. Pour ce faire, un cadre théorique est dressé où nous avons identifié les exigences du travail collaboratif de Geodesign et proposé certaines fonctionnalités WikiSIG innovantes qui sont par la suite formalisés en diagrammes UML. Une maquette informatique est aussi développée de façon à mettre en oeuvre ces fonctionnalités, lesquelles sont illustrées à partir d’un cas d’étude simulé, traité comme preuve du concept. La pertinence de ces fonctionnalités développées proposées est finalement validée par des experts à travers un questionnaire et des entrevues. En résumé, nous montrons dans cette thèse l’importance de la gestion de la traçabilité et comment accéder dynamiquement à l’historique dans un processus de Geodesign. Nous proposons aussi d’autres fonctionnalités comme la deltification, le volet multimédia supportant l’argumentation, les paramètres qualifiant les données produites, et la prise de décision collective par consensus, etc.
Resumo:
Ce mémoire porte sur la pratique du sport et de l‟activité physique par les femmes au Québec entre 1880 et 1974, par l‟étude de la collection d‟objets sportifs du Musée de la civilisation, le dépouillement de catalogues commerciaux et d‟autres documents d‟archives, ainsi que l‟analyse de contenu de témoignages oraux recueillis par la chercheure et tenus dans le cadre du projet « Vivre sa ville : Québec au XXe siècle » du Laboratoire d‟ethnologie urbaine. L‟utilisation de ces trois sources de données permet de faire ressortir les modalités d‟insertion des femmes dans la pratique sportive. Les normes et les pratiques du sport féminin seront abordées notamment en ce qui a trait à l‟hygiène, à la morale chrétienne, aux installations et aux organisations sportives.
Resumo:
Cette thèse se penche sur la rationalité sécuritaire qui organise les villes de Douala et Yaoundé. En effet, l’insécurité urbaine devient une question très préoccupante, encore plus dans les villes des pays du Sud notamment les villes camerounaises où la recrudescence de la criminalité et de la violence ont donné lieu à des initiatives de sécurisation de la part de l’État et de la population. Sur le plan de la théorie, plusieurs approches nous permettent de nous projeter dans l’environnement sécuritaire des villes à l’étude. Nous considérons les villes de Douala et Yaoundé comme des lieux de production culturelle où se construisent à la faveur des migrations, à partir de diverses cultures et de comportements issus des villages d’origine, des formes d’identités hybrides et des territoires urbains diversifiés. Cela donne donc à réfléchir sur les modes de gouvernance locale, à l’échelle des quartiers, dans le but de comprendre les modalités d’encadrement de cette dynamique culturelle urbaine. Dans le même ordre d’idées, la gouvernance locale fait appel aux acteurs, dans leurs rôles et leurs logiques. Ces logiques s’observent dans leurs dimensions cognitives et leurs rapports avec l’espace. Les dimensions cognitives évoquent les perceptions, le vécu et les représentations subjectives qui sont associées à l’insécurité. Ainsi, le sentiment d’insécurité, la peur, la marginalisation, la violence et la criminalisation sont des phénomènes qui laissent entrevoir des populations défavorisées, victimes d’insécurité. C’est à côté de ces dernières que se manifestent les logiques d’acteurs associées à l’espace, qui ouvrent l’observation sur l’informalité et la ségrégation non seulement comme instruments de contrôle de l’espace urbain, mais également comme cadres de production d’espaces sécurisés. L’informalité et la ségrégation sont aussi favorables au développement des identités, à la construction d’utopies, ces visions mélioratives qui motivent et transforment les acteurs. Ce sont ces logiques d’acteurs dans leurs rapports avec l’espace qui justifient les initiatives de sécurisation. Finalement, c’est dans cette dynamique de transformation que les acteurs entrent en processus de subjectivation pour se produire comme sujets. Sur le plan méthodologique, cette thèse repose sur une ethnographie critique et comparative de la sécurité et sur l’approche de l’action sociale, qui invite à s’attarder aux interactions sociales, pour rendre compte de la rationalité sécuritaire. Étudier la sécurité requiert de s’attarder à l’échelle des quartiers, objets principaux de la sécurisation et espaces d’expression de l’informalité. Les quartiers sont encadrés par les chefferies urbaines, dont les systèmes de gestion constituent la gouvernance locale. Face à la question de la sécurité, cette gouvernance se prononce entre autres en fonction de son identité, de sa culture et de ses représentations. Elle côtoie les logiques étatiques dont les techniques et les stratégies d’organisation matérialisent les politiques de sécurité. Douala et Yaoundé présentent des approches populaires de sécurisation qui diffèrent sur le plan de l’organisation locale des quartiers et du tempérament populaire. Elles se rapprochent par les logiques d’acteurs et la motivation que ces derniers ont à se produire en sujets. La recherche a permis de constater qu’une forme de rationalité régit l’ensemble des dynamiques et des stratégies de production de la sécurité qui ont cours à Douala et Yaoundé. Cette rationalité passe par une pluralité de logiques de sécurité, elles-mêmes tributaires de nombreux phénomènes qui contribuent à la production de l’insécurité, mais aussi à celle de la sécurité. En effet, les migrations de la campagne vers la ville, l’informalité, la ségrégation et la présence de gangs locaux sont des réalités urbaines qui donnent une forme particulière à l’insécurité, mais invitent également à une réadaptation des techniques et des groupes d’acteurs impliqués dans la production de la sécurité. Il ressort que la rationalité sécuritaire, cette intelligence de gouvernement qui s’organise dans les dispositifs de l’offre publique de sécurité, suscite aussi dans les procédés des acteurs populaires, des techniques d’identification aux forces de l’ordre. Dans son processus, elle aboutit à la production de sujets sécurisés et de sécurité. En saisissant les productions humaines comme des activités innovantes, nous comprenons que la sécurisation procède par rapprochement entre les forces de l’ordre et les populations, par la mise en oeuvre de mécanismes mis en place pour répondre à la menace mais aussi par la « confiscation de la sécurité » pour les besoins d’une élite. Ensuite, elle représente une instance de subjectivation où l’innovation se matérialise et où les acteurs se réalisent, créent la sécurité et recréent la ville. Finalement, cette thèse révèle une pluralité de logiques de sécurité construites autour d’une même rationalité sécuritaire.
Resumo:
Avec l’avènement des objets connectés, la bande passante nécessaire dépasse la capacité des interconnections électriques et interface sans fils dans les réseaux d’accès mais aussi dans les réseaux coeurs. Des systèmes photoniques haute capacité situés dans les réseaux d’accès utilisant la technologie radio sur fibre systèmes ont été proposés comme solution dans les réseaux sans fil de 5e générations. Afin de maximiser l’utilisation des ressources des serveurs et des ressources réseau, le cloud computing et des services de stockage sont en cours de déploiement. De cette manière, les ressources centralisées pourraient être diffusées de façon dynamique comme l’utilisateur final le souhaite. Chaque échange nécessitant une synchronisation entre le serveur et son infrastructure, une couche physique optique permet au cloud de supporter la virtualisation des réseaux et de les définir de façon logicielle. Les amplificateurs à semi-conducteurs réflectifs (RSOA) sont une technologie clé au niveau des ONU(unité de communications optiques) dans les réseaux d’accès passif (PON) à fibres. Nous examinons ici la possibilité d’utiliser un RSOA et la technologie radio sur fibre pour transporter des signaux sans fil ainsi qu’un signal numérique sur un PON. La radio sur fibres peut être facilement réalisée grâce à l’insensibilité a la longueur d’onde du RSOA. Le choix de la longueur d’onde pour la couche physique est cependant choisi dans les couches 2/3 du modèle OSI. Les interactions entre la couche physique et la commutation de réseaux peuvent être faites par l’ajout d’un contrôleur SDN pour inclure des gestionnaires de couches optiques. La virtualisation réseau pourrait ainsi bénéficier d’une couche optique flexible grâce des ressources réseau dynamique et adaptée. Dans ce mémoire, nous étudions un système disposant d’une couche physique optique basé sur un RSOA. Celle-ci nous permet de façon simultanée un envoi de signaux sans fil et le transport de signaux numérique au format modulation tout ou rien (OOK) dans un système WDM(multiplexage en longueur d’onde)-PON. Le RSOA a été caractérisé pour montrer sa capacité à gérer une plage dynamique élevée du signal sans fil analogique. Ensuite, les signaux RF et IF du système de fibres sont comparés avec ses avantages et ses inconvénients. Finalement, nous réalisons de façon expérimentale une liaison point à point WDM utilisant la transmission en duplex intégral d’un signal wifi analogique ainsi qu’un signal descendant au format OOK. En introduisant deux mélangeurs RF dans la liaison montante, nous avons résolu le problème d’incompatibilité avec le système sans fil basé sur le TDD (multiplexage en temps duplexé).
Resumo:
La fin du 18e siècle était une période dynamique au Labrador. À cette époque, le phénomène climatique nommé le Petit Âge glaciaire affectait grandement l’étendue de la banquise côtière. L’arrivée des missionnaires et des objets européens enclencha une réorganisation des rôles sociaux chez les Inuits. L’établissement hivernal d’Ikkeghasarsuk, connu sous le code Borden HdCg-23 et le nom de site officiel Koliktalik-6, est composé principalement de deux maisons semi-souterraines construites avant 1776 sur un site dorsétien. La présente étude explore les stratégies d’occupation du territoire par l’analyse des restes fauniques de ces deux maisons. Les espèces de phoques chassées et leurs niches écologiques indiquent que les occupants du site exploitaient surtout les phoques présents dans les eaux libres de glace à l’automne, les phoques annelés au sina l’hiver et les phoques annelés sur la banquise côtière au printemps. Le site d’Ikkeghasarsuk, placé sur une île dénudée et balayée par le vent, aurait permis d’avoir un accès privilégié aux ressources marines diverses, peu importe les conditions climatiques.
Resumo:
Méthodologie: Modèle interprétatif de l’archéologie phénoménologique.
Resumo:
Cette étude s’est déroulée dans le contexte de l’École en réseau au Québec. Une classe du primaire a utilisé un espace numérique collaboratif (Knowledge Forum) pour la réalisation d’activités d’éducation artistique, soit l’appréciation d’un corpus d’oeuvres et la création d’un objet d’art. La progression du discours écrit relativement à ces deux objets de partage a été étudiée. Nos résultats montrent que les élèves ont réussi à faire progresser leurs contributions sur les deux objets partagés. En interagissant entre eux, ils ont créé des artéfacts de connaissances partagées et développé un langage artistique propre. À la suite de nos constats, des implications pédagogiques ont été formulées pour d’encourager la participation des élèves lors d’activités d’éducation artistique au moyen d’outils numériques qui soutiennent la collaboration.
Resumo:
Cette recherche est née de constats (Sénéchal, 2012) et de la volonté d’outiller l’enseignement de la communication orale dans la perspective du développement de la compétence langagière orale des élèves. En vue d’atteindre le principal objectif de cette thèse, qui est de proposer des séquences didactiques valides pour l’enseignement de la discussion et de l’exposé critique, nous avons emprunté aux recherches d’ingénierie didactique de première génération (Artigue, 1988; Goigoux, 2012) afin de proposer une démarche d’ingénierie didactique collaborative, dont l’originalité tient à la collaboration qui sous-tend les étapes de la conception, de l’expérimentation et de la validation de son produit en deux phases. Pour cibler les outils et les pratiques à privilégier pour enseigner les deux genres ciblés, nous avons cherché à vérifier en quoi l’utilisation du dispositif de la séquence didactique facilite ou non la transposition didactique interne des prescriptions ministérielles les concernant, en étudiant la transformation des pratiques d’enseignement de nos collaborateurs à travers l’observation de leur mise en oeuvre des séquences didactiques. Quatre outils méthodologiques ont soutenu la collecte des données par la méthode d’observation directe : la captation audiovisuelle, le journal de bord, l’examen des documents des enseignants (notes personnelles) ainsi que le bilan collaboratif, une forme d’entretien mené auprès de nos collaborateurs permettant de faire le point sur la mise en oeuvre et sur le produit de l’ingénierie (notamment en ce qui concerne les ajustements nécessaires à une utilisation optimale du dispositif). Les résultats de l’analyse de ces données montrent non seulement que les séquences didactiques élaborées et expérimentées dans le cadre de notre démarche de recherche sont valides sur le plan de la légitimité, de la pertinence et de la cohérence des contenus, mais également que leur usage permet d’engendrer des gains en termes d’apprentissage pour les élèves et donne lieu à une transformation des pratiques d’enseignement de la communication orale de leurs utilisateurs. Les interventions des enseignants, notamment une augmentation significative des gestes didactiques de régulation et d’institutionnalisation, montrent, en effet, qu’ils se sont suffisamment approprié les contenus et les manières de faire du dispositif pour arriver à opérer seuls certaines des transformations adaptatives nécessaires à la transposition interne des objets en vue de rendre ces derniers enseignables et apprenables.