25 resultados para Données--Compression (Informatique)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis le milieu des années 2000, une nouvelle approche en apprentissage automatique, l'apprentissage de réseaux profonds (deep learning), gagne en popularité. En effet, cette approche a démontré son efficacité pour résoudre divers problèmes en améliorant les résultats obtenus par d'autres techniques qui étaient considérées alors comme étant l'état de l'art. C'est le cas pour le domaine de la reconnaissance d'objets ainsi que pour la reconnaissance de la parole. Sachant cela, l’utilisation des réseaux profonds dans le domaine du Traitement Automatique du Langage Naturel (TALN, Natural Language Processing) est donc une étape logique à suivre. Cette thèse explore différentes structures de réseaux de neurones dans le but de modéliser le texte écrit, se concentrant sur des modèles simples, puissants et rapides à entraîner.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les applications de réfrigération sont aujourd’hui majoritairement réalisées par des machines à compression alimentées en électricité. Animées à partir d’une source chaude, l’utilisation de machines à absorption permet d’utiliser très peu d’électricité comparée à une machine à compression et d’utiliser des réfrigérants écologiques. Le faible coefficient de performance et le coût élevé de ces machines est compensé par l’utilisation de rejets thermiques industriels destinés à être rejeté dans l’environnement et donc considérés comme gratuits. Le but de cette étude est de modéliser une machine à absorption hybride, utilisant le couple de fluide eau et ammoniac, en y ajoutant un compresseur ou booster dans la zone haute pression du circuit et d’évaluer ses performances. Cette modification crée une pression intermédiaire au désorbeur permettant de diminuer la température des rejets thermiques exploitables. Une température de rejets réutilisable de 50°C, contre 80°C actuellement, ouvrirait alors la voie à de nouvelles sources communes d’énergie. Le logiciel ASPEN Plus de simulation des procédés a été choisi afin de modéliser en régime permanent le système. Le modèle est en partie validé par l’étude expérimentale d’une machine à absorption commerciale de 10kW pour des applications de climatisation. Cette machine est située au Laboratoire des Technologies de l’Énergie d’Hydro-Québec. Ensuite, une étude de design permet de montrer, à puissance de réfrigération constante, les impacts bénéfiques de la technologie hybride sur le rendement exergétique, mais également sur la taille globale des échangeurs nécessaires. La technologie hybride est alors analysée économiquement face à une machine à absorption chauffée au gaz pour montrer sa rentabilité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le laboratoire DOMUS développe des applications pour assister les personnes en perte d'autonomie et les personnes avec des troubles cognitifs. Chaque application est ou a déjà été le sujet de plusieurs études d'utilisabilité qui permettent de les améliorer. Ces études prennent beaucoup de temps à mettre en place, car l'on rencontre souvent des problèmes de logistique (format et sensibilité des données, chercheurs répartis sur une grande aire géographique). C'est pourquoi un outil appelé GEDOPAL a été développé. Il permet de partager entre chercheurs de différents centres les données créées et utilisées lors de la mise en place des études d'utilisabilité. La conception et la réalisation de cet outil ont nécessité une réflexion en amont sur la nature et la sensibilité de ces données. Cette réflexion est l'objet du Chapitre 3. Ces études prennent aussi beaucoup de temps lors de l'analyse des résultats. De plus, certaines données créées lors de ces études, telles que les traces d'utilisation ont des volumétries trop importantes pour être analysées manuellement. C'est pourquoi nous avons créé un processus permettant d'analyser ces traces d'utilisation pour y détecter les erreurs utilisateurs dans l'espoir de les relier à des problèmes d'utilisabilité. Ce processus se compose de deux parties : la première est une analyse formelle de l'application, qui sera présentée au Chapitre 4, et la seconde l'application d'un outil d'apprentissage automatique aux traces d'utilisation pour y détecter les erreurs utilisateurs. Cet outil est présenté au Chapitre 5.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : Les eaux souterraines ont un impact majeur sur la vie terrestre, les besoins domestiques et le climat. Elles sont aussi un maillon essentiel du cycle hydrologique. Au Canada par exemple, plus de 30 % de la population est tributaire des eaux souterraines pour leur alimentation en eau potable. Ces ressources subissent de nombreuses pressions sous l’influence de certains facteurs comme la salinisation, la contamination et l’épuisement. La variabilité du climat et la demande croissante sur ces ressources imposent l'amélioration de nos connaissances sur les eaux souterraines. L’objectif principal du projet de recherche est d’exploiter les données d’anomalies (TWS) de la mission Gravity Recovery And Climate Experiment (GRACE) pour localiser, quantifier et analyser les variations des eaux souterraines à travers les bassins versants du Bas-Mackenzie, du Saint-Laurent, du Nord-Québec et du Labrador. Il s’agit aussi d’analyser l’influence des cycles d’accumulation et de fonte de neige sur les variations du niveau des eaux souterraines. Pour estimer les variations des eaux souterraines, la connaissance des autres paramètres du bilan hydrologique est nécessaire. Ces paramètres sont estimés à l’aide des sorties du modèles de surface CLM du Système Global d’Assimilation des Données de la Terre (GLDAS). Les données GRACE qui ont été utilisées sont celles acquises durant la période allant de mars 2002 à août 2012. Les résultats ont été évalués à partir d’enregistrements de niveaux piézométriques provenant de 1841 puits localisés dans les aquifères libres du bassin des réseaux de suivi des eaux souterraines au Canada. Les valeurs de rendements spécifiques des différents types d’aquifères de chaque puits et celles des variations mensuelles du niveau d’eau dans ces puits ont été utilisées pour estimer les variations des anomalies des eaux souterraines in-situ. L’étude de corrélation entre les variations des anomalies des eaux souterraines estimées à partir de la combinaison GRACE-GLDAS et celles issues de données in-situ révèle des concordances significatives avec des valeurs de

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les fluides magnétorhéologiques (MR) sont des fluides intelligents dont la viscosité apparente peut être modifiée rapidement (<1ms) par l'application d'un champ magnétique externe. À l'aide de cette caractéristique unique, les embrayages MR permettent de moduler rapidement un couple entre deux surfaces sans contact mécanique direct. De construction simple et robuste, les embrayages MR offrent ainsi un potentiel remarquable d'innovation pour diverses applications robotiques nécessitant un contrôle rapide et une haute fiabilité, comme dans les domaines de l'automobile [10], de l'aéronautique [16] ou de l'interaction humaine [77]. À ce jour, les embrayages MR exploitent le fluide MR strictement en cisaillement pur. Dans de telles conditions, la densité de couple des embrayages est limitée par l'optimisation de la mécanique des embrayages (ex. : poids) [63] et les propriétés fondamentales des fluides MR (ex. : contrainte) [11]. Alors qu'en cisaillement pur, la contrainte des fluides MR est limitée à ∼100 kPa, des études récentes démontrent qu'elle peut être augmentée d'un ordre de grandeur (>1000 kPa) lorsque le fluide MR est soumis à une compression, avant d'être cisaillé [89]. La combinaison de la compression et du cisaillement du fluide MR pourrait ainsi décupler la densité de couple des embrayages MR, mais ce phénomène d'agrégation assistée par compression, aussi appelé squeeze-strengthening ou super-strong} (SS), est toujours très mal compris. Beaucoup d'incertitude persiste quant à l'origine exacte du phénomène [45], des conditions qui le favorisent [55] [75] et des effets qu'il engendre [31]. Dans le but ultime d'augmenter la densité de couple des embrayages MR à l'aide du phénomène SS, le présent projet de recherche vise à étudier le comportement rhéologique des fluides MR dans des conditions de compression et de cisaillement simultané afin d'en comprendre les conditions qui favorisent le phénomène d'augmentation des contraintes. Pour ce faire, un banc d'essai permettant la compression pure, le cisaillement pur et la compression-cisaillement simultanée des fluides MR est conçu et utilisé pour étudier le fluide MR lorsque soumis à des conditions de chargement typique des embrayages MR. Les résultats expérimentaux issus de cette vaste étude expérimentale permettront d'établir un lien direct entre ce phénomène et le celui de filtration, duquel un modèle prédictif sera proposé. À l'aide du modèle théorique, le phénomène SS sera étudié à l'aide de diverses compositions de fluide MR (ex. : concentration, taille des particules, viscosité) et différentes géométries de compression, ce qui permettra de valoriser le modèle pour la conception préliminaire d'embrayages MR qui exploitent le phénomène SS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le nombre d'élèves du collégial ayant présenté un diagnostic de trouble d'apprentissage ou de déficit d'attention (avec ou sans hyperactivité) aux autorités de leur institution scolaire s'est accru de façon considérable au cours de la dernière décennie. Comme seules les personnes souhaitant bénéficier de mesures particulières d'encadrement dans leur cégep doivent déclarer ces diagnostics, il est possible de croire qu'un nombre plus grand d'élèves que celui suggéré par les statistiques disponibles ait soit un trouble d'apprentissage ou un déficit d'attention. Le problème qui est à l'origine de cette recherche est composé de deux éléments. D'une part, il est possible qu'un trouble d'apprentissage soit le résultat du dysfonctionnement de plus d'une fonction cognitive et il est également possible que plusieurs troubles d'apprentissage coexistent. Cette complexité invite à agir, dans un contexte d'enseignement, sur des fonctions cognitives précises, plutôt que sur des troubles d'apprentissage en particulier. D'autre part, le cours Initiation à la comptabilité offert au collège Édouard-Montpetit présente un faible taux de réussite, le niveau d'intégration de certaines connaissances de ce cours est insuffisant pour plusieurs élèves et des désavantages découlent du fait qu'il n'est plus offert en laboratoire informatique depuis 2009. L'objectif général de cette recherche est de favoriser l'intégration des connaissances relatives à l'équation comptable de base et à la production des états financiers de l'entreprise commerciale par des élèves de Techniques administratives ayant ou percevant avoir des difficultés de traitement de l'information et de mémoire, d'attention, de lecture/écriture ou des fonctions exécutives à l'aide de matériel pédagogique mis en ligne. Une recension des écrits a permis, dans un premier temps, d'identifier les processus cognitifs sollicités dans l'apprentissage des différents types de connaissances dont le niveau d'intégration de plusieurs élèves est insuffisant, de même que de cerner le rôle et l'interdépendance des fonctions cognitives à l'étude. Ensuite, des moyens qui permettent de compenser des faiblesses relatives au traitement de l'information, aux processus mnésiques et attentionnels, de même qu'au niveau de certaines habiletés langagières et des fonctions exécutives ont été circonscrits. Une stratégie visant à favoriser les apprentissages d'élèves ayant, notamment, des troubles d'apprentissage a par la suite été identifiée, de même que les caractéristiques attendues d'une plateforme informatique afin qu'elle soit aidante pour des élèves ayant des difficultés cognitives. Les composantes du cadre conceptuel ont été intégrées au matériel pédagogique développé et mis en ligne. Ensuite, le matériel a fait l'objet d'une expérimentation et d'une évaluation auprès de trois catégories de participantes et de participants. Une posture épistémologique interprétative a été privilégiée pour cette recherche développement. Une approche mixte à prédominance qualitative a été utilisée. Ainsi, les outils de collecte de données qui ont été choisis visaient à comprendre le regard que posaient ces trois catégories de participantes et de participants à l'étude sur le matériel pédagogique développé et mis en ligne, plutôt que de mesurer une possible généralisation des résultats obtenus. Les catégories de personnes qui ont expérimenté et évalué le matériel sont formées de deux groupes d'élèves inscrits au cours Initiation à la comptabilité à la session d'automne 2010, de trois des cinq élèves de Techniques administratives ayant présenté un diagnostic de trouble d'apprentissage ou de déficit d'attention auprès des autorités du collège et d'une experte en services adaptés. L'analyse et l'interprétation des résultats a permis de constater que pour chacune des catégories de participantes et de participants à l'étude, le matériel pédagogique atteignait l'objectif général visé. Ainsi, une perception de légère amélioration de chacune des connaissances établies dans l'objectif général de recherche a été notée. De plus, les principales composantes du cadre conceptuel semblent atteindre leurs visées respectives. Cependant, plusieurs façons d'améliorer le matériel pédagogique ont été relevées par les personnes qui l'ont évalué. Parmi celles-ci, nous retrouvons le développement de plus d'autoévaluations, l'amélioration du nombre et de la précision des consignes d'utilisation du matériel, l'affinement des tables des matières et des points de repère visuels, de même que l'accroissement du nombre de sens sollicités lors de l'utilisation du matériel pédagogique. Une piste de recherche future pourrait être d'améliorer ce matériel pédagogique mis en ligne en y intégrant les suggestions formulées par les participantes et les participants à la présente étude, de même qu'en ajoutant au cadre conceptuel de nouvelles connaissances relatives aux neurosciences. Ensuite, il serait possible de procéder à une nouvelle expérimentation, s'échelonnant sur une plus grande période de temps, afin d'établir si les résultats obtenus peuvent être transférés à d'autres contextes d'apprentissage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le rôle central du phytoplancton à la base de la chaîne trophique aquatique motive une compréhension étayée des facteurs pouvant faire varier les populations et la composition des populations de phytoplancton. Cette compréhension est d'autant plus importante dans le contexte actuel, puisque nous savons que l'humain influence le climat et les milieux aquatiques par sa présence et ses activités. Nous tentons donc, dans notre étude, de déterminer les variables environnementales importantes qui dictent les changements de taille et de composition de la communauté de phytoplancton à l'échelle d'un lac et d'en déduire les niches réalisées des différentes espèces du lac. L'utilisation d'une station mobile de manière verticale dans le lac Montjoie (Saint-Denis-de-Brompton) a permis de collecter des données in situ à haute fréquence et résolution temporelle caractérisant la colonne d'eau. Combinée à ces mesures, une banque de données sur l'abondance de différentes catégories de phytoplancton a été créée à l'aide d'un cytomètre en flux imageur (IFCB) et d'un programme de reconnaissance d'images qui lui est associé. En combinant ces données nous avons déterminé que la température moyenne au-dessus de la thermocline et que la profondeur limite de chlorophylle (2 écarts-types sous le maximum de chlorophylle) étaient les 2 variables (parmi les variables mesurées) les plus appropriées pour déterminer les niches réalisées de nos catégories de phytoplancton. À l'aide de ces 2 variables, nous avons pu déterminer les niches réalisées d'une trentaine de catégories présentes dans notre lac. Les niches ont été déterminées à la fois sur les données d'abondance et sur les données de taux de croissance nette à l'aide de deux méthodes différentes, soit l'analyse canonique des correspondances (CCA) et la maximisation de l'entropie d'information (MaxEnt). Ce sont finalement les niches déterminées avec les taux de croissance nette qui sont les plus pertinentes. Les deux méthodes ont donné des résultats semblables, mais c'est MaxEnt qui est la plus versatile pour l'ajout de nouvelles variables explicatives et c'est donc celle-ci que nous privilégierons dans le futur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire de maîtrise, nous utilisons les microdonnées de l’Enquête sur les dépenses des ménages de Statistique Canada en 2009 pour tester la validité empirique du modèle unitaire de dépense des ménages. En s’inspirant de l’étude conduite par Phipps et Burton en 1998, nous tentons une actualisation de leurs résultats ainsi qu’une analyse de l’évolution du comportement des ménages canadiens entre 1992 et 2009. La nouveauté présentée dans ce mémoire de maîtrise tient justement dans ces résultats. Dans la majorité des catégories de dépenses, nous ne rejetons plus le modèle unitaire et nous en mesurons les implications. Entre ces deux études, les différences entre l’homme et la femme dans les couples canadiens se sont atténuées, ils ont de plus en plus les mêmes préférences en terme de consommation. Enfin, nous poursuivons en apportant un test du modèle coopératif développé par Browning, Bourguignon, Chiappori et Lechene (1994) sur la demande en biens exclusifs. Nous en déduisons un aperçu de la répartition du pouvoir de dépense au sein des ménages canadiens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les mesures satellitaires de réflectance de télédétection (Rrs) associée à la fluorescence de la chlorophylle-a induite par le soleil (FCIS), notées Rrs,f , sont largement utilisées dans le domaine de l’océanographie converties sous la forme de rendement quantique de la fluorescence (QYF). Le QYF permet de déterminer l’impact de l’environnement sur la croissance du phytoplancton. Tout comme les autres mesures qui reposent sur la luminance montante, le QYF, et donc la Rrs,f , sont influencés par les effets de bidirectionnalité. Ainsi, sachant que la variabilité naturelle du QYF est faible, les biais engendrés par une normalisation inadéquate de la Rrs,f peuvent avoir des impacts importants sur l’interprétation des mesures de QYF à l’échelle planétaire. La méthode actuelle utilisée pour corriger la dépendance angulaire du signal observé dans la bande de fluorescence par le spectroradiomètre imageur à résolution moyenne (MODIS), embarqué à bord du satellite Aqua, repose sur l’application d’une table de correspondance (LUT) développée par Morel et al. (2002). Toutefois, l’approche de Morel et al. (2002) ne tient pas compte du caractère isotrope de la FCIS ce qui induit des biais systématiques sur les mesures de Rrs,f selon la latitude, par exemple. Dans ce mémoire, une nouvelle méthode de calcul de la LUT ayant pour but de réduire ces biais est introduite. Tout d’abord, celle-ci intègre une mise à jour des propriétés optiques inhérentes (IOPs) dans le modèle de transfert radiatif sur la base de publications plus récentes. Ensuite, la gamme spectrale de son application est élargie à la bande de fluorescence contrairement à la méthode actuelle qui se limite à la longueur d’onde de 660 nm. Finalement, la LUT révisée tient compte des trois composantes principales de la réflectance de télédétection que sont (1) la rétrodiffusion élastique de la lumière par les molécules d’eau et par les particules en suspension, (2) la diffusion Raman (inélastique) par les molécules d’eau et (3) la FCIS. Les résultats de Rrs,f normalisées avec la nouvelle méthode présentent une différence de dispersion moyenne par rapport à celle obtenue par l’application de la méthode de Morel et al. (2002) de l’ordre de -15 %. Des différences significatives, de l’ordre de -22 %, sont observées à de grands angles d’observation et d’éclairement (> 55 %).