20 resultados para Variabilité du signal

em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Résumé : Dans les couverts forestiers, le suivi de l’humidité du sol permet de prévenir plusieurs désastres tels que la paludification, les incendies et les inondations. Comme ce paramètre est très dynamique dans l’espace et dans le temps, son estimation à grande échelle présente un grand défi, d’où le recours à la télédétection radar. Le capteur radar à synthèse d’ouverture (RSO) est couramment utilisé grâce à sa vaste couverture et sa résolution spatiale élevée. Contrairement aux sols nus et aux zones agricoles, le suivi de l’humidité du sol en zone forestière est très peu étudié à cause de la complexité des processus de diffusion dans ce type de milieu. En effet, la forte atténuation de la contribution du sol par la végétation et la forte contribution de volume issue de la végétation réduisent énormément la sensibilité du signal radar à l’humidité du sol. Des études portées sur des couverts forestiers ont montré que le signal radar en bande C provient principalement de la couche supérieure et sature vite avec la densité de la végétation. Cependant, très peu d’études ont exploré le potentiel des paramètres polarimétriques, dérivés d’un capteur polarimétrique comme RADARSAT-2, pour suivre l’humidité du sol sur les couverts forestiers. L’effet du couvert végétal est moins important avec la bande L en raison de son importante profondeur de pénétration qui permet de mieux informer sur l’humidité du sol. L’objectif principal de ce projet est de suivre l’humidité du sol à partir de données radar entièrement polarimétriques en bandes C et L sur des sites forestiers. Les données utilisées sont celles de la campagne terrain Soil Moisture Active Passive Validation EXperiment 2012 (SMAPVEX12) tenue du 6 juin au 17 juillet 2012 au Manitoba (Canada). Quatre sites forestiers de feuillus ont été échantillonnés. L’espèce majoritaire présente est le peuplier faux-tremble. Les données utilisées incluent des mesures de l’humidité du sol, de la rugosité de surface du sol, des caractéristiques des sites forestiers (arbres, sous-bois, litières…) et des données radar entièrement polarimétriques aéroportées et satellitaires acquises respectivement, en bande L (UAVSAR) à 30˚ et 40˚ et en bande C (RADARSAT-2) entre 20˚ et 30˚. Plusieurs paramètres polarimétriques ont été dérivés des données UAVSAR et RADARSAT-2 : les coefficients de corrélation (ρHHVV, φHHVV, etc); la hauteur du socle; l’entropie (H), l’anisotropie (A) et l’angle alpha extraits de la décomposition de Cloude-Pottier; les puissances de diffusion de surface (Ps), de double bond (Pd) extraites de la décomposition de Freeman-Durden, etc. Des relations entre les données radar (coefficients de rétrodiffusion multifréquences et multipolarisations (linéaires et circulaires) et les paramètres polarimétriques) et l’humidité du sol ont été développées et analysées. Les résultats ont montré que 1) En bande L, plusieurs paramètres optimaux permettent le suivi de l’humidité du sol en zone forestière avec un coefficient de corrélation significatif (p-value < 0,05): σ[indice supérieur 0] linéaire et σ[indice supérieur 0] circulaire (le coefficient de corrélation, r, varie entre 0,60 et 0,96), Ps (r entre 0,59 et 0,84), Pd (r entre 0,6 et 0,82), ρHHHV_30˚, ρVVHV_30˚, φHHHV_30˚ and φHHVV_30˚ (r entre 0,56 et 0,81) alors qu’en bande C, ils sont réduits à φHHHV, φVVHV et φHHVV (r est autour de 0,90). 2) En bande L, les paramètres polarimétriques n’ont pas montré de valeur ajoutée par rapport aux signaux conventionnels multipolarisés d’amplitude, pour le suivi de l’humidité du sol sur les sites forestiers. En revanche, en bande C, certains paramètres polarimétriques ont montré de meilleures relations significatives avec l’humidité du sol que les signaux conventionnels multipolarisés d’amplitude.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les mesures satellitaires de réflectance de télédétection (Rrs) associée à la fluorescence de la chlorophylle-a induite par le soleil (FCIS), notées Rrs,f , sont largement utilisées dans le domaine de l’océanographie converties sous la forme de rendement quantique de la fluorescence (QYF). Le QYF permet de déterminer l’impact de l’environnement sur la croissance du phytoplancton. Tout comme les autres mesures qui reposent sur la luminance montante, le QYF, et donc la Rrs,f , sont influencés par les effets de bidirectionnalité. Ainsi, sachant que la variabilité naturelle du QYF est faible, les biais engendrés par une normalisation inadéquate de la Rrs,f peuvent avoir des impacts importants sur l’interprétation des mesures de QYF à l’échelle planétaire. La méthode actuelle utilisée pour corriger la dépendance angulaire du signal observé dans la bande de fluorescence par le spectroradiomètre imageur à résolution moyenne (MODIS), embarqué à bord du satellite Aqua, repose sur l’application d’une table de correspondance (LUT) développée par Morel et al. (2002). Toutefois, l’approche de Morel et al. (2002) ne tient pas compte du caractère isotrope de la FCIS ce qui induit des biais systématiques sur les mesures de Rrs,f selon la latitude, par exemple. Dans ce mémoire, une nouvelle méthode de calcul de la LUT ayant pour but de réduire ces biais est introduite. Tout d’abord, celle-ci intègre une mise à jour des propriétés optiques inhérentes (IOPs) dans le modèle de transfert radiatif sur la base de publications plus récentes. Ensuite, la gamme spectrale de son application est élargie à la bande de fluorescence contrairement à la méthode actuelle qui se limite à la longueur d’onde de 660 nm. Finalement, la LUT révisée tient compte des trois composantes principales de la réflectance de télédétection que sont (1) la rétrodiffusion élastique de la lumière par les molécules d’eau et par les particules en suspension, (2) la diffusion Raman (inélastique) par les molécules d’eau et (3) la FCIS. Les résultats de Rrs,f normalisées avec la nouvelle méthode présentent une différence de dispersion moyenne par rapport à celle obtenue par l’application de la méthode de Morel et al. (2002) de l’ordre de -15 %. Des différences significatives, de l’ordre de -22 %, sont observées à de grands angles d’observation et d’éclairement (> 55 %).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En traitement du signal audio, les plosives sont des sons de parole très importants au regard de l’intelligibilité et de la qualité. Les plosives sont cependant difficiles à modéliser à l’aide des techniques usuelles (prédiction linéaire et codage par transformée), à cause de leur dynamique propre importante et à cause de leur nature non prédictible. Cette étude présente un exemple de système complet capable de détecter, segmenter, et altérer les plosives dans un flux de parole. Ce système est utilisé afin de vérifier la validité de l’hypothèse suivante : La phase d’éclatement (de burst) des plosives peut être mise à zéro, de façon perceptuellement équivalente. L’impact sur la qualité subjective de cette transformation est évalué sur une banque de phrases enregistrées. Les résultats de cette altération hautement destructive des signaux tendent à montrer que l’impact perceptuel est mineur. Les implications de ces résultats pour le codage de la parole sont abordées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé : Les eaux souterraines ont un impact majeur sur la vie terrestre, les besoins domestiques et le climat. Elles sont aussi un maillon essentiel du cycle hydrologique. Au Canada par exemple, plus de 30 % de la population est tributaire des eaux souterraines pour leur alimentation en eau potable. Ces ressources subissent de nombreuses pressions sous l’influence de certains facteurs comme la salinisation, la contamination et l’épuisement. La variabilité du climat et la demande croissante sur ces ressources imposent l'amélioration de nos connaissances sur les eaux souterraines. L’objectif principal du projet de recherche est d’exploiter les données d’anomalies (TWS) de la mission Gravity Recovery And Climate Experiment (GRACE) pour localiser, quantifier et analyser les variations des eaux souterraines à travers les bassins versants du Bas-Mackenzie, du Saint-Laurent, du Nord-Québec et du Labrador. Il s’agit aussi d’analyser l’influence des cycles d’accumulation et de fonte de neige sur les variations du niveau des eaux souterraines. Pour estimer les variations des eaux souterraines, la connaissance des autres paramètres du bilan hydrologique est nécessaire. Ces paramètres sont estimés à l’aide des sorties du modèles de surface CLM du Système Global d’Assimilation des Données de la Terre (GLDAS). Les données GRACE qui ont été utilisées sont celles acquises durant la période allant de mars 2002 à août 2012. Les résultats ont été évalués à partir d’enregistrements de niveaux piézométriques provenant de 1841 puits localisés dans les aquifères libres du bassin des réseaux de suivi des eaux souterraines au Canada. Les valeurs de rendements spécifiques des différents types d’aquifères de chaque puits et celles des variations mensuelles du niveau d’eau dans ces puits ont été utilisées pour estimer les variations des anomalies des eaux souterraines in-situ. L’étude de corrélation entre les variations des anomalies des eaux souterraines estimées à partir de la combinaison GRACE-GLDAS et celles issues de données in-situ révèle des concordances significatives avec des valeurs de

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La vitesse des ondes de cisaillement est généralement mesurée en laboratoire en utilisant des éléments piézoélectriques comme les bender elements (BE). Cependant, ces techniques présentent certains problèmes au niveau de l’émission à la fois des ondes primaires et de cisaillement, les effets de champ proche, les effets de bords, et l’incertitude au niveau de l’interprétation du signal. Une nouvelle technique, baptisée technique des anneaux piézoélectriques (P-RAT) a été développée dans le laboratoire géotechnique de l'Université de Sherbrooke afin de minimiser / éliminer les difficultés associées aux autres techniques, en particulier, la pénétration des échantillons, obligatoire pour la technique BE. Cette étude présente une description de la technique P-RAT ainsi que les résultats des simulations numériques réalisées avec le code informatique COMSOL afin d'étudier l'interaction entre les composantes du P-RAT et l'échantillon testé (sol ou solide). L’étude démontre l’efficacité du concept de la méthode P-RAT et présente des modifications pour améliorer la fiabilité et la performance de la méthode P-RAT afin d’étendre son applicabilité dans le domaine du génie civil. L’implémentation de la dernière génération de P-RAT dans une cellule triaxiale et une autre œdométrique était l’aboutissement de cette étude.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La place tenue par la statistique dans la société actuelle fait en sorte qu’il devient important de s’interroger sur l’enseignement de cette discipline. Or, son enseignement qui est inclus, du moins au niveau pré-universitaire, dans les cours de mathématiques pose un défi majeur dû au fait que les raisonnements statistiques se distinguent considérablement des raisonnements associés aux autres domaines des mathématiques scolaires. En statistique, nous sommes en présence d’un degré d’incertitude qui est en contraste avec les conclusions déterministes auxquelles les mathématiques scolaires nous ont trop souvent habitués. La statistique fournit des outils pour étudier, entre autres, des phénomènes aux données variables; au coeur de la statistique se trouve alors le concept de variabilité. Par ailleurs, bien que la statistique prenne de plus en plus de place dans les programmes scolaires, le concept de variabilité même est peu nommé dans les programmes. De plus, la formation à la statistique et à l’enseignement de cette discipline occupe une place peu importante dans les cursus universitaires de formation à l’enseignement. Puisque l’enseignement du concept de variabilité apparaît fondamental, car au coeur de la pensée statistique, on peut se demander quelles sont les connaissances des enseignants à ce sujet compte tenu justement du peu de formation des enseignants dans ce domaine et du peu d’explicitation qu’en font les programmes scolaires. Les recherches dans le domaine de l’enseignement de la statistique ont proliféré depuis la fin du siècle dernier. Certaines concernent le concept de variabilité, mais elles ont surtout été menées chez des élèves. Très peu se sont préoccupées de la façon dont les enseignants de mathématiques du secondaire prennent en compte le concept de variabilité. Nous avons donc entrepris de répondre de manière exploratoire à la question suivante: quelles sont les connaissances didactiques des enseignants en rapport avec le concept de variabilité compte tenu de leurs connaissances disciplinaires ? Pour répondre à cette question, nous avons d’abord entrepris de cerner le concept de variabilité en statistique à travers, d’une part, les travaux sur la discipline et, d’autre part, les recherches sur les élèves. Nous nous sommes concentrés sur deux dimensions du concept présentes dans le curriculum du secondaire au Québec. La première, la variabilité échantillonnale, est associée aux fluctuations d’échantillonnage qui apparaissent dans les différences entre les échantillons tirés d’une même population. La seconde, la variabilité des données, réfère à la dispersion des données statistiques. Ceci a constitué le cadre conceptuel permettant la réalisation d’une recherche qualitative de nature exploratoire. La recherche a été menée auprès de douze enseignants de mathématiques du secondaire. Dans un premier temps, les enseignants devaient répondre individuellement au premier volet du questionnaire mettant de l’avant des situations de résolution de problèmes statistiques dans lesquels le concept de variabilité intervient. Il s’en suivait, dans un deuxième temps, une entrevue où les enseignants étaient regroupés en dyade. La première partie de l’entrevue portait sur les réponses des enseignants à ce premier volet du questionnaire, et ce, afin de porter un regard sur les connaissances disciplinaires des enseignants sur le concept de variabilité. Par la suite, les enseignants devaient répondre au deuxième volet du questionnaire. À cette étape, des tâches didactiques reliées à la pratique enseignante, en lien avec les situations statistiques du premier volet du questionnaire, étaient proposées afin d’explorer, cette fois, les connaissances didactiques des enseignants sur le concept en question. La présente recherche identifie certaines conceptions et difficultés liées à l’étude du concept de variabilité et complète les recherches antérieures sur le sujet. Elle permet aussi de porter un regard sur l’enseignement de ce concept, notamment en indiquant et en documentant des pistes d’interventions possibles pour l’enseignant confronté à des raisonnements et à des réponses d’élèves. De plus, cette étude montre l’influence des connaissances disciplinaires des enseignants sur leurs connaissances didactiques et laisse aussi présager de l’insuffisance de celles-ci pour le développement des connaissances didactiques. De nos résultats émergent des considérations pour la formation de futurs enseignants et met en exergue l’importance de s’attarder aux connaissances disciplinaires et didactiques des enseignants.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le cadre de référence de cet essai explique les concepts de l'approche par compétences, de l'apprentissage par problèmes, de l'adaptation ainsi que des stratégies d'adaptation fonctionnelles, dysfonctionnelles et à la variabilité fonctionnelle décrites par Carver, Scheier et Weintraub (1989) et mène aux objectifs de cette recherche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les prescrits didactiques et le programme d’Histoire et éducation à la citoyenneté (Gouvernement du Québec, 2007) défendent actuellement des pratiques d’enseignement visant l’apprentissage de la pensée historique. Un apprentissage qui est défini comme une activité intellectuelle inscrite dans une démarche de résolution de problème, permettant de développer une compréhension plus approfondie des réalités sociales dans la perspective du temps (Martineau, 2010). Toutefois, les recherches indiquent que cet apprentissage serait variablement intégré aux pratiques effectives dans les classes d’histoire (Levstik, 2008), notamment au Québec (Boutonnet, 2013; Moisan, 2010). À cet égard, il semblerait y avoir un écart entre les finalités auxquelles les enseignants adhèrent et les situations d’enseignement-apprentissage qu’ils mettent en œuvre. Pour mettre en lumière cette variabilité, nous avons réalisé une recherche exploratoire visant à décrire les pratiques d’enseignement en histoire en troisième et en quatrième années du secondaire. À cette fin, nous avons eu recours aux théories des représentations sociales (Moscovici, 1976) et de l’attribution (Deschamps, 1996) permettant de recenser, dans le savoir commun des enseignants d’histoire, des éléments relatifs à l’apprentissage de la pensée historique. Ce savoir a été analysé en fonction de quatre types de variables : l’opinion, les dispositifs d’enseignement, les attributions et les attitudes individuelles à l’égard de l’apprentissage de la pensée historique. Les données ont été recueillies auprès d’un échantillon de convenance de huit enseignants, et elles ont été analysées dans le cadre d’une approche lexicométrique. La procédure de cueillette a consisté à réaliser quatre entrevues auprès de chacun de ces enseignants, lors des phases préactive et postactive de trois situations d’enseignement-apprentissage, pour identifier par la récurrence des discours des propriétés invariantes. Les données ont été interprétées en fonction de deux types de fondement théorique, relatifs aux théories de l’apprentissage, illustrant différentes manières d’apprendre à penser historiquement, et aux modèles de pratique, décrivant des dispositifs séquencés d’enseignement associés à cet apprentissage. De manière générale, les résultats révèlent la prédominance des théories de l’apprentissage de sens commun, socioconstructiviste et cognitivo-rationaliste, ainsi que des modèles de pratique fondés sur la conceptualisation et le tâtonnement empirique. Même si cette recherche ne peut être considérée représentative, elle a comme principale retombée scientifique de livrer une description de pratiques nuancée, exprimant différentes modulations de l’apprentissage de la pensée historique au niveau des pratiques. Cette recherche contribue à alimenter la réflexion auprès des chercheurs, des formateurs et des enseignants qui pourront mettre en perspective les pratiques actuelles relatives à un apprentissage des plus importants en histoire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans le noyau cellulaire, l’ADN est compacté autour de petites protéines appelées histones formant ainsi le nucléosome, unité de base de la chromatine. Les nucléosomes contrôlent la liaison des facteurs de transcription à l’ADN et sont ainsi responsables de la régulation des processus cellulaires tels que la transcription. Afin de permettre l’expression des gènes, la chromatine est remodelée, c’est-à-dire que les nucléosomes sont repositionnés de manière à ce que la machinerie générale de la transcription puisse atteindre l’ADN afin de produire l’ARN messager. La moindre petite modification dans la fonction des facteurs de transcription ou des enzymes responsables du remodelage de la chromatine entraine des variations d’expression des gènes, et donc des maladies telles que les cancers. Le cancer du sein est le cancer le plus couramment développé chez les femmes. Cette maladie est principalement causée par l’activité du récepteur des œstrogènes ERα et de ses co-régulateurs ayant, pour la plupart, un rôle direct sur le remodelage de la chromatine. Afin de mieux comprendre le développement et la progression du cancer du sein, nous avons décidé d’étudier le rôle de deux co-régulateurs de ERα, TLE3 et KDM5A, impliqués dans le remodelage de la chromatine et dont la fonction dans le cancer du sein est indéterminée. Nous avons démontré que TLE3 est un partenaire d’interaction du facteur pionnier FoxA1, facteur nécessaire à la liaison de ERα sur l’ADN pour la transcription des gènes cibles de ce récepteur. L’interaction de TLE3 avec FoxA1 inhibe la liaison de ERα à l’ADN en absence d’œstrogènes, via le recrutement de HDAC2 qui déacétyle la chromatine, empêchant alors l’activation fortuite de la transcription en absence de signal. Quant à KDM5A, malgré sa réputation de répresseur de la transcription, dans le cancer du sein, cette déméthylase de H3K4me2/3 est un coactivateur de ERα, dû à son rôle direct sur l’expression du récepteur.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude examine l'impact de la révision du chapitre 3480 de l'I.C.C.A., survenue en décembre 1989, sur le comportement des gestionnaires des entreprises canadiennes dans le traitement des éléments extraordinaires. L'ajout d'un troisième critère à la définition, relatif à l'absence de contrôle de la direction ou de ses dirigeants dans l'appréciation des éléments extraordinaires, semble avoir pour objectif d'uniformiser la classification et la présentation des différentes composantes de l'état des résultats. Cette uniformisation permettrait potentiellement d'éliminer les manipulations comptables par l'utilisation de certains éléments extraordinaires pour lisser les bénéfices. L'analyse de trois modèles de régression, pour la première période (trois ans pré-révision) suggère que l'ancienne définition des éléments extraordinaires a permis à certains gestionnaires canadiens d'utiliser les éléments extraordinaires discrétionnaires et semi-discrétionnaires pour lisser leurs bénéfices dans le temps. Par contre, son resserrement (trois ans post-révision) a contribué à une réduction importante du nombre des éléments extraordinaires dans les états financiers. La limitation de ces éléments aux seuls événements fortuits et hors du contrôle de la direction semble enrayé les latitudes discrétionnaires observées auparavant. En outre, l'association entre la présence de lissage et les caractéristiques financières de l'entreprise (pour la première période) suggèrent que la variabilité des bénéfices ainsi que la taille sont les deux indicateurs de lissage, en ce sens qu'ils incitent les gestionnaires à lisser leurs bénéfices par l'utilisation d'éléments extraordinaires. Il ressort de cette étude que les objectifs recherchés par la révision du chapitre 3480 de l'I.C.C.A. semblent atteints. Dorénavant, les éléments extraordinaires ne peuvent plus faire l'objet de manipulations pour lisser les bénéfices.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche observationnelle de type longitudinal porte sur l'étude de la stabilité du style interactif des garçons réputés agressifs. Elle vise à décrire les styles interactifs. L'agression, la prosocialité, la dominante sociale sont étudiées. Les styles interactifs basés sur les mesures observationnelles sont comparés aux styles interactifs créés à partir des questionnaires d'évaluation des comportements sociaux (QECS) remplis par les enseignantes et les enseignants. L'influence de l'âge, du type d'activité et des caractéristiques des groupes de pairs est examinée au regard de l'expression des conduites. Douze garçons réputés agressifs ont participé à l'âge de 9 ans, 1 1 ans et 15 ans à des activités de groupe avec 31 garçons réputés agressifs et 17 garçons non agressifs. Les séances d'activité ont été filmées afin de permettre l'observation différée. La technique d'observation dite par centration focale est privilégiée. Les résultats portant sur les mesures observationnelles indiquent que les garçons présentent des styles très diversifiés. L'examen des composantes indique qu'il y a beaucoup de variabilité selon les facteurs temporel et situationnel. Les sujets-cibles émettent plus de prosocialité que toutes autres conduites. Les analyses mettent en évidence un effet significatif d'activité. Les garçons manifestent plus de prosocialité et de dominance prosociale à la collation alors qu'ils émettent plus de conduites liées à la dominance sociale lors du casse-tête. L'âge tend à avoir une certaine influence. Les garçons manifestent plus de prosocialité et de dominance sociale à l'âge de 9 ans qu'à l’âge de 11 ans. Les analyses portant sur le jugement des enseignantes et des enseignants lors d'évaluation en milieu scolaire révèlent qu'il y a peu de concordance d'un point d'évaluation à l'autre au point de vue de la prosocialité et de l'agression. De même, il existe peu de concordance entre le jugement des enseignantes et des enseignants versus les mesures observationnelles. Les enseignantes et les enseignants sur-évaluent les conduites d'agression et sous-évaluent les conduites prosociales plus souvent que ne le font les observatrices. En milieu scolaire, les enseignantes et les enseignants jugent qu'avec le temps, les garçons présentent significativement moins d'agression tandis que les conduites prosociales demeurent peu élevées tout au long de l'étude. Un regard critique est porté sur le Questionnaire d'évaluation des comportements sociaux. Les analyses portant sur le phénomène de similarité et de dissimilarité révèlent un phénomène de similarité entre les sujets et leur groupe d'activité à l'âge de neuf ans et à l'âge de 11 ans. À l'âge de 15 ans, les sujets émettent significativement moins de conduites d'agression que leur groupe d'activité, en fait, ils n'en émettent pas. Cependant, ils émettent autant de prosocialité, de dominance sociale et de dominance prosociale. Dans l'ensemble, les analyses révèlent que le style interactif des garçons réputés agressifs présenterait une certaine plasticité. Ces garçons auraient donc une capacité de s'adapter selon les situations et les caractéristiques des groupes de pairs. Un échantillon plus grand de sujets permettrait d'effectuer des analyses par catégorisation.