262 resultados para Llum -- Filtres
Resumo:
Au Québec, les drains installés dans les sols sableux-limoneux sont sensibles au colmatage par ensablement et/ou par ocre de fer. Dans le passé, les drains avec des pertuis inférieurs à 2 mm étaient utilisés au Québec avec un filtre tissé de 110 microns ou un filtre tricoté de 450 microns. Récemment, des drains avec des pertuis supérieurs à 2 mm ainsi qu’un filtre de 250 microns ont été introduits sur le marché mais n’ont jamais été testés. Le projet avait pour objectif de déterminer les vitesses auxquelles se feront l’ensablement et le colmatage ferrique pour différentes combinaisons de drains (pertuis de 1,8 mm et de 3 mm) et de filtres (110 μm, 250 μm et 450 μm) dans un sol sableux à Bécancour. Un dispositif expérimental en blocs complets (3) aléatoires a été utilisé. Les débits ont été mesurés à la sortie des drains de chaque parcelle et les hauteurs des nappes ont été mesurées avec un bulleur dans des puits d’observation. Le suivi du pH, du potentiel d’oxydoréduction et du contenu en Fe2+ a été réalisé dans l’eau de la nappe et celle des drains. Les drains excavés 13 mois après leur installation ne montrent que des traces de sédiments et de colmatage ferrique. Les niveaux de Fe2+ sont significativement plus faibles dans l’eau à la sortie des drains que dans l’eau de la nappe. Le processus de colmatage ferrique ne semble que commencer et son impact n’est pas mesurable au niveau des débits unitaires à la sortie des drains.
Resumo:
La programmation par contraintes est une technique puissante pour résoudre, entre autres, des problèmes d’ordonnancement de grande envergure. L’ordonnancement vise à allouer dans le temps des tâches à des ressources. Lors de son exécution, une tâche consomme une ressource à un taux constant. Généralement, on cherche à optimiser une fonction objectif telle la durée totale d’un ordonnancement. Résoudre un problème d’ordonnancement signifie trouver quand chaque tâche doit débuter et quelle ressource doit l’exécuter. La plupart des problèmes d’ordonnancement sont NP-Difficiles. Conséquemment, il n’existe aucun algorithme connu capable de les résoudre en temps polynomial. Cependant, il existe des spécialisations aux problèmes d’ordonnancement qui ne sont pas NP-Complet. Ces problèmes peuvent être résolus en temps polynomial en utilisant des algorithmes qui leur sont propres. Notre objectif est d’explorer ces algorithmes d’ordonnancement dans plusieurs contextes variés. Les techniques de filtrage ont beaucoup évolué dans les dernières années en ordonnancement basé sur les contraintes. La proéminence des algorithmes de filtrage repose sur leur habilité à réduire l’arbre de recherche en excluant les valeurs des domaines qui ne participent pas à des solutions au problème. Nous proposons des améliorations et présentons des algorithmes de filtrage plus efficaces pour résoudre des problèmes classiques d’ordonnancement. De plus, nous présentons des adaptations de techniques de filtrage pour le cas où les tâches peuvent être retardées. Nous considérons aussi différentes propriétés de problèmes industriels et résolvons plus efficacement des problèmes où le critère d’optimisation n’est pas nécessairement le moment où la dernière tâche se termine. Par exemple, nous présentons des algorithmes à temps polynomial pour le cas où la quantité de ressources fluctue dans le temps, ou quand le coût d’exécuter une tâche au temps t dépend de t.
Resumo:
Résumé : La schizophrénie est un trouble mental grave qui affecte toutes les facettes de la vie de la personne. En outre, le manque de soutien social est un problème important qui contribue à l’aggravation de la maladie, notamment en influençant négativement la capacité d’adaptation. Chez les personnes atteintes de schizophrénie, la capacité à utiliser des stratégies d’adaptation adéquates et efficaces est essentielle afin d’améliorer la santé, le bien-être et la prévention des rechutes. Cette recherche utilise la conception de l’adaptation de Roy (2009). De nombreuses études confirment la présence de difficultés d’adaptation chez ces personnes. De plus, le processus d’adaptation lui-même reste mal connu. La question de recherche était : Quel est le processus d’adaptation des personnes vivant avec la schizophrénie lorsque leur soutien social est limité ? Cette question sous-tendait deux objectifs : 1) décrire le processus d’adaptation des personnes atteintes de schizophrénie dans un contexte de soutien social limité et 2) contribuer au développement du modèle de Roy dans le contexte des troubles mentaux graves. Le devis de recherche était la théorisation ancrée constructiviste, auprès de 30 personnes vivant avec la schizophrénie. Les données étaient composées d’entrevues et de résultats de trois questionnaires qui ont contribué à décrire de façon plus détaillée le profil des participants. Les résultats sont une modélisation du processus d’adaptation nommée « les filtres dans le processus d’adaptation des personnes vivant avec la schizophrénie ». Cette modélisation met en lumière le fait que le potentiel d’adaptation des personnes vivant avec la schizophrénie est affecté à la fois par des éléments de l’environnement social et des éléments inhérents à la maladie elle-même. Ces éléments altèrent la possibilité et la capacité à utiliser des stratégies d’adaptation adéquates et efficaces. Ces résultats de recherche pourraient permettre d’améliorer l’évaluation des personnes atteintes de schizophrénie et de diminuer les « inconnues » dans l’effet des interventions, tout comme de favoriser les actions visant à lutter contre les conditions sociales qui nuisent à l’adaptation.
Resumo:
Exploration empirique et théorique des diverses contraintes sociales agissant sur la pratique de la critique musicale dans les médias montréalais en contexte de compétition marchande. Pour ce faire, une enquête sociologique qualitative fut menée auprès d’un échantillon de dix animateurs et journalistes musicaux de Montréal. L’auteur développe une théorie selon laquelle critiquer esthétiquement consiste à trier et à choisir en fonction du goût au moyen d’un concept appelé « dynamique EGC », soit le processus par lequel les expériences esthétiques sont filtrées par le goût, qui commande une réponse actée sous forme de critique d’art. Sa recherche s’intéresse d’abord aux impératifs (obstacles) du métier d’animateur et de journaliste musical et montre que c’est la compétition marchande qui prédomine dans un tel travail parce qu’elle surplombe tout le reste. Le mémoire s’attarde ensuite à étudier les déterminismes sociaux poussant certains individus à vouloir pratiquer ce métier. Il est montré que les déterminismes particuliers incitant à la pratique du métier d’animateur musical ne sont pas les mêmes que ceux incitant à la pratique du journalisme musical. Les animateurs sont des « conservateurs esthétiques » qui aiment constamment partager implicitement leur passion, tandis que les journalistes sont des « progressistes esthétiques » préférant donner leur avis explicitement lorsque nécessaire, mais pas nécessairement tout le temps. Dans tous les cas, animateurs et journalistes musicaux sont à comprendre comme des « militants esthétiques », des gens qui tentent de convaincre en même temps qu’ils tentent d’acquérir de la notoriété critique.
Resumo:
Le nettoyage des systèmes de Chauffage, Ventilation et Climatisation de l’Air est important pour assurer une bonne qualité d’air intérieur. Le déclenchement de leur nettoyage est basé sur une inspection visuelle qui ne tient pas compte du contenu en moisissures, lesquelles ont des effets sur le système respiratoire. Cette recherche vise à proposer une méthode d’évaluation du contenu en moisissures afin d’aider les gestionnaires d’immeuble. Cinq générations de poussières ont été effectuées pour simuler un conduit de ventilation. Une cassette modifiée 37 mm et un filtre CPV pré-pesés ont utilisés pour collecter les poussières déposées avec une pompe calibrée à 15L/min. Les pourcentages de collecte des cassettes et des filtres ont été calculés pour 54 échantillons. Dix générations supplémentaires de poussières ont été effectuées concomitamment avec la génération de spores. Soixante échantillons ont été analysés selon quatre méthodes : culture, comptage direct des spores par microscopie (CDSM), dosage de β-N-acétylhexosaminidase (NAHA), 18S-q-PCR. La limite de détection (LD), la réplicabilité, la répétabilité, le nombre de spores et le coefficient de corrélation (r) ont été déterminés. Les récupérations de poussières étaient supérieures à 84%. Selon la méthode analytique, les concentrations médianes de spores/100 cm² allaient de 10 000 à 815 000. Les LD variaient dépendamment de la méthode de 120 à 218 000 spores/100 cm² et r de -0,08 à 0,83. La réplicabilité et la répétabilité étaient de 1% et 1% pour PCR; 5% et 10% pour CDSM; 6% et 15% pour NAHA; 12% et 11% pour culture. La méthode de collecte a démontré une excellente efficacité de récupération. La PCR est la méthode analytique recommandée pour l’évaluation fongique des systèmes de ventilation. Une validation terrain est en cours.
Resumo:
Le nettoyage des systèmes de Chauffage, Ventilation et Climatisation de l’Air est important pour assurer une bonne qualité d’air intérieur. Le déclenchement de leur nettoyage est basé sur une inspection visuelle qui ne tient pas compte du contenu en moisissures, lesquelles ont des effets sur le système respiratoire. Cette recherche vise à proposer une méthode d’évaluation du contenu en moisissures afin d’aider les gestionnaires d’immeuble. Cinq générations de poussières ont été effectuées pour simuler un conduit de ventilation. Une cassette modifiée 37 mm et un filtre CPV pré-pesés ont utilisés pour collecter les poussières déposées avec une pompe calibrée à 15L/min. Les pourcentages de collecte des cassettes et des filtres ont été calculés pour 54 échantillons. Dix générations supplémentaires de poussières ont été effectuées concomitamment avec la génération de spores. Soixante échantillons ont été analysés selon quatre méthodes : culture, comptage direct des spores par microscopie (CDSM), dosage de β-N-acétylhexosaminidase (NAHA), 18S-q-PCR. La limite de détection (LD), la réplicabilité, la répétabilité, le nombre de spores et le coefficient de corrélation (r) ont été déterminés. Les récupérations de poussières étaient supérieures à 84%. Selon la méthode analytique, les concentrations médianes de spores/100 cm² allaient de 10 000 à 815 000. Les LD variaient dépendamment de la méthode de 120 à 218 000 spores/100 cm² et r de -0,08 à 0,83. La réplicabilité et la répétabilité étaient de 1% et 1% pour PCR; 5% et 10% pour CDSM; 6% et 15% pour NAHA; 12% et 11% pour culture. La méthode de collecte a démontré une excellente efficacité de récupération. La PCR est la méthode analytique recommandée pour l’évaluation fongique des systèmes de ventilation. Une validation terrain est en cours.
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.