650 resultados para Restauration rapide
Development of new scenario decomposition techniques for linear and nonlinear stochastic programming
Resumo:
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.
Resumo:
Les anthracyclines, comme la doxorubicine (DOX) ou la daunorubicine (DNR), sont utilisées dans le traitement d’une grande variété de cancers allant des lymphomes, au cancer du sein, en passant par certaines leucémies. Encore aujourd’hui, beaucoup pensent que les anthracyclines entrent dans les cellules par diffusion passive, toutefois, la plupart de ces mêmes personnes sont d’accord pour dire que la p-glycoprotéine est responsable d’exporter ces molécules hors de la cellule. Mais pourquoi une molécule aurait besoin d’un transporteur pour sortir de la cellule, et pas pour y entrer ? Qu’est-ce qui ferait que la diffusion passive fonctionnerait dans un sens, mais pas dans l’autre, d’autant que l’entrée des anthracyclines dans les cellules est très rapide ? Nous pensons qu’il existe bel et bien un transporteur responsable de faire passer les anthracyclines du milieu extracellulaire au cytoplasme, et nous voulons développer un modèle de levure qui permettrait de déterminer si une protéine, un transporteur, issue d’un autre organisme eucaryote est en mesure de transporter la DOX à l’intérieur de la cellule. Pour ce faire, nous avons rassemblé un groupe de mutants présentant une déficience dans l’absorption d’autres molécules chargées positivement telles que la bléomycine ou le NaD1 et avons déterminé le taux d’absorption de DOX de chacun de ces mutants. Les simples mutants sam3Δ ou dur3Δ n’ont montré qu’une faible réduction de l’absorption de DOX, voire, aucune, par rapport à la souche parentale. Si le double mutant sam3Δdur3Δ a montré une réduction relativement importante de l’absorption de DOX, c’est le mutant agp2Δ qui présentait la plus grande réduction d’absorption de DOX, ainsi qu’une résistance notable à son effet létal. Nous avons utilisé, par la suite, ce mutant pour exprimer, à l’aide d’un vecteur d’expression, une protéine du ver Caenorhabditis elegans, OCT-1 (CeOCT-1). Les résultats ont montré que cette protéine était en mesure de restaurer l’absorption de DOX, compromise chez le mutant agp2Δ ainsi que d’augmenter la sensibilité de la souche parentale à son effet létal, lorsqu’exprimée chez celle-ci. Cela suggère que CeOCT-1 est un transporteur fonctionnel de DOX et contredit également le dogme selon lequel les anthracyclines entrent dans les cellules par diffusion passive.
Resumo:
Montréal parle de disposer d’un service rapide par bus depuis une dizaine années. En 2015, les travaux pour réaliser le premier tronçon du projet appelé le SRB Pie-IX commencent à peine. Comment justifier des délais de réalisation de plusieurs années alors que d’autres villes y arrivent en moins de 3 ans? Plusieurs élus et organismes de Montréal dénoncent une problématique de gouvernance du transport collectif. Seulement, il n’est pas évident de saisir la signification de ce concept si souvent invoqué pour justifier, entre autres, les difficultés de la métropole à faire naître des projets métropolitains de transport collectif. Certains évoquent la responsabilité du gouvernement, d’autres avancent la mauvaise répartition des rôles et responsabilités ou encore déplorent le trop grand nombre d’intervenants dans la région métropolitaine. La gouvernance est un concept à la fois flou et complexe qui cherche à établir la bonne conduite des affaires publiques comme celle de la gestion métropolitaine du transport collectif. Cependant, le système de transport collectif fait intervenir une multitude de parties prenantes aux intérêts contradictoires. La « bonne gouvernance » serait d’établir une collaboration fructueuse qui dépasse les limites institutionnalisées des intervenants pour réaliser des projets d’envergure métropolitaine, comme le SRB Pie-IX.
Resumo:
La présente étude avait pour objectif de contribuer à une meilleure compréhension de la granulation des bois feuillus par l’évaluation de la possibilité technique de transformer des bois feuillus de faible vigueur (l’érable à sucre et le bouleau jaune) en granules conventionnels et granules de haute qualité, un type prometteur de transport énergétique. Trois études individuelles ont été réalisées et présentées dans cette thèse. La première étude visait à déterminer s’il y a des changements de teneur en extractibles, cendres, et lignine du bois entre les classes de vigueur des arbres. Les teneurs plus élevées en extractibles et en lignine dans les arbres peu vigoureux ont suggéré que ces derniers sont plus appropriés par rapport aux arbres vigoureux pour la conversion en biocombustibles solides. La deuxième étude visait à optimiser des procédés de granulation des bois feuillus. L’étude a porté sur l’influence des paramètres du procédé (la température et la force de compression) et des caractéristiques de la matière première (la taille des particules et la teneur en humidité) sur les propriétés physiques et mécaniques des granules de bois. Le procédé de granulation doit être effectué à une température d’environ 100 °C pour minimiser la force de friction dans le granulateur et à une teneur en humidité d’environ 11,2% pour maximiser la masse volumique et la résistance mécanique des granules produites. Cette étude a également confirmé que les arbres de faible qualité sont plus appropriés pour la fabrication de granules de bois que les arbres vigoureux. La troisième étude visait l’élaboration de granules de haute qualité. L’eau chaude à température élevée a été utilisée pour modifier les propriétés de la matière première avant granulation. Les caractéristiques de granulation du matériau traité ont été significativement améliorées. Les granules produites ont montré des propriétés améliorées incluant une plus faible teneur en cendres, une plus haute densité énergétique, une meilleure résistance à l’eau, et une meilleure résistance mécanique. Les résultats obtenus de toutes ces études ont démontré la nécessité de bien connaître les fondements de la granulation des bois feuillus et les solutions pratiques pour l’utilisation d’arbres feuillus de faible qualité, le premier peut être applicable pour le développement de procédés de granulation et le dernier peut contribuer à long terme à la restauration des forêts feuillues dégradées en termes de santé des forêts et de leur valeur.
Resumo:
Dans les années 1931-32, les disputes à propos du traité de Versailles accompagnent la montée du fascisme et de la Grande Dépression en Allemagne. Les dirigeants anglosaxons ont justifié leur appui du Reich par leurs opinions publiques et des historiens ont expliqué que ces dernières s’étaient bercées d’illusions sur les enjeux allemands. Mais quelles étaient et d’où provenaient-elles ? Notre étude de quotidiens français, américains et britanniques montre qu’elles n’étaient pas uniquement constituées d’erreurs d’appréciation des réalités objectives, mais aussi de faits occultés, d’inventions, d’une guerre médiatique justifiant les choix de certains dirigeants financiers et politiques anglo-saxons. La diffusion rapide des mêmes inventions des deux côtés de l’Atlantique suggère l’existence de canaux de « fabrique d’opinions » entre l’Allemagne, la Grande-Bretagne, et les États-Unis.
Resumo:
Les techniques des directions d’arrivée (DOA) sont une voie prometteuse pour accroitre la capacité des systèmes et les services de télécommunications en permettant de mieux estimer le canal radio-mobile. Elles permettent aussi de suivre précisément des usagers cellulaires pour orienter les faisceaux d’antennes dans leur direction. S’inscrivant dans ce contexte, ce présent mémoire décrit étape par étape l’implémentation de l’algorithme de haut niveau MUSIC (MUltiple SIgnal Classification) sur une plateforme FPGA afin de déterminer en temps réel l’angle d’arrivée d’une ou des sources incidentes à un réseau d’antennes. Le concept du prototypage rapide des lois de commande (RCP) avec les outils de XilinxTM System generator (XSG) et du MBDK (Model Based Design Kit) de NutaqTM est le concept de développement utilisé. Ce concept se base sur une programmation de code haut niveau à travers des modèles, pour générer automatiquement un code de bas niveau. Une attention particulière est portée sur la méthode choisie pour résoudre le problème de la décomposition en valeurs et vecteurs propres de la matrice complexe de covariance par l’algorithme de Jacobi. L’architecture mise en place implémentant cette dernière dans le FPGA (Field Programmable Gate Array) est détaillée. Par ailleurs, il est prouvé que MUSIC ne peut effectuer une estimation intéressante de la position des sources sans une calibration préalable du réseau d’antennes. Ainsi, la technique de calibration par matrice G utilisée dans ce projet est présentée, en plus de son modèle d’implémentation. Enfin, les résultats expérimentaux du système mis à l’épreuve dans un environnement réel en présence d’une source puis de deux sources fortement corrélées sont illustrés et analysés.
Resumo:
Poussée par une croissance économique rapide ces trente dernières années, la demande chinoise en matières premières a considérablement augmenté au cours de cette période. Premier importateur mondial de nombreux minerais depuis le début du XXIe siècle, la Chine, qui n’est pas un État côtier de l’Arctique, semble attentive au potentiel économique de la région, et notamment en ce qui a trait à l’exploitation des gisements miniers. Avec l’ouverture relative des accès maritimes à travers les passages arctiques, les entreprises chinoises seraient en mesure d’effectuer des économies sur les coûts de transport et pourraient plus aisément accéder aux gisements miniers du Groenland et de l’Arctique canadien. La montée en puissance de l’économie chinoise, qui s’est concrétisée depuis le début du siècle, son affirmation politique sur la scène mondiale, et sa diplomatie des ressources perçue comme agressive a contribué à développer une perception négative de la Chine au sein des opinions publiques canadiennes, danoises, groenlandaises, et islandaises. Dans un contexte de débats et d’inquiétudes sur les questions de souveraineté dans l’Arctique, les presses canadiennes, groenlandaises et danoises ont contribué à construire, dans leurs opinions publiques respectives ces dernières années, une certaine sinophobie face aux investissements directs à l’étranger chinois, qui débutent réellement en 2005. Par exemple, un sondage mené en 2015 par l’Asia Pacific Foundation of Canada faisait ressortir que près de 76% de la population canadienne était hostile à l’acquisition d’entreprises canadiennes par des entreprises chinoises, tous secteurs confondus. Au Groenland, la perspective d’opérations minières dirigées par des entreprises chinoises a provoqué l’ire des médias danois et groenlandais. Alors que certains dénoncent une stratégie géopolitique chinoise plus large dans cette région du monde, d’autres mettent l’accent sur les implications de la venue de nombreux travailleurs chinois, de même que sur les questions d’une Chine cherchant à assurer un accès à long terme aux ressources de la région, prétextant que le Groenland serait une région d’investissement majeur pour les entreprises chinoises. La Chine, par l’entremise de ses entreprises, chercherait-elle à faire main basse sur les ressources minières de l’Arctique ? L’Arctique canadien, le Groenland et le Grand Nord québécois sont-ils des territoires d’investissements majeurs pour les entreprises chinoises ? Comment les facteurs qui déterminent les choix des entreprises chinoises se sont-ils traduits dans l’Arctique ? Dans le cadre de cette recherche, trente-six entreprises et organes du gouvernement ont été consultés. Les résultats de l’enquête soulignent que ces territoires ne sont pas des régions où les entreprises chinoises investissent d’importantes sommes, mais demeurent attractifs en raison de la stabilité politique et du climat compétitif des affaires qui y règnent, ainsi que pour la qualité des ressources physiques qu’on y retrouve. Cependant, les acteurs chinois soulignent d’importants défis tels que le déficit en matière d’infrastructures maritimes et de communication dans l’Arctique, le manque d’informations sur les opportunités d’affaires, c’est le cas des projets disponibles au Groenland notamment, et les acteurs chinois soulignent également leur manque d’expérience à l’international, de même que le coût et la disponibilité de la main-d’oeuvre comme des défis importants pour les entreprises chinoises. En somme, les investissements des entreprises chinoises dans des projets miniers dans l’Arctique canadien et au Groenland s’insèrent, certes, dans les stratégies globales des entreprises chinoises qui visent à diversifier et sécuriser leurs sources d’approvisionnements. En revanche, s’il apparaît que les territoires arctiques ne sont pas des régions d’investissements majeurs pour les entreprises chinoises dans le secteur extractif, les acteurs chinois sondés raisonnent, de manière générale, selon une logique de marché et recherchent donc, pour la plupart, à assurer la rentabilité de leur entreprise par la réalisation de gains. Outre les fluctuations des prix des matières premières sur les marchés mondiaux qui affectent grandement les opérations minières globales, de nombreux facteurs dans l’Arctique tels que l’éloignement, les conditions météorologiques extrêmes, et le manque d’infrastructures augmentent considérablement le coût de faire des affaires dans le secteur minier dans l’Arctique, qui demeure un marché niche.
Resumo:
Résumé : Les transferts d’électrons photo-induits et d’énergie jouent un rôle primordial dans un grand nombre de processus photochimiques et photobiologiques, comme la respiration ou la photosynthèse. Une très grande quantité de systèmes à liaisons covalentes ont été conçus pour copier ces processus de transferts. Cependant, les progrès sont, en grande partie, limités par les difficultés rencontrées dans la synthèse de nouveaux couples de types donneurs-accepteurs. Récemment, des espèces utilisant des liaisons non-covalentes, comme les liaisons hydrogènes, les interactions [pi]-[pi], les liaisons de coordination métal-ligands ou encore les interactions électrostatiques sont le centre d’un nouvel intérêt du fait qu’ils soient plus faciles à synthétiser et à gérer pour obtenir des comportements de transferts d’électrons ou d’énergie plus flexibles et sélectifs. C’est dans cette optique que le travail de cette thèse a été mené, i.e. de concevoir des composés auto-assemblés avec des porphyrines et un cluster de palladium pour l’étude des transferts d’électrons photo-induits et d’énergie. Cette thèse se divise en quatre parties principales. Dans la première section, le chapitre 3, deux colorants porphyriniques, soit le 5-(4-carboxylphényl)-10, 15, 20-tristolyl(porphyrinato)zinc(II) (MCP, avec Na+ comme contre-ion) et 5, 15-bis(4-carboxylphényl)-15, 20-bistolyl(porphyrinato)zinc(II) (DCP, avec Na+ comme contre-ion) ont été utilisés comme donneurs d’électrons, et le [Pd3(dppm)3(CO)]2+ ([Pd32+], dppm = (Ph2P)2CH2, PF6‾ est le contre-ion) a été choisi comme accepteur d’électrons. La structure de l’assemblage [Pd32+]•••porphyrine a été élucidée par l’optimisation des géométries à l’aide de calculs DFT. La spectroscopie d’absorption transitoire (TAS) montre la vitesse de transferts d’électrons la plus rapide (< 85 fs, temps inférieurs à la limite de détection) jamais enregistrée pour ce type de système (porphyrine-accepteur auto-assemblés). Généralement, ces processus sont de l’ordre de l’échelle de la ps-ns. Cette vitesse est comparable aux plus rapides transferts d’électrons rapportés dans le cas de systèmes covalents de type porphyrine-accepteur rapide (< 85 fs, temps inférieurs à la limite de détection). Ce transfert d’électrons ultra-rapide (ket > 1.2 × 1013 s-1) se produit à l’état énergétique S1 des colorants dans une structure liée directement par des interactions ioniques, ce qui indique qu’il n’est pas nécessaire d’avoir de forts liens ou une géométrie courbée entre le donneur et l’accepteur. Dans une deuxième section, au chapitre 4, nous avons étudié en profondeur l’effet de l’utilisation de porphyrines à systèmes π-étendus sur le comportement des transferts d’électrons. Le colorant 9, 18, 27, 36-tétrakis-meso-(4-carboxyphényl)tétrabenzoporphyrinatozinc(II) (TCPBP, avec Na+ comme contre-ion) a été sélectionné comme candidat, et le 5, 10, 15, 20-tétrakis-meso-(4-carboxyphényl)porphyrineatozinc(II) (TCPP, avec Na+ comme contre-ion) a aussi été utilisé à des fins de comparaisons. TCPBP et TCPP ont, tous deux, été utilisés comme donneurs d’électrons pour fabriquer des assemblages supramoléculaires avec le cluster [Pd32+] comme accepteur d’électrons. Les calculs DFT ont été réalisés pour expliquer les structures de ces assemblages. Dans les conditions expérimentales, ces assemblages sont composés principalement d’une porphyrine avec 4 équivalents de clusters. Ces systèmes ont aussi été investigués par des mesures de quenching (perte de luminescence), par électrochimie et par d’autres techniques. Les transferts d’électrons (< 85 fs; temps inférieurs à la limite de détection) étaient aussi observés, de façon similaire aux assemblages MCP•••[Pd32+] et [Pd32+]•••DCP•••[Pd32+]. Les résultats nous indiquent que la modification de la structure de la porphyrine vers la tétrabenzoporphyrine ne semble pas influencer le comportement des cinétiques de transferts d’électrons (aller ou retour). Dans la troisième section, le chapitre 5, nous avons synthétisé la porphyrine hautement [pi]-conjuguée: 9, 18, 27, 36-tétra-(4-carboxyphényléthynyl)tétrabenzoporphyrinatozinc(II) (TCPEBP, avec Na+ comme contre-ion) par des fonctionnalisations en positions meso- et β, β-, qui présente un déplacement vers le rouge de la bande de Soret et des bandes Q. TCPEBP était utilisé comme donneur d’électrons pour fabriquer des motifs supramoléculaires avec le [Pd32+] comme accepteur d’électrons. Des expériences en parallèle ont été menées en utilisant la 5, 10, 15, 20-tétra-(4-carboxyphényl)éthynylporphyrinatozinc(II) (TCPEP, avec Na+ comme contre-ion). Des calculs DFT et TDDFT ont été réalisés pour de nouveau déterminer de façon théorique les structures de ces systèmes. Les constantes d’association pour les assemblages TCPEBP•••[Pd32+]x sont les plus élevées parmi tous les assemblages entre des porphyrines et le cluster de palladium rencontrés dans la littérature. La TAS a montré, encore une fois, des processus de transferts d’électrons dans des échelles de l’ordre de 75-110 fs. Cependant, les transferts de retour d’électrons sont aussi très rapides (< 1 ps), ce qui est un obstacle potentiel pour des applications en cellules solaires à pigment photosensible (DSSCs). Dans la quatrième section, le chapitre 6, les transferts d’énergie triplets (TET) ont été étudiés pour les assemblages MCP•••[Pd32+] et [Pd32+]•••DCP•••[Pd32+]. Les analyses spectrales des états transitoires dans l’échelle de temps de la ns-[mu]s démontrent de façon évidente les TETs; ceux-ci présentent des transferts d’énergie lents et/ou des vitesses moyennes pour des transferts d’énergie T1-T1 (3dye*•••[Pd32+] → dye•••3[Pd32+]*) opérant à travers exclusivement le mécanisme de Förster avec des valeurs de kET autour de ~ 1 × 105 s-1 selon les mesures d’absorption transitoires à 298 K. Des forces motrices non-favorables rendent ces types de processus non-opérants ou très lents dans les états T1. L’état T1 de [Pd32+] (~8190 cm-1) a été qualitativement déterminé par DFT et par la mise en évidence de l’émission S0 ← Tn retardée à 680-700 nm provenant de l’annihilation T1-T1, ce qui fait que ce cluster peut potentiellement agir comme un donneur à partir de ses états Tn, et accepteur à partir de T1 à l’intérieur de ces assemblages. Des pertes d’intensités de types statiques pour la phosphorescence dans le proche-IR sont observées à 785 nm. Ce travail démontre une efficacité modérée des colorants à base de porphyrines pour être impliquée dans des TETs avec des fragments organométalliques, et ce, même attachées grâce à des interactions ioniques. En conclusion, les assemblages ioniques à base de porphyrines et de clusters de palladium présentent des propriétés de transferts d’électrons S1 ultra-rapides, et des transferts d’énergie T1 de vitesses modérées, ce qui est utile pour de possibles applications comme outils optoélectroniques. D’autres études, plus en profondeur, sont présentement en progrès.
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.
Resumo:
L’arbënishtë est une variété d’albanais traditionnellement parlée dans le quartier d’Arbanasi de la ville de Zadar (Croatie), exposée a la rupture de la transmission générationnelle et a un déclin rapide. Dans cette contribution, nous abordons l’étude de la communauté arbënishtë du point de vue des représentations sociales par les locuteurs de l’arbënishtë, par les adolescents non-locuteurs se disant Arbënishtës et par les non-locuteurs étudiants de l’Université de Zadar. Les différences entre les trois groupes renvoient a une construction discursive de l’identité arbënishtë, a la perception du statut de la langue, ainsi qu’a une relation changeante entre les deux.
Resumo:
La ventilation liquidienne totale (VLT) consiste à remplir les poumons d'un liquide perfluorocarbone (PFC). Un respirateur liquidien assure la ventilation par un renouvellement cyclique de volume courant de PFC oxygéné et à température contrôlée. Ayant une capacité thermique volumique 1665 fois plus élevée que l'air, le poumon rempli de PFC devient un échangeur de chaleur performant avec la circulation pulmonaire. La température du PFC inspiré permet ainsi de contrôler la température artérielle, et par le fait même, le refroidissement des organes et des tissus. Des résultats récents d'expérimentations animales sur petits animaux ont démontré que le refroidissement ultra-rapide par VLT hypothermisante (VLTh) avait d'importants effets neuroprotecteurs et cardioprotecteurs. Induire rapidement et efficacement une hypothermie chez un patient par VLTh est une technique émergente qui suscite de grands espoirs thérapeutiques. Par contre, aucun dispositif approuvé pour la clinique n'est disponible et aucun résultat de VLTh sur humain n'est encore disponible. Le problème se situe dans le fait de contrôler la température du PFC inspiré de façon optimale pour induire une hypothermie chez l'humain tout en s'assurant que la température cardiaque reste supérieure à 30 °C pour éviter tout risque d'arythmie. Cette thèse présente le développement d'un modèle thermique paramétrique d'un sujet en VLTh complètement lié à la physiologie. Aux fins de validation du modèle sur des ovins pédiatriques et adultes, le prototype de respirateur liquidien Inolivent pour nouveau-né a dû être reconçu et adapté pour ventiler de plus gros animaux. Pour arriver à contrôler de façon optimale la température du PFC inspiré, un algorithme de commande optimale sous-contraintes a été développé. Après la validation du modèle thermique du nouveau-né à l'adulte par expérimentations animales, celui-ci a été projeté à l'humain. Afin de réduire le temps de calcul, un passage du modèle thermique en temps continu vers un modèle discret cycle-par-cycle a été effectué. À l'aide de la commande optimale et du développement numérique d'un profil de ventilation liquidienne chez des patients humains, des simulations d'induction d'hypothermie par VLTh ont pu être réalisées. La validation expérimentale du modèle thermique sur ovins nouveau-nés (5 kg), juvéniles (22 kg) et adultes (61 kg) a montré que celui-ci permettait de prédire les températures artérielles systémiques, du retour veineux et rectales. La projection à l'humain a permis de démontrer qu'il est possible de contrôler la température du PFC de façon optimale en boucle ouverte si le débit cardiaque et le volume mort thermique sont connus. S'ils ne peuvent être mesurés, la commande optimale pour le pire cas peut être calculée rendant l'induction d'hypothermie par VLTh sécuritaire pour tous les patients, mais diminuant quelque peu les vitesses de refroidissement.
Resumo:
Résumé : Les patients diabétiques ont plus de risques d’être amputés d’une jambe en raison d’une plus faible néovascularisation suite à une ischémie. Nous avons montré une association entre une plus faible réponse angiogénique du VEGF chez les souris diabétiques (DM) et une augmentation de l’expression de SHP-1, pouvant être activée par les récepteurs (AT[indice inférieur 1]/AT[indice inférieur 2]). La délétion du récepteur AT[indice inférieur 2] chez des souris favorise l’angiogenèse dans le muscle ischémique, mais son rôle en condition diabétique demeure inconnu. Notre objectif est de vérifier si la délétion du récepteur AT[indice inférieur 2] chez des souris DM favorise l’angiogenèse suivant l’induction d’une ischémie. Des souris DM de type 1 déficientes (KO) ou non pour le récepteur AT[indice inférieur 2] ont été utilisées. L’ischémie a été induite par la ligature de l'artère fémorale. La perfusion sanguine a été mesurée pendant 2 ou 4 semaines avant la récolte des tissus. Les effets de l’ischémie sur l’expression des récepteurs AT[indice inférieur 1] et AT[indice inférieur 2], des phosphatases SHP-1, SHP-2 et PTP1B, ainsi que l’état de la voie de signalisation du VEGF ont été mesurés. Un essai phosphatase a aussi été effectué suite à l’immunoprécipitation de SHP-1 chez des BAECs stimulés au CGP42112A. Quatre semaines après la chirurgie, le flot sanguin dans le muscle ischémique des souris DM AT[indice inférieur 2]KO s’est rétabli plus rapidement (80%) comparativement à une récupération de 47% chez les souris DM contrôles. L’expression des facteurs pro-angiogéniques (HIF-1α et VEGF) était similaire dans tous les groupes après 2 semaines d’ischémie, mais diminuée chez les DM et retournait à un niveau basal chez les DM-AT[indice inférieur 2]KO après 4 semaines, suggérant un reperfusion plus rapide chez ces souris. La phosphorylation de Akt était aussi plus faible chez les souris DM contrôles mais était rétablie chez les souris AT[indice inférieur 2]KO après 4 semaines d’ischémie. L'expression de SHP-1 était doublée dans le muscle ischémique des souris DM, en comparaison aux souris non DM, un effet absent chez les souris DM AT[indice inférieur 2]KO. L’expression de SHP-2 et PTP1B ne variait pas chez les souris DM sauvages et AT[indice inférieur 2]KO. De plus, l’expression des récepteurs AT[indice inférieur 1] et AT[indice inférieur 2] est augmentée chez les souris DM sauvages en comparaison aux souris NDM. La stimulation du récepteur AT[indice inférieur 2] chez les BAECs a permis d’augmenter l’activité phosphatase de SHP-1. Nos résultats suggèrent que l’expression élevée d’AT[indice inférieur 2] chez les souris DM mène à la surexpression et/ou l’activation de SHP-1, inhibant le signal angiogénique issu du VEGF et empêchant la reperfusion sanguine suite à l’ischémie.
Resumo:
Avec son plan métropolitain d’aménagement et de développement, la communauté métropolitaine de Montréal met de l’avant plusieurs orientations visant la sphère environnementale. Parmi les objectifs formulés, on retrouve la mise en valeur des atouts naturels de la région et la protection de 17 % du territoire, ce qui n’est pas étonnant sachant les nombreux avantages reliés à la présence des milieux naturels sur un territoire urbanisé. Les aires protégées sont en effet essentielles au maintien de la biodiversité et des services écosystémiques associés au bien-être humain. Toutefois, les analyses géostatistiques réalisées indiquent que peu de municipalités de la région respectent les orientations mises de l’avant par la communauté et que la plupart des bassins versants n’ont pas un niveau adéquat de protection. Les statistiques présentées par la communauté métropolitaine de Montréal (9,6 % d’aires protégées) sont certes acceptables à première vue si l’on considère l’état de la situation au Québec (9,33 %) et dans la zone sud de la province (4,8 %), mais une étude plus approfondie démontre que la majeure partie des territoires protégés sont en milieu aquatique (77 %) et la présence d’importantes zones de carences en aires protégées au nord-est et au sud-ouest. En ce qui concerne les aspects sociaux et économiques, la localisation actuelle des aires protégées crée des iniquités en matière d’accès à la nature (33 % des municipalités ont une portion de leur territoire à plus de 5 km de tout espace protégé), et les municipalités qui font des efforts en termes de conservation ne sont pas nécessairement celles qui en retirent les bénéfices sur le plan de la richesse foncière. Compte tenu de la complexité inhérente à la mise en oeuvre des objectifs du plan métropolitain dans le contexte régional, diverses pistes de solutions peuvent être envisagées pour le développement du réseau d’aires protégées. De meilleures politiques d’aménagement du territoire et un cadre législatif adéquat semblent indispensables afin de mettre un frein à la destruction des milieux naturels, d’encourager la connexion entre les noyaux de biodiversité et d’inciter la restauration des milieux perturbés. Des règles qui tiennent compte des particularités régionales doivent aussi être mises en place afin de promouvoir le partage des coûts et bénéfices de la conservation. Il faudra faire valoir les bénéfices des aires protégées auprès du public, car la simple protection des territoires ne sera pas suffisante à la saine gestion des écosystèmes et l’implication des acteurs concernés sera absolument nécessaire sachant les multiples menaces qui guettent les milieux naturels.
Resumo:
Résumé : Le carcinome hépatocellulaire (HCC) est la troisième cause commune de décès de cancer et affecte plus les hommes que les femmes. Le HCC résulte d’une dérégulation des voies de signalisation impliquées dans l’initiation de l’inflammation menant ainsi à des répercussions désastreuses. De part la complexité de ce type de cancer, les traitements qui existent à ce jour ne sont pas très prometteurs et ont un faible pourcentage de « rémission ». L’immunothérapie soulève beaucoup d’espoir quant à l’orientation vers un traitement efficace plausible. En effet, plusieurs suppresseurs de tumeur se retrouvent réprimés, parmi lesquels le SOCS1. C’est dans cette optique que nos recherches se sont orientées en mettant la lumière sur le SOCS1 «suppresseur de signalisation des cytokines 1 (SOCS1) » qui est réprimé au niveau du HCC et dont la restauration pourrait contribuer à un pronostic favorable à la rémission. La protéine SOCS1 a beaucoup attisé la curiosité des chercheurs de part son rôle suppresseur de tumeur. Pour comprendre les mécanismes d’action de SOCS1 et son implication dans la neutralisation de la tumeur, nous avons généré trois types stables de la lignée cellulaire du carcinome hépatocellulaire de souris Hepa1-6, une portant un vecteur vide, l’autre exprimant le type sauvage du gène SOCS1 (SOCS1-WT; Hepa-S) et une portant une mutation au niveau du domaine SH2 (SOCS1-R105K; Hepa-R). Le mutant ne peut plus inhiber la signalisation des cytokines. Lors de l'implantation sous-cutanée des cellules Hepa1-6 modifiées, chez des souris C57BL/6 et NOD.scid.gamma (NSG). Nous avons observé que les cellules Hepa1-6 exprimant le vecteur de contrôle (Hepa-V) formaient de grosses tumeurs tandis que les cellules Hepa-S formaient de petites tumeurs chez les deux types de souris. Les cellules Hepa-R quant à elles, formaient de grosses tumeurs seulement chez des souris immunodéficientes (NSG) mais montraient une croissance nettement retardée lorsqu’elles étaient greffées aux souris (C57BL/6) immunocompétentes. Partant de ce constat intrigant, nous avons postulé que SOCS1 favorise l'immunogénicité des cellules tumorales par son domaine SOCS Box. Par conséquent, les cellules Hepa-R offrent une occasion unique de démêler le potentiel pro-immunogène de SOCS1, et ceci dans le but d'élucider les fonctions immunogènes de SOCS1 dans le cancer du foie. Jusqu'à présent aucune précédente recherche ne s’est aventurée à chercher l’implication de SOCS1 dans l’augmentation de l’immunogénicité.
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.