10 resultados para localisation

em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Des sites de visionnement de contenu audio-vidéo en temps-réel comme YouTube sont devenus très populaires. Le téléchargement des fichiers audio/vidéo consomme une quantité importante de bande passante des réseaux Internet. L’utilisation de codecs à bas débit permet de compresser la taille des fichiers transmis afin de consommer moins de bande passante. La conséquence est une diminution de la qualité de ce qui est transmis. Une diminution de qualité mène à l’apparition de défauts perceptibles dans les fichiers. Ces défauts sont appelés des artifices de compression. L’utilisation d’un algorithme de post-traitement sur les fichiers sonores pourrait augmenter la qualité perçue de la musique transmise en corrigeant certains artifices à la réception, sans toutefois consommer davantage de bande passante. Pour rehausser la qualité subjective des fichiers sonores, il est d’abord nécessaire de déterminer quelles caractéristiques dégradent la qualité perceptuelle. Le présent projet a donc pour objectif le développement d’un algorithme capable de localiser et de corriger de façon non intrusive, un artifice provoqué par des discontinuités et des incohérences au niveau des harmoniques qui dégrade la qualité objective dans les signaux sonores compressés à bas débits (8 – 12 kilobits par seconde).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude, de type métalexicographique, s'insère dans une perspective de recherche visant à dresser le bilan de la pratique lexicographique réservée aux noms d'espèces naturelles dans les dictionnaires usuels du français. Elle porte sur le traitement définitoire de tous les noms de plantes herbacées répertoriés dans le Petit Robert (édition électronique 1996). Son objectif principal est de décrire très précisément la pratique définitoire en cause. Nous commençons par passer rapidement en revue les différents procédés définitoires illustrés par notre corpus, avant de procéder à l'analyse détaillée du procédé le plus exploité, celui de la définition par inclusion. Notre méthode d'analyse est basée sur la segmentation et l'examen comparatif des différentes composantes sémantiques et formelles présentes dans les définitions par inclusion de notre corpus. Elle permet non seulement de mieux connaître la pratique du Petit Robert , mais aussi d'en extraire un certain savoir-faire. Nous étudions quatre grandes catégories d'éléments descriptifs bien représentées dans notre corpus: les éléments de classification, les éléments de localisation, les éléments de valorisation ainsi que les éléments de morphologie en lien avec ces derniers. Nous donnons, de la métalangue utilisée et des principaux modèles de description exploités, un portrait relativement précis qui pourra alimenter la réflexion des lexicographes et autres linguistes qui s'intéressent à la description des noms d'espèces naturelles en général et des noms de plantes en particulier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Ce mémoire de maîtrise est une étude des probabilités d’interactions (sections efficaces) des électrons de basse énergie avec une molécule d’intérêt biologique. Cette molécule est le tétrahydrofurane (THF) qui est un bon modèle de la molécule constituant la colonne vertébrale de l’ADN; le désoxyribose. Étant donné la grande quantité d’électrons secondaires libérés lors du passage des radiations à travers la matière biologique et sachant que ceux-ci déposent la majorité de l’énergie, l’étude de leurs interactions avec les molécules constituant l’ADN devient rapidement d’une grande importance. Les mesures de sections efficaces sont faites à l’aide d’un spectromètre à haute résolution de pertes d’énergie de l’électron. Les spectres de pertes d’énergie de l’électron obtenus de cet appareil permettent de calculer les valeurs de sections efficaces pour chaque vibration en fonction de l’énergie incidente de l’électron. L’article présenté dans ce mémoire traite de ces mesures et des résultats. En effet, il présente et explique en détail les conditions expérimentales, il décrit la méthode de déconvolution qui est utilisée pour obtenir les valeurs de sections efficaces et il présente et discute des 4 résonances observées dans la dépendance en énergie des sections efficaces. En effet, cette étude a permis de localiser en énergie 4 résonances et celles-ci ont toutes été confirmées par des recherches expérimentales et théoriques antérieures sur le sujet des collisions électrons lents-THF. En outre, jamais ces résonances n’avaient été observées simultanément dans une même étude et jamais la résonance trouvée à basse énergie n’avait été observée avec autant d’intensité que cette présente étude. Cette étude a donc permis de raffiner notre compréhension fondamentale des processus résonants impliqués lors de collisions d’électrons secondaires avec le THF. Les valeurs de sections efficaces sont, quant à elles, très prisées par les théoriciens et sont nécessaires pour les simulations Monte Carlo pour prédire, par exemple, le nombre d’ions formées après le passage des radiations. Ces valeurs pourront justement être utilisées dans les modèles de distribution et dépôt d’énergie au niveau nanoscopique dans les milieux biologiques et ceux-ci pourront éventuellement améliorer l’efficacité des modalités radiothérapeutiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ses champs de recherches ou d'application scientifiques, la géographie se situe au carrefour de nombreuses autres sciences. Tout au cours de son évolution, ce voisinage l'a amené à s'interroger sur le bien-fondé de ses propres assises scientifiques. Bénéficiant, d'une part, de l'apport de d'autres disciplines et donnant naissance, d'autre part, à des sciences autonomes (sociologie, géomorphologie), elle conserve son approche globale et ses applications concrètes. En respectant cette dualité, mon intérêt m'a porté à aborder à la fois la problématique liée aux programmes d'amélioration de quartier et leurs impacts sur les villes moyennes du Québec. Ces petites villes constituent un champ d'investigation encore peu explorée. Cette étude est d'autant plus pertinente que le département de géographie et le centre de recherche en aménagement régional de l'Université de Sherbrooke y ont trouvé leur vocation particulière. Le choix des villes repose sur deux (2) raisons: elles devaient faire l'objet d'un P.A.Q., posséder des caractéristiques particulières dues à son rôle et à sa localisation; six (6) centres urbaines ont été retenus sur cette base : Hull, ville administrative et pôle administratif dans la région de l'Outaouais ; St-Hyacinthe, ville satellite faisant partie des sept (7) villes de la couronne montréalaise ; Longueuil, ville banlieue en expansion accélérée ; Lachine, ville historique située sur l'Île de Montréal ; Sherbrooke, ville à caractère manufacturier et pôle régional dans l’Estrie ; Drummondville, ville à caractère manufacturier et pôle régional dans la région centre du Québec. Notre démarche est relativement simple. Afin de vérifier si les objectifs des P.A.Q. et les solutions véhiculées dans les programmes de même nature correspondent aux situations que nous aurons nous-mêmes observées, il nous faut analyser tout d'abord les caractéristiques physiques et socio-économiques des quartiers centraux, leur structure et leurs relations avec l'ensemble de leur agglomération respective. Cette description fera l'objet des premier et deuxième chapitres. Pour compléter cette analyse, nous croyons qu'il est nécessaire de composer une seule image avec l'ensemble de ces quartiers pour obtenir l'approche globale que nous désirons. Nous utiliserons l'analyse factorielle pour obtenir une définition de ces quartiers. Nous pourrons ainsi vérifier si elle est contenue dans problématique liée aux programmes de rénovation urbaine. Cette redéfinition constitue la démarche principale du troisième chapitre […].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une structure en béton armé est sujette à différents types de sollicitations. Les tremblements de terre font partie des événements exceptionnels qui induisent des sollicitations extrêmes aux ouvrages. Pour faire face à cette problématique, les codes de calcul des ponts routiers font appel à une approche basée sur des niveaux de performance qui sont rattachés à des états limites. Actuellement, les états limites d'une pile de ponts en béton armé (BA) confinée à l'aide de polymères renforcés de fibres de carbone (PRFC) proposés dans la littérature ne prennent pas en compte le confinement lié au chemisage de PRFC en combinaison avec celui des spirales d'acier. Ce projet de recherche était la suite du volet de contrôle non destructif d'une étude réalisée en 2012 qui comprenait un volet expérimental [Carvalho, 2012] et un volet numérique [Jean, 2012]. L'objectif principal était de compléter l'étude du comportement des poteaux en BA renforcés de PRFC soumis à un chargement cyclique avec les données acoustiques recueillies par St-Martin [2014]. Plus précisément, les objectifs spécifiques étaient de déterminer les états limites reliés aux niveaux de performance et de caractériser la signature acoustique de chaque état limite (p. ex. fissuration du béton, plastification de l'acier et rupture du PRFC). Une méthodologie d'analyse acoustique basée sur l'état de l'art de Behnia et al. [2014] a été utilisée pour quantifier la gravité, localiser et caractériser le type de dommages. Dans un premier temps, les données acoustiques provenant de poutres de 550 mm x 150 mm x 150 mm ont permis de caractériser la signature acoustique des états limites. Puis, des cinq spécimens d'essai construits en 2012, les données acoustiques de trois spécimens, soient des poteaux circulaires d'un diamètre de 305 mm et d'une hauteur de 2000 mm ont été utilisée pour déterminer les états limites. Lors de ces essais, les données acoustiques ont été recueillies avec 14 capteurs de résonances qui étaient reliés à un système multicanal et au logiciel AEwin SAMOS 5.23 de Physical Acoustics Corporation (PAC) [PAC, 2005] par St-Martin [2014]. Une analyse de la distribution des paramètres acoustiques (nbr. de comptes et énergie absolue) combiné à la localisation des événements et le regroupement statistique, communément appelé clustering, ont permis de déterminer les états limites et même, des signes précurseurs à l'atteinte de ces états limites (p. ex. l'initiation et la propagation des fissures, l'éclatement de l'enrobage, la fissuration parallèle aux fibres et l'éclatement du PRFC) qui sont rattachés aux niveaux de performances des poteaux conventionnels et confinés de PRFC. Cette étude a permis de caractériser la séquence d'endommagement d'un poteau en BA renforcé de PRFC tout en démontrant l'utilité de l'écoute acoustique pour évaluer l'endommagement interne des poteaux en temps réel. Ainsi, une meilleure connaissance des états limites est primordiale pour intégrer les PRFC dans la conception et la réhabilitation des ouvrages.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les inventaires archéologiques représentent une part importante des travaux archéologiques qui sont effectués en sol québécois. Il s’agit d’interventions qui sont réalisées en milieux urbains ou ruraux, mais également dans des milieux forestiers parfois éloignés. Lors de ces interventions, plusieurs informations de nature spatiale sont prises, tant pour évaluer la présence ou l’absence de vestiges archéologiques que pour décrire l’environnement et les perturbations observées. Les données issues de ces travaux sont de manière générale enregistrées sur le terrain sur des supports papiers, pour être éventuellement transférées en format numérique après l’intervention, et la localisation sur le terrain est effectuée à l’aide de cartes, de la boussole et d’un appareil GPS. Ce projet cherche à évaluer la contribution potentielle d’une solution géomatique mobile qui permettrait d’assister les archéologues sur le terrain, tant au niveau de la saisie de données que de la géolocalisation sur le terrain. Afin d’identifier l’intérêt, les attentes et les besoins prioritaires d’une telle solution, une enquête a été réalisée auprès de la communauté archéologique. Subséquemment, afin de démontrer qu’une solution géomatique mobile pourrait être développée afin de soutenir les travaux archéologiques, un appareil mobile adapté aux contraintes du terrain archéologique a été identifié et un prototype d’application a été développé, sur la base des résultats de l’enquête obtenus. Il nous a par la suite été possible de faire prendre en main la solution mobile développée par une archéologue et un essai en milieu contrôlé a pu être réalisé afin d’avoir une évaluation critique de l’application et de proposer des pistes d’amélioration. Les résultats obtenus indiquent que la technologie géomatique mobile est aujourd’hui suffisamment accessible pour pouvoir bien s’adapter aux réalités de terrain et ainsi venir répondre à certains besoins des professionnels de terrain tout en demeurant abordable. Malgré quelques pistes d’amélioration qui ont été identifiées, l’enthousiasme suscité par l’application développée démontre l’intérêt des utilisateurs à intégrer ces nouvelles technologies. La démarche de développement employée est également novatrice puisqu’elle permet de développer, en l’espace de quelques mois, une application adaptée à un contexte de terrain professionnel particulier, tout en demeurant grandement modulable et pouvant s’adapter à d’autres domaines d’application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec son plan métropolitain d’aménagement et de développement, la communauté métropolitaine de Montréal met de l’avant plusieurs orientations visant la sphère environnementale. Parmi les objectifs formulés, on retrouve la mise en valeur des atouts naturels de la région et la protection de 17 % du territoire, ce qui n’est pas étonnant sachant les nombreux avantages reliés à la présence des milieux naturels sur un territoire urbanisé. Les aires protégées sont en effet essentielles au maintien de la biodiversité et des services écosystémiques associés au bien-être humain. Toutefois, les analyses géostatistiques réalisées indiquent que peu de municipalités de la région respectent les orientations mises de l’avant par la communauté et que la plupart des bassins versants n’ont pas un niveau adéquat de protection. Les statistiques présentées par la communauté métropolitaine de Montréal (9,6 % d’aires protégées) sont certes acceptables à première vue si l’on considère l’état de la situation au Québec (9,33 %) et dans la zone sud de la province (4,8 %), mais une étude plus approfondie démontre que la majeure partie des territoires protégés sont en milieu aquatique (77 %) et la présence d’importantes zones de carences en aires protégées au nord-est et au sud-ouest. En ce qui concerne les aspects sociaux et économiques, la localisation actuelle des aires protégées crée des iniquités en matière d’accès à la nature (33 % des municipalités ont une portion de leur territoire à plus de 5 km de tout espace protégé), et les municipalités qui font des efforts en termes de conservation ne sont pas nécessairement celles qui en retirent les bénéfices sur le plan de la richesse foncière. Compte tenu de la complexité inhérente à la mise en oeuvre des objectifs du plan métropolitain dans le contexte régional, diverses pistes de solutions peuvent être envisagées pour le développement du réseau d’aires protégées. De meilleures politiques d’aménagement du territoire et un cadre législatif adéquat semblent indispensables afin de mettre un frein à la destruction des milieux naturels, d’encourager la connexion entre les noyaux de biodiversité et d’inciter la restauration des milieux perturbés. Des règles qui tiennent compte des particularités régionales doivent aussi être mises en place afin de promouvoir le partage des coûts et bénéfices de la conservation. Il faudra faire valoir les bénéfices des aires protégées auprès du public, car la simple protection des territoires ne sera pas suffisante à la saine gestion des écosystèmes et l’implication des acteurs concernés sera absolument nécessaire sachant les multiples menaces qui guettent les milieux naturels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La formation de métastases s’inscrit comme la finalité d’un processus darwinien dans lequel les cellules tumorales subissent des altérations génétiques et épigénétiques dans l’unique but de préserver un avantage prolifératif. L’environnement hypoxique, caractéristique des tumeurs solides, se révèle comme une pression de sélection et un facteur déterminant dans la progression tumorale. Face à l’hypoxie, une des adaptations majeures des cellules tumorales est le déséquilibre du pH cellulaire qui mène à la formation de métastases et à la résistance à la chimiothérapie. Cette thèse met en lumière de nouveaux liens moléculaires entre l’hypoxie et la régulation du pH dans des contextes d’invasion cellulaire et de chimiorésistance. Les échangeurs d’ions NHE1 et NHE6 sont au cœur de ces études où de nouveaux rôles dans la progression du cancer leur ont été attribués. Premièrement, nous avons observé l’influence de l’hypoxie sur la régulation de NHE1 par p90RSK et les conséquences fonctionnelles de cette interaction dans l’invasion cellulaire par les invadopodes. En conditions hypoxiques, NHE1 est activé par p90RSK résultant en une acidification extracellulaire. En modifiant le pH, NHE1 stimule la formation des invadopodes et la dégradation de la matrice extracellulaire. Ainsi, la phosphorylation de NHE1 par p90RSK en hypoxie apparaît comme un biomarqueur potentiel des cancers métastatiques. Peu étudié, le pH endosomal peut intervenir dans la chimiorésistance mais les mécanismes sont inconnus. Nous avons développé une méthode pour mesurer précisément le pH endosomal par microscopie. Ceci a permis d’illuminer un nouveau mécanisme de résistance induit par l’hypoxie et mettant en vedette l’échangeur NHE6. L’hypoxie favorise l’interaction de NHE6 avec RACK1 à la membrane plasmique empêchant la localisation endosomale de l’échangeur. Cette interaction mène à la séquestration de la doxorubicine dans des endosomes sur-acidifiés. Ces travaux mettent en évidence pour la première fois le rôle du pH endosomal et l’échangeur NHE6 comme des éléments centraux de la chimiorésistance induite par l’hypoxie. Cette thèse renforce donc l’idée voulant que les interactions entre les cellules tumorales et le microenvironnement hypoxique sont le « talon d’Achille » du cancer et la régulation du pH cellulaire est primordiale dans l’adaptation des cellules à l’hypoxie et l’instauration du phénotype malin du cancer. La découverte de nouveaux rôles pro-tumoraux pour NHE1 et NHE6 les placent à l’avant-plan pour le développement de stratégies thérapeutiques orientées contre la formation de métastases et la chimiorésistance.