149 resultados para Logiciels dédiés


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La bio-informatique est un champ pluridisciplinaire qui utilise la biologie, l’informatique, la physique et les mathématiques pour résoudre des problèmes posés par la biologie. L’une des thématiques de la bio-informatique est l’analyse des séquences génomiques et la prédiction de gènes d’ARN non codants. Les ARN non codants sont des molécules d’ARN qui sont transcrites mais pas traduites en protéine et qui ont une fonction dans la cellule. Trouver des gènes d’ARN non codants par des techniques de biochimie et de biologie moléculaire est assez difficile et relativement coûteux. Ainsi, la prédiction des gènes d’ARNnc par des méthodes bio-informatiques est un enjeu important. Cette recherche décrit un travail d’analyse informatique pour chercher des nouveaux ARNnc chez le pathogène Candida albicans et d’une validation expérimentale. Nous avons utilisé comme stratégie une analyse informatique combinant plusieurs logiciels d’identification d’ARNnc. Nous avons validé un sous-ensemble des prédictions informatiques avec une expérience de puces à ADN couvrant 1979 régions du génome. Grace à cette expérience nous avons identifié 62 nouveaux transcrits chez Candida albicans. Ce travail aussi permit le développement d’une méthode d’analyse pour des puces à ADN de type tiling array. Ce travail présente également une tentation d’améliorer de la prédiction d’ARNnc avec une méthode se basant sur la recherche de motifs d’ARN dans les séquences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'amélioration de la maitrise du français langue première chez les élèves du primaire au Québec dépend de plusieurs facteurs. L'enseignant peut jouer un rôle dans ce processus, sa formation universitaire lui fournissant les connaissances nécessaires afin d'encadrer le développement des compétences langagières de l'élève. Une de ces compétences joue un rôle privilégié dans l'utilisation et la maitrise de la langue, il s'agit de la compétence lexicale, la capacité à comprendre et à utiliser les unités du lexique, aussi bien à l'oral qu'à l'écrit. Afin d'encadrer le développement de la compétence lexicale en français langue première des élèves du primaire, les enseignants doivent eux-mêmes posséder un bon niveau de compétence lexicale, mais aussi détenir un certain nombre de connaissances sur le fonctionnement du lexique lui-même, c'est-à-dire des connaissances métalexicales. Le référentiel québécois de la profession enseignante (MEQ, 2001b) ne détaille pas les connaissances métalexicales que doit posséder l'enseignant pour mener les tâches associées à ses activités d'enseignement/apprentissage du lexique. En outre, la plupart des universités québécoises n'offrent pas de cours dédiés explicitement à la didactique du lexique. Pourtant, ce sont dans les cours de didactique que sont dispensées les connaissances théoriques et pratiques nécessaires au futur enseignant pour assumer les tâches de planification et de pilotage des activités d'apprentissage et d'évaluation des compétences des élèves. La relative absence de cours de didactique du lexique en formation initiale pourrait s'expliquer par le fait qu'il s'agit d'une discipline encore jeune dont les fondements théoriques et pratiques sont en cours de développement. Cette thèse en didactique du français langue première s’intéresse donc aux contenus linguistiques de référence de la didactique du lexique, ainsi qu’à la formation des maitres au primaire dans cette même discipline. Le travail de recherche effectué afin de tenter de remédier au problème soulevé a permis la réalisation de deux objectifs complémentaires. Le premier a consisté en la construction d’une ontologie des savoirs lexicologiques, qui permet de représenter à l’intérieur d’une hiérarchie de notions l’ensemble des connaissances disciplinaires de référence de la didactique du lexique. Cette représentation a ensuite été utilisée pour spécifier et structurer les contenus d’un module de cours en didactique du lexique visant le développement des connaissances métalexicales chez les futurs enseignants du primaire au Québec. L’ontologie et le module de cours produits ont été évalués et validés par des experts de chacun des domaines concernés. L’évaluation de l’ontologie a permis de vérifier la méthode de construction de celle-ci, ainsi que différents aspects relatifs à la structuration des concepts dans l’ontologie. L’évaluation du module de cours a quant à elle montré que les contenus de cours étaient pertinents, les méthodes pédagogiques employées appropriées et le matériel de cours développé bien conçu. Cela nous permet d'affirmer que le module de cours en didactique du lexique se présente comme un apport intéressant à la formation des futurs enseignants du primaire en français langue première au Québec. La recherche dans son ensemble présente enfin une contribution pertinente à la didactique du lexique, son caractère original résidant entre autres dans le fait d’avoir développé un mécanisme d’exploitation d’une base de connaissances (ontologie des savoirs lexicologiques) pour la conception didactique (module de cours en didactique du lexique).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eurybia et ses proches parents Oreostemma, Herrickia et Triniteurybia sont appelés le grade des eurybioïdes. Comprenant 31 espèces vivaces, ce grade appartient au clade Nord-américain de la tribu des Astereae. Les analyses moléculaires antérieures ont montré que ce groupe est à la fois paraphylétique aux Machaerantherinae et un groupe frère aux Symphyotrichinae. Les relations infragénériques partiellement résolues et faiblement supportées empêchent d’approfondir l'histoire évolutive des groupes et ce, particulièrement dans le genre principal Eurybia. Le but de cette étude est de reconstruire les relations phylogénétiques au sein des eurybioïdes autant par l'inclusion de toutes les espèces du grade que par l’utilisation de différents types de régions et de méthodes d'inférence phylogénétique. Cette étude présente des phylogénies basées sur l'ADN ribosomal nucléaire (ITS, ETS), de l'ADN chloroplastique (trnL-F, trnS-G, trnC-ycf6) et d’un locus du génome nucléaire à faible nombre de copie (CNGC4). Les données sont analysées séparément et combinées à l’aide des approches de parcimonie, bayesienne et de maximum de vraisemblance. Les données ADNnr n’ont pas permis de résoudre les relations entre les espèces polyploïdes des Eurybia. Les analyses combinées avec des loci d’ADNnr et d’ADNnr+cp ont donc été limitées à des diploïdes. Les analyses combinées ont montré une meilleure résolution et un meilleur support que les analyses séparées. La topologie de l’ADNnr+cp était la mieux résolue et supportée. La relation phylogénétique de genres appartenant au grade des eurybioïdes est comme suit : Oreostemma (Herrickia s.str. (Herrickia kingii (Eurybia (Triniteurybia - Machaerantherinae)))). Basé sur la topologie combinée de l’ADNnr+cp, nous avons effectué des analyses de biogéographie à l’aide des logiciels DIVA et LaGrange. Ces analyses ont révélé une première radiation des eurybioïdes dans l’Ouest de l’Amérique du Nord, suivi de deux migrations indépendantes dans l’Est de l’Amérique du Nord chez les Eurybia. Due au relatif manque de variabilité de l’ADNnr, l’ADNcp et CNGC4, où le triage de lignés incomplet était dominant, l'origine du grade est interprétée comme récente, possiblement du Pliocène. La diversification du groupe a été probablement favorisée par les glaciations Pléistocènes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les raves sont des événements festifs dédiés à la musique techno et à la danse qui se distinguent des autres lieux de rassemblement tels que les bars et les discothèques notamment par le fait qu’ils se déroulent toute la nuit dans un lieu aménagé pour l’occasion et qu’il n’y a généralement pas de vente d’alcool. La consommation de drogues de synthèse telles que l’ecstasy et les speeds y est toutefois largement répandue. La tenue de ces rassemblements pose une série de problèmes du point de vue des autorités policières, tels que la présence de trafiquants de drogues ainsi que la sécurité des lieux où se déroulent les raves. Dans le contexte particulier de ces événements, les pratiques de contrôle social sont soumises à un certain nombre d’ambiguïtés. Le but général de l’étude est de permettre une compréhension de la façon dont se déterminent et s’appliquent les règles qui visent à encadrer la tenue de ce type de rassemblements. Trois objectifs spécifiques sont poursuivis, soit 1) de comprendre comment on a tenté de réguler ce type d’événements à Montréal, 2) de comprendre comment les différents acteurs responsables de l’organisation et du bon déroulement des événements établissent une série de règles, aussi bien formelles qu’informelles, et négocient leur application dans le cadre de leur pratique, et 3) de comprendre comment ces acteurs identifient certaines situations comme constituant un problème et éventuellement, y réagissent. La principale méthode de recueil des données a consisté à réaliser des entretiens semi-dirigés avec des promoteurs d’événements rave, des agents de sécurité ainsi que d’autres personnes impliquées dans le milieu telles que policier, pompier, artistes de la scène rave et intervenants. L’observation participante lors d’événements rave fut utilisée comme méthode complémentaire. L’étude démontre comment le service de police s’est vu confronté avec les raves à un vide juridique et comment l’encadrement de ce type d’événements s’est plutôt exercé par le service de prévention des incendies. Les autorités ont également tenté d’encadrer le phénomène par des modifications à certaines règlementations, dont celles sur les permis d’alcool. L’étude démontre également de quelle manière et en fonction de quoi les différents acteurs du milieu négocient les règles en cours d’action dans un contexte où la frontière entre le licite et l’illicite est floue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements climatiques amènent des transformations profondes de l’environnement arctique. La diminution de l’étendue de la couverture de glace permet un accès facilité aux ressources naturelles et aux communautés nordiques. Au Canada, la région arctique est caractérisée par une géographie archipélagique et un réseau de transport rudimentaire. Le transport maritime est le mode privilégié pour l’acheminement du fret aux communautés et aux sites industriels de l’Arctique. La littérature scientifique présente des lacunes importantes au sujet de la navigation commerciale dans l’Arctique canadien. Peu d’études portent sur le trafic de ravitaillement en raison de son volume peu élevé et de la faible diversité des types de produits transportés, bien qu’il s’agisse d’une activité grandement significative pour les populations et l’économie du Nord. Cette recherche vise à combler cette lacune en dressant un portrait du transport maritime et de la performance des opérations portuaires dans l’Arctique canadien. L’étude est structurée en quatre parties. Une analyse du trafic et des échanges maritimes est d’abord réalisée sous trois échelles : internationale, nationale et intra-arctique. Ensuite, l’étude de la flotte et des routes fait ressortir la distribution géographique des transporteurs. Puis, la performance des ports est mesurée grâce à des indicateurs et un système de cotation. Finalement, une évaluation des opérations maritimes arctiques est menée par l’entremise d’informations récoltées lors d’entrevues avec les membres de l’industrie maritime, de conférences et de travail de terrain. Les sujets abordés concernent l’évolution de la desserte, les défis posés par la navigation en milieu arctique et le développement des ports du Nord canadien. Les résultats de l’étude mènent à la conclusion que le transport maritime dans l’Arctique est caractérisé par une croissance positive du volume acheminé et une implication profonde des transporteurs dédiés à la desserte nordique, mais des infrastructures portuaires et maritimes sous-développées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cadriciels et les bibliothèques sont indispensables aux systèmes logiciels d'aujourd'hui. Quand ils évoluent, il est souvent fastidieux et coûteux pour les développeurs de faire la mise à jour de leur code. Par conséquent, des approches ont été proposées pour aider les développeurs à migrer leur code. Généralement, ces approches ne peuvent identifier automatiquement les règles de modification une-remplacée-par-plusieurs méthodes et plusieurs-remplacées-par-une méthode. De plus, elles font souvent un compromis entre rappel et précision dans leur résultats en utilisant un ou plusieurs seuils expérimentaux. Nous présentons AURA (AUtomatic change Rule Assistant), une nouvelle approche hybride qui combine call dependency analysis et text similarity analysis pour surmonter ces limitations. Nous avons implanté AURA en Java et comparé ses résultats sur cinq cadriciels avec trois approches précédentes par Dagenais et Robillard, M. Kim et al., et Schäfer et al. Les résultats de cette comparaison montrent que, en moyenne, le rappel de AURA est 53,07% plus que celui des autre approches avec une précision similaire (0,10% en moins).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec l’accentuation du libéralisme, les entreprises multinationales ne cessent d’être de plus en plus présentes dans les États en développement, et certaines sont peu scrupuleuses du respect des normes environnementales. Par ailleurs, notons que la plupart de ces États ne disposent pas de mécanismes juridiques contraignant ces entreprises de répondre à d’éventuels crimes contre l’environnement qu’elles sont susceptibles de commettre sur leurs territoires. Or, en l’absence de telles dispositions, peu de sociétés se conforment aux politiques permettant d’internaliser les risques en raison de leur coût élevé. La volonté de maximiser le profit amène ces entreprises à se livrer à des actes attentatoires à l’environnement, à la santé et à la sécurité des individus lorsque rien ne les contraint à procéder autrement. De façon générale, il appartient à l’État sur le territoire duquel opère une société de réglementer ses activités. Précisons que dans plusieurs États en développement, les entreprises multinationales échappent aux mesures contraignantes en vertu de l’influence financière qu’elles exercent sur les dirigeants de ces États. De même, l’impunité des crimes contre l’environnement commis dans les pays en développement découle aussi du manque de volonté politique accentué par le phénomène de la corruption. Malgré la multiplicité de traités et de conventions internationales dédiés à la protection de l'environnement, ces instruments ne sont pas directement applicables aux sociétés multinationales, considérées comme des acteurs non-étatiques. Alors, les pays développés d’où proviennent la majeure partie des entreprises multinationales sont appelés à combler cette lacune en prenant des mesures qui obligent leurs entreprises à se préoccuper de la préservation de l’environnement dans leurs activités. Cette thèse propose d’examiner les mécanismes juridiques par lesquels les crimes contre l’environnement survenus dans les pays en développement peuvent entraîner des poursuites pénales au Canada. En l’absence de législation ayant une portée extraterritoriale explicite en la matière, cela exige de se référer au droit existant et de proposer une nouvelle approche d’interprétation et d’adaptation tenant compte des récents développements envisageant la protection de l’environnement comme une valeur fondamentale pour la société canadienne. De nos jours, la portée de la protection de l’environnement au Canada requiert l’abandon des anciennes conceptions du principe de la territorialité pour adopter une autre approche plus soucieuse des nouvelles réalités entraînées par la mondialisation économique. Il serait donc légitime pour le Canada d’étendre sa compétence pour réprimer les crimes contre l’environnement survenus à l’étranger lors des activités menées par ses ressortissants. La nécessité de réprimer les atteintes à l’environnement survenues à l’étranger devient plus pressante lorsque ces crimes présentent un degré de gravité comparable à celui des crimes internationaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer de la prostate est le cancer le plus fréquemment diagnostiqué chez les hommes canadiens et la troisième cause de décès relié au cancer. Lorsque diagnostiqué à un stade précoce de la maladie, le cancer de la prostate est traité de manière curative par chirurgie et radiothérapie. Par contre, les thérapies actuelles ne peuvent éradiquer la maladie lorsqu’elle progresse à des stades avancés. Ces thérapies, comme la chimiothérapie et l’hormonothérapie, demeurent donc palliatives. Il est primordial d’optimiser de nouvelles thérapies visant l’élimination des cellules cancéreuses chez les patients atteints des stades avancés de la maladie. Une de ces nouvelles options thérapeutiques est l’immunothérapie. L’immunothérapie du cancer a fait des progrès considérables durant les dernières années. Cependant, les avancements encourageants obtenus lors d’essais précliniques ne se sont pas encore traduits en des résultats cliniques significatifs. En ce qui concerne le cancer de la prostate, les résultats négligeables suivants des interventions immunothérapeutiques peuvent être causés par le fait que la plupart des études sur le microenvironnement immunologique furent effectuées chez des modèles animaux. De plus la majorité des études sur l’immunologie tumorale humaine furent effectuées chez des patients atteints d’autres cancers, tels que le mélanome, et non chez les patients atteints du cancer de la prostate. Donc, le but central de cette thèse de doctorat est d’étudier le microenvironnement immunologique chez les patients atteints du cancer de la prostate afin de mieux définir les impacts de la tumeur sur le développement de la réponse immunitaire antitumorale. Pour réaliser ce projet, nous avons établi deux principaux objectifs de travail : (i) la caractérisation précise des populations des cellules immunitaires infiltrant la tumeur primaire et les ganglions métastatiques chez les patients atteints du cancer de la prostate; (ii) l’identification et l’étude des mécanismes immunosuppressifs exprimés par les cellules cancéreuses de la prostate. Les résultats présentés dans cette thèse démontrent que la progression du cancer de la prostate est associée au développement d’un microenvironnement immunosuppressif qui, en partie, est régulé par la présence des androgènes. L’étude initiale avait comme but la caractérisation du microenvironnement immunologique des ganglions drainant la tumeur chez des patients du cancer de la prostate. Les résultats présentés dans le chapitre III nous a permis de démontrer que les ganglions métastatiques comportent des signes cellulaires et histopathologiques associés à une faible réactivité immunologique. Cette immunosuppression ganglionnaire semble dépendre de la présence des cellules métastatiques puisque des différences immunologiques notables existent entre les ganglions non-métastatiques et métastatiques chez un même patient. La progression du cancer de la prostate semble donc associée au développement d’une immunosuppression affectant les ganglions drainant la tumeur primaire. Par la suite, nous nous sommes intéressés à l’impact de la thérapie par déplétion des androgènes (TDA) sur le microenvironnement immunologique de la tumeur primaire. La TDA est associée à une augmentation marquée de l’inflammation prostatique. De plus, les protocoles d’immunothérapies pour le cancer de la prostate actuellement évalués en phase clinique sont dirigés aux patients hormonoréfractaires ayant subi et échoué la thérapie. Cependant, peu d’information existe sur la nature de l’infiltrat de cellules immunes chez les patients castrés. Il est donc essentiel de connaître la nature de cet infiltrat afin de savoir si celui-ci peut répondre de manière favorable à une intervention immunothérapeutique. Dans le chapitre IV, je présente les résultats sur l’abondance des cellules immunes infiltrant la tumeur primaire suivant la TDA. Chez les patients castrés, les densités de lymphocytes T CD3+ et CD8+ ainsi que des macrophages CD68+ sont plus importantes que chez les patients contrôles. Nous avons également observé une corrélation entre la densité de cellules NK et une diminution du risque de progression de la maladie (rechute biochimique). Inversement, une forte infiltration de macrophages est associée à un plus haut risque de progression. Conjointement, durant cette étude, nous avons développé une nouvelle approche informatisée permettant la standardisation de la quantification de l’infiltrat de cellules immunes dans les échantillons pathologiques. Cette approche facilitera la comparaison d’études indépendantes sur la densité de l’infiltrat immun. Ces résultats nous ont donc permis de confirmer que les effets pro-inflammatoires de la TDA chez les patients du cancer de la prostate ciblaient spécifiquement les lymphocytes T et les macrophages. L’hypothèse intéressante découlant de cette étude est que les androgènes pourraient réguler l’expression de mécanismes immunosuppressifs dans la tumeur primaire. Dans le chapitre V, nous avons donc étudié l’expression de mécanismes immunosuppressifs par les cellules cancéreuses du cancer de la prostate ainsi que leur régulation par les androgènes. Notre analyse démontre que les androgènes augmentent l’expression de molécules à propriétés immunosuppressives telles que l’arginase I et l’arginase II. Cette surexpression dépend de l’activité du récepteur aux androgènes. Chez les patients castrés, l’expression de l’arginase II était diminuée suggérant une régulation androgénique in vivo. Nous avons observé que l’arginase I et l’arginase II participent à la prolifération des cellules du cancer de la prostate ainsi qu’à leur potentiel immunosuppressif. Finalement, nous avons découvert que l’expression de l’interleukin-8 était aussi régulée par les androgènes. De plus, l’interleukin-8, indépendamment des androgènes, augmente l’expression de l’arginase II. Ces résultats confirment que les androgènes participent au développement d’une microenvironnement immunosuppressif dans le cancer de la prostate en régulant l’expression de l’arginase I, l’arginase II et l’interleukin-8. En conclusion, les résultats présentés dans cette thèse témoignent du caractère unique du microenvironnement immunologique chez les patients atteints du cancer de la prostate. Nos travaux ont également permis d’établir de nouvelles techniques basées sur des logiciels d’analyse d’image afin de mieux comprendre le dialogue entre la tumeur et le système immunitaire chez les patients. Approfondir les connaissances sur les mécanismes de régulation du microenvironnement immunologique chez les patients atteint du cancer de la prostate permettra d’optimiser des immunothérapies mieux adaptées à éradiquer cette maladie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels utilisés sont Splus et R.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les fichiers qui accompagnent le document incluent une archive .jar du zoom-éditeur (qui peut être lancé via un browser) et des exemples de z-textes réalisés avec ce logiciel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les émotions jouent un rôle primordial dans les processus cognitifs et plus particulièrement dans les tâches d’apprentissage. D’ailleurs, plusieurs recherches neurologiques ont montré l’interrelation qui existe entre la cognition et les émotions. Elles ont aussi déterminé plusieurs formes d’intelligence humaine autre que l’intelligence rationnelle parmi lesquelles nous distinguons la forme ayant comme dimension émotionnelle, à savoir l’intelligence émotionnelle, vu son impact sur les processus d’apprentissage. L’intelligence émotionnelle est alors un facteur significatif de réussite scolaire et professionnelle. Sous la lumière de ces constatations présentées, les informaticiens à leur tour, vont alors tenter de consentir de plus en plus de place au facteur émotionnel dans les systèmes informatiques et plus particulièrement dans ceux dédiés à l’apprentissage. L’intégration de l’intelligence émotionnelle dans ces systèmes et plus précisément, dans les Systèmes Tutoriels Intelligents (STI), va leur permettre de gérer les émotions de l’apprenant et par la suite améliorer ses performances. Dans ce mémoire, notre objectif principal est d’élaborer une stratégie d’apprentissage visant à favoriser et accentuer la mémorisation chez les enfants. Pour atteindre cet objectif, nous avons développé un cours d’anglais en ligne ainsi qu’un tuteur virtuel utilisant des ressources multimédia tels que le ton de la voix, la musique, les images et les gestes afin de susciter des émotions chez l’apprenant. Nous avons conduit une expérience pour tester l’efficacité de quelques stratégies émotionnelles ainsi qu’évaluer l’impact des émotions suscitées sur la capacité de mémorisation des connaissances à acquérir par l’apprenant. Les résultats de cette étude expérimentale ont prouvé que l’induction implicite des émotions chez ce dernier a une influence significative sur ses performances. Ils ont également montré qu’il n’existe pas une stratégie efficace pour tous les apprenants à la fois, cependant l’efficacité d’une telle stratégie par rapport à une autre dépend essentiellement du profil comportemental de l’apprenant déterminé à partir de son tempérament.