39 resultados para Fonctionnalités


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode ChIP-seq est une technologie combinant la technique de chromatine immunoprecipitation avec le séquençage haut-débit et permettant l’analyse in vivo des facteurs de transcription à grande échelle. Le traitement des grandes quantités de données ainsi générées nécessite des moyens informatiques performants et de nombreux outils ont vu le jour récemment. Reste cependant que cette multiplication des logiciels réalisant chacun une étape de l’analyse engendre des problèmes de compatibilité et complique les analyses. Il existe ainsi un besoin important pour une suite de logiciels performante et flexible permettant l’identification des motifs. Nous proposons ici un ensemble complet d’analyse de données ChIP-seq disponible librement dans R et composé de trois modules PICS, rGADEM et MotIV. A travers l’analyse de quatre jeux de données des facteurs de transcription CTCF, STAT1, FOXA1 et ER nous avons démontré l’efficacité de notre ensemble d’analyse et mis en avant les fonctionnalités novatrices de celui-ci, notamment concernant le traitement des résultats par MotIV conduisant à la découverte de motifs non détectés par les autres algorithmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'ensemble de mon travail a été réalisé grâce a l'utilisation de logiciel libre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Traditionnellement, les applications orientées objets légataires intègrent différents aspects fonctionnels. Ces aspects peuvent être dispersés partout dans le code. Il existe différents types d’aspects : • des aspects qui représentent des fonctionnalités métiers ; • des aspects qui répondent à des exigences non fonctionnelles ou à d’autres considérations de conception comme la robustesse, la distribution, la sécurité, etc. Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de classes. Plusieurs chercheurs se sont intéressés à la problématique de la modularisation de ces aspects dans le code : programmation orientée sujets, programmation orientée aspects et programmation orientée vues. Toutes ces méthodes proposent des techniques et des outils pour concevoir des applications orientées objets sous forme de composition de fragments de code qui répondent à différents aspects. La séparation des aspects dans le code a des avantages au niveau de la réutilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code légataire orienté objets. Nous nous intéressons particulièrement aux aspects fonctionnels. En supposant que le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion fonctionnelle (dépendances entre les éléments), nous proposons d’identifier de telles fonctionnalités à partir du code. L’idée est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implémentation des différents aspects fonctionnels dans un code objet. Notre approche consiste à : • identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité en l’absence des techniques orientées aspects • caractériser l’empreinte de ces techniques sur le code • et développer des outils pour identifier ces empreintes. Ainsi, nous présentons deux approches pour l’identification des fonctionnalités existantes dans du code orienté objets. La première identifie différents patrons de conception qui permettent l’intégration de ces fonctionnalités dans le code. La deuxième utilise l’analyse formelle de concepts pour identifier les fonctionnalités récurrentes dans le code. Nous expérimentons nos deux approches sur des systèmes libres orientés objets pour identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent l’efficacité de nos approches pour identifier les différentes fonctionnalités dans du code légataire orienté objets et permettent de suggérer des cas de refactorisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec l’usage élargi de la CAAO, ces outils ont été largement utilisés dans le processus de conception architecturale. En dépit des fonctionnalités avancées offertes par les systèmes de CAAO, l'utilisation de la CAAO est principalement concentrée dans les étapes de production, comme un support graphique pour le dessin, la modélisation, le rendu et la simulation. Par conséquent, il est raisonnable de considérer que la situation actuelle relative à l’usage de la CAAO dans la profession d'architecte appelle à de nouvelles améliorations. En d'autres termes, nous devons trouver un moyen de mieux intégrer la technologie et les outils de CAAO dans le processus de conception architecturale, qui est notre question de recherche. Nous avons besoin de savoir comment la CAAO pourrait être utilisée pour améliorer la capacité de conception de l'architecte. Il ressort des discussions et des recherches menées pour cette étude que nous voulons un soutien de la technologie pour nous aider à mieux concevoir et non pas que la technologie conçoive à notre place. Nous aimerions avoir un système de CAAO qui pourrait nous servir d’assistant à la conception. En étudiant la situation de l'intégration des outils de CAAO dans les pratiques actuelles de conception des architectes et en examinant les approches utilisées dans les premières tentatives de développement d’un outil de CAAO intégré au processus de conception, on peut conclure que l'approche exploratoire et heuristique serait une meilleure approche qui pourrait être adaptée pour développer un système CAAO en soutien au travail de l’architecte. De plus, une étude plus approfondie a démontré que les deux sous- approches des approches exploratoires et heuristiques (approches basées sur les cas et les contraintes), sont applicables, mais aucune d'elles n'est suffisante. Par conséquent, l’approche hybride qui prend en compte les avantages de chacune des deux sous- approches précitées serait la plus applicable. Elle nous permettrait de développer un outil CAAD qui pourrait vraiment être intégré dans le processus de conception architecturale. Cette conclusion a été vérifiée par une étude complémentaire basée sur des entrevues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'azote est l'un des éléments les plus essentiels dans le monde pour les êtres vivants, car il est essentiel pour la production des éléments de base de la cellule, les acides aminés, les acides nucléiques et les autres constituants cellulaires. L’atmosphère est composé de 78% d'azote gazeux, une source d'azote inutilisable par la plupart des organismes à l'exception de ceux qui possèdent l’enzyme nitrogénase, tels que les bactéries diazotrophique. Ces micro-organismes sont capables de convertir l'azote atmosphérique en ammoniac (NH3), qui est l'une des sources d'azote les plus préférables. Cette réaction exigeant l’ATP, appelée fixation de l'azote, est catalysée par une enzyme, nitrogénase, qui est l'enzyme la plus importante dans le cycle de l'azote. Certaines protéines sont des régulateurs potentiels de la synthèse de la nitrogénase et de son activité; AmtB, DraT, DraG, les protéines PII, etc.. Dans cette thèse, j'ai effectué diverses expériences afin de mieux comprendre leurs rôles détailés dans Rhodobacter capsulatus. La protéine membranaire AmtB, très répandue chez les archaea, les bactéries et les eucaryotes, est un membre de la famille MEP / Amt / Rh. Les protéines AmtB sont des transporteurs d'ammonium, importateurs d'ammonium externe, et ont également été suggéré d’agir comme des senseurs d'ammonium. Il a été montré que l’AmtB de Rhodobacter capsulatus fonctionne comme un capteur pour détecter la présence d'ammonium externe pour réguler la nitrogénase. La nitrogénase est constituée de deux métalloprotéines nommées MoFe-protéine et Fe-protéine. L'addition d'ammoniaque à une culture R. capsulatus conduit à une série de réactions qui mènent à la désactivation de la nitrogénase, appelé "nitrogénase switch-off". Une réaction critique dans ce processus est l’ajout d’un groupe ADP-ribose à la Fe-protéine par DraT. L'entrée de l'ammoniac dans la cellule à travers le pore AmtB est contrôlée par la séquestration de GlnK. GlnK est une protéine PII et les protéines PII sont des protéines centrales dans la régulation du métabolisme de l'azote. Non seulement la séquestration de GlnK par AmtB est importante dans la régulation nitrogénase, mais la liaison de l'ammonium par AmtB ou de son transport partiel est également nécessaire. Les complexes AmtB-GlnK sont supposés de lier DraG, l’enzyme responsable pour enlever l'ADP-ribose ajouté à la nitrogénase par DraT, ainsi formant un complexe ternaire. Dans cette thèse certains détails du mécanisme de transduction du signal et de transport d'ammonium ont été examinés par la génération et la caractérisation d’un mutant dirigé, RCZC, (D335A). La capacité de ce mutant, ainsi que des mutants construits précédemment, RCIA1 (D338A), RCIA2 (G344C), RCIA3 (H193E) et RCIA4 (W237A), d’effectuer le « switch-off » de la nitrogénase a été mesurée par chromatographie en phase gazeuse. Les résultats ont révélé que tous les résidus d'acides aminés ci-dessus ont un rôle essentiel dans la régulation de la nitrogénase. L’immunobuvardage a également été effectués afin de vérifier la présence de la Fe-protéine l'ADP-ribosylée. D335, D388 et W237 semblent être cruciales pour l’ADP-ribosylation, puisque les mutants RCZC, RCIA1 et RCIA4 n'a pas montré de l’ADP-ribosylation de la Fe-protéine. En outre, même si une légère ADP-ribosylation a été observée pour RCIA2 (G344C), nous le considérons comme un résidu d'acide aminé important dans la régulation de la nitrogénase. D’un autre coté, le mutant RCIA3 (H193E) a montré une ADP-ribosylation de la Fe-protéine après un choc d'ammonium, par conséquent, il ne semble pas jouer un rôle important dans l’ADP-ribosylation. Par ailleurs R. capsulatus possède une deuxième Amt appelé AmtY, qui, contrairement à AmtB, ne semble pas avoir des rôles spécifiques. Afin de découvrir ses fonctionnalités, AmtY a été surexprimée dans une souche d’E. coli manquant l’AmtB (GT1001 pRSG1) (réalisée précédemment par d'autres membres du laboratoire) et la formation des complexes AmtY-GlnK en réponse à l'addition d’ammoniac a été examinée. Il a été montré que même si AmtY est en mesure de transporter l'ammoniac lorsqu'il est exprimé dans E. coli, elle ne peut pass’ associer à GlnK en réponse à NH4 +.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1999 est apparue une nouvelle génération d’appareils vidéo basés sur une technologie numérique et offrant au grand public d’innombrables fonctionnalités jusqu’à présent inimaginables selon la technologie traditionnelle des magnétoscopes. En permettant, entre autres, d’éliminer les messages publicitaires et de transmettre l’enregistrement d’une émission à un tiers via les réseaux établis par les diverses entreprises développant cette technologie, ces appareils viennent bonifier l’expérience télévisuelle des consommateurs. Cependant, ces nouvelles fonctionnalités soulèvent également de nouvelles inquiétudes pour les détenteurs de droits d’auteurs. Afin d’évaluer la validité de ces inquiétudes, l’auteur trace un portrait global des problématiques juridiques pouvant émerger suite à l’apparition d’appareils vidéo numériques en sol canadien. Pour ce faire, il fait un exposé des raisons pour lesquelles la technologie employée pourrait contrevenir à certaines dispositions de la Loi sur le droit d’auteur en s’attardant à une analyse des dispositions pertinentes de cette loi et aux possibles répercussion que celles-ci pourraient avoir sur cette nouvelle génération d’appareils vidéo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cet article issu d’une conférence prononcée dans le cadre du Colloque Leg@l.IT (www.legalit.ca), l’auteur offre un rapide survol des fonctionnalités offertes par les systèmes de dépôt électronique de la Cour fédérale et de la Cour canadienne de l’impôt afin de dégager les avantages et inconvénients de chacune des technologies proposées. Cet exercice s’inscrit dans une réflexion plus large sur les conséquences de la migration progressive de certaines juridictions vers le dépôt électronique. Si cette tentative de moderniser le processus judiciaire se veut bénéfique, il demeure qu’un changement technologique d’une telle importance n’est pas sans risques et sans incidences sur les us et coutumes de l’appareil judiciaire. L’auteur se questionne ainsi sur la pratique adoptée par certains tribunaux judiciaires de développer en silo des solutions d’informatisation du processus de gestion des dossiers de la Cour. L’absence de compatibilité des systèmes et le repli vers des modèles propriétaires sont causes de soucis. Qui plus est, en confiant le développement de ces systèmes à des firmes qui en conservent la propriété du code source, ils contribuent à une certaine privatisation du processus rendant la mise en réseau de l’appareil judiciaire d’autant plus difficile. Or, dans la mesure où les systèmes de différents tribunaux seront appelés à communiquer et échanger des données, l’adoption de solutions technologiques compatibles et ouvertes est de mise. Une autre problématique réside dans l’apparente incapacité du législateur de suivre l’évolution vers la  virtualisation du processus judiciaire. Le changement technologique impose, dans certains cas, un changement conceptuel difficilement compatible avec la législation applicable. Ce constat implique la nécessité d’un questionnement plus profond sur la pertinence d’adapter le droit à la technologie ou encore la technologie au droit afin d’assurer une coexistence cohérente et effective de ces deux univers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À cause de leur impact environnemental élevé, les déchets d’équipements électriques et électroniques (DEEE) sont un problème majeur pour les pays développés. La consommation importante de produits électroniques, dont la durée d’utilisation est de plus en plus courte, a entrainé une production croissante de DEEE. C’est dans ce contexte que l’Union européenne a instauré en 2003 la responsabilité élargie des producteurs (REP). Cet outil de politique environnementale a rendu légalement responsables les fabricants de la mise en oeuvre et du financement d’un programme d’intendance des DEEE. Alors que la REP vise principalement le traitement écologique des DEEE, cet instrument ne permet pas de réduire les quantités considérables qui sont produites par les consommateurs. Cette situation est d’autant plus inquiétante que les gains environnementaux obtenus, grâce à l’implantation de la REP, ont été annulés au regard de l’augmentation continue de la consommation de biens électroniques à l’échelle mondiale. En réponse à cette problématique, la présente thèse porte sur les pratiques de l’usager au cours de la phase de consommation des appareils électroniques (aussi appelée phase d’usage). Cette étape du cycle de vie regroupe l’achat, l’utilisation, la réparation et la mise au rebut des biens. Une approche qualitative de type exploratoire faisant appel à l’étude de cas a été utilisée. Le téléviseur, retenu comme cas d’étude, illustre des enjeux partagés par plusieurs équipements électroniques, tels que : la fréquente mise sur le marché de nouveaux modèles, le bas prix d’acquisition comparé au coût de la réparation et l’influence de la mode sur les choix effectués par le consommateur. Ces facteurs facilitent le remplacement des biens et, par conséquent, pourraient entrainer leur fin de vie prématurée qui se matérialise à travers différentes formes d’obsolescence. Dans le cadre de cette étude de cas, une trentaine d’entrevues semi-dirigées a été réalisée avec des usagers et réparateurs de produits électroniques en vue de documenter les différentes sous-étapes de la phase d’usage d’un téléviseur. Sur la base des informations recueillies, l’objectif de cette thèse est de formuler des recommandations, à destination des autorités politiques, qui pourront permettre une minimisation des impacts environnementaux liés à la phase d’usage des appareils électroniques. Les résultats ont permis de mettre en évidence, via le rôle et le statut singulier occupé par le téléviseur dans les foyers, les comportements de l’usager contribuant à augmenter l’empreinte écologique associée à la phase d’usage. L’acquisition de nombreux biens électroniques et non électroniques suite à l’achat du téléviseur, ses multiples fonctionnalités le rapprochant de celles de l’ordinateur et des tablettes, ainsi que la fin de vie prématurée de produits fonctionnels, mais obsolètes d’un point de vue technologique, font partie des résultats de cette recherche. En lien avec ces constats, cette étude propose des instruments de politique environnementale, dont l’affichage de la durée de vie des équipements électroniques, destinés à aider le consommateur à réaliser des choix plus éclairés au moment de l’achat. D’autres orientations, telles que la possibilité d’évoluer vers une réglementation horizontale, c’est-à-dire un cadre législatif qui ne se basera plus sur le produit individuel, mais sur l’ensemble des appareils ayant des fonctionnalités similaires, sont exposées. Par ailleurs, cette recherche explore certains leviers pouvant minimiser le phénomène de fin de vie prématurée des appareils électroniques, tels que l’envoi de biens obsolètes et fonctionnels des pays développés vers ceux en développement pour permettre leur réutilisation et la tendance du Do-It- Yourself dans la réparation des produits électroniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le but d’optimiser la représentation en mémoire des enregistrements Scheme dans le compilateur Gambit, nous avons introduit dans celui-ci un système d’annotations de type et des vecteurs contenant une représentation abrégée des enregistrements. Ces derniers omettent la référence vers le descripteur de type et l’entête habituellement présents sur chaque enregistrement et utilisent plutôt un arbre de typage couvrant toute la mémoire pour retrouver le vecteur contenant une référence. L’implémentation de ces nouvelles fonctionnalités se fait par le biais de changements au runtime de Gambit. Nous introduisons de nouvelles primitives au langage et modifions l’architecture existante pour gérer correctement les nouveaux types de données. On doit modifier le garbage collector pour prendre en compte des enregistrements contenants des valeurs hétérogènes à alignements irréguliers, et l’existence de références contenues dans d’autres objets. La gestion de l’arbre de typage doit aussi être faite automatiquement. Nous conduisons ensuite une série de tests de performance visant à déterminer si des gains sont possibles avec ces nouvelles primitives. On constate une amélioration majeure de performance au niveau de l’allocation et du comportement du gc pour les enregistrements typés de grande taille et des vecteurs d’enregistrements typés ou non. De légers surcoûts sont toutefois encourus lors des accès aux champs et, dans le cas des vecteurs d’enregistrements, au descripteur de type.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un objectif majeur en chimie organique est le développement de méthodes de synthèses générales, simples et peu coûteuses permettant la modification efficace des ressources naturelles en différents produits d’intérêt public. En particulier, la recherche de méthodes chimiosélectives et de méthodes dites « vertes » représente un intérêt croissant pour le secteur industriel (dont le domaine pharmaceutique). En fait, l’application en synthèse sur grande échelle de procédés catalytiques, sélectifs et utilisant des conditions douces permet de réduire le volume de déchets et la demande énergétique, minimisant ainsi les coûts de production et les effets néfastes sur l’environnement. Dans ce contexte, le groupe de recherche du Professeur André B. Charette de l’Université de Montréal s’intéresse au développement de méthodes générales et chimiosélectives permettant la transformation de fonctionnalités aisément accessibles tels que les amides et les alcools. La fonction amide, aussi appelée liaison peptidique dans les protéines, est présente dans diverses familles de molécules naturelles et est couramment employée comme intermédiaire synthétique dans la synthèse de produits d’intérêt pharmaceutique. Le groupement alcool est, quant à lui, l’une des fonctionnalités les plus abondantes dans la nature, intrinsèquement et largement utilisé en chimie de synthèse. Dans le cadre de cette thèse, des transformations simples, générales et chimiosélectives ont été réalisées sur des amides secondaires et tertiaires, ainsi que sur des alcools primaires et secondaires. La première partie de ce manuscrit se penche sur l’activation de la fonction amide par l’anhydride triflique (Tf2O), suivie de l’addition nucléophile de différents réactifs permettant ainsi la formation de plusieurs groupements fonctionnels versatiles, parfois indispensables, couramment employés en chimie organique tels que les aldimines, les aldéhydes, les amines, les cétones, les cétimines et des dérivés de la fonction amidrazone. Cette dernière fonctionnalité a également été utilisée dans des réactions successives vers la formation d’hétérocycles. De ce fait, des 1,2,4-triazoles ont été formés suite à une cyclodéshydratation initiée en conditions thermiques et faiblement acides. D’autre part, des 3-aminoindazoles ont été synthétisés par une fonctionnalisation C–H catalysée par un sel de palladium (II). La deuxième partie de la thèse est consacrée à la réaction de Mitsunobu en conditions acides, permettant ainsi la substitution nucléophile d’alcools en présence de carbamines (ou amines ne possédant pas de groupement électro-attracteurs). Ce type de nucléophile, basique lorsqu’utilisé comme base libre (avec un pKa se situant au-dessus de 13 dans le DMSO), n’est intrinsèquement pas compatible dans les conditions standards de la réaction de Mitsunobu. Contrairement aux conditions usuelles multi-étapes employant la réaction de Mitsunobu, la méthode développée au cours de cette étude permet la formation d’amines substituées en une seule étape et ne requiert pas l’emploi de groupements protecteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les politiques de confidentialité définissent comment les services en ligne collectent, utilisent et partagent les données des utilisateurs. Bien qu’étant le principal moyen pour informer les usagers de l’utilisation de leurs données privées, les politiques de confidentialité sont en général ignorées par ces derniers. Pour cause, les utilisateurs les trouvent trop longues et trop vagues, elles utilisent un vocabulaire souvent difficile et n’ont pas de format standard. Les politiques de confidentialité confrontent également les utilisateurs à un dilemme : celui d’accepter obligatoirement tout le contenu en vue d’utiliser le service ou refuser le contenu sous peine de ne pas y avoir accès. Aucune autre option n’est accordée à l’utilisateur. Les données collectées des utilisateurs permettent aux services en ligne de leur fournir un service, mais aussi de les exploiter à des fins économiques (publicités ciblées, revente, etc). Selon diverses études, permettre aux utilisateurs de bénéficier de cette économie de la vie privée pourrait restaurer leur confiance et faciliter une continuité des échanges sur Internet. Dans ce mémoire, nous proposons un modèle de politique de confidentialité, inspiré du P3P (une recommandation du W3C, World Wide Web Consortium), en élargissant ses fonctionnalités et en réduisant sa complexité. Ce modèle suit un format bien défini permettant aux utilisateurs et aux services en ligne de définir leurs préférences et besoins. Les utilisateurs ont la possibilité de décider de l’usage spécifique et des conditions de partage de chacune de leurs données privées. Une phase de négociation permettra une analyse des besoins du service en ligne et des préférences de l’utilisateur afin d’établir un contrat de confidentialité. La valeur des données personnelles est un aspect important de notre étude. Alors que les compagnies disposent de moyens leur permettant d’évaluer cette valeur, nous appliquons dans ce mémoire, une méthode hiérarchique multicritères. Cette méthode va permettre également à chaque utilisateur de donner une valeur à ses données personnelles en fonction de l’importance qu’il y accorde. Dans ce modèle, nous intégrons également une autorité de régulation en charge de mener les négociations entre utilisateurs et services en ligne, et de générer des recommandations aux usagers en fonction de leur profil et des tendances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho investiga as práticas discursivas de docentes da escola básica e do ensino superior que exercem a prática docente e a prática de mestre de RPG, jogo/atividade de narração de histórias de forma oral e coletiva onde os sujeitos são, ao mesmo tempo, autores e personagens das tramas. A investigação é mobilizada pelas seguintes questões propulsoras: A) Quais práticas discursivas são produzidas por esses sujeitos sobre a docência e ao mestrar RPG? B) Quais as aproximações e refratações entre essas práticas discursivas? De que modos essas práticas participam de processos de subjetivação desses sujeitos, isto é de sua constituição enquanto docentes e mestres de RPG? O estudo desenvolve-se a partir da abordagem pós-estruturalista optando metodologicamente pela análise foucaultiana do discurso das narrativas docentes. O texto apresenta a investigação de produção de narrativas como metodologia, as discussões teóricas sobre subjetivação de Foucault e sobre pós-estruturalismo, as características do jogo e os discursos dos sujeitos acompanhados de análise. Os resultados da investigação apontam para a constituição dos sujeitos e diversas aproximações nas práticas e profundas refratações.