996 resultados para Approche à base de graphe


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les objets d’étude de cette thèse sont les systèmes d’équations quasilinéaires du premier ordre. Dans une première partie, on fait une analyse du point de vue du groupe de Lie classique des symétries ponctuelles d’un modèle de la plasticité idéale. Les écoulements planaires dans les cas stationnaire et non-stationnaire sont étudiés. Deux nouveaux champs de vecteurs ont été obtenus, complétant ainsi l’algèbre de Lie du cas stationnaire dont les sous-algèbres sont classifiées en classes de conjugaison sous l’action du groupe. Dans le cas non-stationnaire, une classification des algèbres de Lie admissibles selon la force choisie est effectuée. Pour chaque type de force, les champs de vecteurs sont présentés. L’algèbre ayant la dimension la plus élevée possible a été obtenues en considérant les forces monogéniques et elle a été classifiée en classes de conjugaison. La méthode de réduction par symétrie est appliquée pour obtenir des solutions explicites et implicites de plusieurs types parmi lesquelles certaines s’expriment en termes d’une ou deux fonctions arbitraires d’une variable et d’autres en termes de fonctions elliptiques de Jacobi. Plusieurs solutions sont interprétées physiquement pour en déduire la forme de filières d’extrusion réalisables. Dans la seconde partie, on s’intéresse aux solutions s’exprimant en fonction d’invariants de Riemann pour les systèmes quasilinéaires du premier ordre. La méthode des caractéristiques généralisées ainsi qu’une méthode basée sur les symétries conditionnelles pour les invariants de Riemann sont étendues pour être applicables à des systèmes dans leurs régions elliptiques. Leur applicabilité est démontrée par des exemples de la plasticité idéale non-stationnaire pour un flot irrotationnel ainsi que les équations de la mécanique des fluides. Une nouvelle approche basée sur l’introduction de matrices de rotation satisfaisant certaines conditions algébriques est développée. Elle est applicable directement à des systèmes non-homogènes et non-autonomes sans avoir besoin de transformations préalables. Son efficacité est illustrée par des exemples comprenant un système qui régit l’interaction non-linéaire d’ondes et de particules. La solution générale est construite de façon explicite.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La duplication est un des évènements évolutifs les plus importants, car elle peut mener à la création de nouvelles fonctions géniques. Durant leur évolution, les génomes sont aussi affectés par des inversions, des translocations (incluant des fusions et fissions de chromosomes), des transpositions et des délétions. L'étude de l'évolution des génomes est importante, notamment pour mieux comprendre les mécanismes biologiques impliqués, les types d'évènements qui sont les plus fréquents et quels étaient les contenus en gènes des espèces ancestrales. Afin d'analyser ces différents aspects de l'évolution des génomes, des algorithmes efficaces doivent être créés pour inférer des génomes ancestraux, des histoires évolutives, des relations d'homologies et pour calculer les distances entre les génomes. Dans cette thèse, quatre projets reliés à l'étude et à l'analyse de l'évolution des génomes sont présentés : 1) Nous proposons deux algorithmes pour résoudre des problèmes reliés à la duplication de génome entier : un qui généralise le problème du genome halving aux pertes de gènes et un qui permet de calculer la double distance avec pertes. 2) Nous présentons une nouvelle méthode pour l'inférence d'histoires évolutives de groupes de gènes orthologues répétés en tandem. 3) Nous proposons une nouvelle approche basée sur la théorie des graphes pour inférer des gènes in-paralogues qui considère simultanément l'information provenant de différentes espèces afin de faire de meilleures prédictions. 4) Nous présentons une étude de l'histoire évolutive des gènes d'ARN de transfert chez 50 souches de Bacillus.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Chez les plantes, le génome plastidique est continuellement exposé à divers stress mutagènes, tels l’oxydation des bases et le blocage des fourches de réplication. Étonnamment, malgré ces menaces, le génome du plastide est reconnu pour être très stable, sa stabilité dépassant même celle du génome nucléaire. Néanmoins, les mécanismes de réparation de l’ADN et du maintien de la stabilité du génome plastidique sont encore peu connus. Afin de mieux comprendre ces processus, nous avons développé une approche, basée sur l’emploi de la ciprofloxacine, qui nous permet d’induire des bris d’ADN double-brins (DSBs) spécifiquement dans le génome des organelles. En criblant, à l’aide de ce composé, une collection de mutants d’Arabidopsis thaliana déficients pour des protéines du nucléoïde du plastide, nous avons identifié 16 gènes vraisemblablement impliqués dans le maintien de la stabilité génomique de cette organelle. Parmi ces gènes, ceux de la famille Whirly jouent un rôle primordial dans la protection du génome plastidique face aux réarrangements dépendants de séquences de microhomologie. Deux autres familles de gènes codant pour des protéines plastidiques, soit celle des polymérases de types-I et celle des recombinases, semblent davantage impliquées dans les mécanismes conservateurs de réparation des DSBs. Les relations épistatiques entre ces gènes et ceux des Whirly ont permis de définir les bases moléculaires des mécanismes de la réparation dépendante de microhomologies (MHMR) dans le plastide. Nous proposons également que ce type de mécanismes servirait en quelque sorte de roue de secours pour les mécanismes conservateurs de réparation. Finalement, un criblage non-biaisé, utilisant une collection de plus de 50,000 lignées mutantes d’Arabidopsis, a été réalisé. Ce criblage a permis d’établir un lien entre la stabilité génomique et le métabolisme des espèces réactives oxygénées (ROS). En effet, la plupart des gènes identifiés lors de ce criblage sont impliqués dans la photosynthèse et la détoxification des ROS. Globalement, notre étude a permis d’élargir notre compréhension des mécanismes du maintien de la stabilité génomique dans le plastide et de mieux comprendre l’importance de ces processus.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les femmes autochtones vivent une discrimination intersectionnelle, en ce qu’elle provient d’au moins deux sources: le genre et la race (ou la culture), et qu’elle est plus complexe que la somme de ses sources. Par conséquent, les revendications des femmes autochtones se situent sur au moins deux plans: elles ont des revendications comme autochtones au sein de la population canadienne et comme femmes à l’intérieur de leurs communautés. Partant de la prémisse que l’État canadien doit reconnaître le droit à l’autodétermination des peuples autochtones et par le fait même le droit autochtone, nous nous interrogeons sur les moyens qui permettraient aux femmes autochtones d’exercer l’influence nécessaire pour faire reconnaître et accepter leurs revendications politiques et juridiques dans les processus décisionnels de leurs communautés. Féminisme et revendications autochtones sont-ils nécessairement antinomiques? Pour certaines auteures autochtones, une approche libérale fondée sur la « structure des droits » est incompatible avec les valeurs autochtones. Comment surmonter ces objections en apparence inébranlables? Le problème des femmes autochtones est-il simplement une affaire de « droits » non reconnus? N’est-ce pas plutôt un problème de rapports de pouvoir à l’extérieur, mais également à l’intérieur, des communautés? Nous tentons dans ce qui suit de démontrer qu’au-delà d’un cadre théorique basé sur les droits de la personne, une approche basée sur le principe démocratique permettrait aux femmes autochtones de faire valoir leurs revendications en tant que femmes et en tant qu’autochtones d’une manière plus efficace. En effet, la participation démocratique de tous les membres de la communauté permettrait de contourner les problèmes théoriques liés à une dichotomie entre droits individuels et collectifs, en mettant l’accent sur le processus décisionnel plutôt que sur la valeur des décisions en découlant. Dans cette perspective, féminisme et revendications autochtones peuvent s’allier avantageusement.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le foie est un organe vital ayant une capacité de régénération exceptionnelle et un rôle crucial dans le fonctionnement de l’organisme. L’évaluation du volume du foie est un outil important pouvant être utilisé comme marqueur biologique de sévérité de maladies hépatiques. La volumétrie du foie est indiquée avant les hépatectomies majeures, l’embolisation de la veine porte et la transplantation. La méthode la plus répandue sur la base d'examens de tomodensitométrie (TDM) et d'imagerie par résonance magnétique (IRM) consiste à délimiter le contour du foie sur plusieurs coupes consécutives, un processus appelé la «segmentation». Nous présentons la conception et la stratégie de validation pour une méthode de segmentation semi-automatisée développée à notre institution. Notre méthode représente une approche basée sur un modèle utilisant l’interpolation variationnelle de forme ainsi que l’optimisation de maillages de Laplace. La méthode a été conçue afin d’être compatible avec la TDM ainsi que l' IRM. Nous avons évalué la répétabilité, la fiabilité ainsi que l’efficacité de notre méthode semi-automatisée de segmentation avec deux études transversales conçues rétrospectivement. Les résultats de nos études de validation suggèrent que la méthode de segmentation confère une fiabilité et répétabilité comparables à la segmentation manuelle. De plus, cette méthode diminue de façon significative le temps d’interaction, la rendant ainsi adaptée à la pratique clinique courante. D’autres études pourraient incorporer la volumétrie afin de déterminer des marqueurs biologiques de maladie hépatique basés sur le volume tels que la présence de stéatose, de fer, ou encore la mesure de fibrose par unité de volume.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ma thèse s’intéresse aux politiques de santé conçues pour encourager l’offre de services de santé. L’accessibilité aux services de santé est un problème majeur qui mine le système de santé de la plupart des pays industrialisés. Au Québec, le temps médian d’attente entre une recommandation du médecin généraliste et un rendez-vous avec un médecin spécialiste était de 7,3 semaines en 2012, contre 2,9 semaines en 1993, et ceci malgré l’augmentation du nombre dedecins sur cette même période. Pour les décideurs politiques observant l’augmentation du temps d’attente pour des soins de santé, il est important de comprendre la structure de l’offre de travail des médecins et comment celle-ci affecte l’offre des services de santé. Dans ce contexte, je considère deux principales politiques. En premier lieu, j’estime comment les médecins réagissent aux incitatifs monétaires et j’utilise les paramètres estimés pour examiner comment les politiques de compensation peuvent être utilisées pour déterminer l’offre de services de santé de court terme. En second lieu, j’examine comment la productivité des médecins est affectée par leur expérience, à travers le mécanisme du "learning-by-doing", et j’utilise les paramètres estimés pour trouver le nombre dedecins inexpérimentés que l’on doit recruter pour remplacer un médecin expérimenté qui va à la retraite afin de garder l’offre des services de santé constant. Ma thèse développe et applique des méthodes économique et statistique afin de mesurer la réaction des médecins face aux incitatifs monétaires et estimer leur profil de productivité (en mesurant la variation de la productivité des médecins tout le long de leur carrière) en utilisant à la fois des données de panel sur les médecins québécois, provenant d’enquêtes et de l’administration. Les données contiennent des informations sur l’offre de travail de chaque médecin, les différents types de services offerts ainsi que leurs prix. Ces données couvrent une période pendant laquelle le gouvernement du Québec a changé les prix relatifs des services de santé. J’ai utilisé une approche basée sur la modélisation pour développer et estimer un modèle structurel d’offre de travail en permettant au médecin d’être multitâche. Dans mon modèle les médecins choisissent le nombre d’heures travaillées ainsi que l’allocation de ces heures à travers les différents services offerts, de plus les prix des services leurs sont imposés par le gouvernement. Le modèle génère une équation de revenu qui dépend des heures travaillées et d’un indice de prix représentant le rendement marginal des heures travaillées lorsque celles-ci sont allouées de façon optimale à travers les différents services. L’indice de prix dépend des prix des services offerts et des paramètres de la technologie de production des services qui déterminent comment les médecins réagissent aux changements des prix relatifs. J’ai appliqué le modèle aux données de panel sur la rémunération des médecins au Québec fusionnées à celles sur l’utilisation du temps de ces mêmes médecins. J’utilise le modèle pour examiner deux dimensions de l’offre des services de santé. En premierlieu, j’analyse l’utilisation des incitatifs monétaires pour amener les médecins à modifier leur production des différents services. Bien que les études antérieures ont souvent cherché à comparer le comportement des médecins à travers les différents systèmes de compensation,il y a relativement peu d’informations sur comment les médecins réagissent aux changementsdes prix des services de santé. Des débats actuels dans les milieux de politiques de santé au Canada se sont intéressés à l’importance des effets de revenu dans la détermination de la réponse des médecins face à l’augmentation des prix des services de santé. Mon travail contribue à alimenter ce débat en identifiant et en estimant les effets de substitution et de revenu résultant des changements des prix relatifs des services de santé. En second lieu, j’analyse comment l’expérience affecte la productivité des médecins. Cela a une importante implication sur le recrutement des médecins afin de satisfaire la demande croissante due à une population vieillissante, en particulier lorsque les médecins les plus expérimentés (les plus productifs) vont à la retraite. Dans le premier essai, j’ai estimé la fonction de revenu conditionnellement aux heures travaillées, en utilisant la méthode des variables instrumentales afin de contrôler pour une éventuelle endogeneité des heures travaillées. Comme instruments j’ai utilisé les variables indicatrices des âges des médecins, le taux marginal de taxation, le rendement sur le marché boursier, le carré et le cube de ce rendement. Je montre que cela donne la borne inférieure de l’élasticité-prix direct, permettant ainsi de tester si les médecins réagissent aux incitatifs monétaires. Les résultats montrent que les bornes inférieures des élasticités-prix de l’offre de services sont significativement positives, suggérant que les médecins répondent aux incitatifs. Un changement des prix relatifs conduit les médecins à allouer plus d’heures de travail au service dont le prix a augmenté. Dans le deuxième essai, j’estime le modèle en entier, de façon inconditionnelle aux heures travaillées, en analysant les variations des heures travaillées par les médecins, le volume des services offerts et le revenu des médecins. Pour ce faire, j’ai utilisé l’estimateur de la méthode des moments simulés. Les résultats montrent que les élasticités-prix direct de substitution sont élevées et significativement positives, représentant une tendance des médecins à accroitre le volume du service dont le prix a connu la plus forte augmentation. Les élasticitésprix croisées de substitution sont également élevées mais négatives. Par ailleurs, il existe un effet de revenu associé à l’augmentation des tarifs. J’ai utilisé les paramètres estimés du modèle structurel pour simuler une hausse générale de prix des services de 32%. Les résultats montrent que les médecins devraient réduire le nombre total d’heures travaillées (élasticité moyenne de -0,02) ainsi que les heures cliniques travaillées (élasticité moyenne de -0.07). Ils devraient aussi réduire le volume de services offerts (élasticité moyenne de -0.05). Troisièmement, j’ai exploité le lien naturel existant entre le revenu d’un médecin payé à l’acte et sa productivité afin d’établir le profil de productivité des médecins. Pour ce faire, j’ai modifié la spécification du modèle pour prendre en compte la relation entre la productivité d’un médecin et son expérience. J’estime l’équation de revenu en utilisant des données de panel asymétrique et en corrigeant le caractère non-aléatoire des observations manquantes à l’aide d’un modèle de sélection. Les résultats suggèrent que le profil de productivité est une fonction croissante et concave de l’expérience. Par ailleurs, ce profil est robuste à l’utilisation de l’expérience effective (la quantité de service produit) comme variable de contrôle et aussi à la suppression d’hypothèse paramétrique. De plus, si l’expérience du médecin augmente d’une année, il augmente la production de services de 1003 dollar CAN. J’ai utilisé les paramètres estimés du modèle pour calculer le ratio de remplacement : le nombre dedecins inexpérimentés qu’il faut pour remplacer un médecin expérimenté. Ce ratio de remplacement est de 1,2.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’accessibilité universelle est de nos jours très importante pour nos villes, car elle permet à toute personne, ayant des incapacités physiques ou non, de mener à bien ses activités socio-professionnelles. À travers le monde, plusieurs projets ont vu le jour comme AXS Map à New York ou AccesSIG en France. Au Canada, un projet multidisciplinaire nommé MobiliSIG ayant pour lieu d’expérimentation la ville de Québec a vu le jour en 2013. L’objectif du projet MobiliSIG est de concevoir et développer une application multimodale d’assistance au déplacement des personnes à mobilité réduite. Ce projet se concentre principalement sur la constitution d’une base de données d’accessibilité se référant au modèle PPH (Processus de Production du Handicap). Nos travaux visent à définir la diffusion d’itinéraires adaptés, adaptables et adaptatifs liés à des contextes multi-utilisateurs, multiplateformes, multimodaux (interfaces et transports) et multi-environnements. Après une revue de littérature et afin d’identifier et définir les besoins liés à cette diffusion des données de navigation, nous nous sommes attelés à la description de plusieurs scénarios pour mieux comprendre les besoins des utilisateurs : planification d’un déplacement et navigation dans le milieu urbain ; parcours multimodal ; recherche d’un point d’intérêt (toilettes accessibles). Cette démarche nous a permis également d’identifier les modes de communication et représentations souhaitées de l’itinéraire (carte, texte, image, parole, …) et de proposer une approche basée sur la transformation de l’itinéraire reçu de la base de données d’accessibilité. Cette transformation est effectuée en tenant compte des préférences de l’utilisateur, de son appareil et de son environnement. La diffusion de l’itinéraire se fait ensuite par un service web de diffusion conçu selon le standard du W3C sur les architectures multimodales (MMI) en combinaison avec le concept de la plasticité des interfaces. Le prototype développé a permis d’avoir comme résultat un système qui diffuse de façon générique l’information de navigation adaptée, adaptable et adaptative à l’utilisateur, à son appareil et à son environnement.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Une structure en béton armé est sujette à différents types de sollicitations. Les tremblements de terre font partie des événements exceptionnels qui induisent des sollicitations extrêmes aux ouvrages. Pour faire face à cette problématique, les codes de calcul des ponts routiers font appel à une approche basée sur des niveaux de performance qui sont rattachés à des états limites. Actuellement, les états limites d'une pile de ponts en béton armé (BA) confinée à l'aide de polymères renforcés de fibres de carbone (PRFC) proposés dans la littérature ne prennent pas en compte le confinement lié au chemisage de PRFC en combinaison avec celui des spirales d'acier. Ce projet de recherche était la suite du volet de contrôle non destructif d'une étude réalisée en 2012 qui comprenait un volet expérimental [Carvalho, 2012] et un volet numérique [Jean, 2012]. L'objectif principal était de compléter l'étude du comportement des poteaux en BA renforcés de PRFC soumis à un chargement cyclique avec les données acoustiques recueillies par St-Martin [2014]. Plus précisément, les objectifs spécifiques étaient de déterminer les états limites reliés aux niveaux de performance et de caractériser la signature acoustique de chaque état limite (p. ex. fissuration du béton, plastification de l'acier et rupture du PRFC). Une méthodologie d'analyse acoustique basée sur l'état de l'art de Behnia et al. [2014] a été utilisée pour quantifier la gravité, localiser et caractériser le type de dommages. Dans un premier temps, les données acoustiques provenant de poutres de 550 mm x 150 mm x 150 mm ont permis de caractériser la signature acoustique des états limites. Puis, des cinq spécimens d'essai construits en 2012, les données acoustiques de trois spécimens, soient des poteaux circulaires d'un diamètre de 305 mm et d'une hauteur de 2000 mm ont été utilisée pour déterminer les états limites. Lors de ces essais, les données acoustiques ont été recueillies avec 14 capteurs de résonances qui étaient reliés à un système multicanal et au logiciel AEwin SAMOS 5.23 de Physical Acoustics Corporation (PAC) [PAC, 2005] par St-Martin [2014]. Une analyse de la distribution des paramètres acoustiques (nbr. de comptes et énergie absolue) combiné à la localisation des événements et le regroupement statistique, communément appelé clustering, ont permis de déterminer les états limites et même, des signes précurseurs à l'atteinte de ces états limites (p. ex. l'initiation et la propagation des fissures, l'éclatement de l'enrobage, la fissuration parallèle aux fibres et l'éclatement du PRFC) qui sont rattachés aux niveaux de performances des poteaux conventionnels et confinés de PRFC. Cette étude a permis de caractériser la séquence d'endommagement d'un poteau en BA renforcé de PRFC tout en démontrant l'utilité de l'écoute acoustique pour évaluer l'endommagement interne des poteaux en temps réel. Ainsi, une meilleure connaissance des états limites est primordiale pour intégrer les PRFC dans la conception et la réhabilitation des ouvrages.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le taux de mortalité chez les patients à risque d’arythmies cardiaques menaçantes à la vie a été considérablement réduit grâce au défibrillateur cardiaque implantable (DCI). Toutefois, des préoccupations uniques face au DCI, y compris les chocs que l’appareil peut déclencher, sont susceptibles de provoquer des symptômes d'anxiété et une limitation perçue des activités chez les porteurs de DCI. Ces réactions émotives et modifications de comportement peuvent affecter l’acceptation du patient envers le DCI. Cette étude pilote randomisée avec groupe contrôle (n=15 /groupe) visait à examiner la faisabilité et l'acceptabilité d'une intervention infirmière individualisée de même que ses effets préliminaires sur l’anxiété, le fonctionnement dans les activités de la vie quotidienne et l’acceptation du DCI auprès de nouveaux porteurs de DCI. L'intervention infirmière, basée sur la théorie du Human Caring et teintée d’une approche cognitive comportementale, ciblait les préoccupations individuelles face au DCI. À partir des préoccupations identifiées, l’infirmière intervenait en mettant l'accent sur les croyances contraignantes du patient, qui pouvaient mener à de l’anxiété et des comportements d'évitement. Après randomisation, les patients du groupe intervention (GI) ont participé à un premier entretien en face-à-face avant le congé hospitalier. Subséquemment, deux entretiens se sont faits par téléphone, à environ 7 et 14 jours suite au congé hospitalier. Les résultats soutiennent la faisabilité et l’acceptabilité du devis de l’étude et de l’intervention évaluée. De plus, ils soulignent le potentiel de l’intervention à diminuer les sentiments anxieux chez les participants du GI. Les résultats de cette étude pilote offrent des pistes de recherches futures et permettront de guider la pratique clinique.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

[FR] Dans cet article, l´auteur caractérise l´eau et l´agriculture des îles du Cap Vert et analyse les défis de l´eau après la construction du barrage de Poilao dans la Vallée de Ribeira Seca, sur l´île de Santiago, en se servant deapproche GIRE (Gestion Intégrée des Ressources en Eau). Au niveau de la législation, il s´avère nécessaire de proposer de nouvelles lois, décrets et règlements qui soient en accord avec notre réalité, en opposition à un important lot d´instruments juridiques inapplicables, obsolètes et de compréhension difficile. La construction du barrage de Poilão a produit des impacts environnementaux, socio-économiques et sur l´irrigation. Il s´agit de trouver un modèle de gestion qui s´adapte à la réalité du Cap Vert et de l´île de Santiago, regroupant tous les partenaires pour une gestion durable de la vallée de Ribeira Seca et qui puisse servir d´exemple aux futurs barrages à construire.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.