234 resultados para Calcul informatisé fiable


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université Catholique de Louvain (Belgique)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Dans la présente thèse, nous avons étudié la déformation anisotrope par bombardement ionique de nanoparticules d'or intégrées dans une matrice de silice amorphe ou d'arséniure d’aluminium cristallin. On s’est intéressé à la compréhension du mécanisme responsable de cette déformation pour lever toute ambigüité quant à l’explication de ce phénomène et pour avoir une interprétation consistante et unique. Un procédé hybride combinant la pulvérisation et le dépôt chimique en phase vapeur assisté par plasma a été utilisé pour la fabrication de couches nanocomposites Au/SiO2 sur des substrats de silice fondue. Des structures à couches simples et multiples ont été obtenues. Le chauffage pendant ou après le dépôt active l’agglomération des atomes d’Au et par conséquent favorise la croissance des nanoparticules. Les nanocomposites Au/AlAs ont été obtenus par implantation ionique de couches d’AlAs suivie de recuit thermique rapide. Les échantillons des deux nanocomposites refroidis avec de l’azote liquide ont été irradiés avec des faisceaux de Cu, de Si, d’Au ou d’In d’énergie allant de 2 à 40 MeV, aux fluences s'étendant de 1×1013 à 4×1015 ions/cm2, en utilisant le Tandem ou le Tandetron. Les propriétés structurales et morphologiques du nanocomposite Au/SiO2 sont extraites en utilisant des techniques optiques car la fréquence et la largeur de la résonance plasmon de surface dépendent de la forme et de la taille des nanoparticules, de leur concentration et de la distance qui les séparent ainsi que des propriétés diélectriques du matériau dans lequel les particules sont intégrées. La cristallinité de l’arséniure d’aluminium est étudiée par deux techniques: spectroscopie Raman et spectrométrie de rétrodiffusion Rutherford en mode canalisation (RBS/canalisation). La quantité d’Au dans les couches nanocomposites est déduite des résultats RBS. La distribution de taille et l’étude de la transformation de forme des nanoparticules métalliques dans les deux nanocomposites sont déterminées par microscopie électronique en transmission. Les résultats obtenus dans le cadre de ce travail ont fait l’objet de trois articles de revue. La première publication montre la possibilité de manipuler la position spectrale et la largeur de la bande d’absorption des nanoparticules d’or dans les nanocomposites Au/SiO2 en modifiant leur structure (forme, taille et distance entre particules). Les nanoparticules d’Au obtenues sont presque sphériques. La bande d’absorption plasmon de surface (PS) correspondante aux particules distantes est située à 520 nm. Lorsque la distance entre les particules est réduite, l’interaction dipolaire augmente ce qui élargit la bande de PS et la déplace vers le rouge (602 nm). Après irradiation ionique, les nanoparticules sphériques se transforment en ellipsoïdes alignés suivant la direction du faisceau. La bande d’absorption se divise en deux bandes : transversale et longitudinale. La bande correspondante au petit axe (transversale) est décalée vers le bleu et celle correspondante au grand axe (longitudinale) est décalée vers le rouge indiquant l’élongation des particules d’Au dans la direction du faisceau. Le deuxième article est consacré au rôle crucial de la déformation plastique de la matrice et à l’importance de la mobilité des atomes métalliques dans la déformation anisotrope des nanoparticules d’Au dans les nanocomposites Au/SiO2. Nos mesures montrent qu'une valeur seuil de 2 keV/nm (dans le pouvoir d'arrêt électronique) est nécessaire pour la déformation des nanoparticules d'or. Cette valeur est proche de celle requise pour la déformation de la silice. La mobilité des atomes d’Au lors du passage d’ions est confirmée par le calcul de la température dans les traces ioniques. Le troisième papier traite la tentative de formation et de déformation des nanoparticules d’Au dans une matrice d’arséniure d’aluminium cristallin connue pour sa haute résistance à l’amorphisation et à la déformation sous bombardement ionique. Le résultat principal de ce dernier article confirme le rôle essentiel de la matrice. Il s'avère que la déformation anisotrope du matériau environnant est indispensable pour la déformation des nanoparticules d’or. Les résultats expérimentaux mentionnés ci-haut et les calculs de températures dans les traces ioniques nous ont permis de proposer le scénario de déformation anisotrope des nanoparticules d’Au dans le nanocomposite Au/SiO2 suivant: - Chaque ion traversant la silice fait fondre brièvement un cylindre étroit autour de sa trajectoire formant ainsi une trace latente. Ceci a été confirmé par la valeur seuil du pouvoir d’arrêt électronique. - L’effet cumulatif des impacts de plusieurs ions conduit à la croissance anisotrope de la silice qui se contracte dans la direction du faisceau et s’allonge dans la direction perpendiculaire. Le modèle de chevauchement des traces ioniques (overlap en anglais) a été utilisé pour valider ce phénomène. - La déformation de la silice génère des contraintes qui agissent sur les nanoparticules dans les plans perpendiculaires à la trajectoire de l’ion. Afin d’accommoder ces contraintes les nanoparticules d’Au se déforment dans la direction du faisceau. - La déformation de l’or se produit lorsqu’il est traversé par un ion induisant la fusion d’un cylindre autour de sa trajectoire. La mobilité des atomes d’or a été confirmée par le calcul de la température équivalente à l’énergie déposée dans le matériau par les ions incidents. Le scénario ci-haut est compatible avec nos données expérimentales obtenues dans le cas du nanocomposite Au/SiO2. Il est appuyé par le fait que les nanoparticules d’Au ne se déforment pas lorsqu’elles sont intégrées dans l’AlAs résistant à la déformation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fumée du tabac est un aérosol extrêmement complexe constitué de milliers de composés répartis entre la phase particulaire et la phase vapeur. Il a été démontré que les effets toxicologiques de cette fumée sont associés aux composés appartenant aux deux phases. Plusieurs composés biologiquement actifs ont été identifiés dans la fumée du tabac; cependant, il n’y a pas d’études démontrant la relation entre les réponses biologiques obtenues via les tests in vitro ou in vivo et les composés présents dans la fumée entière du tabac. Le but de la présente recherche est de développer des méthodes fiables et robustes de fractionnement de la fumée à l’aide de techniques de séparation analytique et de techniques de détection combinés à des essais in vitro toxicologiques. Une étude antérieure réalisée par nos collaborateurs a démontré que, suite à l’étude des produits de combustion de douze principaux composés du tabac, l’acide chlorogénique s’est avéré être le composé le plus cytotoxique selon les test in vitro du micronoyau. Ainsi, dans cette étude, une méthode par chromatographie préparative en phase liquide a été développée dans le but de fractionner les produits de combustion de l’acide chlorogénique. Les fractions des produits de combustion de l’acide chlorogénique ont ensuite été testées et les composés responsables de la toxicité de l’acide chlorogénique ont été identifiés. Le composé de la sous-fraction responsable en majeure partie de la cytoxicité a été identifié comme étant le catéchol, lequel fut confirmé par chromatographie en phase liquide/ spectrométrie de masse à temps de vol. Des études récentes ont démontré les effets toxicologiques de la fumée entière du tabac et l’implication spécifique de la phase vapeur. C’est pourquoi notre travail a ensuite été focalisé principalement à l’analyse de la fumée entière. La machine à fumer Borgwaldt RM20S® utilisée avec les chambres d’exposition cellulaire de British American Tobacco permettent l’étude in vitro de l’exposition de cellules à différentes concentrations de fumée entière du tabac. Les essais biologiques in vitro ont un degré élevé de variabilité, ainsi, il faut prendre en compte toutes les autres sources de variabilité pour évaluer avec précision la finalité toxicologique de ces essais; toutefois, la fiabilité de la génération de la fumée de la machine n’a jamais été évaluée jusqu’à maintenant. Nous avons donc déterminé la fiabilité de la génération et de la dilution (RSD entre 0,7 et 12 %) de la fumée en quantifiant la présence de deux gaz de référence (le CH4 par détection à ionisation de flamme et le CO par absorption infrarouge) et d’un composé de la phase particulaire, le solanesol (par chromatographie en phase liquide à haute performance). Ensuite, la relation entre la dose et la dilution des composés de la phase vapeur retrouvée dans la chambre d’exposition cellulaire a été caractérisée en utilisant une nouvelle technique d’extraction dite par HSSE (Headspace Stir Bar Sorptive Extraction) couplée à la chromatographie en phase liquide/ spectrométrie de masse. La répétabilité de la méthode a donné une valeur de RSD se situant entre 10 et 13 % pour cinq des composés de référence identifiés dans la phase vapeur de la fumée de cigarette. La réponse offrant la surface maximale d’aire sous la courbe a été obtenue en utilisant les conditions expérimentales suivantes : intervalle de temps d’exposition/ désorption de 10 0.5 min, température de désorption de 200°C pour 2 min et température de concentration cryogénique (cryofocussing) de -75°C. La précision de la dilution de la fumée est linéaire et est fonction de l’abondance des analytes ainsi que de la concentration (RSD de 6,2 à 17,2 %) avec des quantités de 6 à 450 ng pour les composés de référence. Ces résultats démontrent que la machine à fumer Borgwaldt RM20S® est un outil fiable pour générer et acheminer de façon répétitive et linéaire la fumée de cigarette aux cultures cellulaires in vitro. Notre approche consiste en l’élaboration d’une méthodologie permettant de travailler avec un composé unique du tabac, pouvant être appliqué à des échantillons plus complexes par la suite ; ex : la phase vapeur de la fumée de cigarette. La méthodologie ainsi développée peut potentiellement servir de méthode de standardisation pour l’évaluation d’instruments ou de l’identification de produits dans l’industrie de tabac.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail réalisé en cotutelle avec l'université Paris-Diderot et le Commissariat à l'Energie Atomique sous la direction de John Harnad et Bertrand Eynard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les problèmes de tournées de véhicules avec fenêtres de temps où un gain est associé à chaque client et où l'objectif est de maximiser la somme des gains recueillis moins les coûts de transport. De plus, un même véhicule peut effectuer plusieurs tournées durant l'horizon de planification. Ce problème a été relativement peu étudié en dépit de son importance en pratique. Par exemple, dans le domaine de la livraison de denrées périssables, plusieurs tournées de courte durée doivent être combinées afin de former des journées complètes de travail. Nous croyons que ce type de problème aura une importance de plus en plus grande dans le futur avec l'avènement du commerce électronique, comme les épiceries électroniques, où les clients peuvent commander des produits par internet pour la livraison à domicile. Dans le premier chapitre de cette thèse, nous présentons d'abord une revue de la littérature consacrée aux problèmes de tournées de véhicules avec gains ainsi qu'aux problèmes permettant une réutilisation des véhicules. Nous présentons les méthodologies générales adoptées pour les résoudre, soit les méthodes exactes, les méthodes heuristiques et les méta-heuristiques. Nous discutons enfin des problèmes de tournées dynamiques où certaines données sur le problème ne sont pas connues à l'avance. Dans le second chapitre, nous décrivons un algorithme exact pour résoudre un problème de tournées avec fenêtres de temps et réutilisation de véhicules où l'objectif premier est de maximiser le nombre de clients desservis. Pour ce faire, le problème est modélisé comme un problème de tournées avec gains. L'algorithme exact est basé sur une méthode de génération de colonnes couplée avec un algorithme de plus court chemin élémentaire avec contraintes de ressources. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. Le troisième chapitre propose donc une méthode de recherche adaptative à grand voisinage qui exploite les différents niveaux hiérarchiques du problème (soit les journées complètes de travail des véhicules, les routes qui composent ces journées et les clients qui composent les routes). Dans le quatrième chapitre, qui traite du cas dynamique, une stratégie d'acceptation et de refus des nouvelles requêtes de service est proposée, basée sur une anticipation des requêtes à venir. L'approche repose sur la génération de scénarios pour différentes réalisations possibles des requêtes futures. Le coût d'opportunité de servir une nouvelle requête est basé sur une évaluation des scénarios avec et sans cette nouvelle requête. Enfin, le dernier chapitre résume les contributions de cette thèse et propose quelques avenues de recherche future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évolution des protéines est un domaine important de la recherche en bioinformatique et catalyse l'intérêt de trouver des outils d'alignement qui peuvent être utilisés de manière fiable et modéliser avec précision l'évolution d'une famille de protéines. TM-Align (Zhang and Skolnick, 2005) est considéré comme l'outil idéal pour une telle tâche, en termes de rapidité et de précision. Par conséquent, dans cette étude, TM-Align a été utilisé comme point de référence pour faciliter la détection des autres outils d'alignement qui sont en mesure de préciser l'évolution des protéines. En parallèle, nous avons élargi l'actuel outil d'exploration de structures secondaires de protéines, Helix Explorer (Marrakchi, 2006), afin qu'il puisse également être utilisé comme un outil pour la modélisation de l'évolution des protéines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente une implantation de la création paresseuse de tâches desti- née à des systèmes multiprocesseurs à mémoire distribuée. Elle offre un sous-ensemble des fonctionnalités du Message-Passing Interface et permet de paralléliser certains problèmes qui se partitionnent difficilement de manière statique grâce à un système de partitionnement dynamique et de balancement de charge. Pour ce faire, il se base sur le langage Multilisp, un dialecte de Scheme orienté vers le traitement parallèle, et implante sur ce dernier une interface semblable à MPI permettant le calcul distribué multipro- cessus. Ce système offre un langage beaucoup plus riche et expressif que le C et réduit considérablement le travail nécessaire au programmeur pour pouvoir développer des programmes équivalents à ceux en MPI. Enfin, le partitionnement dynamique permet de concevoir des programmes qui seraient très complexes à réaliser sur MPI. Des tests ont été effectués sur un système local à 16 processeurs et une grappe à 16 processeurs et il offre de bonnes accélérations en comparaison à des programmes séquentiels équiva- lents ainsi que des performances acceptables par rapport à MPI. Ce mémoire démontre que l’usage des futures comme technique de partitionnement dynamique est faisable sur des multiprocesseurs à mémoire distribuée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse par articles aborde différentes facettes du dépistage prénatal de certaines aneuploïdies au premier trimestre de la grossesse. L’introduction retrace l’historique du dépistage prénatal et énonce les différents marqueurs biochimiques et échographiques associés aux aneuploïdies. La première publication démontre que le tabagisme maternel abaisse significativement les niveaux sanguins maternels de PAPP-A et de la fraction libre de la β-hCG et augmente significativement la clarté nucale, confirmant la nécessité de contrôler cette co-variable dans le calcul de risque final, du moins pour la trisomie 18. Le deuxième article identifie des seuils de clarté nucale au-delà desquels la biochimie génétique n’apporte aucune valeur additionnelle au dépistage prénatal de la trisomie 21 et de la trisomie 18. Pour les fœtus avec clarté nucale supérieure aux seuils établis, un diagnostic prénatal intrusif devrait être offert sans délai. Le troisième et dernier article porte sur la première détermination des niveaux plasmatiques maternels de la protéine FLRG (follistatin-related gene) au premier trimestre de grossesse et sur son rôle potentiel à titre de marqueur biochimique dans le dépistage prénatal de la trisomie 21. Bien que détectables, les niveaux plasmatiques maternels de FLRG ne sont pas significativement altérés en présence de fœtus avec syndrome de Down. Dans la discussion générale, les trois articles sont abordés sous un angle plus spécifique au Québec. Des données complémentaires et originales y sont présentées. Une discussion sur l’évolution future du dépistage prénatal est entamée et des axes de recherche sont proposés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évolution rapide des technologies de détection et de caractérisation des exoplanètes depuis le début des années 1990 permet de croire que de nouveaux instruments du type Terrestrial Planet Finder (TPF) pourront prendre les premiers spectres d’exoplanètes semblables à la Terre d’ici une ou deux décennies. Dans ce contexte, l’étude du spectre de la seule planète habitée connue, la Terre, est essentielle pour concevoir ces instruments et analyser leurs résultats. Cette recherche présente les spectres de la Terre dans le visible (390-900 nm), acquis lors de 8 nuits d’observation étalées sur plus d’un an. Ces spectres ont été obtenus en observant la lumière cendrée de la Lune avec le télescope de 1.6 m de l’Observatoire du Mont-Mégantic (OMM). La surface de la Lune réfléchissant de manière diffuse la lumière provenant d’une portion de la Terre, ces spectres sont non résolus spatialement. L’évolution de ces spectres en fonction de la lumière réfléchie à différentes phases de Terre est analogue à celle du spectre d’une exoplanète, dont la phase change selon sa position autour de l’étoile. L'eau, l'oxygène et l'ozone de l’atmosphère, détectés dans tous nos spectres, sont des biomarqueurs dont la présence suggère l’habitabilité de la planète et/ou la présence d’une activité biologique. Le Vegetation Red Edge (VRE), une autre biosignature spectrale, dû aux organismes photosynthétiques à la surface, est caractérisé par l’augmentation de la réflectivité autour de 700 nm. Pour les spectres de 5 nuits, cette augmentation a été évaluée entre -5 et 15% ±~5%, après que les contributions de la diffusion de Rayleigh, des aérosols et d’une large bande moléculaire de l’ozone aient été enlevées. Les valeurs mesurées sont cohérentes avec la présence de végétation dans la phase de la Terre contribuant au spectre, mais s’étendent sur une plage de variations plus large que celles trouvées dans la littérature (0-10%). Cela pourrait s’expliquer par des choix faits lors de la réduction des données et du calcul du VRE, ou encore par la présence d’autres éléments de surface ou de l’atmosphère dont la contribution spectrale autour de 700 nm serait variable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

David Hull et Philip Kitcher présentent tous deux une description des sciences qui tient compte autant de l'articulation logique des théories que de leur dynamique sociale. Hull (1988a, 2001) tente de rendre compte du progrès scientifique par le biais d'une analyse sélectionniste, en s'appuyant sur les contingences sociales et les biais individuels en tant que pressions de sélections. Pour lui, un processus de sélection darwinien filtre les théories supérieures des théories inadéquates. Kitcher (1993) présente plutôt le progrès scientifique comme un changement de consensus résultant de processus sociaux et psychologiques qui mènent de manière fiable à la vérité. Les théories sont ainsi filtrées par une dynamique sociale qui sélectionne les théories selon la qualité de leur articulation logique. Kitcher (1988) exprime un doute à l'idée qu'un processus de sélection darwinien du type suggéré par Hull puisse ajouter quoi que ce soit à une explication du processus d'avancement des sciences. Ce mémoire tentera d'établir si cette critique de Kitcher est fondée. Dans cette optique, une analyse détaillée de l’approche de Hull sera nécessaire afin d’examiner comment il justifie le lien qu’il établit entre la pratique scientifique et un processus de sélection. Un contraste sera ensuite fait avec l’approche de Kitcher pour tester la force et la nécessité de ce lien et pour expliquer le désaccord de Kitcher. Cette analyse comparative permettra de préciser les avantages et les désavantages uniques à chacune des approches pour déterminer si une analyse sélectionniste est plus prometteuse qu’une analyse non-sélectionniste pour rendre compte du progrès scientifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les toxines de l’anthrax font partie de la famille des toxines A-B dans laquelle la moitié B se fixe à la membrane de la cellule permettant par la suite la translocation de la moitié A. Dans le cas de l’anthrax, la moitié B est représentée par le Protective Antigen (PA) et la moitié A par les deux protéines Edema Factor (EF) et Lethal Factor (LF). Après le recrutement par les récepteurs cellulaires (CMG2 et TEM8), PA s’organise en heptamère. Il peut fixer jusqu'à 3 ligands (EF et LF) avant d'être endocyté. Les modèles actuels de PA suggèrent que la baisse de pH à l’intérieur des endosomes permet un changement de conformation de la forme pré-pore vers la forme pore et que les ligands EF et LF passeraient au travers le pore pour entrer dans le cytoplasme. Cependant, le diamètre du pore est environ dix fois inférieur à celui des ligands (10 Å contre 100 Å). Un processus de folding/unfolding a été proposé mais demeure controversé. Afin d'identifier le processus de passage des facteurs EF et LF dans le cytoplasme, nous avons déterminé par cryo-microscopie électronique combinée avec l’analyse d’image les structures tridimensionnelles des complexes formés par PA et LF aux étapes prépore et pore. Par la suite, une étude complémentaire par dynamique moléculaire nous a permis de modéliser à haute résolution les différentes interactions qui ont lieu au sein du complexe. La structure 3D du complexe prépore combiné à 3 LF a été déterminée à une résolution de 14 Å. Nous avons aussi calculé une structure préliminaire du complexe pore également combiné à 3 LF Celles-ci n’ont jamais été résolues auparavant et leur connaissance permet d’envisager l’étude en profondeur du mécanisme infectieux de l’Anthrax in vivo.