999 resultados para Tournées de véhicules avec fenêtres de temps


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est le type de déformation musculosquelettique le plus fréquent dans la population pédiatrique, pour une prévalence d’environ 2,0%. Depuis l’arrêt des programmes scolaires de dépistage de la SIA dans les années 1980 au Canada, nous ne disposions d’aucune donnée sur l’utilisation des services de santé par les patients présentant une SIA suspectée. En l’absence de tels programmes, des changements dans les patrons d’utilisation des services spécialisés d’orthopédie pédiatrique sont anticipés. La thèse a donc pour but d’étudier la pertinence de la référence dans ces services des jeunes avec SIA suspectée. Elle est structurée autour de trois principaux objectifs. 1) Valider un instrument de mesure de la morbidité perçue (perception des symptômes) dans la clientèle d’orthopédie pédiatrique; 2) Étudier la relation entre la morbidité perçue par les profanes (le jeune et le parent) et la morbidité objectivée par les experts; 3) Caractériser les itinéraires de soins des patients avec SIA suspectée, de façon à en élaborer une taxonomie et à analyser les relations entre ceux-ci et la pertinence de la référence. En 2006-2007, une vaste enquête a été réalisée dans les cinq cliniques d’orthopédie pédiatrique du Sud-Ouest du Québec : 831 patients référés ont été recrutés. Ils furent classés selon des critères de pertinence de la référence (inappropriée, appropriée ou tardive) définis en fonction de l’amplitude de la courbe rachidienne et de la maturité squelettique à cette première visite. La morbidité perçue par les profanes a été opérationnalisée par la gravité, l’urgence, les douleurs, l’impact sur l’image de soi et la santé générale. L’ensemble des consultations médicales et paramédicales effectuées en amont de la consultation en orthopédie pédiatrique a été documenté par questionnaire auprès des familles. En s’appuyant sur le Modèle comportemental de l’utilisation des services d’Andersen, les facteurs (dits de facilitation et de capacité) individuels, relatifs aux professionnels et au système ont été considérés comme variables d’ajustement dans l’étude des relations entre la morbidité perçue ou les itinéraires de soins et la pertinence de la référence. Les principales conclusions de cette étude sont : i) Nous disposons d’instruments fidèles (alpha de Cronbach entre 0,79 et 0,86) et valides (validité de construit, concomitante et capacité discriminante) pour mesurer la perception de la morbidité dans la population adolescente francophone qui consulte en orthopédie pédiatrique; ii) Les profanes jouent un rôle important dans la suspicion de la scoliose (53% des cas) et leur perception de la morbidité est directement associée à la morbidité objectivée par les professionnels; iii) Le case-mix actuel en orthopédie est jugé non optimal en regard de la pertinence de la référence, les mécanismes actuels entraînant un nombre considérable de références inappropriées (38%) et tardives (18%) en soins spécialisés d’orthopédie pédiatrique; iv) Il existe une grande diversité de professionnels par qui sont vus les jeunes avec SIA suspectée ainsi qu’une variabilité des parcours de soins en amont de la consultation en orthopédie, et v) La continuité des soins manifestée dans les itinéraires, notamment via la source régulière de soins de l’enfant, est favorable à la diminution des références tardives (OR=0,32 [0,17-0,59]). Les retombées de cette thèse se veulent des contributions à l’avancement des connaissances et ouvrent sur des propositions d’initiatives de transfert des connaissances auprès des professionnels de la première ligne. De telles initiatives visent la sensibilisation à cette condition de santé et le soutien à la prise de décision de même qu’une meilleure coordination des demandes de consultation pour une référence appropriée et en temps opportun.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les naines brunes sont, en termes de masse, les objets astrophysiques intermédiaires entre les planètes géantes gazeuses et les étoiles de faible masse. Elles se forment de la même manière que les étoiles, par contraction gravitationnelle d’un fragment de nuage de gaz moléculaire ayant atteint la limite de Jeans, mais se différencient par leur incapa- cité à produire les réactions de fusion de l’hydrogène dans leur cœur. Les naines brunes sont par conséquent des objets qui se refroidissent graduellement, et dont les propriétés spectrales évoluent au cours du temps. Ce mémoire présente la recherche de nouvelles candidates de type spectral T tardif et Y, dans le but de compléter le relevé des naines brunes du voisinage solaire. Cette recherche est motivée par deux objectifs principaux. Premièrement, un échantillon com- plet des objets de faible masse est nécessaire pour contraindre correctement la limite aux faibles masses de la fonction de masse initiale des nuages interstellaires, problème clé en astrophysique actuellement. Deuxièmement, les naines brunes de types spectraux tardifs sont les objets stellaires dont les propriétés atmosphériques sont les plus semblables à celles des planètes géantes gazeuses. Par conséquent, la recherche de nouvelles naines brunes permet indirectement d’améliorer nos connaissances des exoplanètes, sans être contraints par la proximité d’étoiles brillantes. À partir du WISE All-Sky Source Catalog, nous avons établi un échantillon de 55 candidates naines brunes répondant aux critères photométriques attendus. Parmi ces can- didates, 17 ont fait l’objet d’un suivi photométrique en bande J à l’Observatoire du Mont-Mégantic, et 9 ont pu être détectées. De ces 9 détections, 4 objets présentent des mouvements propres cohérents avec ceux de naines brunes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire analyse l’espérance du temps de fixation conditionnellement à ce qu’elle se produise et la probabilité de fixation d’un nouvel allèle mutant dans des populations soumises à différents phénomènes biologiques en uti- lisant l’approche des processus ancestraux. Tout d’abord, l’article de Tajima (1990) est analysé et les différentes preuves y étant manquantes ou incomplètes sont détaillées, dans le but de se familiariser avec les calculs du temps de fixa- tion. L’étude de cet article permet aussi de démontrer l’importance du temps de fixation sur certains phénomènes biologiques. Par la suite, l’effet de la sé- lection naturelle est introduit au modèle. L’article de Mano (2009) cite un ré- sultat intéressant quant à l’espérance du temps de fixation conditionnellement à ce que celle-ci survienne qui utilise une approximation par un processus de diffusion. Une nouvelle méthode utilisant le processus ancestral est présentée afin d’arriver à une bonne approximation de ce résultat. Des simulations sont faites afin de vérifier l’exactitude de la nouvelle approche. Finalement, un mo- dèle soumis à la conversion génique est analysé, puisque ce phénomène, en présence de biais, a un effet similaire à celui de la sélection. Nous obtenons finalement un résultat analytique pour la probabilité de fixation d’un nouveau mutant dans la population. Enfin, des simulations sont faites afin de détermi- nerlaprobabilitédefixationainsiqueletempsdefixationconditionnellorsque les taux sont trop grands pour pouvoir les calculer analytiquement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse de doctorat met en lumière les stratégies narratives déployées dans le récit français actuel pour représenter et construire son présent. L’hypothèse principale que cette recherche vérifie est la suivante : la littérature narrative d’aujourd’hui, par le recours à une énonciation entremêlant discours et narration ainsi que par une utilisation critique et pragmatique du passé, réplique au « présentisme » observé par François Hartog, cette perspective sur les temps dont le point d’observation et le point observé sont le présent. Les écrivains contemporains mettent en place un régime de temporalités où passé et avenir sont coordonnés au présent pour pacifier le rapport entre les trois catégories temporelles et faire apparaître un présent qui, sinon, demeure narrativement insaisissable ou soumis à l’autorité d’un passé ou d’un avenir qui dicte ses actions. En distinguant leurs textes du genre romanesque et du mode narratif qui le compose, Pierre Bergounioux, François Bon, Olivier Cadiot, Chloé Delaume, Annie Ernaux, Jean Echenoz et Olivier Rolin, entre autres, s’inscrivent dans la tradition énonciative du récit, ici entendu comme genre littéraire où l’énonciation et le texte en formation sont à eux-mêmes leur propre intrigue. Le sujet d’énonciation du récit contemporain cherche à élucider son rapport au temps en ayant recours à des scènes énonciatives qui ont à voir avec l’enquête et l’interlocution, de manière à ce que d’une anamnèse personnelle et intellectuelle, de même que de la confrontation d’une mémoire avec son récit jaillissent les caractéristiques d’une expérience du présent. Or, une des caractéristiques du présent expérimenté par le sujet contemporain semble être une résistance à la narration et au récit, rendant alors difficile sa saisie littéraire. Cette opposition au récit est investie par des écrivains qui ont recours, pour donner à voir l’immédiateté du présent, à la note et au journal, de même qu’à des genres littéraires qui mettent en échec la narration, notamment la poésie. En dépit de leurs efforts énonciatifs pour extraire le présent de l’opération qui le transforme en passé, ces écrivains font tout de même l’expérience répétée de la disparition immédiate du présent et de leur incapacité à énoncer littérairement un sentiment du présent. Le seul moyen d’en donner un aperçu reste alors peut-être de chercher à construire le présent à partir du constat répété de l’impossibilité d’un tel accomplissement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le genre bactérien Salmonella regroupe plus de 2500 sérovars, mais peu sont responsables de pathologies humaines. Salmonella enterica sérovar Typhi (S. Typhi) est reconnu pour son importance médicale à travers le globe. S. Typhi cause la fièvre typhoïde chez l’Homme, une maladie infectieuse létale caractérisée par la dissémination systémique de la bactérie vers des organes du système réticulo-endothélial. La fièvre typhoïde représente un fardeau pour la santé mondiale, notamment auprès des pays en développement où les conditions sanitaires sont désuètes. La situation se complique davantage par l’apparition de souches résistantes aux antibiotiques. De plus, les deux vaccins licenciés sont d’efficacité modérée, présentent certaines contraintes techniques et ne sont pas appropriés pour les jeunes enfants et nourrissons. La phase systémique de l’infection par Salmonella repose sur sa survie dans les macrophages du système immunitaire. Dans ce compartiment intracellulaire, la bactérie module les défenses antimicrobiennes grâce à de multiples facteurs de virulence encodés dans son génome. Les mécanismes moléculaires sollicités sont complexes et finement régulés. Malgré les progrès scientifiques réalisés précédemment, plusieurs incompréhensions persistent au sujet de l’adaptation de ce pathogène dans les macrophages de l’hôte. Pour mieux concevoir les déterminants génétiques de S. Typhi impliqués dans l’interaction avec ces cellules, une stratégie de sélection négative a été appliquée afin de vérifier systématiquement l’effet direct des gènes pendant l’infection. En premier temps, une librairie de mutants par transposon chez S. Typhi a été créée pour l’infection de macrophages humains en culture. Après 24 heures d’infection, la présence des mutants fut évaluée simultanément par analyse sur des biopuces de Salmonella. Au total, 130 gènes ont été sélectionnés pour leur contribution potentielle auprès des macrophages infectés. Ces gènes comptaient des composantes d’enveloppe bactérienne, des éléments fimbriaires, des portions du flagelle, des régulateurs, des facteurs de pathogenèse et plusieurs protéines sans fonction connue. En deuxième temps, cette collection de gènes a dirigé la création de 28 mutants de délétion définie chez S. Typhi. Les capacités d’entrée et de réplication intracellulaire de ces mutants au sein des macrophages humains ont été caractérisées. D’abord, les macrophages ont été co-infectés avec les mutants en présence de la souche sauvage, pour vérifier la compétitivité de chacun d’eux envers cette dernière. Ensuite, les mutants ont été inoculés individuellement chez les macrophages et leur infectivité fut mesurée comparativement à celle de la souche sauvage. Sommairement, 26 mutants ont présenté des défauts lorsqu’en compétition, tandis que 14 mutants se sont montrés défectueux lorsque testés seuls. Par ailleurs, 12 mutants ont exposé une déficience lors de l’infection mixte et individuelle, incluant les mutants acrA, exbDB, flhCD, fliC, gppA, mlc, pgtE, typA, waaQGP, STY1867-68, STY2346 et SPI-4. Notamment, 35 nouveaux phénotypes défectueux d’entrée ou de survie intracellulaire chez Salmonella ont été révélés par cette étude. Les données générées ici offrent plusieurs nouvelles pistes pour élucider comment S. Typhi manipule sa niche intracellulaire, menant à l’infection systémique. Les gènes décrits représentent des cibles potentielles pour atténuer la bactérie chez l’humain et pourraient contribuer au développement de meilleures souches vaccinales pour immuniser contre la fièvre typhoïde.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les diagrammes de transitions d'états ont été réalisés avec le logiciel Latex.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La question qui traverse toute l’œuvre de Karl Rahner continue de se poser : comment rendre crédible et croyable la révélation de Dieu en Jésus aux gens d’aujourd’hui? Cette question doit être pensée sans cesse à nouveau dans la réalité concrète de la vie humaine. Au temps de Rahner, on mettait l’accent sur la transcendance de Dieu. Depuis ce temps, la culture occidentale s’est transformée : au début du 21e siècle, elle présente de façon marquée les traits du matérialisme, du consumérisme, de l’individualisme, du relativisme et du sécularisme. Conséquemment, on a aujourd’hui tendance à évacuer la transcendance divine. Notre recherche consiste en l’effectuation d’échanges entre la théologie de Karl Rahner et la philosophie de Gilles Deleuze, dans le but d’établir des conditions de possibilités d’un croire chrétiennement aujourd’hui. La philosophie de Deleuze nous introduit dans un processus créatif avec lequel nous pouvons penser radicalement Dieu comme à la fois transcendant et immanent. Notre démarche construit huit hybrides conceptuels qui aident à penser Rahner autrement et à ouvrir la possibilité d’un croire chrétiennement aujourd’hui. Notre recherche ouvre également la perspective d’une théologie de la rencontre entre des mondes théologiques, philosophiques, artistiques et scientifiques. Enfin, elle aide à éclairer la réalité de la nouvelle évangélisation en Occident chrétien.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous introduisons un nouveau modèle de la communication à deux parties dans lequel nous nous intéressons au temps que prennent deux participants à effectuer une tâche à travers un canal avec délai d. Nous établissons quelques bornes supérieures et inférieures et comparons ce nouveau modèle aux modèles de communication classiques et quantiques étudiés dans la littérature. Nous montrons que la complexité de la communication d’une fonction sur un canal avec délai est bornée supérieurement par sa complexité de la communication modulo un facteur multiplicatif d/ lg d. Nous présentons ensuite quelques exemples de fonctions pour lesquelles une stratégie astucieuse se servant du temps mort confère un avantage sur une implémentation naïve d’un protocole de communication optimal en terme de complexité de la communication. Finalement, nous montrons qu’un canal avec délai permet de réaliser un échange de bit cryptographique, mais que, par lui-même, est insuffisant pour réaliser la primitive cryptographique de transfert équivoque.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objectif: Déterminer si l’efficacité de l’amiodarone pour le maintien du rythme sinusal varie selon la fonction systolique ventriculaire gauche. Contexte: Malgré un profil de sécurité établi en insuffisance cardiaque, nous ignorons si l’efficacité de l’amiodarone et son impact sur différentes issues cardiovasculaires sont modulés par la fonction ventriculaire gauche. Méthode: Nous avons effectué une analyse combinée de 3307 patients (âgés de 68,0±0,9 ans ; 31,1% de femmes) recrutés dans les études AFFIRM et AF-CHF qui ont été randomisés au contrôle du rythme par l’amiodarone (N=1107) ou au contrôle de la fréquence cardiaque (N=2200). Résultats: Chez les patients sous amiodarone, la survie sans fibrillation auriculaire était de 84% et de 45% à 1 et 5 ans respectivement, sans égard à la fraction d’éjection ventriculaire gauche (P=0,8754, ajusté). De façon similaire, la proportion moyenne ajustée de temps en fibrillation auriculaire (15,0±1,8%) n’a pas été influencée par la fraction d’éjection (P=0,6094). Durant le suivi, 1963 patients (59,4%) ont requis au moins une hospitalisation, incluant 1401 (42,6%) patients hospitalisés pour cause cardiovasculaire. Les taux ajustés d’hospitalisation pour toutes causes et pour cause cardiovasculaire étaient similaires entre les patients sous amiodarone et ceux dans le groupe de contrôle de la fréquence dans l’ensemble de la population ainsi que dans les sous-groupes de patients avec et sans dysfonction ventriculaire gauche sévère. De façon similaire, les taux ajustés de mortalité globale et cardiovasculaire étaient similaires entre chez les patients sous amiodarone et ceux traités par le contrôle de la fréquence dans l’ensemble de la population ainsi que dans les sous-groupes de patients avec et sans dysfonction ventriculaire gauche sévère. Conclusions: L’efficacité de l’amiodarone pour le maintien du rythme sinusal n’est pas influencée par la fonction ventriculaire gauche. Le contrôle du rythme avec l’amiodarone s’associe à des taux de mortalité et d’hospitalisation comparables au contrôle de la fréquence à la fois chez les patients avec et sans dysfonction ventriculaire gauche sévère.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La régulation de la transcription est l‟un des processus cellulaires des plus fondamentaux et constitue la première étape menant à l‟expression protéique. Son altération a des effets sur l‟homéostasie cellulaire et est associée au développement de maladies telles que le cancer. Il est donc crucial de comprendre les règles fondamentales de la fonction cellulaire afin de mieux cibler les traitements pour les maladies. La transcription d‟un gène peut se produire selon l‟un des deux modes fondamentaux de transcription : en continu ou en burst. Le premier est décrit comme un processus aléatoire et stochastique qui suit une distribution de Poisson. À chaque initiation de la transcription, indépendante de la précédente, un seul transcrit est produit. L‟expression en burst se produit lorsque le promoteur est activé pour une courte période de temps pendant laquelle plusieurs transcrits naissants sont produits. Apportant la plus grande variabilité au sein d‟une population isogénique, il est représenté par une distribution bimodale, où une sous-population n‟exprime pas le gène en question, alors que le reste de la population l‟exprime fortement. Les gènes des eucaryotes inférieurs sont pour la plupart exprimés de manière continuelle, alors que les gènes des eucaryotes supérieurs le sont plutôt en burst. Le but de ce projet est d‟étudier comment l‟expression des gènes a évolué et si la transcription aléatoire, ou de Poisson, est une propriété des eucaryotes inférieurs et si ces patrons ont changé avec la complexité des organismes et des génomes. Par la technique de smFISH, nous avons étudié de manière systématique quatre gènes évolutivement conservés (mdn1+, PRP8/spp42+, pol1+ et cdc13+) qui sont continuellement transcrits dans la levure S. cerevisiae. Nous avons observé que le mode d‟expression est gène-et-organisme spécifique puisque prp8 est exprimé de manière continuelle dans la levure S. pombe, alors que les autres gènes seraient plutôt exprimés en légers burst.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire étudie le comportement des particules dont la position est maximale au temps t dans la marche aléatoire branchante et le mouvement brownien branchant sur R, pour des valeurs de t grandes. Plus exactement, on regarde le comportement du maximum d’une marche aléatoire branchante dans un environnement inhomogène en temps, au sens où la loi des accroissements varie en fonction du temps. On compare avec des modèles connus ou simplifiés, en particulier le modèle i.i.d., où l’on observe des marches aléatoires indépendantes et le modèle de la marche aléatoire homogène. On s’intéresse par la suite aux corrélations entre les particules maximales d’un mouvement brownien branchant. Plus précisément, on étudie le temps de branchement entre deux particules maximales. Finalement, on applique les méthodes et les résultats des premiers chapitres afin d’étudier les corrélations dans un mouvement brownien branchant dans un environnement inhomogène. Le résultat principal du mémoire stipule qu’il y a existence de temps de branchement au centre de l’intervalle [0, t] dans le mouvement brownien branchant inhomogène, ce qui n’est pas le cas pour le mouvement brownien branchant standard. On présentera également certaines simulations numériques afin de corroborer les résultats numériques et pour établir des hypothèses pour une recherche future.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.