980 resultados para asymptotiques en temps continu


Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit (LL.M.)"

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les plaquettes sanguines sont les principaux acteurs de l’hémostase primaire et de la thrombose, deux éléments majeurs de la physiopathologie vasculaire. Plusieurs médicaments régulent les fonctions plaquettaires mais peu de tests sont validés pour suivre leur efficacité en fonction de l’évolution clinique des patients. Mon doctorat a eu pour but de développer de nouvelles approches d’évaluation de la fonction plaquettaire. Deux essais cliniques réalisés sur des patients atteints de syndrome coronarien stable ont constitué la première partie de mon doctorat. La première étude met en évidence la nécessité d'une standardisation des tests biologiques pour la détection de patients répondant moins au clopidogrel, un inhibiteur du récepteur plaquettaire de l'ADP P2Y12. L’étude suivante montre le potentiel thérapeutique, chez ces patients, de l’inhibition conjointe de P2Y12 et du second récepteur plaquettaire de l'ADP P2Y1, sur la fonction plaquettaire. De plus, le suivi en temps réel par vidéomiscroscopie a permis de distinguer des effets précoces et tardifs des antiplaquettaires sur la formation du thrombus en chambre de perfusion. La seconde partie de mon doctorat concerne les microdomaines membranaires de type « lipid rafts » qui tiennent une place fondamentale dans les fonctions cellulaires et plaquettaires. Ainsi plusieurs récepteurs dépendent de ces microdomaines, régulant la fonction plaquettaire et les effets des médicaments antiplaquettaires. Cependant, les techniques d’étude de ces microdomaines sont complexes et peu adaptées aux études cliniques. Profitant de nouvelles sondes fluorescentes sensibles au niveau d’ordre liquide membranaire (OLM), nous avons développé une méthode de mesure de l’OLM par cytométrie de flux spectrale. Grâce à cette approche, nous avons montré que l’activation plaquettaire diminue l’OLM alors qu’il est augmenté chez des patients traités par un inhibiteur de la synthèse du cholestérol ou par le clopidogrel. Nous avons également mis en évidence, en condition de forces de cisaillement élevées correspondant à celles retrouvées au niveau de sténoses artérielles, une sous-population plaquettaire présentant un OLM plus bas. Le passage dans le domaine clinique de ces approches fondamentales qui privilégient l’étude dynamique des plaquettes pourrait permettre d’améliorer le diagnostique et le suivi de traitement de pathologies cardiovasculaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les siliciures métalliques constituent un élément crucial des contacts électriques des transistors que l'on retrouve au coeur des circuits intégrés modernes. À mesure qu'on réduit les dimensions de ces derniers apparaissent de graves problèmes de formation, liés par exemple à la limitation des processus par la faible densité de sites de germination. L'objectif de ce projet est d'étudier les mécanismes de synthèse de siliciures métalliques à très petite échelle, en particulier le NiSi, et de déterminer l’effet de l’endommagement du Si par implantation ionique sur la séquence de phase. Nous avons déterminé la séquence de formation des différentes phases du système Ni-Si d’échantillons possédant une couche de Si amorphe sur lesquels étaient déposés 10 nm de Ni. Celle-ci a été obtenue à partir de mesures de diffraction des rayons X résolue en temps et, pour des échantillons trempés à des températures critiques du processus, l’identité des phases et la composition et la microstructure ont été déterminées par mesures de figures de pôle, spectrométrie par rétrodiffusion Rutherford et microscopie électronique en transmission (TEM). Nous avons constaté que pour environ la moitié des échantillons, une réaction survenait spontanément avant le début du recuit thermique, le produit de la réaction étant du Ni2Si hexagonal, une phase instable à température de la pièce, mélangée à du NiSi. Dans de tels échantillons, la température de formation du NiSi, la phase d’intérêt pour la microélectronique, était significativement abaissée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’annotation en rôles sémantiques est une tâche qui permet d’attribuer des étiquettes de rôles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux différents participants actants ou circonstants (arguments ou adjoints) d’une lexie prédicative. Cette tâche nécessite des ressources lexicales riches ou des corpus importants contenant des phrases annotées manuellement par des linguistes sur lesquels peuvent s’appuyer certaines approches d’automatisation (statistiques ou apprentissage machine). Les travaux antérieurs dans ce domaine ont porté essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi à alimenter les systèmes d’annotation automatisés. L’annotation dans d’autres langues, pour lesquelles on ne dispose pas d’un corpus annoté manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de l’anglais est plus que nécessaire pour les systèmes d’annotation automatisé et l’annotation manuelle de milliers de phrases par des linguistes est une tâche fastidieuse et exigeante en temps. Nous avons proposé dans cette thèse un système automatique pour aider les linguistes dans cette tâche qui pourraient alors se limiter à la validation des annotations proposées par le système. Dans notre travail, nous ne considérons que les verbes qui sont plus susceptibles que les noms d’être accompagnés par des actants réalisés dans les phrases. Ces verbes concernent les termes de spécialité d’informatique et d’Internet (ex. accéder, configurer, naviguer, télécharger) dont la structure actancielle est enrichie manuellement par des rôles sémantiques. La structure actancielle des lexies verbales est décrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Mel’čuk et fait appel partiellement (en ce qui concerne les rôles sémantiques) à la notion de Frame Element tel que décrit dans la théorie Frame Semantics (FS) de Fillmore. Ces deux théories ont ceci de commun qu’elles mènent toutes les deux à la construction de dictionnaires différents de ceux issus des approches traditionnelles. Les lexies verbales d’informatique et d’Internet qui ont été annotées manuellement dans plusieurs contextes constituent notre corpus spécialisé. Notre système qui attribue automatiquement des rôles sémantiques aux actants est basé sur des règles ou classificateurs entraînés sur plus de 2300 contextes. Nous sommes limités à une liste de rôles restreinte car certains rôles dans notre corpus n’ont pas assez d’exemples annotés manuellement. Dans notre système, nous n’avons traité que les rôles Patient, Agent et Destination dont le nombre d’exemple est supérieur à 300. Nous avons crée une classe que nous avons nommé Autre où nous avons rassemblé les autres rôles dont le nombre d’exemples annotés est inférieur à 100. Nous avons subdivisé la tâche d’annotation en sous-tâches : identifier les participants actants et circonstants et attribuer des rôles sémantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus à l’analyseur syntaxique Syntex afin d’extraire les informations syntaxiques qui décrivent les différents participants d’une lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modèle d’apprentissage. Nous avons proposé deux techniques pour l’identification des participants : une technique à base de règles où nous avons extrait une trentaine de règles et une autre technique basée sur l’apprentissage machine. Ces mêmes techniques ont été utilisées pour la tâche de distinguer les actants des circonstants. Nous avons proposé pour la tâche d’attribuer des rôles sémantiques aux actants, une méthode de partitionnement (clustering) semi supervisé des instances que nous avons comparée à la méthode de classification de rôles sémantiques. Nous avons utilisé CHAMÉLÉON, un algorithme hiérarchique ascendant.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

À partir des années 90, parmi les transformations qu’entraine l’effondrement de l’Union soviétique à Cuba et au milieu des redéfinitions de la cubanité, apparaissent des œuvres narratives contre-discursives et actualisées sur la négritude, la race et le racisme. La représentation du Noir dans les romans de cette période prend toute sa signification du fait que se configure alors un champ de discussion dans lequel convergent différentes modalités et perceptions. Notre recherche explore le terrain discursif entourant les définitions de la cubanité et la négritude qui circulent à cette période à Cuba, pour ensuite voir de quelle manière elles se répercutent sur les auteurs et textes littéraires. À travers l’analyse des oeuvres des écrivains Eliseo Altuanga et Marta Rojas, cette thèse reconstruit leurs dialogues avec l’historiographie littéraire cubaine, l’Histoire de l’Ile et les discours plus actualisés quant au débat ethno-racial. Au moyen de visualisations opposées par rapport à l’histoire de Cuba, Altuanga et Rojas élaborent des œuvres et des personnages avec des différences idéoesthétiques marquées. Ainsi, le premier focalisera sur la recherche d’une rupture épistémologique quant à la conception du Noir dans l’imaginaire cubain, soulignant les événements de l’histoire nationale qui considèrent le Noir comme protagoniste, ce qui renforce l’idée d’une continuité dans son état de subalternisation. En ce qui concerne les protagonistes de Rojas, elle fait appel à des mulâtresses pour raconter le processus de transculturation par lequel, à son point de vue, s’est consolidée l’identité culturelle actuelle des Cubains. Suspendue dans un espace d’énonciation intermédiaire entre les premières décennies de la Révolution et la Période spéciale en Temps de Paix, Rojas construit une trilogie romanesque qui s’efforce à signaler la coupure entre les périodes pré- et postrévolutionnaires quant au traitement du Noir.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comment fonder théoriquement des indicateurs culturels? Issue de problèmes méthodologiques reliés à l’étude des rapports entre le temps de travail et le temps libre, cette question émerge à la suite du constat du déficit théorique de la statistique culturelle. En effet, l’étude du temps libre, comme du temps de travail, nécessite de questionner les fondements de cette répartition, en même temps qu’elle exige d’analyser concrètement les pratiques sociales reliées à ces catégories. Or, les ana-lyses sur l’emploi du temps libre sont souvent fondées sur des statistiques à propos des activités culturelles, statistiques dont la portée explicative est singulièrement limitée. Bien que des statistiques sur certaines de ces activités existent au moins depuis le début du XXe siècle, c’est à partir des années 1970 que les besoins de connaissance reliés à la mise en œuvre des politiques culturelles stimulent la production de statistiques plus nombreuses et plus détaillées. Afin de donner des significations à cette masse de statistiques, il est nécessaire de délimiter les frontières de ce qui est culture et communication parmi toutes les autres activités sociales. L’élaboration de cadres conceptuels de la culture par l’UNESCO et d’autres agences statistiques tente de répondre à cette exigence, tandis que les projets d’indicateurs avancés cherchent à donner un sens à l’information statistique. Ces tentatives se caractérisent toutefois par la faiblesse de leur assise théorique, problème qui se manifeste de manière aiguë dans la définition d’indicateurs qui ont nécessairement une portée normative. La résolution de cette impasse de la statistique culturelle passe au moins par une clarification des concepts reliés à la notion de culture. À cette fin, la méthodologie de la recherche repose sur une analyse critique de certains documents fondamentaux qui ont conduit à la création du cadre conceptuel pour la statistique culturelle de l’UNESCO, ainsi que sur des textes phares de Fernand Dumont, Pierre Bourdieu et Jürgen Habermas, choisis pour leur capacité à penser les activités culturelles dans l’ensemble social selon leur temporalité. La notion de temporalité est elle-même examinée sous l’angle de plusieurs approches théoriques. Il ressort de cet examen que la différenciation du temps en temps abstrait et temps concret permet d’entrevoir que les pratiques culturelles pourraient être mesurées non seulement selon la quantité de temps social qui leur est dévolue, mais aussi comme un temps qui a une valeur marchande. Les acquis de l’analyse critique des cadres conceptuels de la statistique culturelle et des textes de Dumont, Bourdieu et Habermas servent de points d’appui pour l’élaboration d’un projet d’indicateurs culturels pour le compte de l’Observatoire de la culture et des communications du Québec (OCCQ). Ce système d’indicateurs a été élaboré selon une grille qui définit ce qu’est un indicateur culturel, son objectif et sa signification. Les indicateurs ont été choisis au cours d’un processus de consultation mené par l’OCCQ auprès des agents gouvernementaux concernés et des représentants des associations professionnelles des secteurs de la culture et des communications du Québec.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse documente, répertorie et analyse les relations entre les femmes auteures en France, en Italie, et entre Françaises et Italiennes, de 1770 à 1840, à partir de l’étude des correspondances et des ouvrages publiés de douze écrivaines (Anne-Marie de Beaufort d’Hautpoul, Sophie Gay, Félicité de Genlis, Marie-Émilie de Montanclos, Constance Pipelet Salm, Germaine de Staël, Teresa Bandettini, Elisabetta Caminer, Carolina Lattanzi, Diodata Saluzzo, Fortunata Sulgher Fantastici et Isabella Teotochi Albrizzi). Au cours d’une période caractérisée par le développement de l’imprimé, par l’importante participation féminine à la querelle des femmes, par le bouleversement politique international issu de la Révolution française et de l’époque napoléonienne, ainsi que par la présence affirmée des auteures, ces dernières font face à une réactivation des attaques contre l’autorat féminin. Dans ce contexte, les relations entre écrivaines illustrent le défi de « l’action commune » conçue dans une optique de défense d’une cause (celle des auteures) avant l’émergence du mouvement féministe. Les écrivaines étant souvent présentées soit comme « sœurs, » soit comme « rivales », notre étude démontre que la nature des relations féminines est infiniment plus complexe dans les faits. D’un côté, les relations entre femmes auteures témoignent d’une certaine cohésion au sein de la communauté : les contacts sont nombreux, celles-ci s’épaulent en temps de crise, construisent des généalogies littéraires féminines, et déconstruisent les discours portant sur la soi-disant « exceptionnalité » et la « rivalité » des femmes de lettres. De l’autre côté, d’importantes divisions traversent leurs réseaux, notamment liées à l’appartenance nationale, aux opinions politiques et au positionnement de chacune dans le milieu littéraire. Outre les divisions sociales et politiques, cette thèse illustre la difficulté éprouvée par les auteures à arrimer leurs intérêts individuels (promotion de leur propre carrière, identités multiples interférant avec l’appartenance de sexe/genre) aux intérêts collectifs (légitimer l’autorat féminin). Ainsi, les écrivaines reconnaissent l’importance de la communauté des femmes auteures, tout en étant confrontées au défi d’en maintenir la cohésion, à une époque où non seulement l’activité littéraire, mais également le contexte culturel et politique, sont en pleine transformation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est le type de déformation musculosquelettique le plus fréquent dans la population pédiatrique, pour une prévalence d’environ 2,0%. Depuis l’arrêt des programmes scolaires de dépistage de la SIA dans les années 1980 au Canada, nous ne disposions d’aucune donnée sur l’utilisation des services de santé par les patients présentant une SIA suspectée. En l’absence de tels programmes, des changements dans les patrons d’utilisation des services spécialisés d’orthopédie pédiatrique sont anticipés. La thèse a donc pour but d’étudier la pertinence de la référence dans ces services des jeunes avec SIA suspectée. Elle est structurée autour de trois principaux objectifs. 1) Valider un instrument de mesure de la morbidité perçue (perception des symptômes) dans la clientèle d’orthopédie pédiatrique; 2) Étudier la relation entre la morbidité perçue par les profanes (le jeune et le parent) et la morbidité objectivée par les experts; 3) Caractériser les itinéraires de soins des patients avec SIA suspectée, de façon à en élaborer une taxonomie et à analyser les relations entre ceux-ci et la pertinence de la référence. En 2006-2007, une vaste enquête a été réalisée dans les cinq cliniques d’orthopédie pédiatrique du Sud-Ouest du Québec : 831 patients référés ont été recrutés. Ils furent classés selon des critères de pertinence de la référence (inappropriée, appropriée ou tardive) définis en fonction de l’amplitude de la courbe rachidienne et de la maturité squelettique à cette première visite. La morbidité perçue par les profanes a été opérationnalisée par la gravité, l’urgence, les douleurs, l’impact sur l’image de soi et la santé générale. L’ensemble des consultations médicales et paramédicales effectuées en amont de la consultation en orthopédie pédiatrique a été documenté par questionnaire auprès des familles. En s’appuyant sur le Modèle comportemental de l’utilisation des services d’Andersen, les facteurs (dits de facilitation et de capacité) individuels, relatifs aux professionnels et au système ont été considérés comme variables d’ajustement dans l’étude des relations entre la morbidité perçue ou les itinéraires de soins et la pertinence de la référence. Les principales conclusions de cette étude sont : i) Nous disposons d’instruments fidèles (alpha de Cronbach entre 0,79 et 0,86) et valides (validité de construit, concomitante et capacité discriminante) pour mesurer la perception de la morbidité dans la population adolescente francophone qui consulte en orthopédie pédiatrique; ii) Les profanes jouent un rôle important dans la suspicion de la scoliose (53% des cas) et leur perception de la morbidité est directement associée à la morbidité objectivée par les professionnels; iii) Le case-mix actuel en orthopédie est jugé non optimal en regard de la pertinence de la référence, les mécanismes actuels entraînant un nombre considérable de références inappropriées (38%) et tardives (18%) en soins spécialisés d’orthopédie pédiatrique; iv) Il existe une grande diversité de professionnels par qui sont vus les jeunes avec SIA suspectée ainsi qu’une variabilité des parcours de soins en amont de la consultation en orthopédie, et v) La continuité des soins manifestée dans les itinéraires, notamment via la source régulière de soins de l’enfant, est favorable à la diminution des références tardives (OR=0,32 [0,17-0,59]). Les retombées de cette thèse se veulent des contributions à l’avancement des connaissances et ouvrent sur des propositions d’initiatives de transfert des connaissances auprès des professionnels de la première ligne. De telles initiatives visent la sensibilisation à cette condition de santé et le soutien à la prise de décision de même qu’une meilleure coordination des demandes de consultation pour une référence appropriée et en temps opportun.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire étudie le comportement des particules dont la position est maximale au temps t dans la marche aléatoire branchante et le mouvement brownien branchant sur R, pour des valeurs de t grandes. Plus exactement, on regarde le comportement du maximum d’une marche aléatoire branchante dans un environnement inhomogène en temps, au sens où la loi des accroissements varie en fonction du temps. On compare avec des modèles connus ou simplifiés, en particulier le modèle i.i.d., où l’on observe des marches aléatoires indépendantes et le modèle de la marche aléatoire homogène. On s’intéresse par la suite aux corrélations entre les particules maximales d’un mouvement brownien branchant. Plus précisément, on étudie le temps de branchement entre deux particules maximales. Finalement, on applique les méthodes et les résultats des premiers chapitres afin d’étudier les corrélations dans un mouvement brownien branchant dans un environnement inhomogène. Le résultat principal du mémoire stipule qu’il y a existence de temps de branchement au centre de l’intervalle [0, t] dans le mouvement brownien branchant inhomogène, ce qui n’est pas le cas pour le mouvement brownien branchant standard. On présentera également certaines simulations numériques afin de corroborer les résultats numériques et pour établir des hypothèses pour une recherche future.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’imagerie médicale a longtemps été limitée à cause des performances médiocres des fluorophores organiques. Récemment la recherche sur les nanocristaux semi-conducteurs a grandement contribué à l’élargissement de la gamme d’applications de la luminescence dans les domaines de l’imagerie et du diagnostic. Les points quantiques (QDs) sont des nanocristaux de taille similaire aux protéines (2-10 nm) dont la longueur d’onde d’émission dépend de leur taille et de leur composition. Le fait que leur surface peut être fonctionnalisée facilement avec des biomolécules rend leur application particulièrement attrayante dans le milieu biologique. Des QDs de structure « coeur-coquille » ont été synthétisés selon nos besoins en longueur d’onde d’émission. Dans un premier article nous avons modifié la surface des QDs avec des petites molécules bi-fonctionnelles portant des groupes amines, carboxyles ou zwitterions. L’effet de la charge a été analysé sur le mode d’entrée des QDs dans deux types cellulaires. À l’aide d’inhibiteurs pharmacologiques spécifiques à certains modes d’internalisation, nous avons déterminé le mode d’internalisation prédominant. L’endocytose par les radeaux lipidiques représente le mode d’entrée le plus employé pour ces QDs de tailles similaires. D’autres modes participent également, mais à des degrés moindres. Des disparités dans les modes d’entrée ont été observées selon le ligand de surface. Nous avons ensuite analysé l’effet de l’agglomération de différents QDs sur leur internalisation dans des cellules microgliales. La caractérisation des agglomérats dans le milieu de culture cellulaire a été faite par la technique de fractionnement par couplage flux-force (AF4) associé à un détecteur de diffusion de la lumière. En fonction du ligand de surface et de la présence ou non de protéines du sérum, chacun des types de QDs se sont agglomérés de façon différente. À l'aide d’inhibiteur des modes d’internalisation, nous avons corrélé les données de tailles d’agglomérats avec leur mode d’entrée cellulaire. Les cellules microgliales sont les cellules immunitaires du système nerveux central (CNS). Elles répondent aux blessures ou à la présence d’inflammagènes en relâchant des cytokines pro-inflammatoires. Une inflammation non contrôlée du CNS peut conduire à la neurodégénérescence neuronale et est souvent observée dans les cas de maladies chroniques. Nous nous sommes intéressés au développement d’un nanosenseur pour mesurer des biomarqueurs du début de l’inflammation. Les méthodes classiques pour étudier l’inflammation consistent à mesurer le niveau de protéines ou molécules relâchées par les cellules stressées (par exemple monoxyde d’azote, IL-1β). Bien que précises, ces méthodes ne mesurent qu’indirectement l’activité de la caspase-1, responsable de la libération du l’IL-1β. De plus ces méthode ne peuvent pas être utilisées avec des cellules vivantes. Nous avons construit un nanosenseur basé sur le FRET entre un QD et un fluorophore organique reliés entre eux par un peptide qui est spécifiquement clivé par la caspase-1. Pour induire l’inflammation, nous avons utilisé des molécules de lipopolysaccharides (LPS). La molécule de LPS est amphiphile. Dans l’eau le LPS forme des nanoparticules, avec des régions hydrophobes à l’intérieure. Nous avons incorporé des QDs dans ces régions ce qui nous a permis de suivre le cheminement du LPS dans les cellules microgliales. Les LPS-QDs sont internalisés spécifiquement par les récepteurs TLR-4 à la surface des microglies. Le nanosenseur s’est montré fonctionnel dans la détermination de l’activité de la caspase-1 dans cellules microgliales activées par le LPS. Éventuellement, le senseur permettrait d’observer en temps réel l’effet de thérapies ciblant l’inflammation, sur l’activité de la caspase-1.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le présent mémoire décrit le développement d’une méthode de synthèse des hélicènes catalysée par la lumière visible. Les conditions pour la formation de [5]hélicène ont été établies par une optimisation du photocatalyseur, du solvant, du système d’oxydation et du temps réactionnel. Suite aux études mécanistiques préliminaires, un mécanisme oxydatif est proposé. Les conditions optimisées ont été appliquées à la synthèse de [6]hélicènes pour laquelle la régiosélectivité a été améliorée en ajoutant des substituants sur la colonne hélicale. La synthèse de thiohélicènes a aussi été testée en utilisant les mêmes conditions sous irradiation par la lumière visible. La méthode a été inefficace pour la formation de benzodithiophènes et de naphtothiophènes, par contre elle permet la formation du phenanthro[3,4-b]thiophène avec un rendement acceptable. En prolongeant la surface-π de la colonne hélicale, le pyrène a été fusionné aux motifs de [4]- et [5]hélicène. Trois dérivés de pyrène-hélicène ont été synthétisés en utilisant les conditions optimisées pour la photocyclisation et leurs caractéristiques physiques ont été étudiées. La méthode de cyclisation sous l’action de la lumière visible a aussi été étudiée en flux continu. Une optimisation du montage expérimental ainsi que de la source lumineuse a été effectuée et les meilleures conditions ont été appliquées à la formation de [5]hélicène et des trois dérivés du pyrène-hélicène. Une amélioration ou conservation des rendements a été observée pour la plupart des produits formés en flux continu comparativement à la synthèse en batch. La concentration de la réaction a aussi été conservée et le temps réactionnel a été réduit par un facteur de dix toujours en comparaison avec la synthèse en batch.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fonction des canaux ioniques est finement régulée par des changements structuraux de sites clés contrôlant l’ouverture du pore. Ces modulations structurales découlent de l’interaction du canal avec l’environnement local, puisque certains domaines peuvent être suffisamment sensibles à des propriétés physico-chimiques spécifiques. Les mouvements engendrés dans la structure sont notamment perceptibles fonctionnellement lorsque le canal ouvre un passage à certains ions, générant ainsi un courant ionique mesurable selon le potentiel électrochimique. Une description détaillée de ces relations structure-fonction est cependant difficile à obtenir à partir de mesures sur des ensembles de canaux identiques, puisque les fluctuations et les distributions de différentes propriétés individuelles demeurent cachées dans une moyenne. Pour distinguer ces propriétés, des mesures à l’échelle de la molécule unique sont nécessaires. Le but principal de la présente thèse est d’étudier la structure et les mécanismes moléculaires de canaux ioniques par mesures de spectroscopie de fluorescence à l’échelle de la molécule unique. Les études sont particulièrement dirigées vers le développement de nouvelles méthodes ou leur amélioration. Une classe de toxine formeuse de pores a servi de premier modèle d’étude. La fluorescence à l’échelle de la molécule unique a aussi été utilisée pour l’étude d’un récepteur glutamate, d’un récepteur à la glycine et d’un canal potassique procaryote. Le premier volet porte sur l’étude de la stœchiométrie par mesures de photoblanchiment en temps résolu. Cette méthode permet de déterminer directement le nombre de monomères fluorescents dans un complexe isolé par le décompte des sauts discrets de fluorescence suivant les événements de photoblanchiment. Nous présentons ici la première description, à notre connaissance, de l’assemblage dynamique d’une protéine membranaire dans un environnement lipidique. La toxine monomérique purifiée Cry1Aa s’assemble à d’autres monomères selon la concentration et sature en conformation tétramérique. Un programme automatique est ensuite développé pour déterminer la stœchiométrie de protéines membranaires fusionnées à GFP et exprimées à la surface de cellules mammifères. Bien que ce système d’expression soit approprié pour l’étude de protéines d’origine mammifère, le bruit de fluorescence y est particulièrement important et augmente significativement le risque d’erreur dans le décompte manuel des monomères fluorescents. La méthode présentée permet une analyse rapide et automatique basée sur des critères fixes. L’algorithme chargé d’effectuer le décompte des monomères fluorescents a été optimisé à partir de simulations et ajuste ses paramètres de détection automatiquement selon la trace de fluorescence. La composition de deux canaux ioniques a été vérifiée avec succès par ce programme. Finalement, la fluorescence à l’échelle de la molécule unique est mesurée conjointement au courant ionique de canaux potassiques KcsA avec un système de fluorométrie en voltage imposé. Ces enregistrements combinés permettent de décrire la fonction de canaux ioniques simultanément à leur position et densité alors qu’ils diffusent dans une membrane lipidique dont la composition est choisie. Nous avons observé le regroupement de canaux KcsA pour différentes compositions lipidiques. Ce regroupement ne paraît pas être causé par des interactions protéine-protéine, mais plutôt par des microdomaines induits par la forme des canaux reconstitués dans la membrane. Il semble que des canaux regroupés puissent ensuite devenir couplés, se traduisant en ouvertures et fermetures simultanées où les niveaux de conductance sont un multiple de la conductance « normale » d’un canal isolé. De plus, contrairement à ce qui est actuellement suggéré, KcsA ne requiert pas de phospholipide chargé négativement pour sa fonction. Plusieurs mesures indiquent plutôt que des lipides de forme conique dans la phase cristalline liquide sont suffisants pour permettre l’ouverture de canaux KcsA isolés. Des canaux regroupés peuvent quant à eux surmonter la barrière d’énergie pour s’ouvrir de manière coopérative dans des lipides non chargés de forme cylindrique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'article deixa constància de la necessitat d'un canvi i d'afrontar nous reptes de futur dins el món de l'educació per tal d'interaccionar amb la societat