993 resultados para Méthode des Volumes Finis


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La réponse cellulaire aux ultra-violets (UV), ou réponse UV, est une réponse complexe et spécialisée dans l’adaptation et la tolérance des dommages aux UV. Celle-ci est initiée par un grand nombre d’évènements moléculaires et de signalisation nucléaire mais aussi au niveau de la membrane plasmique ou du cytoplasme. L’importance et l’influence exactes de ces évènements sur la réparation par excision de nucléotides (NER) des dommages UV à l’ADN sont encore mal comprises et doivent encore être méthodiquement démontrées. Dans cette thèse, grâce à l’utilisation d’une méthode sensible d’analyse de la réparation NER basée sur la cytométrie en flux, il est montré, dans un premier temps, que l’activité des voies MAPK (Mitogen-Activated Protein Kinases), qui sont des voies de signalisation de stress UV d’origine cytoplsamique, ne participent pas à l’efficacité de réparation NER des dommages UV dans les cellules humaines. En effet, l’abrogation de la signalisation MAPK, par inhibition pharmacologique, par utilisation de mutants dominant-négatifs ou par inhibition de leur expression endogène, ne révèlent aucun changement de la cinétique de réparation des dommages UV par excision de nucléotides. Cependant, l’utilisation de cette même méthode de réparation, mais cette fois, appliquée pour l’étude de réparation NER en fonction du cycle cellulaire, a permis de mettre en évidence la nécessité fonctionnelle de l’ADN polymérase translésionnelle eta (Pol η) dans la réparation NER des dommages UV, uniquement en phase S. Cette observation fut initialement caractérisée dans les cellules de patients affectés du syndrome variant de xérodermie pigmentaire (XP-V) puis, confirmée ensuite par l’inhibition de l’expression de Pol η endogène ou par la complémentation avec des mutants non-fonctionnels dans les cellules XP-V. Ces résultats indiquent que, contrairement à la réponse UV MAPK cytoplasmique, les évènements nucléaires comme la synthèse translésionnelle, peuvent influencer l’efficacité de réparation NER en phase S. Plus particulièrement, ces données établissent un lien possible entre la réparation NER en phase S et les niveaux de stress réplicatifs, révélé ici par la déficience fonctionnelle Pol η ou ATR. Les observations, présentées dans cette thèse, renforcent un rôle du point de contrôle S aux UV sur l’efficacité de la réparation NER et suggèrent que l’inhibition NER, observée en phase S dans les cellules XP-V, est modulée par le stress réplicatif. Un tel moyen de contrôle pourrait avoir une action plutôt protectrice pendant cette phase critique du cycle cellulaire. Mots clés: UV, translésionnelle, eta, MAPK, NER, CPD, cytométrie, phase-S, tolérance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de maîtrise en sciences infirmières option administration des services infirmiers

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option administration en sciences infirmières

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'élastographie ultrasonore est une technique d'imagerie émergente destinée à cartographier les paramètres mécaniques des tissus biologiques, permettant ainsi d’obtenir des informations diagnostiques additionnelles pertinentes. La méthode peut ainsi être perçue comme une extension quantitative et objective de l'examen palpatoire. Diverses techniques élastographiques ont ainsi été proposées pour l'étude d'organes tels que le foie, le sein et la prostate et. L'ensemble des méthodes proposées ont en commun une succession de trois étapes bien définies: l'excitation mécanique (statique ou dynamique) de l'organe, la mesure des déplacements induits (réponse au stimulus), puis enfin, l'étape dite d'inversion, qui permet la quantification des paramètres mécaniques, via un modèle théorique préétabli. Parallèlement à la diversification des champs d'applications accessibles à l'élastographie, de nombreux efforts sont faits afin d'améliorer la précision ainsi que la robustesse des méthodes dites d'inversion. Cette thèse regroupe un ensemble de travaux théoriques et expérimentaux destinés à la validation de nouvelles méthodes d'inversion dédiées à l'étude de milieux mécaniquement inhomogènes. Ainsi, dans le contexte du diagnostic du cancer du sein, une tumeur peut être perçue comme une hétérogénéité mécanique confinée, ou inclusion, affectant la propagation d'ondes de cisaillement (stimulus dynamique). Le premier objectif de cette thèse consiste à formuler un modèle théorique capable de prédire l'interaction des ondes de cisaillement induites avec une tumeur, dont la géométrie est modélisée par une ellipse. Après validation du modèle proposé, un problème inverse est formulé permettant la quantification des paramètres viscoélastiques de l'inclusion elliptique. Dans la continuité de cet objectif, l'approche a été étendue au cas d'une hétérogénéité mécanique tridimensionnelle et sphérique avec, comme objectifs additionnels, l'applicabilité aux mesures ultrasonores par force de radiation, mais aussi à l'estimation du comportement rhéologique de l'inclusion (i.e., la variation des paramètres mécaniques avec la fréquence d'excitation). Enfin, dans le cadre de l'étude des propriétés mécaniques du sang lors de la coagulation, une approche spécifique découlant de précédents travaux réalisés au sein de notre laboratoire est proposée. Celle-ci consiste à estimer la viscoélasticité du caillot sanguin via le phénomène de résonance mécanique, ici induit par force de radiation ultrasonore. La méthode, dénommée ARFIRE (''Acoustic Radiation Force Induced Resonance Elastography'') est appliquée à l'étude de la coagulation de sang humain complet chez des sujets sains et sa reproductibilité est évaluée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : La réduction des inégalités sociales de santé est un objectif de santé publique au Canada. Les liens entre les facteurs socio-économiques et les traumatismes en général ont été abondamment mesurés et illustrés notamment en pédiatrie, mais l’association entre les traumatismes crâniens et les inégalités sociales n’est pas assez investiguée dans la littérature. L’intérêt de ce travail en santé publique nous permettra de mieux connaitre les liens entre la défavorisation et les traumatismes crâniens particulièrement la sévérité. Objectif : L’objectif général de cette étude est d’examiner la relation entre les traumatismes crâniens et le statut socio-économique. Méthode : L’échantillon comprend 2269 patients ayant consulté le service d’urgence de l’Hôpital du Sacré Coeur de Montréal entre le 17 Mars 2008 et le 11 Janvier 2012, âgés de 14 ans et plus et habitant Montréal et Laval. Des analyses de régression logistiques ont été appliquées pour examiner la relation entre le quintile du statut socio-économique (mesuré à l’aide d’un proxy écologique) et la sévérité du traumatisme crânien (mesuré à l’aide de la tomodensitométrie). Résultat : A Montréal et à Laval, la cote d’avoir un scan normal est plus élevée chez les patients de quintile de revenu plus pauvre Q1 par rapport au quintile de revenu plus riche Q5, avec les valeurs respectives de 1,104 et 1,522 pour les régions de Montréal et Laval. A Laval lorsqu’on passe du quintile le plus pauvre Q1 au quintile le plus riche Q5, les cotes diminuent de 1,522 pour Q1; 1,302 pour le quintile de revenu bas; 1,126 pour le quintile de revenu moyen; 1,176 pour le quintile élevé à 1 pour le quintile le plus riche (quintile de référence). Conclusion : Bien que la relation entre les traumatismes et le statut socio-économique soit non significative, plusieurs questions se posent à travers ce mémoire notamment les causes différentes du traumatisme crânien en fonction du statut socio-économique et le territoire de résidence. D’autres recherches plus approfondies seraient utiles pour mieux informer les programmes de santé publique. Mots Clés : Traumatisme crânien, Statut socio-économique, Santé publique, Inégalités sociales, Chutes, Accidents de la route, Causes de traumatisme, Quintile de revenu

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec l’avancement en âge, les personnes âgées qui vivent à domicile ont besoin du soutien des membres de leur entourage, notamment d’un aidant familial dont le rôle n’est toutefois pas sans conséquence sur sa santé. Les écrits empiriques ont montré que certains aidants sont résilients, c’est-à-dire qu’ils s’adaptent à leur situation et continuent leur développement. Toutefois, aucune étude n’a été effectuée au Liban auprès des aidantes familiales pour expliquer la résilience dans ce contexte et, plus spécifiquement, pour déterminer les facteurs qui pourraient l’influencer. Cette étude à devis corrélationnel de prédiction avait pour but de vérifier certaines des relations postulées par un modèle empirique découlant des écrits, soit la contribution de facteurs personnels (stratégies de coping et auto-efficacité) et de facteurs contextuels (relations familiales, perception du soutien de l’entourage, et sens accordé au « prendre soin »),à la résilience des aidantes familiales libanaises qui prennent soin d’un proche âgé à domicile. L’étude a été effectuée au Liban auprès d’un échantillon de convenance composé de 140 aidantes familiales principales cohabitant à domicile avec un parent âgé de 65 ans et plus ayant une perte d’autonomie fonctionnelle ou cognitive. La collecte des données a été réalisée en arabe en utilisant un guide d’entrevue standardisé regroupant des instruments nord-américains traduits selon la méthode de traduction inversée parallèle, de même qu’une question ouverte portant sur la perception des aidantes de la résilience, soit des facteurs qui les aident à continuer à prendre soin de leur proche âgé tout en continuant à se développer. Une analyse de régression hiérarchique a permis de vérifier la contribution unique des facteurs personnels et contextuels à expliquer la résilience des aidantes familiales, en contrôlant pour l’âge et le niveau de scolarité des aidantes et pour le niveau de perte d’autonomie et la fréquence des comportements dysfonctionnels de leurs parents âgés. Une analyse de contenu a permis de décrire la perception des aidantes eu égard à la résilience. Les résultats ont montré que le modèle empirique, incluant les variables de contrôle explique 54% de la variance de la résilience et que quatre des facteurs considérés, soit les stratégies de coping centrées sur le problème, les stratégies de coping centrées sur les émotions, le sentiment d’auto-efficacité et le sens du « prendre soin » ont une contribution statistiquement significative à la résilience des aidantes. Parmi ces quatre facteurs, le sens du « prendre soin » et le sentiment d’auto-efficacité expliquent davantage de variance, soit 11% et 5% respectivement. L’analyse qualitative du discours des aidantes a montré qu’elles prennent soin de leur proche âgé surtout par souci de réciprocité, mais également parce qu’il s’agit d’un membre de la famille et par respect pour Dieu. Ce sont par ailleurs leurs croyances et la satisfaction liée au prendre soin qui les aident à continuer et à se développer. Cette étude offre une meilleure compréhension du concept de la résilience des aidantes familiales au Liban et de certains facteurs qui en sont des prédicteurs significatifs. Elle offre des pistes pour l’intervention infirmière dans le but de promouvoir la santé de la personne/famille en tant que partenaire de soins. Des recommandations pour la pratique, la formation et la recherche sont proposées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The work done in this master's thesis, presents a new system for the recognition of human actions from a video sequence. The system uses, as input, a video sequence taken by a static camera. A binary segmentation method of the the video sequence is first achieved, by a learning algorithm, in order to detect and extract the different people from the background. To recognize an action, the system then exploits a set of prototypes generated from an MDS-based dimensionality reduction technique, from two different points of view in the video sequence. This dimensionality reduction technique, according to two different viewpoints, allows us to model each human action of the training base with a set of prototypes (supposed to be similar for each class) represented in a low dimensional non-linear space. The prototypes, extracted according to the two viewpoints, are fed to a $K$-NN classifier which allows us to identify the human action that takes place in the video sequence. The experiments of our model conducted on the Weizmann dataset of human actions provide interesting results compared to the other state-of-the art (and often more complicated) methods. These experiments show first the sensitivity of our model for each viewpoint and its effectiveness to recognize the different actions, with a variable but satisfactory recognition rate and also the results obtained by the fusion of these two points of view, which allows us to achieve a high performance recognition rate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La duplication est un des évènements évolutifs les plus importants, car elle peut mener à la création de nouvelles fonctions géniques. Durant leur évolution, les génomes sont aussi affectés par des inversions, des translocations (incluant des fusions et fissions de chromosomes), des transpositions et des délétions. L'étude de l'évolution des génomes est importante, notamment pour mieux comprendre les mécanismes biologiques impliqués, les types d'évènements qui sont les plus fréquents et quels étaient les contenus en gènes des espèces ancestrales. Afin d'analyser ces différents aspects de l'évolution des génomes, des algorithmes efficaces doivent être créés pour inférer des génomes ancestraux, des histoires évolutives, des relations d'homologies et pour calculer les distances entre les génomes. Dans cette thèse, quatre projets reliés à l'étude et à l'analyse de l'évolution des génomes sont présentés : 1) Nous proposons deux algorithmes pour résoudre des problèmes reliés à la duplication de génome entier : un qui généralise le problème du genome halving aux pertes de gènes et un qui permet de calculer la double distance avec pertes. 2) Nous présentons une nouvelle méthode pour l'inférence d'histoires évolutives de groupes de gènes orthologues répétés en tandem. 3) Nous proposons une nouvelle approche basée sur la théorie des graphes pour inférer des gènes in-paralogues qui considère simultanément l'information provenant de différentes espèces afin de faire de meilleures prédictions. 4) Nous présentons une étude de l'histoire évolutive des gènes d'ARN de transfert chez 50 souches de Bacillus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La vectorisation des médicaments est une approche très prometteuse tant sur le plan médical qu’économique pour la livraison des substances actives ayant une faible biodisponibilité. Dans ce contexte, les polymères en étoile et les dendrimères, macromolécules symétriques et branchées, semblent être les solutions de vectorisation les plus attrayantes. En effet, ces structures peuvent combiner efficacement une stabilité élevée dans les milieux biologiques à une capacité d’encapsulation des principes actifs. Grâce à leur architecture bien définie, ils permettent d’atteindre un très haut niveau de reproductibilité de résultats, tout en évitant le problème de polydispersité. Bien que des nombreuses structures dendritiques aient été proposées ces dernières années, il est cependant à noter que la conception de nouveaux nanovecteurs dendritiques efficaces est toujours d’actualité. Ceci s’explique par des nombreuses raisons telles que celles liées à la biocompatibilité, l’efficacité d’encapsulation des agents thérapeutiques, ainsi que par des raisons économiques. Dans ce projet, de nouvelles macromolécules branchées biocompatibles ont été conçues, synthétisées et évaluées. Pour augmenter leur efficacité en tant qu’agents d’encapsulations des principes actifs hydrophobes, les structures de ces macromolécules incluent un coeur central hydrophobe à base de porphyrine, décanediol ou trioléine modifié et, également, une couche externe hydrophile à base d’acide succinique et de polyéthylène glycol. Le choix des éléments structuraux de futures dendrimères a été basé sur les données de biocompatibilité, les résultats de nos travaux de synthèse préliminaires, ainsi que les résultats de simulation in silico réalisée par une méthode de mécanique moléculaire. Ces travaux ont permis de choisir des composés les plus prometteurs pour former efficacement et d’une manière bien contrôlable des macromolécules polyesters. Ils ont aussi permis d’évaluer au préalable la capacité de futurs dendrimères de capter une molécule médicamenteuse (itraconazole). Durant cette étape, plusieurs nouveaux composés intermédiaires ont été obtenus. L’optimisation des conditions menant à des rendements réactionnels élevés a été réalisée. En se basant sur les travaux préliminaires, l’assemblage de nouveaux dendrimères de première et de deuxième génération a été effectué, en utilisant les approches de synthèse divergente et convergente. La structure de nouveaux composés a été prouvée par les techniques RMN du proton et du carbone 13C, spectroscopie FTIR, UV-Vis, analyse élémentaire, spectrométrie de masse et GPC. La biocompatibilité de produits a été évaluée par les tests de cytotoxicité avec le MTT sur les macrophages murins RAW-262.7. La capacité d’encapsuler les principes actifs hydrophobes a été étudiée par les tests avec l’itraconazole, un antifongique puissant mais peu biodisponible. La taille de nanoparticules formées dans les solutions aqueuses a été mesurée par la technique DLS. Ces mesures ont montré que toutes les structures dendritiques ont tendance à former des micelles, ce qui exclue leurs applications en tant que nanocapsules unimoléculaires. L’activité antifongique des formulations d’itraconazole encapsulé avec les dendrimères a été étudiée sur une espèce d’un champignon pathogène Candida albicans. Ces tests ont permis de conclure que pour assurer l’efficacité du traitement, un meilleur contrôle sur le relargage du principe actif était nécessaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le diagnostic de l’acouphène repose sur le rapport verbal du patient. Cependant, les paramètres psychoacoustiques, tels que la hauteur et la sonie de l’acouphène, sont essentiels pour l’évaluation et pour discriminer les fausses plaintes. Quantifier le percept de l’acouphène reste un objectif de recherche important. Nous avons cherché à: (1) évaluer la précision d'une nouvelle méthode d'évaluation des acouphènes du type « likeness rating » avec une méthode de présentation continue de la hauteur, en considérant la formation musicale, et (2) vérifier si les mesures psychoacoustiques de l’acouphène ont la sensibilité et la spécificité pour détecter les personnes simulant un acouphène. Nous avons recruté des musiciens et des non-musiciens souffrant d'acouphènes et des simulateurs sans acouphènes. La plupart d’entre eux ont été testés une seconde fois quelques semaines plus tard. La hauteur de l’acouphène a d’abord été évaluée en utilisant la méthode « likness rating ». Des sons purs ont été présentés de manière aléatoire de 0.25 kHz à 16 kHz et les participants devaient coter la ressemblance de chaque son par rapport à leur acouphène, et en ajuster son volume de 0 à 100 dB SPL. La hauteur a ensuite été évaluée par une méthode, où les participants devaient apparier la hauteur de leur acouphène en déplaçant leur doigt sur une bande tactile générant des sons purs en continu de 0.5 kHz à 20 kHz par pas de 1 Hz. Les capacités à apparier des sons externes ont été évaluées en utilisant cet appareil. La hauteur prédominante de l’acouphène était similaire entre les deux méthodes pour les musiciens et les non-musiciens, bien que les musiciens montraient de meilleures capacités d’appariement face à des sons externes. Les simulateurs ont coté la sonie bien au-dessus que les autres groupes avec un grand degré de spécificité (94,4%), et ont été inconsistants dans l’appariement de cette sonie (pas de la hauteur) d’une session à une autre. Les données de la seconde session montrent des réponses similaires pour l’appariement de la hauteur pour les deux méthodes ainsi que pour tous nos participants. En conclusion, la hauteur et la sonie correspondent au percept de l’acouphène et doivent en plus être utilisées avec des échelles visuelles analogiques, qui sont plus corrélées avec la gêne et la détresse. Enfin, l’appariement de la sonie est sensible et spécifique à déterminer la présence de l’acouphène.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les régions nordiques à pergélisol seront largement affectées par l'augmentation prévue des températures. Un nombre croissant d’infrastructures qui étaient autrefois construites avec confiance sur des sols gelés en permanence commencent déjà à montrer des signes de détérioration. Les processus engendrés par la dégradation du pergélisol peuvent causer des dommages importants aux infrastructures et entrainer des coûts élevés de réparation. En conséquence, le contexte climatique actuel commande que la planification des projets dans les régions nordiques s’effectue en tenant compte des impacts potentiels de la dégradation du pergélisol. Ce mémoire porte sur l’utilisation de systèmes d’information géographique (SIG) appliqués à l’évaluation du potentiel d’aménagement des territoires situés en milieu de pergélisol. En utilisant une approche SIG, l’objectif est d’élaborer une méthodologie permettant de produire des cartes d'évaluation des risques afin d’aider les collectivités nordiques à mieux planifier leur environnement bâti. Une analyse multi-échelle du paysage est nécessaire et doit inclure l'étude des dépôts de surface, la topographie, ainsi que les conditions du pergélisol, la végétation et les conditions de drainage. La complexité de l'ensemble des interactions qui façonnent le paysage est telle qu'il est pratiquement impossible de rendre compte de chacun d'eux ou de prévoir avec certitude la réponse du système suite à des perturbations. Ce mémoire présente aussi certaines limites liées à l’utilisation des SIG dans ce contexte spécifique et explore une méthode innovatrice permettant de quantifier l'incertitude dans les cartes d'évaluation des risques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Si la manière de produire une image depuis la reproductibilité technique a toujours été profondément déterminée par la captation d’une réalité physique, le numérique (qui constitue une méthode d’inscription visuelle distincte) devrait, en théorie, modifier la relation du spectateur à ces « nouvelles images ». Toutefois, en pratique, le spectateur fait-il l’expérience des images numériques d’une manière différente de celles issues de la captation? Afin de répondre à cette question, ce mémoire analyse, à l’aide de l’approche sémio-pragmatique, comment le spectateur a conditionné son regard à travers les techniques de la captation (photographie, cinéma et vidéo). Ensuite, cette étude compare les habitudes et les attentes visuelles engendrées par ces techniques aux images numériques. Enfin, cette étude situe le problème de la rupture dans une perspective plus large que celle des techniques afin de poser le questionnement dans toute une tradition de la représentation artistique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La thèse qui suit est organisée en deux volets: un premier volet portant sur les modèles de masse de galaxies et un second volet sur la conception de revêtements optiques et le contrôle de leurs propriétés mécaniques. Les modèles de masse présentés dans cette thèse ont été réalisés sur un sous-échantillon de dix galaxies de l'étude SINGS comprenant neuf galaxies normales et une galaxie naine. Ce travail visait à fixer le rapport masse-luminosité du disque à tout rayon en utilisant les résultats de modèles d'évolution galactique chimio-spectrophotométriques ajustés spécifiquement à chaque galaxie grâce à son profil de photométrie multi-bandes. Les résultats montrent que les disques stellaires tels que normalisés par les rapports masse-luminosité issus des modèles ont des masses cohérentes dans toutes les bandes étudiées de l'ultra-violet, du visible ainsi que du proche infrarouge (bandes FUV à IRAC2). Ces disques peuvent être considérés comme maximaux par rapport aux données cinématiques des galaxies étudiées. Ceci est dû au fait que le rapport M/L est plus élevé au centre que sur les bords. Les disques étant maximaux et physiquement justifiés, on ne peut dès lors ignorer les effets de composants tels que les bulbes ou les barres et les corrections nécessaires doivent être apportées aux profils de luminosité et de vitesses de rotation de la galaxie. Dans les travaux de la seconde partie, le logiciel en développement libre OpenFilters a été modifié afin de tenir compte des contraintes mécaniques dans la conception numérique de revêtements optiques. Les contraintes mécaniques dans les couches minces ont un effet délétère sur leurs performances optiques. Un revêtement destiné à rendre réflectives les lames d'un étalon Fabry-Perot utilisé en astronomie a été conçu et fabriqué afin d'évaluer les performances réelles de la méthode. Ce cas a été choisi à cause de la diminution de la finesse d'un étalon Fabry-Perot apporté par la courbure des lames sous l'effet des contraintes. Les résultats montrent que les mesures concordent avec les modèles numériques et qu'il est donc possible à l'aide de ce logiciel d'optimiser les revêtements pour leur comportement mécanique autant que pour leurs propriétés optiques.