924 resultados para Classical correlation
Resumo:
Cette étude teste l’hypothèse que le remodelage osseux dans le deuxième métacarpe peut être utilisé pour estimer l’âge à la mort. Les métacarpes utilisés dans cette analyse proviennent d’un cimetière d’Ontario, incluant des individus d’origine européenne (n=63; 34 hommes; 29 femmes). Leur âge varie de 19 à 61 ans (moyenne: 41,1±11,6). L’âge était connu ou a été estimé indépendamment à partir de la morphologie générale du squelette. À partir de lames minces coupées à la mi-diaphyse, la densité de population des ostéons (OPD; ostéons/mm2 intacts et fragmentaires) a été calculée pour huit colonnes du périoste à l’endoste, deux par quadrant anatomique. Les régressions par calibration classique ont produit une série d’équation pour les estimations de l’âge pour chaque sexe, sexes combinés, et en fonction de la latéralité. La méthode utilisée diminue l’efficacité des estimations mais elle a l’avantage de réduire les biais. Quand les sexes sont combinés, l’OPD est corrélé modérément mais significativement avec l’âge (droit r2= 0,35; gauche r2=0,28). Cependant, quand les hommes et les femmes sont analysés séparément, la corrélation entre l’OPD et l’âge dans l’échantillon féminin est meilleure (droit r2=0,48; gauche r2=0,39) alors que celle des hommes est réduite (droit r2=0,29; gauche r2=0,22). Ce résultat a déjà été observé dans d’autres études, mais n’est pas expliqué. Les résultats démontrent aussi une meilleure corrélation entre l’OPD et l’âge du côté droit que du côté gauche. Tous les résultats présentés ici supportent l’hypothèse que l’OPD du métacarpe est corrélé avec l’âge effectif (c’est-à-dire connu ou estimé), les régressions de l’OPD sur l’âge (droit-gauche combinés ou séparés, sexes combinés ou séparés) étant toutes significatives.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
L’accident vasculaire cérébral (AVC) est une cause principale de décès et de morbidité dans le monde; une bonne partie des AVC est causée par la plaque d’athérosclérose carotidienne. La prévention de l’AVC chez les patients ayant une plaque carotidienne demeure controversée, vu les risques et bénéfices ambigus associés au traitement chirurgical ou médical. Plusieurs méthodes d’imagerie ont été développées afin d’étudier la plaque vulnérable (dont le risque est élevé), mais aucune n’est suffisamment validée ou accessible pour permettre une utilisation comme outil de dépistage. L’élastographie non-invasive vasculaire (NIVE) est une technique nouvelle qui cartographie les déformations (élasticité) de la plaque afin de détecter les plaque vulnérables; cette technique n’est pas encore validée cliniquement. Le but de ce projet est d’évaluer la capacité de NIVE de caractériser la composition de la plaque et sa vulnérabilité in vivo chez des patients ayant des plaques sévères carotidiennes, en utilisant comme étalon de référence, l’imagerie par résonance magnétique (IRM) à haute-résolution. Afin de poursuivre cette étude, une connaissance accrue de l’AVC, l’athérosclérose, la plaque vulnérable, ainsi que des techniques actuelles d’imagerie de la plaque carotidienne, est requise. Trente-et-un sujets ont été examinés par NIVE par ultrasonographie et IRM à haute-résolution. Sur 31 plaques, 9 étaient symptomatiques, 17 contenaient des lipides, et 7 étaient vulnérables selon l’IRM. Les déformations étaient significativement plus petites chez les plaques contenant des lipides, avec une sensibilité élevée et une spécificité modérée. Une association quadratique entre la déformation et la quantité de lipide a été trouvée. Les déformations ne pouvaient pas distinguer les plaques vulnérables ou symptomatiques. En conclusion, NIVE par ultrasonographie est faisable chez des patients ayant des sténoses carotidiennes significatives et peut détecter la présence d’un coeur lipidique. Des études supplémentaires de progression de la plaque avec NIVE sont requises afin d’identifier les plaques vulnérables.
Resumo:
Le cancer de la prostate (CaP) est le plus diagnostiqué chez les hommes au Canada et représente le troisième cancer le plus meurtrier au sein de cette population. Malgré l’efficacité des traitements de première ligne, de nombreux patients finiront par développer une résistance et, le cas échéant, verront leur CaP progresser vers une forme plus agressive. Plusieurs paramètres, essentiellement cliniques, permettent de prédire la progression du CaP mais leur sensibilité, encore limitée, implique la nécessité de nouveaux biomarqueurs afin de combler cette lacune. Dans cette optique nous nous intéressons au facteur de transcription NF-κB. Des études réalisées au laboratoire et ailleurs, associent RelA(p65) à un potentiel clinique dans le CaP, soulignant ainsi l’importance de la voie classique NF-κB. L’implication de la voie alternative NF-κB dans la progression du CaP a aussi été suggérée dans une de nos études illustrant la corrélation entre la distribution nucléaire de RelB et le score de Gleason. Alors que la voie classique est largement documentée et son implication dans la progression du CaP établie, la voie alternative, elle, reste à explorer. La présente thèse vise à clarifier l’implication de la voie alternative NF-κB dans le CaP et répond à deux objectifs fixés dans ce but. Le premier objectif fut d’évaluer l’impact de l'activation de la voie alternative NF-κB sur la biologie des cellules cancéreuses prostatiques. L’étude de la surexpression de RelB a souligné les effets de la voie alternative NF-κB sur la prolifération et l'autophagie. Étant ainsi impliquée tant dans la croissance tumorale que dans un processus de plus en plus associée à la progression tumorale, quoique potentiellement létal pour les cellules cancéreuses, son impact sur la tumorigénèse du CaP reste encore difficile à définir. Il n'existe, à ce jour, aucune étude permettant de comparer le potentiel clinique des voies classique et alternative NF-κB. Le second objectif de ce projet fut donc l'analyse conjointe de RelA(p65) et RelB au sein de mêmes tissus de patients atteints de CaP afin de déterminer l'importance clinique des deux signalisations NF-κB, l'une par rapport à l'autre. Le marquage immunofluorescent de RelA(p65) et RelB en a permis l'analyse quantitative et objective par un logiciel d'imagerie. Nos travaux ont confirmé le potentiel clinique associé à RelA(p65). La variable RelA(p65)/RelB s’est, elle, avérée moins informative que RelA(p65). Par contre, aucune corrélation entre RelB et les paramètres cliniques inclus dans l'étude n’est ressortie. En définitive, mon projet de thèse aura permis de préciser l'implication de la voie alternative NF-κB sur la biologie du CaP. Son impact sur la croissance des cellules cancéreuses prostatiques ainsi que sur l'autophagie, dénote l’ambivalence de la voie alternative NF-κB face à la tumorigénèse du CaP. L’étude exhaustive de la signalisation NF-κB souligne davantage l'importance de la voie classique dont l’intérêt clinique est principalement associé au statut de RelA(p65). Ainsi, bien que RelB n’affiche aucun potentiel en tant que biomarqueur exploitable en clinique, l’analyse de l’intervention de la voie alternative NF-κB sur la biologie des cellules cancéreuses prostatiques reste d’intérêt pour la compréhension de son rôle exact dans la progression du CaP.
Resumo:
Le but de ce travail de mémoire était d'explorer des moyens pour augmenter la perméabilité des biofilms de Streptococcus mutans aux macromolécules en utilisant des agents potentiellement perturbateurs de la structure des biofilms. L’acide éthylènediamine tétraacétique (EDTA) ainsi que l’acide acétylsalicylique (aspirine) sont les agents perturbateurs choisis. Le changement de perméabilité des biofilms de S. mutans a été déterminé en mesurant les coefficients de diffusion globale du polyéthylène glycol (PEG) et de diffusion locale de dextrans. Les coefficients de diffusion globale ont été mesurés par spectroscopie infrarouge avec un échantillonnage par réflexion totale atténuée (ATR) alors que la spectroscopie par corrélation de fluorescence (SCF) a été utilisée pour la mesure des coefficients de diffusion locale. Les résultats ont démontré que l’incorporation de l’EDTA à une concentration de 7.5 (m/v) % dans la solution de diffusion permet d’améliorer les propriétés de transport du PEG dans les biofilms en augmentant sa pénétrabilité et son coefficient de diffusion globale. Par contre, aucune variation n’a été constatée dans la valeur du coefficient de diffusion locale de dextran fluorescent. Cette différence peut être expliquée, entre autres, par l'échelle des mesures et la nature différente des molécules diffusantes. L’aspirine n’a démontré aucun effet sur le transport du PEG à travers les biofilms de S. mutans. La pénétration accrue du PEG en présence de l’EDTA a été corrélée aux tests de viabilité des cellules bactériennes. En effet, la combinaison de la pénicilline G (PenG) avec l’EDTA 2 (m/v) % a eu comme effet l’augmentation du pouvoir biocide d’un facteur 3. De plus, les images de microscopie à épifluorescence et de microscopie confocale à balayage de laser ont démontré que les bactéries dans le cœur des microcolonies sont plus affectées par la PenG lorsque le milieu contient de l'EDTA. A la lumière des résultats obtenus, il s’avère que l’incorporation d'agents perturbateurs de la structure des biofilms est une option sérieuse à considérer dans l’éradication des biofilms microbiens. Plus d’études devront être effectuées afin d’investiguer l’effet d’autres molécules possédant les propriétés perturbatrices de la structure des biofilms sur la résistance de ces derniers aux agents antimicrobiens.
Resumo:
Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).
Resumo:
Cette thèse s’intéresse à la modélisation magnétohydrodynamique des écoulements de fluides conducteurs d’électricité multi-échelles en mettant l’emphase sur deux applications particulières de la physique solaire: la modélisation des mécanismes des variations de l’irradiance via la simulation de la dynamo globale et la reconnexion magnétique. Les variations de l’irradiance sur les périodes des jours, des mois et du cycle solaire de 11 ans sont très bien expliquées par le passage des régions actives à la surface du Soleil. Cependant, l’origine ultime des variations se déroulant sur les périodes décadales et multi-décadales demeure un sujet controversé. En particulier, une certaine école de pensée affirme qu’une partie de ces variations à long-terme doit provenir d’une modulation de la structure thermodynamique globale de l’étoile, et que les seuls effets de surface sont incapables d’expliquer la totalité des fluctuations. Nous présentons une simulation globale de la convection solaire produisant un cycle magnétique similaire en plusieurs aspects à celui du Soleil, dans laquelle le flux thermique convectif varie en phase avec l’ ́energie magnétique. La corrélation positive entre le flux convectif et l’énergie magnétique supporte donc l’idée qu’une modulation de la structure thermodynamique puisse contribuer aux variations à long-terme de l’irradiance. Nous analysons cette simulation dans le but d’identifier le mécanisme physique responsable de la corrélation en question et pour prédire de potentiels effets observationnels résultant de la modulation structurelle. La reconnexion magnétique est au coeur du mécanisme de plusieurs phénomènes de la physique solaire dont les éruptions et les éjections de masse, et pourrait expliquer les températures extrêmes caractérisant la couronne. Une correction aux trajectoires du schéma semi-Lagrangien classique est présentée, qui est basée sur la solution à une équation aux dérivées partielles nonlinéaire du second ordre: l’équation de Monge-Ampère. Celle-ci prévient l’intersection des trajectoires et assure la stabilité numérique des simulations de reconnexion magnétique pour un cas de magnéto-fluide relaxant vers un état d’équilibre.
Resumo:
A combined experimental and theoretical study of the absorption spectra of a group of closely related pyrylium perchlorates 1-11 are presented. Minor changes in the position of the substituents lead to drastic changes in the absorption spectra in this series of compounds. We have attempted to explain the observed changes using the x,y-band notation developed by Balaban and co-workers. Absorption spectra of all compounds are compared with results from time-dependent density functional theory (TDDFT) and Zerner’s intermediate neglect of differential overlap (ZINDO/S) level calculations. Results of the calculations are in good agreement with experimental observations and an interesting correlation between Balaban’s notations and the MO transitions are obtained for simple derivatives. It is suggested that for more complex systems such as R- and â-naphthyl substituted systems, the empirical method is not appropriate.
Resumo:
Department of Mathematics, Cochin University of Science and Technology
Resumo:
New mathematical methods to analytically investigate linear acoustic radiation and scattering from cylindrical bodies and transducer arrays are presented. Three problems of interest involving cylinders in an infinite fluid are studied. In all the three problems, the Helmholtz equation is used to model propagation through the fluid and the beam patterns of arrays of transducers are studied. In the first problem, a method is presented to determine the omni-directional and directional far-field pressures radiated by a cylindrical transducer array in an infinite rigid cylindrical baffle. The solution to the Helmholtz equation and the displacement continuity condition at the interface between the array and the surrounding water are used to determine the pressure. The displacement of the surface of each transducer is in the direction of the normal to the array and is assumed to be uniform. Expressions are derived for the pressure radiated by a sector of the array vibrating in-phase, the entire array vibrating in-phase, and a sector of the array phase-shaded to simulate radiation from a rectangular piston. It is shown that the uniform displacement required for generating a source level of 220 dB ref. μPa @ 1m that is omni directional in the azimuthal plane is in the order of 1 micron for typical arrays. Numerical results are presented to show that there is only a small difference between the on-axis pressures radiated by phased cylindrical arrays and planar arrays. The problem is of interest because cylindrical arrays of projectors are often used to search for underwater objects. In the second problem, the errors, when using data-independent, classical, energy and split beam correlation methods, in finding the direction of arrival (DOA) of a plane acoustic wave, caused by the presence of a solid circular elastic cylindrical stiffener near a linear array of hydrophones, are investigated. Scattering from the effectively infinite cylinder is modeled using the exact axisymmetric equations of motion and the total pressures at the hydrophone locations are computed. The effect of the radius of the cylinder, a, the distance between the cylinder and the array, b, the number of hydrophones in the array, 2H, and the angle of incidence of the wave, α, on the error in finding the DOA are illustrated using numerical results. For an array that is about 30 times the wavelength and for small angles of incidence (α<10), the error in finding the DOA using the energy method is less than that using the split beam correlation method with beam steered to α; and in some cases, the error increases when b increases; and the errors in finding the DOA using the energy method and the split beam correlation method with beam steered to α vary approximately as a7 / 4 . The problem is of interest because elastic stiffeners – in nearly acoustically transparent sonar domes that are used to protect arrays of transducers – scatter waves that are incident on it and cause an error in the estimated direction of arrival of the wave. In the third problem, a high-frequency ray-acoustics method is presented and used to determine the interior pressure field when a plane wave is normally incident on a fluid cylinder embedded in another infinite fluid. The pressure field is determined by using geometrical and physical acoustics. The interior pressure is expressed as the sum of the pressures due to all rays that pass through a point. Numerical results are presented for ka = 20 to 100 where k is the acoustic wavenumber of the exterior fluid and a is the radius of the cylinder. The results are in good agreement with those obtained using field theory. The directional responses, to the plane wave, of sectors of a circular array of uniformly distributed hydrophones in the embedded cylinder are then computed. The sectors are used to simulate linear arrays with uniformly distributed normals by using delays. The directional responses are compared with the output from an array in an infinite homogenous fluid. These outputs are of interest as they are used to determine the direction of arrival of the plane wave. Numerical results are presented for a circular array with 32 hydrophones and 12 hydrophones in each sector. The problem is of interest because arrays of hydrophones are housed inside sonar domes and acoustic plane waves from distant sources are scattered by the dome filled with fresh water and cause deterioration in the performance of the array.
Resumo:
Within the noncollinear local spin-density approximation, we have studied the ground state structure of a parabolically confined quantum wire submitted to an in-plane magnetic field, including both Rashba and Dresselhaus spin-orbit interactions. We have explored a wide range of linear electronic densities in the weak (strong) coupling regimes that appear when the ratio of spin-orbit to confining energy is small (large). These results are used to obtain the conductance of the wire. In the strong coupling limit, the interplay between the applied magnetic field¿irrespective of the in-plane direction, the exchange-correlation energy, and the spin-orbit energy-produces anomalous plateaus in the conductance vs linear density plots that are otherwise absent, or washes out plateaus that appear when the exchange-correlation energy is not taken into account.
Resumo:
The performance of different correlation functionals has been tested for alkali metals, Li to Cs, interacting with cluster models simulating different active sites of the Si(111) surface. In all cases, the ab initio Hartree-Fock density has been obtained and used as a starting point. The electronic correlation energy is then introduced as an a posteriori correction to the Hartree-Fock energy using different correlation functionals. By making use of the ionic nature of the interaction and of different dissociation limits we have been able to prove that all functionals tested introduce the right correlation energy, although to a different extent. Hence, correlation functionals appear as an effective and easy way to introduce electronic correlation in the ab initio Hartree-Fock description of the chemisorption bond in complex systems where conventional configuration interaction techniques cannot be used. However, the calculated energies may differ by some tens of eV. Therefore, these methods can be employed to get a qualitative idea of how important correlation effects are, but they have some limitations if accurate binding energies are to be obtained.