866 resultados para Lower bounds
Resumo:
La méthode de subdivision Catmull-Clark ainsi que la méthode de subdivision Loop sont des normes industrielle de facto. D'autre part, la méthode de subdivision 4-8 est bien adaptée à la subdivision adaptative, parce que cette méthode augmente le nombre de faces ou de sommets par seulement un facteur de 2 à chaque raffinement. Cela promet d'être plus pratique pour atteindre un niveau donné de précision. Dans ce mémoire, nous présenterons une méthode permettant de paramétrer des surfaces de subdivision de la méthode Catmull-Clark et de la méthode 4-8. Par conséquent, de nombreux algorithmes mis au point pour des surfaces paramétriques pourrant être appliqués aux surfaces de subdivision Catmull-Clark et aux surfaces de subdivision 4-8. En particulier, nous pouvons calculer des bornes garanties et réalistes sur les patches, un peu comme les bornes correspondantes données par Wu-Peters pour la méthode de subdivision Loop.
Resumo:
Cette thèse s’intéresse aux choix institutionnels des législateurs. Elle propose une analyse diachronique et comparative du développement des Chambre Nationale des Députés argentines et chiliennes des années 1940 aux années 2000. Inspiré de la théorie du Cartel (Cox et McCubbins, 1993), ce travail se concentre sur le rôle des partis politiques dans ce développement institutionnel. Il montre qu’en dépit de leurs différences, les partis uniques, coalitions, forces majoritaires ou minoritaires qui ont dirigé ces chambres ont adopté un large éventail de règles et de normes organisationnelles qui les avantagent. Ils se sont, en un mot, comportés comme des coalitions procédurales. L’analyse des modifications des règles de fonctionnement de ces chambres et de leurs systèmes de direction et de commissions montre que les partis et coalitions au pouvoir ont, pendant cette période, renforcé leur pouvoir, contrôlé l’agenda législatif, structuré les systèmes de commission et adopté des règles qui leur ont profité. Les résultats obtenus suggèrent en particulier que les coalitions qui ont dirigé la chambre Chilienne ont installé certains de leurs membres à plusieurs postes comme les présidences d’assemblée et de commissions. Ils montrent l’existence d’un pouvoir de véto sur l’agenda législative plus importante au Chili qu’en Argentine. L’étude du cas argentin montre que les partis au pouvoir ont, en particulier depuis les années 1960, conservé le contrôle de la chambre, non seulement en modifiant les règles et les structures du système de commissions, mais également en créant et distribuant à l’opposition des postes permanents mais sans réel pouvoir. Cette analyse confirme également les résultats obtenus par de récentes études concernant ce champ de recherche, notamment le professionnalisme du système de commission chilien et le caractère amateur des législateurs argentins. A l’inverse, elle met à jour des différences, négligées jusqu’alors, entre l’Argentine et le Chili concernant le contrôle de l’agenda législatif. Cette thèse est divisée en sept chapitres. Le premier introduit le sujet, l’hypothèse générale et les questions posées par la thèse, en expliquant également pourquoi les choix institutionnels des législateurs importent. Le chapitre II présente la théorie et la méthodologie. Il propose une définition du développement institutionnel et explicite les prédictions et critères permettant de tester l’hypothèse générale. Les chapitre III et IV, qui concernent respectivement l’Argentine et le Chili, décrivent le système politique de chaque pays et l’organisation des chambres durant la période étudiée. Les chapitre IV et VI, respectivement pour l’Argentine et le Chili, analysent les réformes des règles régissant les chambres, l’évolution de l’autorité qui les dirige et celle du système de commission. Ces chapitres se concluent par un résumé des différents schémas mis en évidence et une évaluation préliminaire de l’hypothèse générale. En conclusion, le chapitre VII résume les découvertes, donne un verdict global sur la fécondité de la théorie et suggère de nouvelles pistes de recherche.
Resumo:
L’athérosclérose est une maladie qui cause, par l’accumulation de plaques lipidiques, le durcissement de la paroi des artères et le rétrécissement de la lumière. Ces lésions sont généralement localisées sur les segments artériels coronariens, carotidiens, aortiques, rénaux, digestifs et périphériques. En ce qui concerne l’atteinte périphérique, celle des membres inférieurs est particulièrement fréquente. En effet, la sévérité de ces lésions artérielles est souvent évaluée par le degré d’une sténose (réduction >50 % du diamètre de la lumière) en angiographie, imagerie par résonnance magnétique (IRM), tomodensitométrie ou échographie. Cependant, pour planifier une intervention chirurgicale, une représentation géométrique artérielle 3D est notamment préférable. Les méthodes d’imagerie par coupe (IRM et tomodensitométrie) sont très performantes pour générer une imagerie tridimensionnelle de bonne qualité mais leurs utilisations sont dispendieuses et invasives pour les patients. L’échographie 3D peut constituer une avenue très prometteuse en imagerie pour la localisation et la quantification des sténoses. Cette modalité d’imagerie offre des avantages distincts tels la commodité, des coûts peu élevés pour un diagnostic non invasif (sans irradiation ni agent de contraste néphrotoxique) et aussi l’option d’analyse en Doppler pour quantifier le flux sanguin. Étant donné que les robots médicaux ont déjà été utilisés avec succès en chirurgie et en orthopédie, notre équipe a conçu un nouveau système robotique d’échographie 3D pour détecter et quantifier les sténoses des membres inférieurs. Avec cette nouvelle technologie, un radiologue fait l’apprentissage manuel au robot d’un balayage échographique du vaisseau concerné. Par la suite, le robot répète à très haute précision la trajectoire apprise, contrôle simultanément le processus d’acquisition d’images échographiques à un pas d’échantillonnage constant et conserve de façon sécuritaire la force appliquée par la sonde sur la peau du patient. Par conséquent, la reconstruction d’une géométrie artérielle 3D des membres inférieurs à partir de ce système pourrait permettre une localisation et une quantification des sténoses à très grande fiabilité. L’objectif de ce projet de recherche consistait donc à valider et optimiser ce système robotisé d’imagerie échographique 3D. La fiabilité d’une géométrie reconstruite en 3D à partir d’un système référentiel robotique dépend beaucoup de la précision du positionnement et de la procédure de calibration. De ce fait, la précision pour le positionnement du bras robotique fut évaluée à travers son espace de travail avec un fantôme spécialement conçu pour simuler la configuration des artères des membres inférieurs (article 1 - chapitre 3). De plus, un fantôme de fils croisés en forme de Z a été conçu pour assurer une calibration précise du système robotique (article 2 - chapitre 4). Ces méthodes optimales ont été utilisées pour valider le système pour l’application clinique et trouver la transformation qui convertit les coordonnées de l’image échographique 2D dans le référentiel cartésien du bras robotisé. À partir de ces résultats, tout objet balayé par le système robotique peut être caractérisé pour une reconstruction 3D adéquate. Des fantômes vasculaires compatibles avec plusieurs modalités d’imagerie ont été utilisés pour simuler différentes représentations artérielles des membres inférieurs (article 2 - chapitre 4, article 3 - chapitre 5). La validation des géométries reconstruites a été effectuée à l`aide d`analyses comparatives. La précision pour localiser et quantifier les sténoses avec ce système robotisé d’imagerie échographique 3D a aussi été déterminée. Ces évaluations ont été réalisées in vivo pour percevoir le potentiel de l’utilisation d’un tel système en clinique (article 3- chapitre 5).
Resumo:
Gowers, dans son article sur les matrices quasi-aléatoires, étudie la question, posée par Babai et Sos, de l'existence d'une constante $c>0$ telle que tout groupe fini possède un sous-ensemble sans produit de taille supérieure ou égale a $c|G|$. En prouvant que, pour tout nombre premier $p$ assez grand, le groupe $PSL_2(\mathbb{F}_p)$ (d'ordre noté $n$) ne posséde aucun sous-ensemble sans produit de taille $c n^{8/9}$, il y répond par la négative. Nous allons considérer le probléme dans le cas des groupes compacts finis, et plus particuliérement des groupes profinis $SL_k(\mathbb{Z}_p)$ et $Sp_{2k}(\mathbb{Z}_p)$. La premiére partie de cette thése est dédiée à l'obtention de bornes inférieures et supérieures exponentielles pour la mesure suprémale des ensembles sans produit. La preuve nécessite d'établir préalablement une borne inférieure sur la dimension des représentations non-triviales des groupes finis $SL_k(\mathbb{Z}/(p^n\mathbb{Z}))$ et $Sp_{2k}(\mathbb{Z}/(p^n\mathbb{Z}))$. Notre théoréme prolonge le travail de Landazuri et Seitz, qui considérent le degré minimal des représentations pour les groupes de Chevalley sur les corps finis, tout en offrant une preuve plus simple que la leur. La seconde partie de la thése à trait à la théorie algébrique des nombres. Un polynome monogéne $f$ est un polynome unitaire irréductible à coefficients entiers qui endengre un corps de nombres monogéne. Pour un nombre premier $q$ donné, nous allons montrer, en utilisant le théoréme de densité de Tchebotariov, que la densité des nombres premiers $p$ tels que $t^q -p$ soit monogéne est supérieure ou égale à $(q-1)/q$. Nous allons également démontrer que, quand $q=3$, la densité des nombres premiers $p$ tels que $\mathbb{Q}(\sqrt[3]{p})$ soit non monogéne est supérieure ou égale à $1/9$.
Resumo:
Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.
Resumo:
Tachykinin and opioid peptides play a central role in pain transmission, modulation and inhibition. The treatment of pain is very important in medicine and many studies using NK1 receptor antagonists failed to show significant analgesic effects in humans. Recent investigations suggest that both pronociceptive tachykinins and the analgesic opioid systems are important for normal pain sensation. The analysis of opioid peptides in Tac1-/- spinal cord tissues offers a great opportunity to verify the influence of the tachykinin system on specific opioid peptides. The objectives of this study were to develop a HPLC–MS/MRM assay to quantify targeted peptides in spinal cord tissues. Secondly, we wanted to verify if the Tac1-/- mouse endogenous opioid system is hampered and therefore affect significantly the pain modulatory pathways. Targeted neuropeptides were analyzed by high performance liquid chromatography linear ion trap mass spectrometry. Our results reveal that EM-2, Leu-Enk and Dyn A were down-regulated in Tac1-/- spinal cord tissues. Interestingly, Dyn A was almost 3 fold down-regulated (p < 0.0001). No significant concentration differences were observed in mouse Tac1-/- spinal cords for Met-Enk and CGRP. The analysis of Tac1-/- mouse spinal cords revealed noteworthy decreases of EM-2, Leu-Enk and Dyn A concentrations which strongly suggest a significant impact on the endogenous pain-relieving mechanisms. These observations may have insightful impact on future analgesic drug developments and therapeutic strategies.
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
Driving while impaired (DWI) is a grave and persistent high-risk behavior. Previous work demonstrated that DWI recidivists had attenuated cortisol reactivity compared to non-DWI drivers. This suggests that cortisol is a neurobiological marker of high-risk driving. The present study tested the hypothesis that this initial finding would extend to first-time DWI (fDWI) offenders compared to non-DWI drivers. Male fDWI offenders (n = 139) and non-DWI drivers (n = 31) were exposed to a stress task, and their salivary cortisol activity (total output and reactivity) was measured. Participants also completed questionnaires on sensation seeking, impulsivity, substance use, and engagement in risky and criminal behaviors. As hypothesized, fDWI offenders, compared to non-DWI drivers, had lower cortisol reactivity; fDWI offenders also showed lower total output. In addition, cortisol activity was the most important predictor of group membership, after accounting for alcohol misuse patterns and consequences and other personality and problem behavior characteristics. The findings indicate that attenuated cortisol activity is an independent factor associated with DWI offending risk at an earlier stage in the DWI trajectory than previously detected.
Resumo:
The proposed study is an attempt to quantify and study the seasonal and spatial variations in the distribution of Cr, Mn, Fe, Co, Ni, Cu, Zn, Cd and Pb among the various geochemical phases in the surficial sediments of Chitrapuzha river. The study also estimates the concentration of heavy metals in dissolved, particulate and sediments and their variation in seasonal and spatial distribution. Chitrapuzha River originates as a small stream from the upper reaches of high ranges in the eastern boundary of Kerala, passes through the valley and finally joints in the Cochin backwaters. Numerous industrial units located along the banks of the river discharge treated and untreated effluents into the water. These are long standing local complaints about water pollution causing fish mortality and serious damage to agricultural crops resulting in extensive unemployment in the area. The river is thus of considerable social and economic importance.
Resumo:
In the present thesis, an attempt has been made to study the characteristics of troposphere and lower stratosphere during the passage of tropical cyclones from a tropical station in India using MST radar. MST radar is an excellent tool for studying various features of the atmosphere from ground to mesospheric heights, as it can be operated continuously with good time and altitude resolution. The major objectives are to identify the multiple layers of reflectivity observed in the atmosphere during cyclones, to study the troposphere characteristics during these cyclones and its dependence on cyclone position and intensity, to detect the waves present in the atmosphere, to study the transport of momentum fluxes and to understand stratosphere. The winds in the troposphere and lower stratosphere are greatly affected by the passage of cyclones; the presence of high reflectivity layers below the tropopause suggests the passage of severe weather systems etc. are some of the major findings of the study. The study can be extended further to understand the circulation and dynamics of the atmosphere associated with the passage of tropical cyclones. The gravity wave generation and its characteristics during the passage of storms is another important aspect to be studied in detail.
Resumo:
The present work is an attempt to understand the characteristics of the upper troposphere and lower stratosphere over the Asian summer monsoon region, more specifically over the Indian subcontinent. Mainly three important parameters are taken such as zonal wind, temperature and ozone over the UT/LS of the Asian summer monsoon region. It made a detailed study of its interannual variability and characteristics of theses parameters during the Indian summer monsoon period. Monthly values of zonal wind and temperature from the NCEP/NCAR reanalysis for the period 1960-2002 are used for the present study. Also the daily overpass total ozone data for the 12 Indian stations (from low latitude to high latitudes) from the TOMS Nimbus 7 satellite for the period 1979 to 1992 were also used to understand the total ozone variation over the Indian region. The study reveals that if QBO phases in the stratosphere is easterly or weak westerly then the respective monsoon is found to be DRY or below Normal . On the other hand, if the phase is westerly or weak easterly the respective Indian summer monsoon is noted as a WET year. This connection of stratospheric QBO phases and Indian summer monsoon gives more insight in to the long-term predictions of Indian summer monsoon rainfall. Wavelet analysis and EOF methods are the two advanced statistical techniques used in the present study to explore more information of the zonal wind that from the smaller scale to higher scale variability over the Asian summer monsoon region. The interannual variability of temperature for different stratospheric and tropospheric levels over the Asian summer monsoon region have been studied. An attempt has been made to understand the total ozone characteristics and its interannual variablilty over 12 Indian stations spread from south latitudes to north latitudes. Finally it found that the upper troposphere and lower stratosphere contribute significantly to monsoon variability and climate changes. It is also observed that there exists a link between the stratospheric QBO and Indian summer monsoon
Resumo:
A new procedure for the classification of lower case English language characters is presented in this work . The character image is binarised and the binary image is further grouped into sixteen smaller areas ,called Cells . Each cell is assigned a name depending upon the contour present in the cell and occupancy of the image contour in the cell. A data reduction procedure called Filtering is adopted to eliminate undesirable redundant information for reducing complexity during further processing steps . The filtered data is fed into a primitive extractor where extraction of primitives is done . Syntactic methods are employed for the classification of the character . A decision tree is used for the interaction of the various components in the scheme . 1ike the primitive extraction and character recognition. A character is recognized by the primitive by primitive construction of its description . Openended inventories are used for including variants of the characters and also adding new members to the general class . Computer implementation of the proposal is discussed at the end using handwritten character samples . Results are analyzed and suggestions for future studies are made. The advantages of the proposal are discussed in detail .
Resumo:
Department of Statistics, Cochin University of Science and Technology
Resumo:
Lower partial moments plays an important role in the analysis of risks and in income/poverty studies. In the present paper, we further investigate its importance in stochastic modeling and prove some characterization theorems arising out of it. We also identify its relationships with other important applied models such as weighted and equilibrium models. Finally, some applications of lower partial moments in poverty studies are also examined