894 resultados para Calculus of variations.
Resumo:
The Rapid Oscillations in the Solar Atmosphere instrument reveals solar atmospheric fluctuations at high frequencies. Spectra of variations of the G-band intensity (IG ) and Ca II K-line intensity (IK ) show correlated fluctuations above white noise to frequencies beyond 300 mHz and 50 mHz, respectively. The noise-corrected G-band spectrum for f = 28-326 mHz shows a power law with exponent -1.21 ± 0.02, consistent with the presence of turbulent motions. G-band spectral power in the 25-100 mHz ("UHF") range is concentrated at the locations of magnetic bright points in the intergranular lanes and is highly intermittent in time. The intermittence of the UHF G-band fluctuations, shown by a positive kurtosis ?, also suggests turbulence. Combining values of IG , IK , UHF power, and ? reveals two distinct states of the solar atmosphere. State 1, including almost all the data, is characterized by low IG , IK , and UHF power and ? ˜ 6. State 2, including only a very small fraction of the data, is characterized by high IG , IK , and UHF power and ? ˜ 3. Superposed epoch analysis shows that the UHF power peaks simultaneously with spatio-temporal IG maxima in either state. For State 1, IK shows 3.5 minute chromospheric oscillations with maxima occurring 21 s after IG maxima implying a 150-210 km effective height difference. However, for State 2 the IK and IG maxima are simultaneous; in this highly magnetized environment sites of G-band and K-line emission may be spatially close together.
Resumo:
The aim of this paper is to develop a new extruder control system for recycled materials which has ability to automatically maintain constant a polymer melt viscosity of mixed recycled polymers during extrusion, regardless of variations in the Melt Flow Index (MFI) of recycled mixed grade high density polyethylene (HDPE) feedstock. A closed-loop controller is developed to automatically regulate screw speed and barrel temperature profile to achieve constant viscosity and enable consistent processing of variable grade recycled HDPE materials. The experimental results of real time viscosity measurement and control using a 38mm single screw extruder with different recycled HDPEs with widely different MFIs are reported in this work
Resumo:
Recent work of Biedermann and Roendigs has translated Goodwillie's calculus of functors into the language of model categories. Their work focuses on symmetric multilinear functors and the derivative appears only briefly. In this paper we focus on understanding the derivative as a right Quillen functor to a new model category. This is directly analogous to the behaviour of Weiss's derivative in orthogonal calculus. The immediate advantage of this new category is that we obtain a streamlined and more informative proof that the n-homogeneous functors are classified by spectra with an action of the symmetric group on n objects. In a later paper we will use this new model category to give a formal comparison between the orthogonal calculus and Goodwillie's calculus of functors.
Resumo:
This paper proposes a series of variations in designing the location of a wind farm on Monti della Tolfa. These project solutions aim at mitigating the visual impact caused by the wind aerogenerators. Besides the usual location of the wind aerogenerators on the skyline, these alternatives within the project design relate to the placement of wind turbines in the middle and at the bottom of the hillside. Other possible mitigation forms relate to the dimensions and the colour of the wind towers. This study proposes both a non-monetary and monetary analysis of the visual impact related to each project proposal. The final aim of the paper is to analyze economic and financial costs-benefits for each alternative to find out the economic optimal solution.
Resumo:
The worsening of process variations and the consequent increased spreads in circuit performance and consumed power hinder the satisfaction of the targeted budgets and lead to yield loss. Corner based design and adoption of design guardbands might limit the yield loss. However, in many cases such methods may not be able to capture the real effects which might be way better than the predicted ones leading to increasingly pessimistic designs. The situation is even more severe in memories which consist of substantially different individual building blocks, further complicating the accurate analysis of the impact of variations at the architecture level leaving many potential issues uncovered and opportunities unexploited. In this paper, we develop a framework for capturing non-trivial statistical interactions among all the components of a memory/cache. The developed tool is able to find the optimum memory/cache configuration under various constraints allowing the designers to make the right choices early in the design cycle and consequently improve performance, energy, and especially yield. Our, results indicate that the consideration of the architectural interactions between the memory components allow to relax the pessimistic access times that are predicted by existing techniques.
Resumo:
Most studies of returned highly skilled migrants in China were guided by a national approach, emphasizing how the size and direction of the return migration were shaped by national policies and practices. What have been overlooked are the flows of returned skills at the municipal level where talent attraction and employment really take place. To fill this gap, the author conducted a comparative study of the returned highly-skilled migration in Beijing, Shanghai, Guangzhou and Shenzhen, the four most important cities in China. Based on in-depth interviews with returned skills from different countries and with various occupational backgrounds, complemented by the analysis of talent policies that have been issued by each city since the early 1990s and relevant statistical data, this study finds that, first, municipal cities tend to make ‘localized policies’ in order to suit local situation and to increase flexibility and efficiency in their effort of enticing of talents, demonstrating a wide range of variations not yet discussed in previous literature. It is thus crucial to pay timely attention to municipalities in order to obtain a more accurate and balanced picture of returned skilled migration in China. Second, the flow of returned skills shall be perceived in a broader analytical framework, in which the attractiveness to skills comes mostly from the long-term career potentials made possible by the industrial structure of individual city and mediated by social, cultural and geographical factors. It is only within this larger framework and through the interaction with other factors that government policies play their modulator roles.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações
Resumo:
O trabalho apresentado centra-se na determinação dos custos de construção de condutas de pequenos e médios diâmetros em Polietileno de Alta Densidade (PEAD) para saneamento básico, tendo como base a metodologia descrita no livro Custos de Construção e Exploração – Volume 9 da série Gestão de Sistemas de Saneamento Básico, de Lencastre et al. (1994). Esta metodologia descrita no livro já referenciado, nos procedimentos de gestão de obra, e para tal foram estimados custos unitários de diversos conjuntos de trabalhos. Conforme Lencastre et al (1994), “esses conjuntos são referentes a movimentos de terras, tubagens, acessórios e respetivos órgãos de manobra, pavimentações e estaleiro, estando englobado na parte do estaleiro trabalhos acessórios correspondentes à obra.” Os custos foram obtidos analisando vários orçamentos de obras de saneamento, resultantes de concursos públicos de empreitadas recentemente realizados. Com vista a tornar a utilização desta metodologia numa ferramenta eficaz, foram organizadas folhas de cálculo que possibilitam obter estimativas realistas dos custos de execução de determinada obra em fases anteriores ao desenvolvimento do projeto, designadamente numa fase de preparação do plano diretor de um sistema ou numa fase de elaboração de estudos de viabilidade económico-financeiros, isto é, mesmo antes de existir qualquer pré-dimensionamento dos elementos do sistema. Outra técnica implementada para avaliar os dados de entrada foi a “Análise Robusta de Dados”, Pestana (1992). Esta metodologia permitiu analisar os dados mais detalhadamente antes de se formularem hipóteses para desenvolverem a análise de risco. A ideia principal é o exame bastante flexível dos dados, frequentemente antes mesmo de os comparar a um modelo probabilístico. Assim, e para um largo conjunto de dados, esta técnica possibilitou analisar a disparidade dos valores encontrados para os diversos trabalhos referenciados anteriormente. Com os dados recolhidos, e após o seu tratamento, passou-se à aplicação de uma metodologia de Análise de Risco, através da Simulação de Monte Carlo. Esta análise de risco é feita com recurso a uma ferramenta informática da Palisade, o @Risk, disponível no Departamento de Engenharia Civil. Esta técnica de análise quantitativa de risco permite traduzir a incerteza dos dados de entrada, representada através de distribuições probabilísticas que o software disponibiliza. Assim, para por em prática esta metodologia, recorreu-se às folhas de cálculo que foram realizadas seguindo a abordagem proposta em Lencastre et al (1994). A elaboração e a análise dessas estimativas poderão conduzir à tomada de decisões sobre a viabilidade da ou das obras a realizar, nomeadamente no que diz respeito aos aspetos económicos, permitindo uma análise de decisão fundamentada quanto à realização dos investimentos.
Resumo:
RESUMO - Contexto: Admite-se a existência de variações no número e nível de experiência dos profissionais de saúde disponíveis nos hospitais durante a noite e o fim-de-semana. As consequências desta situação na qualidade dos cuidados de saúde prestados expõem a importância deste estudo realizado com o objetivo de avaliar o impacto do momento de admissão sobre a mortalidade e a demora média no internamento. Metodologia: Foram estudados 201 369 episódios urgentes, admitidos com um de 36 diagnósticos principais, de acordo com as informações na base de dados dos resumos de alta, para o ano de 2012. O momento de admissão foi definido por período (dias úteis/fim-de-semana) e por hora (dia/noite), e estimaram-se os efeitos fim-de-semana e noite ao nível da mortalidade e da demora média em modelos de regressão logística. Resultados: Registou-se um aumento de 3% no risco de morte, em doentes admitidos ao fim-de-semana. Diferenças que não se verificaram entre os doentes admitidos de dia e de noite. Relativamente à demora média, verificou-se um aumento de 3% na probabilidade dos doentes admitidos durante o fim-de-semana terem uma demora média de internamento superior. Assim como os doentes admitidos durante a noite apresentaram um aumento de 2,9% na probabilidade de terem demora média de internamento mais longa. Conclusão: Os dados apresentados permitem um melhor conhecimento sobre a influência da variação da atividade hospitalar ao longo do dia e da semana nos hospitais portugueses, identificando a necessidade de aprofundar o tema e de implementar medidas que suprimam os efeitos fim-de-semana e noite.
Resumo:
Using data from the National Longitudinal Survey of Youth (NLSY), we re-examine the effect of formal on-the-job training on mobility patterns of young American workers. By employing parametric duration models, we evaluate the economic impact of training on productive time with an employer. Confirming previous studies, we find a positive and statistically significant impact of formal on-the-job training on tenure with the employer providing the training. However, the expected net duration of the time spent in the training program is generally not significantly increased. We proceed to document and analyze intra-sectoral and cross-sectoral mobility patterns in order to infer whether training provides firm-specific, industry-specific, or general human capital. The econometric analysis rejects a sequential model of job separation in favor of a competing risks specification. We find significant evidence for the industry-specificity of training. The probability of sectoral mobility upon job separation decreases with training received in the current industry, whether with the last employer or previous employers, and employment attachment increases with on-the-job training. These results are robust to a number of variations on the base model.
Resumo:
La proprotéine convertase subtilisine/kexine type 9 (PCSK9) favorise la dégradation post-transcriptionnelle du récepteur des lipoprotéines de faible densité (LDLr) dans les hépatocytes et augmente le LDL-cholestérol dans le plasma. Cependant, il n’est pas clair si la PCSK9 joue un rôle dans l’intestin. Dans cette étude, nous caractérisons les variations de la PCSK9 et du LDLr dans les cellules Caco-2/15 différentiées en fonction d’une variété d’effecteurs potentiels. Le cholestérol (100 µM) lié à l’albumine ou présenté en micelles a réduit de façon significative l’expression génique (30%, p<0,05) et l’expression protéique (50%, p<0,05) de la PCSK9. Étonnamment, une diminution similaire dans le LDLr protéique a été enregistrée (45%, p<0,05). Les cellules traitées avec le 25-hydroxycholestérol (50 µM) présentent également des réductions significatives dans l’ARNm (37%, p<0,01) et la protéine (75%, p<0,001) de la PCSK9. Une baisse des expressions génique (30%, p<0,05) et protéique (57%, p<0,01) a également été constatée dans le LDLr. Des diminutions ont aussi été observées pour la HMG CoA réductase et la protéine liant l’élément de réponse aux stérols SREBP-2. Il a été démontré que le SREBP-2 peut activer transcriptionnellement la PCSK9 par le biais de la liaison de SREBP-2 à son élément de réponse aux stérols situé dans la région proximale du promoteur de la PCSK9. Inversement, la déplétion du contenu cellulaire en cholestérol par l’hydroxypropyl-β-cyclodextrine a augmenté l’expression génique de la PCSK9 (20%, p<0,05) et son contenu protéique (540%, p<0,001), en parallèle avec les niveaux protéiques de SREBP-2. L’ajout des acides biliaires taurocholate et déoxycholate dans le milieu apical des cellules intestinales Caco-2/15 a provoqué une baisse d’expression génique (30%, p<0,01) et une hausse d’expression protéique (43%, p<0,01) de la PCSK9 respectivement, probablement via la modulation du FXR (farnesoid X receptor). Ces données combinées semblent donc indiquer que la PCSK9 fonctionne comme un senseur de stérols dans le petit intestin.
Resumo:
L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés.
Resumo:
L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.
Resumo:
Les études génétiques, telles que les études de liaison ou d’association, ont permis d’acquérir une plus grande connaissance sur l’étiologie de plusieurs maladies affectant les populations humaines. Même si une dizaine de milliers d’études génétiques ont été réalisées sur des centaines de maladies ou autres traits, une grande partie de leur héritabilité reste inexpliquée. Depuis une dizaine d’années, plusieurs percées dans le domaine de la génomique ont été réalisées. Par exemple, l’utilisation des micropuces d’hybridation génomique comparative à haute densité a permis de démontrer l’existence à grande échelle des variations et des polymorphismes en nombre de copies. Ces derniers sont maintenant détectables à l’aide de micropuce d’ADN ou du séquençage à haut débit. De plus, des études récentes utilisant le séquençage à haut débit ont permis de démontrer que la majorité des variations présentes dans l’exome d’un individu étaient rares ou même propres à cet individu. Ceci a permis la conception d’une nouvelle micropuce d’ADN permettant de déterminer rapidement et à faible coût le génotype de plusieurs milliers de variations rares pour un grand ensemble d’individus à la fois. Dans ce contexte, l’objectif général de cette thèse vise le développement de nouvelles méthodologies et de nouveaux outils bio-informatiques de haute performance permettant la détection, à de hauts critères de qualité, des variations en nombre de copies et des variations nucléotidiques rares dans le cadre d’études génétiques. Ces avancées permettront, à long terme, d’expliquer une plus grande partie de l’héritabilité manquante des traits complexes, poussant ainsi l’avancement des connaissances sur l’étiologie de ces derniers. Un algorithme permettant le partitionnement des polymorphismes en nombre de copies a donc été conçu, rendant possible l’utilisation de ces variations structurales dans le cadre d’étude de liaison génétique sur données familiales. Ensuite, une étude exploratoire a permis de caractériser les différents problèmes associés aux études génétiques utilisant des variations en nombre de copies rares sur des individus non reliés. Cette étude a été réalisée avec la collaboration du Wellcome Trust Centre for Human Genetics de l’University of Oxford. Par la suite, une comparaison de la performance des algorithmes de génotypage lors de leur utilisation avec une nouvelle micropuce d’ADN contenant une majorité de marqueurs rares a été réalisée. Finalement, un outil bio-informatique permettant de filtrer de façon efficace et rapide des données génétiques a été implémenté. Cet outil permet de générer des données de meilleure qualité, avec une meilleure reproductibilité des résultats, tout en diminuant les chances d’obtenir une fausse association.
Resumo:
This paper introduces and examines the logicist construction of Peano Arithmetic that can be performed into Leśniewski’s logical calculus of names called Ontology. Against neo-Fregeans, it is argued that a logicist program cannot be based on implicit definitions of the mathematical concepts. Using only explicit definitions, the construction to be presented here constitutes a real reduction of arithmetic to Leśniewski’s logic with the addition of an axiom of infinity. I argue however that such a program is not reductionist, for it only provides what I will call a picture of arithmetic, that is to say a specific interpretation of arithmetic in which purely logical entities play the role of natural numbers. The reduction does not show that arithmetic is simply a part of logic. The process is not of ontological significance, for numbers are not shown to be logical entities. This neo-logicist program nevertheless shows the existence of a purely analytical route to the knowledge of arithmetical laws.