828 resultados para Cálculo infinitesimal
Resumo:
A raspagem subgengival e o alisamento radicular constituem o "padrão ouro" e o tratamento de eleição para a periodontite; porém, é um procedimento difícil de ser executado, que requer um intenso treinamento e que pode expor a dentina, causando hipersensibilidade dentinária pela remoção excessiva de cemento, ou produzir defeitos, como sulcos e ranhuras, além de deixar cálculo residual e não conseguir atingir toda as superfície radicular. Recentemente, um gel a base de papaína e cloramina foi introduzido no mercado (Papacárie), utilizado no tratamento da remoção de dentina cariada. Este gel poderia auxiliar na remoção do cálculo subgengival com menor desgaste do cemento. O objetivo deste trabalho foi comparar a eficácia e analisar a superfície radicular na utilização de um gel à base de papaína e cloramina, associado ao alisamento radicular, na região subgengival. Após receberem instruções de higiene oral, raspagem supragengival e polimento coronário, 18 pacientes com periodontite crônica, 6 mulheres e 12 homens, com idade média de 51 anos (8) foram tratados num modelo de boca dividida. O tratamento-teste foi constituído pela aplicação do gel na área subgengival por 1 min., seguida pelo alisamento radicular; o tratamento-controle foi constituído pela raspagem subgengival e alisamento radiculares. A terapia foi executada por 3 operadoras e os exames inicial, de 28 dias e 3 meses, foram realizados por um único examinador. Quatro dentes nunca tratados de dois outros pacientes (2 incisivos centrais inferiores e 2 premolares), com indicação para extração, foram submetidos ao tratamento teste e controle e, após a exodontia, analisados em microscopia eletrônica de varredura (MEV). Ao longo dos 3 meses, os resultados demonstraram significativa melhora nos parâmetros clínicos: sangramento à sondagem, profundidade de bolsa e ganho de inserção, tanto no lado-teste, como no lado-controle, principalmente aos 28 dias; mas não foi observada significância estatística quando ambas as formas de terapia foram comparadas. O índice de placa médio permaneceu alto ao longo do estudo. A análise do MEV demonstrou que o tratamento-teste deixou uma maior quantidade de cálculo residual sobre a superfície radicular; porém, áreas livres de cálculo também foram observadas. No tratamento-controle, verificaram-se regiões mais profundas não atingidas pelas curetas, áreas livres de cálculo e um sulco produzido pela cureta. Concluiu-se que tanto o tratamento-teste, como o controle, foram eficazes no tratamento da periodontite crônica nos 3 meses observados.
Resumo:
El presente Trabajo de Fin de Grado nos ofrece la posibilidad de profundizar en aspectos relacionados con la administración pública,tomando como base la información presupuestaria y financiera de la Entidad Local Sarriko 1. en el período 2010-2013. Se analizará el volumen de gasto e ingreso liquidado, su distribución funcional y económica. Además se diagnosticará su situación presupuestaria y financiera actual, las causas que la han llevado a esta situación y en la medida de lo posible determinar escenarios de situación futuros.Por otro lado, se aborda el tema de la Estabilidad Presupuestaria, así como el cálculo de dicha variable.
Resumo:
Este trabalho apresenta um estudo teórico e numérico sobre os erros que ocorrem nos cálculos de gradientes em malhas não estruturadas constituídas pelo diagrama de Voronoi, malhas estas, formadas também pela triangulação de Delaunay. As malhas adotadas, no trabalho, foram as malhas cartesianas e as malhas triangulares, esta última é gerada pela divisão de um quadrado em dois ou quatro triângulos iguais. Para tal análise, adotamos a escolha de três metodologias distintas para o cálculo dos gradientes: método de Green Gauss, método do Mínimo Resíduo Quadrático e método da Média do Gradiente Projetado Corrigido. O texto se baseia em dois enfoques principais: mostrar que as equações de erros dadas pelos gradientes podem ser semelhantes, porém com sinais opostos, para pontos de cálculos em volumes vizinhos e que a ordem do erro das equações analíticas pode ser melhorada em malhas uniformes quando comparada as não uniformes, nos casos unidimensionais, e quando analisada na face de tais volumes vizinhos nos casos bidimensionais.
Resumo:
O comportamento de fases para sistemas binários com um hidrocarboneto leve e um pesado é muito importante tanto para o projeto real de um processo quanto para o desenvolvimento de modelos teóricos. Para atender a crescente demanda por informação experimental de equilíbrio de fases a altas pressões, o objetivo deste estudo é obter uma metodologia que substitua parcialmente ou maximize a pouca informação experimental disponível. Para isto propõe-se a modelagem do equilíbrio de fases em misturas de hidrocarboneto leve com um pesado, sem o conhecimento da estrutura molecular do pesado, inferindo-se os parâmetros do modelo a partir da modelagem de dados de ponto de bolha obtidos na literatura. Esta metodologia implica não só na descrição do equilíbrio de fases de um sistema como na estimação das propriedades críticas do pesado, de difícil obtenção devido ao craqueamento destes a altas temperaturas. Neste contexto, este estudo apresenta uma estratégia que estima indiretamente as propriedades críticas dos compostos pesados. Para isto, foram correlacionados dados experimentais de ponto de bolha de misturas binárias contendo um hidrocarboneto leve e um pesado, usando-se dois modelos: o de Peng-Robinson e o TPT1M (Teoria da Polimerização Termodinâmica de primeira ordem de Wertheim modificada). Os parâmetros ajustados com o modelo de Peng-Robinson correspondem diretamente às propriedades críticas do composto pesado, enquanto os ajustados com o modelo TPT1M foram usados para obtê-las. Esta estratégia fornece parâmetros dependentes do modelo, porém permite o cálculo de outras propriedades termodinâmicas, como a extrapolação da temperatura dos dados estudados. Além disso, acredita-se que a correlação dos parâmetros obtidos com as propriedades críticas disponíveis ajudará na caracterização de frações pesadas de composição desconhecida
Resumo:
El objetivo principal de este trabajo consiste en conocer el valor de la empresa mediante diferentes métodos de valoración. La valoración de las empresas es una herramienta muy importante para conocer el valor real de las empresas y no el valor que obtenemos mediante sus datos más próximos (balance etc.). En este periodo de crisis, la compra/venta de todo tipo de empresas está a la orden del día y el conocer su precio exacto por el cual vender/comprar la empresa puede marcar el éxito o fracaso de la transacción. En este trabajo calcularemos el valor de la cooperativa Eroski. Dicha empresa no se encuentra en sus mejores momentos y resulta interesante ver si realmente es conveniente liquidar la empresa etc. Para llegar a esa valoración final, primero se realizara un análisis del entorno de Eroski mirando por un lado la economía española y por otro lado el sector de la distribución. Donde se estudiara la situación de Eroski frente a su competencia así como el análisis del consumo de las familias, salarios etc. También se tendrá en cuenta la situación interna mediante un análisis económico-financiero. Posteriormente, calcularemos las tasas de actualización para calcular los valores corregidos de los balances y de esta forma se utilizará distintos métodos del cálculo del valor de la empresa Eroski, entre ellos utilizaremos el método patrimonial, el método de flujos de caja y el método bursátil. Por último, una vez obtenidos todos lo resultados, se presenta las concusiones y el valor estimado de la empresa en cada método.
Resumo:
[ES]Se trata de realizar el cálculo de un forjado mediante cuatro soluciones constructivas diferentes, nervios in situ, viguetas prefabricadas, prelosas y placas alveolares. Se quiere establecer cuál es la solución más adecuada para diferentes distancias entre apoyos. Para ello se harán dos estudios con diferentes herramientas informáticas, Excel y CYPE.
Resumo:
La actividad aseguradora supone la transferencia de riesgos del asegurado al asegurador. El asegurador se compromete al pago de una prestación si el riesgo se realiza. Se produce un cambio en el ciclo productivo. El asegurador vende una cobertura sin conocer el momento y el coste exacto de dicha cobertura. Esta particularidad de la actividad aseguradora explica la necesidad para una entidad aseguradora de ser solvente en cada momento y ante cualquier imprevisto. Por ello, la solvencia de las entidades aseguradoras es un aspecto que se ha ido recogiendo en las distintas normativas que han regulado la actividad aseguradora y al que se ha ido dando cada vez más importancia. Actualmente la legislación vigente en materia de solvencia de las aseguradoras esta regulada por la directiva europea Solvencia I. Esta directiva establece dos conceptos para garantizar la solvencia: las provisiones técnicas y el margen de solvencia. Las provisiones técnicas son las calculadas para garantizar la solvencia estática de la compañía, es decir aquella que hace frente, en un instante temporal determinado, a los compromisos asumidos por la entidad. El margen de solvencia se destina a cubrir la solvencia dinámica, aquella que hace referencia a eventos futuros que puedan afectar la capacidad del asegurador. Sin embargo en una corriente de gestión global del riesgo en la que el sector bancario ya se había adelantado al sector asegurador con la normativa Basilea II, se decidió iniciar un proyecto europeo de reforma de Solvencia I y en noviembre del 2009 se adoptó la directiva 2009/138/CE del parlamento europeo y del consejo, sobre el seguro de vida, el acceso a la actividad de seguro y de reaseguro y su ejercicio mas conocida como Solvencia II. Esta directiva supone un profundo cambio en las reglas actuales de solvencia para las entidades aseguradoras. Este cambio persigue el objetivo de establecer un marco regulador común a nivel europeo que sea más adaptado al perfil de riesgo de cada entidad aseguradora. Esta nueva directiva define dos niveles distintos de capital: el SCR (requerimiento estándar de capital de solvencia) y el MCR (requerimiento mínimo de capital). Para el calculo del SCR se ha establecido que el asegurador tendrá la libertad de elegir entre dos modelos. Un modelo estándar propuesto por la Autoridad Europea de Seguros y Pensiones de Jubilación (EIOPA por sus siglas en inglés), que permitirá un calculo simple, y un modelo interno desarrollado por la propia entidad que deberá ser aprobado por las autoridades competentes. También se contempla la posibilidad de utilizar un modelo mixto que combine ambos, el estándar y el interno. Para el desarrollo del modelo estándar se han realizado una serie de estudios de impacto cuantitativos (QIS). El último estudio (QIS 5) ha sido el que ha planteado de forma más precisa el cálculo del SCR. Plantea unos shocks que se deberán de aplicar al balance de la entidad con el objetivo de estresarlo, y en base a los resultados obtenidos constituir el SCR. El objetivo de este trabajo es realizar una síntesis de las especificaciones técnicas del QIS5 para los seguros de vida y realizar una aplicación práctica para un seguro de vida mixto puro. En la aplicación práctica se determinarán los flujos de caja asociados a este producto para calcular su mejor estimación (Best estimate). Posteriormente se determinará el SCR aplicando los shocks para los riesgos de mortalidad, rescates y gastos. Por último, calcularemos el margen de riesgo asociado al SCR. Terminaremos el presente TFG con unas conclusiones, la bibliografía empleada así como un anexo con las tablas empleadas.
Resumo:
A viscosimetria é um procedimento experimental simples e pouco oneroso, que pode fornecer informações valiosas sobre o volume hidrodinâmico e a conformação de macromoléculas em solução, num determinado solvente, em uma dada temperatura. Os parâmetros viscosimétricos podem ser matematicamente calculados por extrapolação gráfica, cuja execução experimental é mais demorada. Em contrapartida, é possível que a determinação seja feita por um único ponto. Neste trabalho, os dois métodos de cálculo, empregando uma série de seis equações: Huggins, Kraemer e Schulz-Blaschke, por extrapolação gráfica, e Schulz-Blaschke, Solomon-Ciuta e Deb-Chanterjee por um único ponto, foram utilizados em soluções de poli(glicol propilênico) (PPG) e copolímeros em bloco à base de poli(glicol propilênico) e poli(glicol etilênico) (EG-b-PG), com diferentes teores de poli(glicol etilênico), tendo isopropanol, tetra-hidrofurano (THF) e tolueno como solventes puros, além das misturas em proporções iguais de THF/ isopropanol e THF/ tolueno, a 25C. Os valores de viscosidade intrínseca e de algumas constantes indicaram que os solventes puros e as misturas se apresentaram no limite entre o bom e o mau solvente. Verificou-se também que o método de cálculo por um único ponto foi válido, especialmente quando a equação de Schulz-Blaschke foi empregada, apresentando um baixo percentual de erro sendo possível assim reduzir o tempo de análise para a maioria dos sistemas estudados
Resumo:
Desenvolvemos nesta dissertação um método híbrido direto para o cálculo do fator de desvantagem e descrição da distribuição do fluxo de nêutrons em sistemas combustível-moderador. Na modelagem matemática, utilizamos a equação de transporte de Boltzmann independente do tempo, considerando espalhamento linearmente anisotrópico no modelo monoenergético e espalhamento isotrópico no modelo multigrupo, na formulação de ordenadas discretas (SN), em geometria unidimensional. Desenvolvemos nesta dissertação um método híbrido direto para o cálculo do fator de desvantagem e descrição da distribuição do fluxo de nêutrons em sistemas combustível-moderador. Na modelagem matemática, utilizamos a equação de transporte de Boltzmann independente do tempo, considerando espalhamento linearmente anisotrópico no modelo monoenergético e espalhamento isotrópico no modelo multigrupo, na formulação de ordenadas discretas (SN), em geometria unidimensional. Descrevemos uma análise espectral das equações de ordenadas discretas (SN)a um grupo e a dois grupos de energia, onde seguimos uma analogia com o método de Case. Utilizamos, neste método, quadraturas angulares diferentes no combustível (NC) e no moderador (NM), onde em geral assumimos que NC > NM . Condições de continuidade especiais que acoplam os fluxos angulares que emergem do combustível (moderador) e incidem no moderador (combustível), foram utilizadas com base na equivalência entre as equações SN e PN-1, o que caracteriza a propriedade híbrida do modelo proposto. Sendo um método híbrido direto, utilizamos as NC + NM equações lineares e algébricas constituídas pelas (NC + NM)/2 condições de contorno reflexivas e (NC + NM)/2 condições de continuidade para determinarmos as NC + NM constantes. Com essas constantes podemos calcular os valores dos fluxos angulares e dos fluxos escalares em qualquer ponto do domínio. Apresentamos resultados numéricos para ilustrar a eficiência e a precisão do método proposto.
Resumo:
This thesis focuses on improving the simulation skills and the theoretical understanding of the subtropical low cloud response to climate change.
First, an energetically consistent forcing framework is designed and implemented for the large eddy simulation (LES) of the low-cloud response to climate change. The three representative current-day subtropical low cloud regimes of cumulus (Cu), cumulus-over-stratocumulus, and stratocumulus (Sc) are all well simulated with this framework, and results are comparable to the conventional fixed-SST approach. However, the cumulus response to climate warming subject to energetic constraints differs significantly from the conventional approach with fixed SST. Under the energetic constraint, the subtropics warm less than the tropics, since longwave (LW) cooling is more efficient with the drier subtropical free troposphere. The surface latent heat flux (LHF) also increases only weakly subject to the surface energetic constraint. Both factors contribute to an increased estimated inversion strength (EIS), and decreased inversion height. The decreased Cu-depth contributes to a decrease of liquid water path (LWP) and weak positive cloud feedback. The conventional fixed-SST approach instead simulates a strong increase in LHF and deepening of the Cu layer, leading to a weakly negative cloud feedback. This illustrates the importance of energetic constraints to the simulation and understanding of the sign and magnitude of low-cloud feedback.
Second, an extended eddy-diffusivity mass-flux (EDMF) closure for the unified representation of sub-grid scale (SGS) turbulence and convection processes in general circulation models (GCM) is presented. The inclusion of prognostic terms and the elimination of the infinitesimal updraft fraction assumption makes it more flexible for implementation in models across different scales. This framework can be consistently extended to formulate multiple updrafts and downdrafts, as well as variances and covariances. It has been verified with LES in different boundary layer regimes in the current climate, and further development and implementation of this closure may help to improve our simulation skills and understanding of low-cloud feedback through GCMs.
Resumo:
The stability of a fluid having a non-uniform temperature stratification is examined analytically for the response of infinitesimal disturbances. The growth rates of disturbances have been established for a semi-infinite fluid for Rayleigh numbers of 103, 104, and 105 and for Prandtl numbers of 7.0 and 0.7.
The critical Rayleigh number for a semi-infinite fluid, based on the effective fluid depth, is found to be 32, while it is shown that for a finite fluid layer the critical Rayleigh number depends on the rate of heating. The minimum critical Rayleigh number, based on the depth of a fluid layer, is found to be 1340.
The stability of a finite fluid layer is examined for two special forms of heating. The first is constant flux heating, while in the second, the temperature of the lower surface is increased uniformly in time. In both cases, it is shown that for moderate rates of heating the critical Rayleigh number is reduced, over the value for very slow heating, while for very rapid heating the critical Rayleigh number is greatly increased. These results agree with published experimental observations.
The question of steady, non-cellular convection is given qualitative consideration. It is concluded that, although the motion may originate from infinitesimal disturbances during non-uniform heating, the final flow field is intrinsically non-linear.
Resumo:
[ES]En el siguiente Trabajo Fin de Grado se va a exponer el análisis cinemático y desarrollo de un modelo virtual para la implementación de las ecuaciones cinemáticas del robot IRB120 de ABB llevados a cabo durante el curso 2013/2014. Comenzando por un estudio del Estado del Arte de la robótica industrial, se plantean seguidamente las ecuaciones de localización del robot en función de las variables de entrada mediante el método matricial. Estas ecuaciones son implementadas en un modelo de MatLab para usarlas en la resolución del problema de posición directo e inverso, y son también usadas en herramientas de creación de trayectorias. Además, sus derivadas se utilizan en el cálculo de velocidades del elemento terminal. Por último, se muestra la creación del prototipo 3D del robot, así como un interfaz gráfico de control del robot para el usuario, y los trabajos de validación llevados a cabo de los mencionados modelos virtuales sobre el robot real.
Resumo:
[ES]Por lo tanto el objetivo de este trabajo es resolver el problema de posición de un manipulador paralelo analizando los movimientos parásitos y la influencia de los mismos sobre el problema. Para ello inicialmente se realizará un modelo del manipulador en un programa de CAD. Posteriormente se resolverán las ecuaciones de posición y se implementará esta resolución en un programa de cálculo como MATLAB. Finalmente se compararán los resultados obtenidos con un manipulador de características similares pero una configuración ligeramente distinta.
Resumo:
[ES]En este proyecto se presenta un estudio sobre la estimación de la longitud efectiva de lluvia derivada de los escaneos de elevación obtenidos por el radar meteorológico de Kapildui, en Álava. Se estudia la altura y la longitud de la lluvia para distintos eventos: para lluvia estratiforme y para lluvia convectiva. Se analizará la variabilidad espacial y temporal para diferentes ángulos de elevación del radar. Finalmente, se presentará una versión del algoritmo implementado para el cálculo de longitudes efectivas de lluvia y se realizará un estudio estadístico de la variabilidad de ésta para diferentes direcciones y con diferentes eventos de lluvia.
Resumo:
En el presente Trabajo Fin de Grado, se trabajará sobre la Red Básica Municipal de Donostia/San Sebastián, donde el autor ha sido partícipe en la campaña de reposición de la Red. Nos remontaremos a los orígenes de la Red, explicando cómo nació la Red Básica Municipal de Donostia/San Sebastián y la metodología que se usó para los trabajos previos a su implantación. A lo largo del trabajo, se explicará la metodología de observación y cálculo que se ha empleado en la actual reposición de la Red, el cual ha sido desarrollado por la empresa Geograma S.L. para el Ayuntamiento de San Sebastián entre enero y mayo de 2014. Finalmente, se estudiará como metodología alternativa las observaciones RTK en Red (NRTK), con el fin de validar el método para trabajos de observación de Redes Urbanas de Referencias Topográficas.