1000 resultados para Método da chance matemática


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Loque Americana es la enfermedad de origen bacteriano más grave de la etapa larval de la abeja (Apis melífera). Desde su detección en el país en 1989 ya se ha establecido en 11 provincias incluida Córdoba. Su agente causal es Paenibacillus larvae White y su efecto final, la muerte de todo cría en su estadio de propupa. Es muy contagiosa, puede eliminar a toda la colmena y una vez establecida en una región difícilmente pueda ser erradicada por tratarse de una bacteria formadora de esporas que se diseminan: a través de determinados comportamientos de las abejas, con el polen o la miel y por la actividad del apicultor. Siendo Córdoba una provincia con posibilidades para incrementar esta actividad productiva donde ya la enfermedad está establecida, debe tenerse en cuenta que el manejo intensivo de las colmenas es factor desencadenante de diseminación. Se requiere, por lo tanto, contar con técnicas de control de probada efectividad, factibles de ser utilizadas por los productores en sus apiarios. Una manera de disminuir el grado de difusión es mantener lo más bajo posible los niveles de infección. (...) En Argentina, hasta el presente ninguna técnica por sí sola ha resultado eficaz. Este trabajo tiene como hipótesis demostrar que el enjambrado artificial, con la aplicación de un antibiótico durante el desarrollo inmediato posterior al trasvase de las colonias, puede resultar un método efectivo para el control de la enfermedad y la recuperación de los apiarios afectados de Loque Americana. El Objetivo del proyecto es determinar la eficiencia del Cepillado como método alternativo factible de ser usado para controlar la enfermedad y recuperar las colonias infectadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El bromato de potasio se ha usado durante muchos años como mejorador en la elaboración de pan. En los últimos años numerosos países han prohibido su utilización debido a su toxicidad y lo han reemplazado exitosamente con otros agentes, tales como ácido ascórbico, azodicarbonamida, yodato de potasio, sulfato cúprico y otros. Debido a los acuerdos del Mercosur esta prohibición se extenderá a Argentina. En nuestro país se utiliza un método de panificación que se caracteriza por los largos tiempos de fermentación y la escasa cantidad de levadura que se añade. En los pocos ensayos realizados con este método de panificación no han encontrado aditivos que puedan suplantar con buenos resultados al bromato. Atendiendo a esta problemática se plantean los siguientes objetivos: * Establecer una mezcla de aditivos, cuyo uso esté autorizado en Argentina, que sea apta para reemplazar el bromato de potasio produciendo la menor cantidad de transformaciones en la tecnología de panificación tradicional- * Estudiar los efectos que producen el bromato de potasio, el ácido, ascórbico, la azodicarbonamida, el yodato de potasio y de calcio, y el sulfato cúprico sobre las proteínas de las harinas. * Realizar un aporte al conocimiento de las modificaciones que provocan los agentes mejoradores sobre los productos de panificación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La utilización de la Resonancia Magnética Nuclear (RMN) como técnica para la caracterización de propiedades físicas de diversos medios es algo bien conocido. Basta mencionar las imágenes de RMN utilizadas en medicina, determinación del campo de velocidades en el flujo de: fluidos en tuberías o de sangre en seres vivos. La caracterización de medios porosos por medio de RMN es un tema que está recibiendo suma atención por su importancia en el área de explotación petrolera. La idea básica consiste en rellenar un medio poroso (sustrato) con algún fluido, usualmente agua o benceno y determinar: la determinación de temperaturas de fusión y temperaturas de solidificación y distribución de constantes de difusión. Estas determinaciones se realizan midiendo los tiempos de relajación y forma de línea de la señal de RMN correspondiente a los núcleos de 1H del fluido utilizado. Las distribuciones obtenidas permiten obtener, en forma indirecta, información acerca de la distribución de tamaño de los poros que alojan al fluido. Sin embargo, los modelos que permiten vincular lo que se mide con la distribución de tamaño de poros, aún no está bien establecida debida a la complejidad y diversidad de los fenómenos involucrados en la interfase fluido-sustrato. Objetivos generales y específicos El objetivo general del presente trabajo es comparar la distribución de tamaño de poros obtenidas por medio de RMN partiendo de muestras con distribución de tamaño de poros caracterizados por microscopía. El fin de esta comparación es optimizar los modelos que vinculan datos de RMN con las distribuciones de tamaños de poros. Los objetivos específicos son: 1- Construcción de muestras y caracterización de tamaño de poros por medio de microscopía. 2- Puesta a punto de un control de temperaturas para termalizar muestras en el equipo de RMN con que cuenta el laboratorio donde se desarrollará el proyecto. 3- Medición de tiempos de relajación y de forma de línea en función de la temperatura, (en un entorno del punto de fusión) en las muestras mencionadas en el objetivo específico 1. 4- Análisis de los modelos existentes que permiten obtener la distribución de tamaño de poros por medio de RMN.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto busca profundizar lo incorporado como método de análisis, a partir de lo realizado en el proyecto anterior, relativo a la Fragilidad por Hidrógeno en Metales Ferrosos. Sobre la base de lo actuado, se pretende aplicar el método científico de análisis a las fallas en casos que ocurren en la práctica y que tienen como origen errores en el diseño, construcción o mantenimiento de componentes o sistemas. Procesos industriales que aplican técnicas de fabricación o construcción de componentes, frecuentemente fallan por un uso erróneo de los mismos, ya sea por mala práctica o bien por desconocimiento de las variables que los gobiernan. Mediante la aplicación del método científico se busca llegar a las primeras causas de las fallas y a partir del entendimiento de las mismas generar prevención para futuros casos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El uso de medicamentos debe ser una práctica segura que logre el objetivo terapéutico buscado al realizar la prescripción de los mismos En el ámbito hospitalario se desempeñan actividades desde el servicio de farmacia que aseguran la calidad de esta actividad. Por medio de la dispensación de medicamentos por dosis unitarias y la validación de la prescripción por un profesional farmacéutico se garantiza el cumplimiento de la correcta prescripción y se racionaliza el uso de los fármacos. Sin embargo, el papel del farmacéutico tiene un potencial mayor si este especialista en medicamentos interviene en forma activa en la toma de decisiones terapéuticas con el médico junto a la cama del paciente. La posibilidad de realizar una doble validación de la prescripción, e intervenir asegurando una metodología eficaz y clara sería una estrategia educativa para farmacéuticos que permitiría afianzar las actividades de los mismos en el ámbito hospitalario incorporando este profesional al equipo interdisciplinario de salud.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nuestra preocupación reside en estudiar empíricamente el mecanismo de transmisión internacional de ciclos económicos a economías pequeñas y menos desarrolladas (LDC), evaluando el impacto de los shocks en los términos de intercambio en países dónde existen imperfecciones en el mercado crediticio que imponen severas restricciones en el financiamiento de la inversión doméstica y al crecimiento económico. Primero, analizamos si la cuenta corriente responde de manera asimétrica a movimientos de largo plazo en los términos de intercambio. La hipótesis es que “en los buenos tiempos” cuando se produce una mejora permanente en términos de intercambio (y con ello el nivel de ingreso) los individuos no elevan su consumo en un monto acorde con la mejora de su ingreso (permanente) sino que ahorran una fracción del aumento en su dotación para hacer frente a una reversión en la mejora en los términos de intercambios (aunque ésta sea transitoria) en el futuro. En consecuencia, la cuenta corriente (diferencia entre ingreso y absorción) responde de manera positiva a un shock permanente en los términos de intercambio, ya que el individuo ahorra de manera cautelosa –debido a que sabe que no le prestarán para suavizar consumo - aún suponiendo que en el futuro tendrá una reversión transitoria de su ingreso. Segundo, estudiamos la relación dinámica entre los términos de intercambio y la tasa de interés en la economía pequeña abierta y con imperfecciones en el mercado crediticio (información asimétrica). La hipótesis es que la economía doméstica tiene que soportar una prima de riesgo que eleva el costo de la inversión y retarda el crecimiento (Gertler y Rogoff; 1990). Esta prima de riesgo depende, además, en forma negativa del nivel del colateral que tenga la economía. El colateral es la dotación de recursos naturales, por ejemplo, que la economía posee a los fines garantizar el cumplimiento de las obligaciones contraídas (en el modelo presentado las actividades dónde se invierten son independientes del colateral). La hipótesis establecida indica que los cambios en los términos de intercambio generan un aumento del colateral de la economía y una reducción del riesgo país: aumentos en los términos de intercambio reducen la prima de riesgo de la economía que opera en mercados de capitales con asimetrías de información, y como consecuencia aumentarían los ingresos de capitales. De esta forma, se estaría encontrando una explicación a la denominada “Paradoja de Lucas”. Finalmente, el proyecto estudia la conexión entre dos variables “clave” en la economía de los países emergentes: la relación entre los términos de intercambio y el tipo de cambio real. Argumentamos que los efectos de las mejoras de los términos de intercambio sobre los flujos de capitales externos tienden a ser sobreestimadas si no se consideran los efectos “secundarios” de éstas sobre el tipo de cambio real de la economía pequeña menos desarrollada. En este proyecto se controlan estadísticamente esta relación. La estrategia empírica elegida resulta en aplicar a un panel (constituido por dieciocho países de Latinoamérica) el método generalizado de momentos (GMM) a dos modelos de regresión estadística a los fines de abordar de manera eficiente el problema de la endogeneidad de la variable dependiente que actúa como regresor rezagado. La estrategia de estimación elegida enfatiza el análisis de la relación dinámica de las variables económicas incluidas en el análisis. The paper analyzes the general problem related to the transmission of economic cycles to Small Open Economies. The analysis focuses on terms-of-trade shocks, which are considered one of the major sources of income volatility in developing economies. Specifically, we tackle the problem related to the impact of terms-of-trade shocks in Less Developed SOEs. ‘Less Developed SOEs’ are understood as those countries who have borrowing constraints. First, we put to a test the hypothesis of asymmetric response of current account to terms-of-trade shocks (the impact of the shock on current account differs depending whether it is positive or negative), which originates from considering binding restrictions in international capital markets (Agénor and Aizenman; 2004). Second, we investigate about the main determinants of External Capital Flows (ECF) directed to Developing Countries. We put to a test the Gertler and Rogoff (1990) hypothesis that a “risky rate” arises in that markets because the economy has not sufficient amount of wealth to “collateralize” the capital she needs to borrow to take advantage of the investment opportunities she has and additionally because the lender does not have the chance of observing what the borrowed does with the funds (that is information asymmetry arises because the lender can check the realized output of investment but he can not observe if he really invest in the project or secretly lend abroad). Finally, Following Prasad, E. S., Rajan and R. Subramanian, A (2007) we measure the relationship between external capital flows and domestic currency overvaluation. We run a panel GMM estimation for a set of 18 Latin American Countries during the period 1973-2008.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: Pela redução da especificidade associada à perda de informação, a influência da atenuação das mamas é de fundamental importância em estudos de perfusão do miocárdio. Entretanto, apesar de vários estudos terem sido realizados ao longo dos últimos anos, pouco se tem evoluído para determinar com acurácia a influência das características das mamas sobre a qualidade da cintilografia miocárdica, evitando exposições adicionais de radiação às pacientes. OBJETIVO: O objetivo deste estudo é quantificar a atenuação de fótons pelas mamas, em estudos de perfusão do miocárdio com 99mTc, de acordo com diferentes tamanhos e composições. MÉTODOS: Cada mama foi assumida como sendo um cubo composto de tecido adiposo e fibroglandular. Os dados referentes aos fótons de 99mTc foram analisados em um modelo de Monte Carlo. Variamos a espessura e a composição das mamas e analisamos as interferências na atenuação. Foi empregado o software EGS 4 para as simulações. RESULTADOS: Fixando a espessura de uma mama, a variação da sua composição acarreta um acréscimo máximo de 2,3% no número de fótons atenuados. Em contrapartida, mantendo-se uma composição do tecido mamário fixa, a diferença na atenuação de fótons foi de 45,0%, sendo em média de 6,0% para cada acréscimo de centímetro na espessura da mama. CONCLUSÃO: A simulação por Monte Carlo demonstrou que a influência das espessuras das mamas na atenuação de fótons em cintilografias do miocárdio com 99mTc é muito maior do que a influência das suas composições.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: A detecção precoce de alterações septais, tais como a hipertrofia septal comumente presente em fetos de mães diabéticas, contribuiria para a redução das altas taxas de mortalidade infantil. OBJETIVO: Determinar intervalos de referência para a área do septo interventricular fetal por meio da ultrassonografia tridimensional (US3D) utilizando o método STIC (Spatio-Temporal Image Correlation). MÉTODOS: Realizou-se um estudo de corte transversal com 69 gestantes normais entre a 18ª e 33ª semanas de gestação. Utilizou-se como referência o plano de quatro câmaras com a ROI (Região de Interesse) posicionada a partir dos ventrículos, sendo a área do septo delimitada de modo manual. Para se avaliar a correlação da área do septo interventricular com a idade gestacional (IG), construíram-se diagramas de dispersão e calculou-se o coeficiente de correlação de Pearson (r), sendo o ajuste realizado pelo coeficiente de determinação (R²). Foram calculadas médias, medianas, desvios-padrão (dp), valores máximo e mínimo. Para o cálculo da reprodutibilidade intraobservador, utilizou-se o coeficiente de correlação intraclasse (CCI). Obteve-se a medida da espessura do septo interventricular e ela foi correlacionada com a IG e a área septal obtida pelo modo renderizado em 52 pacientes utilizando-se o CCI. RESULTADOS: A área do septo interventricular foi altamente correlacionada com a idade gestacional (r = 0,81), e a média aumentou de 0,47 cm² na 18ª para 2,42 cm² na 33ª semana de gestação. A reprodutibilidade intraobservador foi excelente com CCI = 0,994. Não se observou correlação significativa entre a medida do septo interventricular e a IG (R² = 0,200), assim como não houve correlação com a área do septo obtida pelo modo renderizado com CCI = 0,150. CONCLUSÃO: Intervalos de referência para a área do septo interventricular entre a 18ª e 33ª semanas de gestação foram determinados e se mostraram altamente reprodutíveis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: A detecção do limiar anaeróbico (LA) pela análise da variabilidade da frequência cardíaca (LiVFC) pode significar uma nova maneira de avaliação da capacidade funcional cardiorrespiratória (CFCR) em pré-adolescentes. OBJETIVO: Testar o método de LiVFC para detecção do LA em pré-adolescentes não obesos (NO), obesos (O) e obesos mórbidas (OM), a fim de determinar diferenças em sua CFCR. MÉTODOS: Foram estudados 30 pré-adolescentes, com idades entre 9 e 11 anos, divididos em três grupos de 10: a) grupo NO - índice de massa corpórea (IMC) com percentil do National Center for Chronic Disease Prevention and Health Promotion entre 5 e 85; b) grupo O - IMC de percentil entre 95 e 97 e c) grupo OM - IMC com percentil acima de 97. Todos foram submetidos a um protocolo incremental realizado em esteira rolante e registraram-se os batimentos cardíacos para detecção do LiVFC, que foi determinado pelo valor de 3,0 ms do índice do desvio-padrão 1 (SD1), extraído dos intervalos RR. RESULTADOS: Os valores médios no momento do LiVFC mostraram maiores valores para o grupo NO, destacando-se: a) VO2 (ml/kg/min) NO = 27,4 ± 9,2; O = 13,1 ± 7,6 e OM = 11,0 ± 1,7; b) FC (bpm): NO = 156,3 ± 18,0; O =141,7 ± 11,4 e OM = 137,7 ± 10,4; e c) distância percorrida (metros): NO = 1.194,9 ± 427,7; O = 503,2 ± 437,5 e OM = 399,9 ± 185,1. CONCLUSÃO: O LiVFC se mostrou efetivo para avaliação da CFCR e poderá vir a ser aplicado como método alternativo à ergoespirometria em determinadas situações.