996 resultados para Structural-Parametrical Optimization
Resumo:
This paper presents an automated optimization framework able to provide network administrators with resilient routing configurations for link-state protocols, such as OSPF or IS-IS. In order to deal with the formulated NP-hard optimization problems, the devised framework is underpinned by the use of computational intelligence optimization engines, such as Multi-objective Evolutionary Algorithms (MOEAs). With the objective of demonstrating the framework capabilities, two illustrative Traffic Engineering methods are described, allowing to attain routing configurations robust to changes in the traffic demands and maintaining the network stable even in the presence of link failure events. The presented illustrative results clearly corroborate the usefulness of the proposed automated framework along with the devised optimization methods.
Resumo:
Sandwich geometries, mainly in the form of panels and beams, are commonly applied in various transportation industries, such as aerospace, aeronautic and automotive. Sandwich geometries represent important advantages in structural applications, namely high specific stiffness, low weight, and possibility of design optimization prior to manufacturing. The aim of this paper is to uncover the influence of the number of reinforcements (ribs), and of the thickness on the mechanical behavior of all-metal sandwich panels subjected to uncoupled bending and torsion loadings. In this study, four geometries are compared. The orientation of the reinforcements and the effect of transversal ribs are also considered in this study. It is shown that the all the relations are non-linear, despite the elastic nature of the analysis in the Finite Element software ANSYS MECHANICAL APDL.
Resumo:
OBJECTIVE: To assess by Doppler echocardiography the structural and functional alterations of rat heart with surgical induced extensive myocardial infarction. METHODS: Five weeks after surgical ligature of the left coronary artery, 38 Wistar-EPM rats of both sexes, 10 of them with extensive infarction, undergone anatomical and functional evaluation by Doppler echocardiography and then euthanized for anatomopathological analysis. RESULTS: Echocardiography was 100% sensible and specific to anatomopathological confirmed extensive miocardial infarction. Extensive infarction lead to dilatation of left ventricle (diastolic diameter: 0.89cm vs.0.64cm; systolic: 0.72cm vs. 0.33cm) and left atrium (0.55cm vs. 0.33cm); thinning of left ventricular anterior wall (systolic: 0.14cm vs. 0.23cm, diastolic: 0.11cm vs. 0.14cm); increased mitral E/ A wave relation (6.45 vs. 1.95). Signals of increased end diastolic ventricle pressure, B point in mitral valve tracing in 62.5% and signs of pulmonary hypertension straightening of pulmonary valve (90%) and notching of pulmonary systolic flow (60%) were observed in animals with extensive infarction. CONCLUSION: Doppler echocardiography has a high sensitivity and specificity for detection of chronic extensive infarction. Extensive infarction caused dilatation of left cardiac chambers and showed in Doppler signals of increased end diastolic left ventricular pressure and pulmonary artery pressure.
Resumo:
The decision support models in intensive care units are developed to support medical staff in their decision making process. However, the optimization of these models is particularly difficult to apply due to dynamic, complex and multidisciplinary nature. Thus, there is a constant research and development of new algorithms capable of extracting knowledge from large volumes of data, in order to obtain better predictive results than the current algorithms. To test the optimization techniques a case study with real data provided by INTCare project was explored. This data is concerning to extubation cases. In this dataset, several models like Evolutionary Fuzzy Rule Learning, Lazy Learning, Decision Trees and many others were analysed in order to detect early extubation. The hydrids Decision Trees Genetic Algorithm, Supervised Classifier System and KNNAdaptive obtained the most accurate rate 93.2%, 93.1%, 92.97% respectively, thus showing their feasibility to work in a real environment.
Resumo:
OBJECTIVE: To report the hemodynamic and functional responses obtained with clinical optimization guided by hemodynamic parameters in patients with severe and refractory heart failure. METHODS: Invasive hemodynamic monitoring using right heart catheterization aimed to reach low filling pressures and peripheral resistance. Frequent adjustments of intravenous diuretics and vasodilators were performed according to the hemodynamic measurements. RESULTS: We assessed 19 patients (age = 48±12 years and ejection fraction = 21±5%) with severe heart failure. The intravenous use of diuretics and vasodilators reduced by 12 mm Hg (relative reduction of 43%) pulmonary artery occlusion pressure (P<0.001), with a concomitant increment of 6 mL per beat in stroke volume (relative increment of 24%, P<0.001). We observed significant associations between pulmonary artery occlusion pressure and mean pulmonary artery pressure (r=0.76; P<0.001) and central venous pressure (r=0.63; P<0.001). After clinical optimization, improvement in functional class occurred (P< 0.001), with a tendency towards improvement in ejection fraction and no impairment to renal function. CONCLUSION: Optimization guided by hemodynamic parameters in patients with refractory heart failure provides a significant improvement in the hemodynamic profile with concomitant improvement in functional class. This study emphasizes that adjustments in blood volume result in imme-diate benefits for patients with severe heart failure.
Resumo:
Lipid nanoballoons integrating multiple emulsions of the type water-in-oil-in-water enclose, at least in theory, a biomimetic aqueous-core suitable for housing hydrophilic biomolecules such as proteins, peptides and bacteriophage particles. The research effort entertained in this paper reports a full statistical 23x31 factorial design study (three variables at two levels and one variable at three levels) to optimize biomimetic aqueous-core lipid nanoballoons for housing hydrophilic protein entities. The concentrations of protein, lipophilic and hydrophilic emulsifiers, and homogenization speed were set as the four independent variables, whereas the mean particle hydrodynamic size (HS), zeta potential (ZP) and polydispersity index (PI) were set as the dependent variables. The V23x31 factorial design constructed led to optimization of the higher (+1) and lower (-1) levels, with triplicate testing for the central (0) level, thus producing thirty three experiments and leading to selection of the optimized processing parameters as 0.015% (w/w) protein entity, 0.75% (w/w) lipophilic emulsifier (soybean lecithin) and 0.50% (w/w) hydrophilic emulsifier (poloxamer 188). In the present research effort, statistical optimization and production of protein derivatives encompassing full stabilization of their three-dimensional structure, has been attempted via housing said molecular entities within biomimetic aqueous-core lipid nanoballoons integrating a multiple (W/O/W) emulsion.
Resumo:
El batolito de Achala es uno de los macizos graníticos más grandes de las Sierras Pampeanas, el cual se localiza en las Sierras Grandes de Córdoba. Si bien el batolito de Achala ha sido objeto de diversos estudios geológicos, principalmente debido a sus yacimientos de uranio, el mismo todavía no posee un inequívoco modelo petrogéntico. Tampoco existe, en la actualidad, un inequívoco modelo que explique la preconcentración de uranio en las rocas graníticas portadores de este elemento. Este Proyecto tiene como objetivo general realizar estudios petrológicos y geoquímicos en la región conocida como CAÑADA del PUERTO, un lugar estratégicamente definido debido a la abundancia de granitos equigranulares de grano fino y/o grano medio biotíticos, emplazados durante el desarrollo de cizallas magmáticas tardías, y que constituirían las rocas fuentes de uranio. El objetivo específico requiere estudios detallados de las diferentes facies del batolito de Achala en el área seleccionada, incluyendo investigaciones petrológicas, geoquímicas de roca total, geoquímica de isótopos radiactivos y química mineral, con el fin de definir un MODELO PETROGENÉTICO que permita explicar: (a) el origen del magma padre y el subsiguiente proceso de cristalización de las diferentes facies graníticas aflorantes en el área de estudio, (b) identificar el proceso principal que condujo a la PRECONCENTRACIÓN uranífera de los magmas graníticos canalizados en las cizallas magmáticas tardías. Ambos objetivos se complementan y no son compartimentos estancos, ya que el logro combinado de estos objetivos permitirá comprender de mejor manera el proceso geoquímico que gobernó la distribución y concentración del U. De esta manera, se intentará definir un MODELO de PRECONCENTRACIÓN URANÍFERA EXTRAPOLABLE a otras áreas graníticas enriquecidas en uranio, constituyendo una poderosa herramienta de investigación aplicada a la exploración uranífera. En particular, el conocimiento de los recursos uraníferos es parte de una estrategia nacional con vistas a triplicar antes del 2025 la disponibilidad energética actual, en cuyo caso, el uranio constituye la materia prima de las centrales nucleares que se están planificando y en construcción. Por otro lado, la Argentina adhirió al Protocolo de Kioto y, junto a los países adherentes, deben disminuir de manera progresiva el uso de combustibles fósiles (que producen gases de efecto invernadero), reemplazándola por otras fuentes de energía, entre ellas, la ENERGÍA NUCLEAR. Este Proyecto, si bien NO es un Proyecto de exploración y/o prospección minera, es totalmente consistente con la política energética nacional promocionada desde el Ministerio de Planificación Federal, Inversión Pública y Servicios (v. sitio WEB CNEA), que ha invertido, desde 2006, importantes sumas de dinero, en el marco del Programa de Reactivación de la Actividad Nuclear.Los estudios referidos serán conducidos por los Drs. Dahlquist (CONICET-UNC) y Zarco (CNEA) quienes integrarán sus experiencias desarrolladas en el campo de las Ciencias Básicas con aquel logrado en el campo de las Ciencias Aplicadas, respectivamente. Se pretende, por tanto, aplicar conocimientos académicos-científicos a un problema de geología con potencial significado económico-energético, vinculando las instituciones referidas, esto es, CONICET-UNC y CNEA, con el fin de contribuir a la actividad socioeconómica de la provincia de Córdoba en particular y de Argentina en general.Finalmente, convencidos de que el progreso de la Ciencia y el Desarrollo Tecnológico está íntimamente vinculada con la sólida Formación de Recursos Humanos se pretende que este Proyecto contribuya SIGNIFICATIVAMENTE a las investigaciones de Doctorado que iniciará la Geóloga Carina Bello, actual Becaria de la CNEA.
Resumo:
En la investigación anterior -en la zona pampeana de la Provincia de Córdoba- se demostró teórica y empíricamente, que el desarrollo de la Sociedad Civil muchas veces libradas a su suerte y con limitaciones legales apoyan decididamente el desarrollo local, sin embargo han logrado solo parcialmente sus objetivos, por lo que es necesario comenzar un camino de fortalecimiento en los nuevos roles que deben asumir. Los gobiernos locales, a la vez, intentan trabajosamente con contados éxitos detener el procesos de descapitalización social -financiera y humana- de sus comunidades locales y regionales, peregrinando con escaso éxito a los centros concentrados del poder político y económico, para procurar los recursos financieros y humanos necesarios que no alcanzan a reponer los que se fugan desde hace décadas de sus localidades. Las empresas, con ciclos recurrentes de crecimiento y decrecimiento vinculados a los mercados en que colocan sus productos, también se debaten en la búsqueda de los escasos recursos, financieros y humanos, que les permitan consolidar un desarrollo a mediano y largo plazo. El desarrollo alcanzado en Sistemas de información, instrumentos de relevamiento, análisis y elaboración de propuestas para el Desarrollo Local, nos permite avanzar en: 1. La confirmación empírica de las hipótesis iniciales - factores exógenos y endógenos - en la zona Norte y Serrana de la provincia 2. La validación científica -mediante el Análisis de ecuaciones estructurales. de tales supuestos, para el conjunto de las poblaciones analizadas en ambas etapas. 3. La identificación de los problemas normativos que afectan el desarrollo de las Organizaciones de la Sociedad Civil (OSC). METODOLOGÍA Respecto la validación empírica en la zona norte y serrana 1. Selección de las 4 localidades a relevar de acuerdo a las categorías definidas 2. Elaboración de acuerdos con autoridades e instituciones locales. 3. Relevamiento cualitativo con líderes locales y fuentes de datos secundarias. 4. Adaptación de instrumentos de relevamiento a las realidades locales y estudios previos 5. Relevamiento cuantitativo de campo, capacitación de encuestadores y supervisores. 6. Procesamiento y elaboración de informes finales locales. Respecto de la construcción de modelos de desarrollo 1. Desarrollar las dimensiones especificas y las variables (items) de cada factor crítico. 2. Revisar el instrumento con expertos de cada una de las dimensiones. 3. Validar a nivel exploratorio por medio de un Análisis de Componentes Principales 4. Someter a los expertos la evaluación de una serie de localidades que representan cada uno. Respecto de la identificación de las normas legales que afectan a la Sociedad Civil 1.Relevamiento documental de normas 2. Relevamiento con líderes de instituciones de la Sociedad Civil 3. Análisis de las normas vigentes 4. Elaboración de Informes Finales y Transferencia a líderes e instituciones
Resumo:
En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.
Resumo:
Ser.2, v.22
Resumo:
Ser.2, v.20
Resumo:
Ser.2, v.14
Resumo:
Ser.2, v.19
Resumo:
Ser.2, v.18
Resumo:
Ser.2, v.21