983 resultados para Complex Programmable Logic Device (CPLD)
Resumo:
Doctoral Dissertation for PhD degree in Chemical and Biological Engineering
Resumo:
Dissertação de mestrado em Direito dos Contratos e das Empresas
Resumo:
Dissertação de mestrado em Ciências da Educação (área de especialização em Desenvolvimento Curricular e Inovação Educativa)
Resumo:
We report a case in which the Amplatzer device for percutaneous occlusion of ductus arteriosus was successfully used for occluding a large systemic-pulmonary collateral vessel in a patient who had previously undergone surgery for correction of pulmonary atresia and ventricular septal defect (Rastelli technique), and was awaiting the change of a cardiac tube. In the first attempt, the device embolized to the distal pulmonary bed and, after being rescued with a Bitome, it was appropriately repositioned with no complications and with total occlusion of the vessel.
Resumo:
OBJECTIVE: To assess the Dixtal DX2710 automated oscillometric device used for blood pressure measurement according to the protocols of the BHS and the AAMI. METHODS: Three blood pressure measurements were taken in 94 patients (53 females 15 to 80 years). The measurements were taken randomly by 2 observers trained to measure blood pressure with a mercury column device connected with an automated device. The device was classified according to the protocols of the BHS and AAMI. RESULT: The mean of blood pressure levels obtained by the observers was 148±38/93±25 mmHg and that obtained with the device was 148±37/89±26 mmHg. Considering the differences between the measurements obtained by the observer and those obtained with the automated device according to the criteria of the BHS, the following classification was adopted: "A" for systolic pressure (69% of the differences < 5; 90% < 10; and 97% < 15 mmHg); and "B" for diastolic pressure (63% of the differences < 5; 83% < 10; and 93% < 15 mmHg). The mean and standard deviation of the differences were 0±6.27 mmHg for systolic pressure and 3.82±6.21 mmHg for diastolic pressure. CONCLUSION: The Dixtal DX2710 device was approved according to the international recommendations.
Resumo:
En ambientes fluviales, la interacción del flujo con la geometría del cauce y con los sedimentos del lecho define una dinámica turbulenta compleja en permanente evolución. El nivel de complejidad del flujo aumenta ante la presencia de estructuras hidráulicas (pilas de puentes, protecciones contra erosión, etc.). La mayoría de los ríos, o canales naturales, presentan confluencias y bifurcaciones, en donde se genera una convergencia (o divergencia) del flujo con el resultado de un ambiente hidrodinámico complejo en la cercanía de las uniones (Kenworthy y Rhoads 1995). Bajo estas condiciones no es posible extrapolar las soluciones tradicionales básicas de las ecuaciones de gobierno desarrolladas para canales rectos y uniformes. Algunas investigaciones experimentales realizadas en estos sistemas son las de Best (1988), Rhoads y Sukhodolov (2001), Richardson et al. (1996); Richardson y Thorne (1998, 2001); Parsons et al. (2004); Szupiany et al. (2005).Por otro lado, la zona costera en ambientes marítimos se caracteriza por la existencia de diversos procesos dinámicos, entre los que se destacan la acción de olas, corrientes, interacción olas-corrientes, transporte de sedimentos y cambios batimétricos. Estos se manifiestan en una alteración morfodinámica de la playa generando superficies potenciales de erosión. Así, el diseño de las protecciones costeras (ya sean continuas, como escolleras o muros verticales; o discontinuas como espigones o diques externos) sometidas al clima marítimo bajo distintas condiciones de olas y mareas, alteran los patrones de circulación y de transporte afectando la morfodinámica en su zona de influencia y plantean, por ejemplo, la necesidad de ajustes de los coeficientes de estabilidad y pesos de los bloques de roca de las escolleras. Los problemas generados, son especialmente complejos ya que deben considerarse para su estudio, los niveles de turbulencia, la transmisión del oleaje sobre o a través de la estructura, difracción alrededor de la misma, refracción y shoaling sobre un fondo dinámico, reflexión en la estructura, etc. (Alsina et al., 2007) Revisiones bibliográficas previas muestran que, en ambos ambientes (fluvial y marítimo), es necesario optimizar las técnicas experimentales existentes para que ellas permitan caracterizar con precisión los flujos turbulentos complejos presentes. El objetivo general propuesto en esta investigación es contribuir a mejorar el conocimiento de los procesos hidrodinámicos de flujos turbulentos naturales con y sin la presencia de estructuras hidráulicas que den lugar a formaciones complejas (3D). Para alcanzar este objetivo se propone realizar una recopilación de antecedentes y un análisis crítico detallado de los equipos de ultima generación para mediciones de flujo con alta frecuencia y resolución disponibles en el Laboratorio de Hidráulica (LH) de la Universidad Nacional de Córdoba (UNC): ADV 3D (Acoustic Doppler Velocimeter de Sontek) y laser PIV 2D (Particle Image Velocimeter de Dantec). A estos equipamientos se le agrega un moderno equipo de generación bidimensional de oleaje con absorción dinámica (adquiridos a HR Ltd. en 2007 por el CAI 085 del FONTAR). Finalmente se prevé utilizar este equipamiento durante el desarrollo de experimentos y mediciones los cuales se realizarán sobre modelos físicos fluviales y costeros diseñados y construidos con y sin estructuras que interactúen con flujo turbulentos complejos. Los resultados obtenidos en este proyecto permitirá alcanzar una mejor comprensión de los procesos hidrodinámicos de los flujos turbulentos complejos, lo cual es necesario y de gran utilidad para realizar un manejo apropiado de los ambientes fluviales y marítimos, teniendo como campo directo de aplicación el correcto diseño de estructuras hidráulicas, asistiendo a la toma de medidas correctivas en sistemas naturales sometidos a procesos erosivos o de sedimentación, y contribuyendo de esta forma al manejo ambientalmente sustentable de los recursos.
Resumo:
El procedimiento de revertir la dinámica colectiva (diablillo de Loschmidt apresurado) mediante un pulso de radio frecuencia, permite generar un Eco de Loschmidt, es decir la refocalización de una excitación localizada. Alternativamente, en acústica es posible implementar un Espejo de Reversión Temporal, que consiste en la progresiva inyección de una débil excitación ultrasónica en la periferia de un sistema, para construir una excitación que se propaga "hacia atrás". Así, podemos afirmar que es posible revertir y controlar la dinámica. Sin embargo, aún no se posee una comprensión detallada de los mecanismos que gobiernan estos procedimientos. Este proyecto busca responder las preguntas que posibilitan esta comprensión.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
Las reacciones bioquímicas que ocurren como consecuencia del tratamiento y almacenamiento de los alimentos, mejoran la seguridad alimentaria, las propiedades sensoriales y la vida útil. Sin embargo, el tratamiento térmico, la exposición a la luz y el oxígeno pueden causar daño oxidativo a los lípidos y proteínas. Los procesos oxidativos de matrices complejas tienen características distintivas que no se manifiestan cuando los componentes son sometidos a oxidación individualmente. La hipótesis de trabajo es que la oxidación de proteínas en matrices alimentarias complejas altera la estructura y las propiedades funcionales de las proteínas y, que las modificaciones que se producen varían según las condiciones de procesamiento y de la composición química del alimento. Nuestros estudios intentan demostrar que el estado oxidativo de las proteínas de un alimento es un parámetro importante para la evaluación de las propiedades funcionales, sensoriales y nutricionales de un producto lácteo. El objetivo general del proyecto es el estudio de los procesos de oxidación de matrices alimentarias complejas (la leche, miel) y su relación con distintos procesos y materiales utilizados en la industria. Es decir, nos proponemos estudiar las consecuencias funcionales y biológicas (calidad nutricional, coagulación) de la oxidación proteica en modelos experimentales “in vitro” y en productos comerciales. 1. Estudiar los fenómenos de peroxidación proteica en leche entera y descremada sometida a los distintos procesos tecnológicos de la producción de leche y queso a escala laboratorio. Se realizarán las mismas experiencias con albúmina sérica y con proteínas aisladas de suero de leche para comparar diferencias entre una matriz compleja y una simple. 2. Determinar la relación entre oxidación y composición proteica de la leche, y los cambios en las fracciones proteicas aisladas (caseínas y beta-lactoglobulina). 3. Analizar el impacto de los procesos tecnológicos a nivel de producción primaria (composición proteica y estado de oxidación) en los indicadores de inflamación (contenido de células somáticas y proteína C Reactiva) y de estado redox (capacidad antioxidante de los productos lácteos y nivel de carbonilos de proteinas). 4. Comparar las características de composición química y el estado de oxidación de leche provenientes de las tres regiones (Buenos Aires, Santa Fe y Córdoba) que conforman la cuenca láctea Argentina. Este objetivo se realizará conjuntamente con los integrantes de nuestro grupo de investigación que trabajan en el Laboratorio de Control de Calidad de la Escuela Superior de Lechería. 5. Determinar los metabolitos secundarios de mieles uniflorales propuestos como responsables de la capacidad antioxidante de estas (polifenoles) y como indicadores de su origen botánico. 6. Valorar la capacidad antioxidante total de mieles uniflorales. 7. Validar los métodos analíticos y semicuantitativos utilizados y a utilizar en el presente proyecto teniendo en cuenta lo efectos de matrices típico de los fluidos biológicos y las mezclas. El estudio de las modificaciones oxidativas de matrices complejas es un tema que es importante tanto desde el punto de vista del conocimiento básico como del aplicado. Nosotros creemos que el presente proyecto aportará conocimiento sobre las características de las vías oxidativas de proteínas en matrices complejas y que podrá ser utilizado para diseñar estrategias productivas tendientes a disminuir el deterioro de la calidad de la leche debido a la exposición a energía radiante. Parte de la experiencia ganada por el grupo ha sido ya volcada a subsanar dificultades y problemas de oxidación y deterioro de la calidad de alimentos. Además, se contribuirá a discernir la paradoja que existe en el área sobre las propiedades oxidantes/antioxidantes de los polifenoles y la relación entre estas y el estado oxidativo de un alimento. The biochemical reactions that occur as a result of food treatment and storage, improve food security, sensory properties and shelf life. Heat treatment, exposure to light and oxygen can cause oxidative damage to lipids and proteins. Oxidative processes in complex matrices display distinctive features that do not appear when the components are individually subjected to oxidation. The hypothesis is that protein oxidation in complex food matrices alters the structure and functional properties of proteins and that the modifications vary according to process conditions and food composition. The main goal is to study oxidation of complex food matrices (milk, honey) with different processes and materials used in the industry. The specific aims are: 1. To study protein oxidation in whole milk and skim subject to various technological processes. The same experiences will be done with serum albumin and isolated whey proteins to compare complex and simple matrices. 2. To determine the relationship between oxidation and milk protein composition, and changes in casein and beta-lactoglobulin. 3. Analyze the impact of technological processes at the level of primary production on markers of inflammation and redox (antioxidant capacity and protein carbonyls). 4. Compare characteristics of chemical composition and oxidation state of milk. 5. Determine secondary metabolites of honey responsible for the antioxidant capacity of these. 6. To evaluate the total antioxidant capacity unifloral honey. This project will provide knowledge about characteristics of oxidative pathways of proteins in complex matrices that can be used to design production strategies aimed at reduce the deterioration of milk quality. Also, it would help to discern the paradox that exists on the oxidants/antioxidants properties of polyphenols and the relationship between these and the oxidative status of a food.
Resumo:
Background: Conventional surgical repair of thoracic aortic dissections is a challenge due to mortality and morbidity risks. Objectives: We analyzed our experience in hybrid aortic arch repair for complex dissections of the aortic arch. Methods: Between 2009 and 2013, 18 patients (the mean age of 67 ± 8 years-old) underwent hybrid aortic arch repair. The procedural strategy was determined on the individual patient. Results: Thirteen patients had type I repair using trifurcation and another patient with bifurcation graft. Two patients had type II repair with replacement of the ascending aorta. Two patients received extra-anatomic bypass grafting to left carotid artery allowing covering of zone 1. Stent graft deployment rate was 100%. No patients experienced stroke. One patient with total debranching of the aortic arch following an acute dissection of the proximal arch expired 3 months after TEVAR due to heart failure. There were no early to midterm endoleaks. The median follow-up was 20 ± 8 months with patency rate of 100%. Conclusion: Various debranching solutions for different complex scenarios of the aortic arch serve as less invasive procedures than conventional open surgery enabling safe and effective treatment of this highly selected subgroup of patients with complex aortic pathologies.
Resumo:
Convex cone, toric variety, graph theory, electrochemical catalysis, oxidation of formic acid, feedback-loopsbifurcations, enzymatic catalysis, Peroxidase reaction, Shil'nikov chaos
Resumo:
Background:Cardiovascular urgencies are frequent reasons for seeking medical care. Prompt and accurate medical diagnosis is critical to reduce the morbidity and mortality of these conditions.Objective:To evaluate the use of a pocket-size echocardiography in addition to clinical history and physical exam in a tertiary medical emergency care.Methods:One hundred adult patients without known cardiac or lung diseases who sought emergency care with cardiac complaints were included. Patients with ischemic changes in the electrocardiography or fever were excluded. A focused echocardiography with GE Vscan equipment was performed after the initial evaluation in the emergency room. Cardiac chambers dimensions, left and right ventricular systolic function, intracardiac flows with color, pericardium, and aorta were evaluated.Results:The mean age was 61 ± 17 years old. The patient complaint was chest pain in 51 patients, dyspnea in 32 patients, arrhythmia to evaluate the left ventricular function in ten patients, hypotension/dizziness in five patients and edema in one patient. In 28 patients, the focused echocardiography allowed to confirm the initial diagnosis: 19 patients with heart failure, five with acute coronary syndrome, two with pulmonary embolism and two patients with cardiac tamponade. In 17 patients, the echocardiography changed the diagnosis: ten with suspicious of heart failure, two with pulmonary embolism suspicious, two with hypotension without cause, one suspicious of acute coronary syndrome, one of cardiac tamponade and one of aortic dissection.Conclusion:The focused echocardiography with pocket-size equipment in the emergency care may allow a prompt diagnosis and, consequently, an earlier initiation of the therapy.
Resumo:
Complex Microwave Structures Wake Field Computatation PETRA III Generalized Multipole Technique Antenna Antennen Wakefelder Berechnung
Resumo:
Magdeburg, Univ., Fak. für Mathematik, Habil.-Schr., 2010