983 resultados para Graphics processing unit programming
Resumo:
OBJECTIVE: To evaluate the characteristics of the patients receiving medical care in the Ambulatory of Hypertension of the Emergency Department, Division of Cardiology, and in the Emergency Unit of the Clinical Hospital of the Ribeirão Preto Medical School. METHODS: Using a protocol, we compared the care of the same hypertensive patients in on different occasions in the 2 different places. The characteristics of 62 patients, 29 men with a mean age of 57 years, were analyzed between January 1996 and December 1997. RESULTS: The care of these patients resulted in different medical treatment regardless of their clinical features and blood pressure levels. Thus, in the Emergency Unit, 97% presented with symptoms, and 64.5% received medication to rapidly reduce blood pressure. In 50% of the cases, nifedipine SL was the elected medication. Patients who applied to the Ambulatory of Hypertension presenting with similar features, or, in some cases, presenting with similar clinically higher levels of blood pressure, were not prescribed medication for a rapid reduction of blood pressure at any of the appointments. CONCLUSION: The therapeutic approach to patients with high blood pressure levels, symptomatic or asymptomatic, was dependent on the place of treatment. In the Emergency Unit, the conduct was, in the majority of cases, to decrease blood pressure immediately, whereas in the Ambulatory of Hypertension, the same levels of blood pressure, in the same individuals, resulted in therapeutic adjustment with nonpharmacological management. These results show the need to reconsider the concept of hypertensive crises and their therapeutical implications.
Resumo:
The data acquisition process in real-time is fundamental to provide appropriate services and improve health professionals decision. In this paper a pervasive adaptive data acquisition architecture of medical devices (e.g. vital signs, ventilators and sensors) is presented. The architecture was deployed in a real context in an Intensive Care Unit. It is providing clinical data in real-time to the INTCare system. The gateway is composed by several agents able to collect a set of patients’ variables (vital signs, ventilation) across the network. The paper shows as example the ventilation acquisition process. The clients are installed in a machine near the patient bed. Then they are connected to the ventilators and the data monitored is sent to a multithreading server which using Health Level Seven protocols records the data in the database. The agents associated to gateway are able to collect, analyse, interpret and store the data in the repository. This gateway is composed by a fault tolerant system that ensures a data store in the database even if the agents are disconnected. The gateway is pervasive, universal, and interoperable and it is able to adapt to any service using streaming data.
Resumo:
OBJECTIVE: To evaluate clinical and evolutive characteristics of patients admitted in an intensive care unit after cardiopulmonary resuscitation, identifying prognostic survival factors.METHODS: A retrospective study of 136 patients admitted between 1995 and 1999 to an intensive care unit, evaluating clinical conditions, mechanisms and causes of cardiopulmonary arrest, and their relation to hospital mortality.RESULTS: A 76% mortality rate independent of age and sex was observed. Asystole was the most frequent mechanism of death, and seen in isolation pulmonary arrest was the least frequent. Cardiac failure, need for mechanical ventilation, cirrhosis and previous stroke were clinically significant (p<0.01) death factors.CONCLUSION: Prognostic factors supplement the doctor's decision as to whether or not a patient will benefit from cardiopulmonary resuscitation.
Resumo:
Nuevas biotecnologías, como los marcadores de la molécula de ADN, permiten caracterizar el genoma vegetal. El uso de la información genómica producida para cientos o miles de posiciones cromosómicas permite identificar genotipos superiores en menos tiempo que el requerido por la selección fenotípica tradicional. La mayoría de los caracteres de las especies vegetales cultivadas de importancia agronómica y económica, son controlados por poli-genes causantes de un fenotipo con variación continua, altamente afectados por el ambiente. Su herencia es compleja ya que resulta de la interacción entre genes, del mismo o distinto cromosoma, y de la interacción del genotipo con el ambiente, dificultando la selección. Estas biotecnologías producen bases de datos con gran cantidad de información y estructuras complejas de correlación que requieren de métodos y modelos biométricos específicos para su procesamiento. Los modelos estadísticos focalizados en explicar el fenotipo a partir de información genómica masiva requieren la estimación de un gran número de parámetros. No existen métodos, dentro de la estadística paramétrica capaces de abordar este problema eficientemente. Además los modelos deben contemplar no-aditividades (interacciones) entre efectos génicos y de éstos con el ambiente que son también dificiles de manejar desde la concepción paramétrica. Se hipotetiza que el análisis de la asociación entre caracteres fenotípicos y genotipos moleculares, caracterizados por abundante información genómica, podría realizarse eficientemente en el contexto de los modelos mixtos semiparamétricos y/o de métodos no-paramétricos basados en técnicas de aprendizaje automático. El objetivo de este proyecto es desarrollar nuevos métodos para análisis de datos que permitan el uso eficiente de información genómica masiva en evaluaciones genéticas de interés agro-biotecnológico. Los objetivos específicos incluyen la comparación, respecto a propiedades estadísticas y computacionales, de estrategias analíticas paramétricas con estrategias semiparamétricas y no-paramétricas. Se trabajará con aproximaciones por regresión del análisis de loci de caracteres cuantitativos bajo distintas estrategias y escenarios (reales y simulados) con distinto volúmenes de datos de marcadores moleculares. En el área paramétrica se pondrá especial énfasis en modelos mixtos, mientras que en el área no paramétrica se evaluarán algoritmos de redes neuronales, máquinas de soporte vectorial, filtros multivariados, suavizados del tipo LOESS y métodos basados en núcleos de reciente aparición. La propuesta semiparamétrica se basará en una estrategia de análisis en dos etapas orientadas a: 1) reducir la dimensionalidad de los datos genómicos y 2) modelar el fenotipo introduciendo sólo las señales moleculares más significativas. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, nuevas herramientas y procedimientos de análisis que permitan maximizar la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos y su aplicación en desarrollos agro-biotecnológicos.
Resumo:
Los eventos transitorios únicos analógicos (ASET, Analog Single Event Transient) se producen debido a la interacción de un ión pesado o un protón de alta energía con un dispositivo sensible de un circuito analógico. La interacción del ión con un transistor bipolar o de efecto de campo MOS induce pares electrón-hueco que provocan picos que pueden propagarse a la salida del componente analógico provocando transitorios que pueden inducir fallas en el nivel sistema. Los problemas más graves debido a este tipo de fenómeno se dan en el medioambiente espacial, muy rico en iones pesados. Casos típicos los constituyen las computadoras de a bordo de satélites y otros artefactos espaciales. Sin embargo, y debido a la continua contracción de dimensiones de los transistores (que trae aparejado un aumento de sensibilidad), este fenómeno ha comenzado a observarse a nivel del mar, provocado fundamentalmente por el impacto de neutrones atmosféricos. Estos efectos pueden provocar severos problemas a los sistemas informáticos con interfaces analógicas desde las que obtienen datos para el procesamiento y se han convertido en uno de los problemas más graves a los que tienen que hacer frente los diseñadores de sistemas de alta escala de integración. Casos típicos son los Sistemas en Chip que incluyen módulos de procesamiento de altas prestaciones como las interfaces analógicas.El proyecto persigue como objetivo general estudiar la susceptibilidad de sistemas informáticos a ASETs en sus secciones analógicas, proponiendo estrategias para la mitigación de los errores.Como objetivos específicos se pretende: -Proponer nuevos modelos de ASETs basados en simulaciones en el nivel dispositivo y resueltas por el método de elementos finitos.-Utilizar los modelos para identificar las secciones más propensas a producir errores y consecuentemente para ser candidatos a la aplicación de técnicas de endurecimiento a radiaciones.-Utilizar estos modelos para estudiar la naturaleza de los errores producidos en sistemas de procesamiento de datos.-Proponer soluciones novedosas para la mitigación de estos efectos en los mismos circuitos analógicos evitando su propagación a las secciones digitales.-Proponer soluciones para la mitigación de los efectos en el nivel sistema.Para llevar a cabo el proyecto se plantea un procedimiento ascendente para las investigaciones a realizar, comenzando por descripciones en el nivel físico para posteriormente aumentar el nivel de abstracción en el que se encuentra modelado el circuito. Se propone el modelado físico de los dispositivos MOS y su resolución mediante el Método de Elementos Finitos. La inyección de cargas en las zonas sensibles de los modelos permitirá determinar los perfiles de los pulsos de corriente que deben inyectarse en el nivel circuito para emular estos efectos. Estos procedimientos se realizarán para los distintos bloques constructivos de las interfaces analógicas, proponiendo estrategias de mitigación de errores en diferentes niveles.Los resultados esperados del presente proyecto incluyen hardware para detección de errores y tolerancia a este tipo de eventos que permitan aumentar la confiabilidad de sistemas de tratamiento de la información, así como también nuevos datos referentes a efectos de la radiación en semiconductores, nuevos modelos de fallas transitorias que permitan una simulación de estos eventos en el nivel circuito y la determinación de zonas sensibles de interfaces analógicas típicas que deben ser endurecidas para radiación.
Resumo:
La quinoa (Chenopodium quinoa Willd), es un pseudocereal originario de la región Andina. Fue utilizada como alimento básico por los pueblos nativos. La quinoa, la papa y el maíz constituyeron el trinomio base de la alimentación indígena de este continente. La colonización española fue desplazando su cultivo a favor del trigo europeo y otros cereales, quedando reducida a las zonas altas de la región andina. La Quínoa ha adquirido una considerable atención en los últimos tiempos, principalmente por la calidad de sus proteínas y la ausencia de gluten en ella. Su empleo está ampliamente difundido en los países andinos, especialmente Bolivia y Perú, con un notable crecimiento de la superficie sembrada. En nuestro país la explotación de este cultivo se ubica principalmente en las provincias norteñas de Salta y Jujuy. En estos últimos años se ha reivindicado su cultivo y los granos privados de saponinas son considerados como un excelente alimento, reconocido por la OMS, la FAO y la NASA. Además de la calidad de sus lípidos y vitaminas, y al elevado contenido en almidón, la quinoa posee una proteína de excelente calidad nutricional y libre de gluten, lo que hace a este grano especialmente indicado para la alimentación de personas que sufren de la enfermedad celíaca o del síndrome de intestino irritado. El presente proyecto está orientado al aprovechamiento integral del grano de quinoa. Es nuestra intensión aquí, demostrar que dicho grano, cultivado en la provincia de Córdoba, permitirá elaborar productos alimenticios asi como también derivados de su industrialización. Para este objetivo se cuenta con las instalaciones de la Planta Piloto del Instituto de Ciencia y Tecnología de los Alimentos (ICTA), de la UNC, así como de intrumental moderno y acorde, como HPLC, GC, Espectrofotómetro UV-Vis, rotavapores de laboratorio e industrial, cámara fría, balanzas analíticas y de precisión, muflas, estufas, molinos y tamices, así como también, contamos con profesionales, algunos de ellos realizando su tesis doctoral en este tema. En cuanto a los objetivos que se persiguen, se espera obtener productos tales como sopas, papillas, productos para panadería y galletería y salsas. En el plano industrial, se pretende elaborar concentrados proteicos, almidón y saponinas. Como se dijo más arriba, a nivel internacional la quinoa ha comenzado a extender sus fronteras, y es así que hoy el principal productor mundial de este grano, Bolivia, destina un porcentaje importante de su producción a la exportación. La creciente demanda mundial de quinoa a hecho que se constituya en un cultivo estratégico y de alto valor, con precios internacionales que rondan los U$S 1200 la tonelada. Si a esto unimos que la planta presenta una gran resistencia a la sequía, que se adapta bien a terrenos salitrosos, arenosos y pobres, podemos comprender la importancia que adquiere para nuestra provincia, toda vez que en la misma existen zonas geográficas potencialmente aptas para su cultivo. Quinoa (Chenopodium quinoa Willd) is a pseudocereal originating in the Andean region. It was used as a staple food by native peoples. Quinoa, potatoes and corn were the tree most important indigenous staple food to this part of South America. Spanish colonization was marginalized cultivation in favor of European wheat and other grains, displacing it to the highlands of the Andean region. Quinoa has recently gained considerable attention, mainly by its protein quality and lack of gluten. Its use is widespread in the Andean countries, especially Bolivia and Peru, with a notable increase in plantings. In our country, the exploitation of this crop is located mainly in the northern provinces of Salta and Jujuy. In recent years its cultivation has been promoted, and the grains once free of saponins are considered an excellent food, recognized by WHO, FAO and NASA. In addition to its lipid and vitamins, and high starch contain, quinoa protein has an excellent nutritional value and it is free of gluten, making it particularly suitable for this grain to feed people with celiac disease or irritable bowel syndrome. This project aims at an integral development of quinoa grain. It is our intention here to demonstrate that this grain grown in the province of Córdoba, can produce food products resulting from local industrialization. This team has access to the facilities of the Pilot Plant of the Institute of Science and Food Technology (ICTA) of the UNC, and the modern equipments in it, as HPLC, GC, UV-Vis spectrophotometer, laboratory and industrial rotary evaporators, cold storage, analytical and precision balances, flasks, ovens, grinders and screens. Also, we have an important professional staff, some of them doing their thesis on this subject. With regard to the objectives pursued, we expect to obtain products such as soups, baby food, bakery products and biscuits and sauces. At the industrial level, it aims at producing protein concentrates, starch and saponins.
Resumo:
As digital imaging processing techniques become increasingly used in a broad range of consumer applications, the critical need to evaluate algorithm performance has become recognised by developers as an area of vital importance. With digital image processing algorithms now playing a greater role in security and protection applications, it is of crucial importance that we are able to empirically study their performance. Apart from the field of biometrics little emphasis has been put on algorithm performance evaluation until now and where evaluation has taken place, it has been carried out in a somewhat cumbersome and unsystematic fashion, without any standardised approach. This paper presents a comprehensive testing methodology and framework aimed towards automating the evaluation of image processing algorithms. Ultimately, the test framework aims to shorten the algorithm development life cycle by helping to identify algorithm performance problems quickly and more efficiently.
Resumo:
Stipping, non-photorealistic rendering, non-photorealistic computer graphics
Resumo:
Bit serial, processing, digital signal processing, transmission, time division, linear programming, linear optimization
Resumo:
Magdeburg, Univ., Fak. für Elektrotechnik und Informationstechnik, Diss., 2011
Resumo:
Background:Recent studies have suggested that B-type Natriuretic Peptide (BNP) is an important predictor of ischemia and death in patients with suspected acute coronary syndrome. Increased levels of BNP are seen after episodes of myocardial ischemia and may be related to future adverse events.Objectives:To determine the prognostic value of BNP for major cardiac events and to evaluate its association with ischemic myocardial perfusion scintigraphy (MPS).Methods:This study included retrospectively 125 patients admitted to the chest pain unit between 2002 and 2006, who had their BNP levels measured on admission and underwent CPM for risk stratification. BNP values were compared with the results of the MPS. The chi-square test was used for qualitative variables and the Student t test, for quantitative variables. Survival curves were adjusted using the Kaplan-Meier method and analyzed by using Cox regression. The significance level was 5%.Results:The mean age was 63.9 ± 13.8 years, and the male sex represented 51.2% of the sample. Ischemia was found in 44% of the MPS. The mean BNP level was higher in patients with ischemia compared to patients with non-ischemic MPS (188.3 ± 208.7 versus 131.8 ± 88.6; p = 0.003). A BNP level greater than 80 pg/mL was the strongest predictor of ischemia on MPS (sensitivity = 60%, specificity = 70%, accuracy = 66%, PPV = 61%, NPV = 70%), and could predict medium-term mortality (RR = 7.29, 95% CI: 0.90-58.6; p = 0.045) independently of the presence of ischemia.Conclusions:BNP levels are associated with ischemic MPS findings and adverse prognosis in patients presenting with acute chest pain to the emergency room, thus, providing important prognostic information for an unfavorable clinical outcome.
Resumo:
Ground penetrating radar; landmine; background clutter removal, buried targets detecting
Resumo:
Illustration Watermarks, Image annotation, Virtual data exploration, Interaction techniques
Resumo:
Vision, Speed, Electroencephalogram, Gamma Band Activity
Resumo:
Magdeburg, Univ., Fak. für Naturwiss., Diss., 2008