879 resultados para Multi-criteria Evaluation


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Assembly job shop scheduling problem (AJSP) is one of the most complicated combinatorial optimization problem that involves simultaneously scheduling the processing and assembly operations of complex structured products. The problem becomes even more complicated if a combination of two or more optimization criteria is considered. This thesis addresses an assembly job shop scheduling problem with multiple objectives. The objectives considered are to simultaneously minimizing makespan and total tardiness. In this thesis, two approaches viz., weighted approach and Pareto approach are used for solving the problem. However, it is quite difficult to achieve an optimal solution to this problem with traditional optimization approaches owing to the high computational complexity. Two metaheuristic techniques namely, genetic algorithm and tabu search are investigated in this thesis for solving the multiobjective assembly job shop scheduling problems. Three algorithms based on the two metaheuristic techniques for weighted approach and Pareto approach are proposed for the multi-objective assembly job shop scheduling problem (MOAJSP). A new pairing mechanism is developed for crossover operation in genetic algorithm which leads to improved solutions and faster convergence. The performances of the proposed algorithms are evaluated through a set of test problems and the results are reported. The results reveal that the proposed algorithms based on weighted approach are feasible and effective for solving MOAJSP instances according to the weight assigned to each objective criterion and the proposed algorithms based on Pareto approach are capable of producing a number of good Pareto optimal scheduling plans for MOAJSP instances.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The consumers are becoming more concerned about food quality, especially regarding how, when and where the foods are produced (Haglund et al., 1999; Kahl et al., 2004; Alföldi, et al., 2006). Therefore, during recent years there has been a growing interest in the methods for food quality assessment, especially in the picture-development methods as a complement to traditional chemical analysis of single compounds (Kahl et al., 2006). The biocrystallization as one of the picture-developing method is based on the crystallographic phenomenon that when crystallizing aqueous solutions of dihydrate CuCl2 with adding of organic solutions, originating, e.g., from crop samples, biocrystallograms are generated with reproducible crystal patterns (Kleber & Steinike-Hartung, 1959). Its output is a crystal pattern on glass plates from which different variables (numbers) can be calculated by using image analysis. However, there is a lack of a standardized evaluation method to quantify the morphological features of the biocrystallogram image. Therefore, the main sakes of this research are (1) to optimize an existing statistical model in order to describe all the effects that contribute to the experiment, (2) to investigate the effect of image parameters on the texture analysis of the biocrystallogram images, i.e., region of interest (ROI), color transformation and histogram matching on samples from the project 020E170/F financed by the Federal Ministry of Food, Agriculture and Consumer Protection(BMELV).The samples are wheat and carrots from controlled field and farm trials, (3) to consider the strongest effect of texture parameter with the visual evaluation criteria that have been developed by a group of researcher (University of Kassel, Germany; Louis Bolk Institute (LBI), Netherlands and Biodynamic Research Association Denmark (BRAD), Denmark) in order to clarify how the relation of the texture parameter and visual characteristics on an image is. The refined statistical model was accomplished by using a lme model with repeated measurements via crossed effects, programmed in R (version 2.1.0). The validity of the F and P values is checked against the SAS program. While getting from the ANOVA the same F values, the P values are bigger in R because of the more conservative approach. The refined model is calculating more significant P values. The optimization of the image analysis is dealing with the following parameters: ROI(Region of Interest which is the area around the geometrical center), color transformation (calculation of the 1 dimensional gray level value out of the three dimensional color information of the scanned picture, which is necessary for the texture analysis), histogram matching (normalization of the histogram of the picture to enhance the contrast and to minimize the errors from lighting conditions). The samples were wheat from DOC trial with 4 field replicates for the years 2003 and 2005, “market samples”(organic and conventional neighbors with the same variety) for 2004 and 2005, carrot where the samples were obtained from the University of Kassel (2 varieties, 2 nitrogen treatments) for the years 2004, 2005, 2006 and “market samples” of carrot for the years 2004 and 2005. The criterion for the optimization was repeatability of the differentiation of the samples over the different harvest(years). For different samples different ROIs were found, which reflect the different pictures. The best color transformation that shows efficiently differentiation is relied on gray scale, i.e., equal color transformation. The second dimension of the color transformation only appeared in some years for the effect of color wavelength(hue) for carrot treated with different nitrate fertilizer levels. The best histogram matching is the Gaussian distribution. The approach was to find a connection between the variables from textural image analysis with the different visual criteria. The relation between the texture parameters and visual evaluation criteria was limited to the carrot samples, especially, as it could be well differentiated by the texture analysis. It was possible to connect groups of variables of the texture analysis with groups of criteria from the visual evaluation. These selected variables were able to differentiate the samples but not able to classify the samples according to the treatment. Contrarily, in case of visual criteria which describe the picture as a whole there is a classification in 80% of the sample cases possible. Herewith, it clearly can find the limits of the single variable approach of the image analysis (texture analysis).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Evaluation of major feed resources was conducted in four crop-livestock mixed farming systems of central southern Ethiopia, with 90 farmers, selected using multi-stage purposive and random sampling methods. Discussions were held with focused groups and key informants for vernacular name identification of feed, followed by feed sampling to analyse chemical composition (CP, ADF and NDF), in-vitro dry matter digestibility (IVDMD), and correlate with indigenous technical knowledge (ITK). Native pastures, crop residues (CR) and multi-purpose trees (MPT) are the major feed resources, demonstrated great variations in seasonality, chemical composition and IVDMD. The average CP, NDF and IVDMD values for grasses were 83.8 (ranged: 62.9–190), 619 (ranged: 357–877) and 572 (ranged: 317–743) g kg^(−1) DM, respectively. Likewise, the average CP, NDF and IVDMD for CR were 58 (ranged: 20–90), 760 (ranged: 340–931) and 461 (ranged: 285–637)g kg^(−1) DM, respectively. Generally, the MPT and non-conventional feeds (NCF, Ensete ventricosum and Ipomoea batatas) possessed higher CP (ranged: 155–164 g kg^(−1) DM) and IVDMD values (611–657 g kg^(−1) DM) while lower NDF (331–387 g kg^(−1) DM) and ADF (321–344 g kg^(−1) DM) values. The MPT and NCF were ranked as the best nutritious feeds by ITK while crop residues were the least. This study indicates that there are remarkable variations within and among forage resources in terms of chemical composition. There were also complementarities between ITK and feed laboratory results, and thus the ITK need to be taken into consideration in evaluation of local feed resources.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Various research fields, like organic agricultural research, are dedicated to solving real-world problems and contributing to sustainable development. Therefore, systems research and the application of interdisciplinary and transdisciplinary approaches are increasingly endorsed. However, research performance depends not only on self-conception, but also on framework conditions of the scientific system, which are not always of benefit to such research fields. Recently, science and its framework conditions have been under increasing scrutiny as regards their ability to serve societal benefit. This provides opportunities for (organic) agricultural research to engage in the development of a research system that will serve its needs. This article focuses on possible strategies for facilitating a balanced research evaluation that recognises scientific quality as well as societal relevance and applicability. These strategies are (a) to strengthen the general support for evaluation beyond scientific impact, and (b) to provide accessible data for such evaluations. Synergies of interest are found between open access movements and research communities focusing on global challenges and sustainability. As both are committed to increasing the societal benefit of science, they may support evaluation criteria such as knowledge production and dissemination tailored to societal needs, and the use of open access. Additional synergies exist between all those who scrutinise current research evaluation systems for their ability to serve scientific quality, which is also a precondition for societal benefit. Here, digital communication technologies provide opportunities to increase effectiveness, transparency, fairness and plurality in the dissemination of scientific results, quality assurance and reputation. Furthermore, funders may support transdisciplinary approaches and open access and improve data availability for evaluation beyond scientific impact. If they begin to use current research information systems that include societal impact data while reducing the requirements for narrative reports, documentation burdens on researchers may be relieved, with the funders themselves acting as data providers for researchers, institutions and tailored dissemination beyond academia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In den letzten Jahrzehnten haben sich makroskalige hydrologische Modelle als wichtige Werkzeuge etabliert um den Zustand der globalen erneuerbaren Süßwasserressourcen flächendeckend bewerten können. Sie werden heutzutage eingesetzt um eine große Bandbreite wissenschaftlicher Fragestellungen zu beantworten, insbesondere hinsichtlich der Auswirkungen anthropogener Einflüsse auf das natürliche Abflussregime oder der Auswirkungen des globalen Wandels und Klimawandels auf die Ressource Wasser. Diese Auswirkungen lassen sich durch verschiedenste wasserbezogene Kenngrößen abschätzen, wie z.B. erneuerbare (Grund-)Wasserressourcen, Hochwasserrisiko, Dürren, Wasserstress und Wasserknappheit. Die Weiterentwicklung makroskaliger hydrologischer Modelle wurde insbesondere durch stetig steigende Rechenkapazitäten begünstigt, aber auch durch die zunehmende Verfügbarkeit von Fernerkundungsdaten und abgeleiteten Datenprodukten, die genutzt werden können, um die Modelle anzutreiben und zu verbessern. Wie alle makro- bis globalskaligen Modellierungsansätze unterliegen makroskalige hydrologische Simulationen erheblichen Unsicherheiten, die (i) auf räumliche Eingabedatensätze, wie z.B. meteorologische Größen oder Landoberflächenparameter, und (ii) im Besonderen auf die (oftmals) vereinfachte Abbildung physikalischer Prozesse im Modell zurückzuführen sind. Angesichts dieser Unsicherheiten ist es unabdingbar, die tatsächliche Anwendbarkeit und Prognosefähigkeit der Modelle unter diversen klimatischen und physiographischen Bedingungen zu überprüfen. Bisher wurden die meisten Evaluierungsstudien jedoch lediglich in wenigen, großen Flusseinzugsgebieten durchgeführt oder fokussierten auf kontinentalen Wasserflüssen. Dies steht im Kontrast zu vielen Anwendungsstudien, deren Analysen und Aussagen auf simulierten Zustandsgrößen und Flüssen in deutlich feinerer räumlicher Auflösung (Gridzelle) basieren. Den Kern der Dissertation bildet eine umfangreiche Evaluierung der generellen Anwendbarkeit des globalen hydrologischen Modells WaterGAP3 für die Simulation von monatlichen Abflussregimen und Niedrig- und Hochwasserabflüssen auf Basis von mehr als 2400 Durchflussmessreihen für den Zeitraum 1958-2010. Die betrachteten Flusseinzugsgebiete repräsentieren ein breites Spektrum klimatischer und physiographischer Bedingungen, die Einzugsgebietsgröße reicht von 3000 bis zu mehreren Millionen Quadratkilometern. Die Modellevaluierung hat dabei zwei Zielsetzungen: Erstens soll die erzielte Modellgüte als Bezugswert dienen gegen den jegliche weiteren Modellverbesserungen verglichen werden können. Zweitens soll eine Methode zur diagnostischen Modellevaluierung entwickelt und getestet werden, die eindeutige Ansatzpunkte zur Modellverbesserung aufzeigen soll, falls die Modellgüte unzureichend ist. Hierzu werden komplementäre Modellgütemaße mit neun Gebietsparametern verknüpft, welche die klimatischen und physiographischen Bedingungen sowie den Grad anthropogener Beeinflussung in den einzelnen Einzugsgebieten quantifizieren. WaterGAP3 erzielt eine mittlere bis hohe Modellgüte für die Simulation von sowohl monatlichen Abflussregimen als auch Niedrig- und Hochwasserabflüssen, jedoch sind für alle betrachteten Modellgütemaße deutliche räumliche Muster erkennbar. Von den neun betrachteten Gebietseigenschaften weisen insbesondere der Ariditätsgrad und die mittlere Gebietsneigung einen starken Einfluss auf die Modellgüte auf. Das Modell tendiert zur Überschätzung des jährlichen Abflussvolumens mit steigender Aridität. Dieses Verhalten ist charakteristisch für makroskalige hydrologische Modelle und ist auf die unzureichende Abbildung von Prozessen der Abflussbildung und –konzentration in wasserlimitierten Gebieten zurückzuführen. In steilen Einzugsgebieten wird eine geringe Modellgüte hinsichtlich der Abbildung von monatlicher Abflussvariabilität und zeitlicher Dynamik festgestellt, die sich auch in der Güte der Niedrig- und Hochwassersimulation widerspiegelt. Diese Beobachtung weist auf notwendige Modellverbesserungen in Bezug auf (i) die Aufteilung des Gesamtabflusses in schnelle und verzögerte Abflusskomponente und (ii) die Berechnung der Fließgeschwindigkeit im Gerinne hin. Die im Rahmen der Dissertation entwickelte Methode zur diagnostischen Modellevaluierung durch Verknüpfung von komplementären Modellgütemaßen und Einzugsgebietseigenschaften wurde exemplarisch am Beispiel des WaterGAP3 Modells erprobt. Die Methode hat sich als effizientes Werkzeug erwiesen, um räumliche Muster in der Modellgüte zu erklären und Defizite in der Modellstruktur zu identifizieren. Die entwickelte Methode ist generell für jedes hydrologische Modell anwendbar. Sie ist jedoch insbesondere für makroskalige Modelle und multi-basin Studien relevant, da sie das Fehlen von feldspezifischen Kenntnissen und gezielten Messkampagnen, auf die üblicherweise in der Einzugsgebietsmodellierung zurückgegriffen wird, teilweise ausgleichen kann.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Support Vector Machine (SVM) is a new and very promising classification technique developed by Vapnik and his group at AT&T Bell Labs. This new learning algorithm can be seen as an alternative training technique for Polynomial, Radial Basis Function and Multi-Layer Perceptron classifiers. An interesting property of this approach is that it is an approximate implementation of the Structural Risk Minimization (SRM) induction principle. The derivation of Support Vector Machines, its relationship with SRM, and its geometrical insight, are discussed in this paper. Training a SVM is equivalent to solve a quadratic programming problem with linear and box constraints in a number of variables equal to the number of data points. When the number of data points exceeds few thousands the problem is very challenging, because the quadratic form is completely dense, so the memory needed to store the problem grows with the square of the number of data points. Therefore, training problems arising in some real applications with large data sets are impossible to load into memory, and cannot be solved using standard non-linear constrained optimization algorithms. We present a decomposition algorithm that can be used to train SVM's over large data sets. The main idea behind the decomposition is the iterative solution of sub-problems and the evaluation of, and also establish the stopping criteria for the algorithm. We present previous approaches, as well as results and important details of our implementation of the algorithm using a second-order variant of the Reduced Gradient Method as the solver of the sub-problems. As an application of SVM's, we present preliminary results we obtained applying SVM to the problem of detecting frontal human faces in real images.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El Glioblastoma multiforme (GBM), es el tumor cerebral más frecuente, con pronóstico grave y baja sensibilidad al tratamiento inicial. El propósito de este estudio fue evaluar si la Difusión en RM (IDRM), es un biomarcador temprano de respuesta tumoral, útil para tomar decisiones tempranas de tratamiento y para obtener información pronostica. Metodología La búsqueda se realizo en las bases de datos EMBASE, CENTRAL, MEDLINE; las bibliografías también fueron revisadas. Los artículos seleccionados fueron estudios observacionales (casos y controles, cohortes, corte transversal), no se encontró ningún ensayo clínico; todos los participante tenían diagnostico histopatológico de GBM, sometidos a resección quirúrgica y/o radio-quimioterapia y seguimiento de respuesta al tratamiento con IDRM por al menos 6 meses. Los datos extraídos de forma independiente fueron tipo de estudio, participantes, intervenciones, seguimiento, desenlaces (sobrevida, progresión/estabilización de la enfermedad, muerte) Resultados Quince estudios cumplieron los criterios de inclusión. Entre las técnicas empleadas de IDRM para evaluar respuesta radiológica al tratamiento, fueron histogramas del coeficiente aparente de difusion ADC (compararon valores inferiores a la media y el percentil 10 de ADC, con los valores superiores); encontrando en términos generales que un ADC bajo es un fuerte predictor de sobrevida y/o progresión del tumor. (Esto fue significativo en 5 estudios); mapas funcionales de difusion (FDM) (midieron el porcentaje de cambio de ADC basal vs pos tratamiento) que mostro ser un fuerte predictor de sobrevida en pacientes con progresión tumoral. DISCUSION Desafortunadamente la calidad de los estudios fue intermedia-baja lo que hace que la aplicabilidad de los estudios sea limitada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

ANTECEDENTES: En Colombia, reportes del año 2010 de la Encuesta Nacional de la Situación en Nutrición ENSIN 2010(2), muestran uno de cada dos colombianos, presentan un índice de masa corporal mayor al esperado (3) METODO: El presente estudio de corte transversal, determino la prevalencia de obesidad y otros factores de riesgo cardiovascular en una población de estudiantes de Ciencias de la Salud de una Universidad regional en el primer periodo académico del año 2013. El tamaño de muestra fue n=113 sujetos que corresponden 60,5% a la carrera de medicina y 39,95% a enfermería. Con el fin de conocer su comportamiento con respecto a hábitos y estilos de vida específicos como el consumo de alcohol, el consumo de tabaco y el sedentarismo, así como su asociación a eventos inflamatorios relacionados con la fisiopatología de los procesos de salud asociados al peso, por medio de instrumentos de medición clínica, antropométrica y sérica, determino un modelo estadístico propicio para entender el comportamiento de la obesidad y la enfermedad Cardiovascular RESULTADOS: La prevalencia estimada de sobrepeso y obesidad por Índice de Masa Corporal (IMC), fue del 27,7% (IC 95%: 19.9%,37.2%); por el perímetro abdominal (OBPABD) se encontró una prevalencia estimada del 27,4% (IC 95%: 19,9% – 36,4%), y la prevalencia con el Índice Cintura Cadera (OBICC) fue de 3,5% (IC 95%:1,3% – 9,3%). CONCLUSIONES: La presencia de hábitos no saludables y la presencia de sobrepeso y obesidad se considera que es necesario en primera instancia una valoración general de estado nutricional de los universitarios de las diferentes facultados y plantear estrategias preventivas ya que la literatura documenta los efectos de los hábitos no saludables sino además documenta los efectos de la prevención de la misma ya que en si se ha encontrado asociación para enfermedades cardiovasculares. Se propone que para obtener mayor información del comportamiento de los factores de riesgo cardiovasculares se deberían realizar estudios retrospectivos en el que intervengan las demás carreras de la universidad y poder evaluar la totalidad de población universitaria

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introducción: La evaluación de tecnologías en salud aplicadas a la selección de un módulo de proteína para uso hospitalario, tiene como finalidad servir de apoyo en la elección de productos costo efectivos y seguros, con el fin de favorecer la toma de decisiones a los diferentes agentes que participan en la elección de alternativas terapéuticas, recomendadas en pacientes con necesidades elevadas de proteínas, como es el caso de la presente investigación. Objetivo: Aplicar un método matemático - multicriterio que permita evaluar los módulos de proteína disponibles en el mercado para la terapia nutricional institucional. Métodos: Se establecieron dos fases, una revisión de la literatura para establecer y priorizar los criterios de evaluación técnica de las diferentes ofertas de módulos de proteína, y dos se realizó una aplicación de un modelo matemático con el fin de considerar el modulo proteico para uso dentro de las instituciones hospitalarias, el cual consistió en la asignación de un valor a cada una de las variables mediante una escala diferencial semántica establecida, que permitieron calcular el peso porcentual de cada una de las variables, cuya sumatoria arrojo la calificación porcentual de cada alternativa. Resultados: Respecto a la búsqueda de criterios de evaluación técnica para las diferentes ofertas de módulos de proteína, en la literatura se identificaron las siguientes variables para evaluación, la naturaleza o equivalencia, condiciones de administración y uso, seguridad, y eficacia. La naturaleza se evaluó mediante la calificación del cómputo químico de aminoácidos corregido por digestibilidad proteica (PDCAAS) con un peso en la evaluación del 39.05%, en referencia a las condiciones de administración y uso se tuvo en cuenta factores incluidos en los sistemas de distribución por dosis unitaria con un peso del 27.61%, la eficacia fue definida por la tasa de eficiencia proteica (PER) la cual impacta el 19.53% de la calificación y finalmente, el criterio de seguridad con un 13.81% referente al empaque y etiquetado. Conclusiones: Al realizar la evaluación de cuatro alternativas de módulos de proteína, ofertadas por las diferentes casas farmacéuticas, la mayor puntuación correspondiente a las alternativas con una calificación superior al 90%, la obtuvieron dos alternativas de módulos de proteína para uso hospitalario, las cuales contienen proteínas del suero (“Whey”) y aminoácidos en combinaciones.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introducción: el lupus eritematoso sistémico (LES) es considerado una enfermedad de alto costo. La expresión clínica de la enfermedad depende de la ubicación geografía y la etnicidad. El objetivo de este estudio fue el calcular los costos ambulatorios relacionado al LES en una cohorte colombiana, identificar los predictores de costos y comparar nuestro resultados con otras poblaciones. Métodos: Se realizó una aproximación de tipo prevalencia en 100 pacientes LES en quienes se evaluaron los costos directos médicos, directos no médicos, indirectos e intangibles. Todos los costos médicos fueron evaluados usando una metodología abajo hacia arriba. Los costos directos fueron valorados desde una perspectiva social usando una metodología de micro-costeo. Los costos indirectos se evaluaron mediante una aproximación de capital humano, y los costos intangibles calculados a partir de los años de vida ajustados por calidad (AVAC). Se analizaron los datos por medio de un análisis multivariado. Para comparaciones con otras poblaciones todos los costos fueron expresados como la razón entre los costos y producto interno bruto nacional per cápita. Resultados: La media de costos totales fue 13.031±9.215 USD (ajustados por el factor de conversión de paridad del poder adquisitivo), lo cual representa el 1,66 del PIB per capita de Colombia. Los costos directos son el 64% de los costos totales. Los costos médicos representan el 80% de los costos directos,. Los costos indirectos fueron el 10% y los costos intangibles el 25% de los costos totales. Los medicamentos representaron el 45% de los costos directos. Mayores costos se relacionaron con el estrato socioeconómico, seguro médico privado, AVAC, alopecia, micofenolato mofetilo, y terapia anticoagulante. Los costos directos ajustados de los pacientes con LES en Colombia fueron mayores que en Norte América y en Europa. Conclusiones: el LES impone una carga económica importante para la sociedad. Los costos relacionados con la atención médica y AVAC fueron los principales contribuyentes al alto costo de la enfermedad. Estos resultados pueden ser referencia para determinar políticas en salud pública así como comparar el gasto en salud de forma internacional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

ANTECEDENTES. La mortalidad neonatal se debe principalmente a procesos infecciosos y a prematurez. Se ha sugerido que el lavado corporal total con clorhexidina podría reducir la mortalidad neonatal relacionada con infección. No existen revisiones sistemáticas que exploren la eficacia de esta intervención. Objetivo. Evaluar la eficacia y seguridad de la limpieza corporal total con clorhexidina en la prevención de las infecciones asociadas al cuidado de la salud en neonatos de alto riesgo hospitalizados en cuidado intensivo neonatal. Metodología. Se realizó una revisión sistemática de la literatura. La búsqueda se hizo a través de las bases de datos Medline, Embase, LilaCS, Cochrane library y el registro de ensayos clínicos del Instituto Nacional de Salud de Estados Unidos. Se incluyeron ensayos clínicos publicados en los últimos 15 años hasta el 30 de enero del 2015. Las variables cualitativas se estimaron mediante OR o RR con sus IC95%. Las variables cuantitativas mediante diferencias de promedios o diferencias estandarizadas de promedios con sus IC95%. Resultados: Se incluyeron 3 estudios en el análisis cualitativo y cuantitativo. No se encontró evidencia concluyente que permita recomendar el uso de la limpieza corporal total con clorhexidina en los recién nacidos hospitalizados en cuidado intensivo neonatal. Conclusión: No existe evidencia que permita concluir que la limpieza corporal total con clorhexidina al 0.25% es mejor respecto a otras intervenciones en la prevención de sepsis neonatal asociada al cuidado de la salud . Es una intervención segura sin efectos adversos significativos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introducción: La gran mayoría de las medidas de normalidad utilizadas para la interpretación de resonancia cardiaca son extrapoladas de las medidas de ecocardiografía. Los limitados registros de medidas de normalidad se encuentran ajustados en poblaciones extranjeras, no hay registros en latinoamericanos. Objetivo: Determinar las dimensiones cardiacas utilizando resonancia magnética en una población de personas sin antecedente médicos con repercusión cardiaca para lograr una muestra de valores que permitan ajustar las medidas de normalidad utilizadas por nuestro servicio. Materiales y métodos: se analizaron 45 sujetos sanos con edad comprendida entre los 21 y 45 años, las adquisiciones se realizaron utilizando un equipo de RM de 1,5 teslas, el análisis de las imágenes se realizó mediante el programa Cardiac Volume Vx. Se evaluaron múltiples parámetros morfofuncionales a través de análisis estadístico por medio del sistema SPSS versión 23. Resultados: Mediciones obtenidas de ventrículo izquierdo principales fueron volumen diastólico en mujeres de 62 ml +/- 7.1 y en hombres de 65 ml +/- 11.2 y fracción de eyección de 60 % +/- 5 en mujeres y de 62 % +/- 9 en hombres. En ventrículo derecho el volumen diastólico final se encontró 81.8 ml +/- 14.6 en mujeres y 100 ml +/- 24.8 en hombres y fracción de eyección de 53 % +/- 17 en mujeres y de 45 % +/- 12 en hombres. Volumen de fin de diástole de 50 +/- 12.7 ml en mujeres y de 49 ml +/- 19 ml en hombres y fracción de eyección de aurícula izquierda de 55 % +/- 0.08 en mujeres y de 50 % +/- 0.07 en hombres. Volumen de fin de diástole de 44.1 ml +/- 18.5 en mujeres y de 49.2 ml +/- 22.9 en hombres y fracción de eyección de aurícula derecha de 50 % +/- 11 en mujeres y de 45 % +/- 8 en hombres. Se obtuvieron otras medidas lineales y volumétricas adicionales de cavidades cardiacas y de grandes vasos supracardiacos. Conclusiones: se describen los valores de referencia de los parámetros morfofuncionales de las cavidades cardiacas y de vasos supracardiacos. El sexo fue tenido en cuenta como covariable relacionada con la modificación de los parámetros evaluados. Se sugieren variaciones en las medidas de cavidades cardiacas para la población estudiada relacionada con aclimatación crónica a la altitud de la ciudad de Bogotá.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La present tesi pretén recollir l'experiència viscuda en desenvolupar un sistema supervisor intel·ligent per a la millora de la gestió de plantes depuradores d'aigües residuals., implementar-lo en planta real (EDAR Granollers) i avaluar-ne el funcionament dia a dia amb situacions típiques de la planta. Aquest sistema supervisor combina i integra eines de control clàssic de les plantes depuradores (controlador automàtic del nivell d'oxigen dissolt al reactor biològic, ús de models descriptius del procés...) amb l'aplicació d'eines del camp de la intel·ligència artificial (sistemes basats en el coneixement, concretament sistemes experts i sistemes basats en casos, i xarxes neuronals). Aquest document s'estructura en 9 capítols diferents. Hi ha una primera part introductòria on es fa una revisió de l'estat actual del control de les EDARs i s'explica el perquè de la complexitat de la gestió d'aquests processos (capítol 1). Aquest capítol introductori juntament amb el capítol 2, on es pretén explicar els antecedents d'aquesta tesi, serveixen per establir els objectius d'aquest treball (capítol 3). A continuació, el capítol 4 descriu les peculiaritats i especificitats de la planta que s'ha escollit per implementar el sistema supervisor. Els capítols 5 i 6 del present document exposen el treball fet per a desenvolupar el sistema basat en regles o sistema expert (capítol 6) i el sistema basat en casos (capítol 7). El capítol 8 descriu la integració d'aquestes dues eines de raonament en una arquitectura multi nivell distribuïda. Finalment, hi ha una darrer capítol que correspon a la avaluació (verificació i validació), en primer lloc, de cadascuna de les eines per separat i, posteriorment, del sistema global en front de situacions reals que es donin a la depuradora

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Since the advent of the internet in every day life in the 1990s, the barriers to producing, distributing and consuming multimedia data such as videos, music, ebooks, etc. have steadily been lowered for most computer users so that almost everyone with internet access can join the online communities who both produce, consume and of course also share media artefacts. Along with this trend, the violation of personal data privacy and copyright has increased with illegal file sharing being rampant across many online communities particularly for certain music genres and amongst the younger age groups. This has had a devastating effect on the traditional media distribution market; in most cases leaving the distribution companies and the content owner with huge financial losses. To prove that a copyright violation has occurred one can deploy fingerprinting mechanisms to uniquely identify the property. However this is currently based on only uni-modal approaches. In this paper we describe some of the design challenges and architectural approaches to multi-modal fingerprinting currently being examined for evaluation studies within a PhD research programme on optimisation of multi-modal fingerprinting architectures. Accordingly we outline the available modalities that are being integrated through this research programme which aims to establish the optimal architecture for multi-modal media security protection over the internet as the online distribution environment for both legal and illegal distribution of media products.