796 resultados para Ingeniería de abastecimiento de agua-Procesamiento de datos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUMEN Las enfermedades cardiovasculares constituyen en la actualidad la principal causa de mortalidad en el mundo y se prevé que sigan siéndolo en un futuro, generando además elevados costes para los sistemas de salud. Los dispositivos cardiacos implantables constituyen una de las opciones para el diagnóstico y el tratamiento de las alteraciones del ritmo cardiaco. La investigación clínica con estos dispositivos alcanza gran relevancia para combatir estas enfermedades que tanto afectan a nuestra sociedad. Tanto la industria farmacéutica y de tecnología médica, como los propios investigadores, cada día se ven involucrados en un mayor número de proyectos de investigación clínica. No sólo el incremento en su volumen, sino el aumento de la complejidad, están generando mayores gastos en las actividades asociadas a la investigación médica. Esto está conduciendo a las compañías del sector sanitario a estudiar nuevas soluciones que les permitan reducir los costes de los estudios clínicos. Las Tecnologías de la Información y las Comunicaciones han facilitado la investigación clínica, especialmente en la última década. Los sistemas y aplicaciones electrónicos han proporcionado nuevas posibilidades en la adquisición, procesamiento y análisis de los datos. Por otro lado, la tecnología web propició la aparición de los primeros sistemas electrónicos de adquisición de datos, que han ido evolucionando a lo largo de los últimos años. Sin embargo, la mejora y perfeccionamiento de estos sistemas sigue siendo crucial para el progreso de la investigación clínica. En otro orden de cosas, la forma tradicional de realizar los estudios clínicos con dispositivos cardiacos implantables precisaba mejorar el tratamiento de los datos almacenados por estos dispositivos, así como para su fusión con los datos clínicos recopilados por investigadores y pacientes. La justificación de este trabajo de investigación se basa en la necesidad de mejorar la eficiencia en la investigación clínica con dispositivos cardiacos implantables, mediante la reducción de costes y tiempos de desarrollo de los proyectos, y el incremento de la calidad de los datos recopilados y el diseño de soluciones que permitan obtener un mayor rendimiento de los datos mediante la fusión de datos de distintas fuentes o estudios. Con este fin se proponen como objetivos específicos de este proyecto de investigación dos nuevos modelos: - Un modelo de recuperación y procesamiento de datos para los estudios clínicos con dispositivos cardiacos implantables, que permita estructurar y estandarizar estos procedimientos, con el fin de reducir tiempos de desarrollo Modelos de Métrica para Sistemas Electrónicos de Adquisición de Datos y de Procesamiento para Investigación Clínica con Dispositivos Cardiacos Implantables de estas tareas, mejorar la calidad del resultado obtenido, disminuyendo en consecuencia los costes. - Un modelo de métrica integrado en un Sistema Electrónico de Adquisición de Datos (EDC) que permita analizar los resultados del proyecto de investigación y, particularmente del rendimiento obtenido del EDC, con el fin de perfeccionar estos sistemas y reducir tiempos y costes de desarrollo del proyecto y mejorar la calidad de los datos clínicos recopilados. Como resultado de esta investigación, el modelo de procesamiento propuesto ha permitido reducir el tiempo medio de procesamiento de los datos en más de un 90%, los costes derivados del mismo en más de un 85% y todo ello, gracias a la automatización de la extracción y almacenamiento de los datos, consiguiendo una mejora de la calidad de los mismos. Por otro lado, el modelo de métrica posibilita el análisis descriptivo detallado de distintos indicadores que caracterizan el rendimiento del proyecto de investigación clínica, haciendo factible además la comparación entre distintos estudios. La conclusión de esta tesis doctoral es que los resultados obtenidos han demostrado que la utilización en estudios clínicos reales de los dos modelos desarrollados ha conducido a una mejora en la eficiencia de los proyectos, reduciendo los costes globales de los mismos, disminuyendo los tiempos de ejecución, e incrementando la calidad de los datos recopilados. Las principales aportaciones de este trabajo de investigación al conocimiento científico son la implementación de un sistema de procesamiento inteligente de los datos almacenados por los dispositivos cardiacos implantables, la integración en el mismo de una base de datos global y optimizada para todos los modelos de dispositivos, la generación automatizada de un repositorio unificado de datos clínicos y datos de dispositivos cardiacos implantables, y el diseño de una métrica aplicada e integrable en los sistemas electrónicos de adquisición de datos para el análisis de resultados de rendimiento de los proyectos de investigación clínica. ABSTRACT Cardiovascular diseases are the main cause of death worldwide and it is expected to continue in the future, generating high costs for health care systems. Implantable cardiac devices have become one of the options for diagnosis and treatment of cardiac rhythm disorders. Clinical research with these devices has acquired great importance to fight against these diseases that affect so many people in our society. Both pharmaceutical and medical technology companies, and also investigators, are involved in an increasingly number of clinical research projects. The growth in volume and the increase in medical research complexity are contributing to raise the expenditure level associated with clinical investigation. This situation is driving health care sector companies to explore new solutions to reduce clinical trial costs. Information and Communication Technologies have facilitated clinical research, mainly in the last decade. Electronic systems and software applications have provided new possibilities in the acquisition, processing and analysis of clinical studies data. On the other hand, web technology contributed to the appearance of the first electronic data capture systems that have evolved during the last years. Nevertheless, improvement of these systems is still a key aspect for the progress of clinical research. On a different matter, the traditional way to develop clinical studies with implantable cardiac devices needed an improvement in the processing of the data stored by these devices, and also in the merging of these data with the data collected by investigators and patients. The rationale of this research is based on the need to improve the efficiency in clinical investigation with implantable cardiac devices, by means of reduction in costs and time of projects development, as well as improvement in the quality of information obtained from the studies and to obtain better performance of data through the merging of data from different sources or trials. The objective of this research project is to develop the next two models: • A model for the retrieval and processing of data for clinical studies with implantable cardiac devices, enabling structure and standardization of these procedures, in order to reduce the time of development of these tasks, to improve the quality of the results, diminish therefore costs. • A model of metric integrated in an Electronic Data Capture system (EDC) that allow to analyze the results of the research project, and particularly the EDC performance, in order to improve those systems and to reduce time and costs of the project, and to get a better quality of the collected clinical data. As a result of this work, the proposed processing model has led to a reduction of the average time for data processing by more than 90 per cent, of related costs by more than 85 per cent, and all of this, through automatic data retrieval and storage, achieving an improvement of quality of data. On the other hand, the model of metrics makes possible a detailed descriptive analysis of a set of indicators that characterize the performance of each research project, allowing inter‐studies comparison. This doctoral thesis results have demonstrated that the application of the two developed models in real clinical trials has led to an improvement in projects efficiency, reducing global costs, diminishing time in execution, and increasing quality of data collected. The main contributions to scientific knowledge of this research work are the implementation of an intelligent processing system for data stored by implantable cardiac devices, the integration in this system of a global and optimized database for all models of devices, the automatic creation of an unified repository of clinical data and data stored by medical devices, and the design of a metric to be applied and integrated in electronic data capture systems to analyze the performance results of clinical research projects.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los avances en el hardware permiten disponer de grandes volúmenes de datos, surgiendo aplicaciones que deben suministrar información en tiempo cuasi-real, la monitorización de pacientes, ej., el seguimiento sanitario de las conducciones de agua, etc. Las necesidades de estas aplicaciones hacen emerger el modelo de flujo de datos (data streaming) frente al modelo almacenar-para-despuésprocesar (store-then-process). Mientras que en el modelo store-then-process, los datos son almacenados para ser posteriormente consultados; en los sistemas de streaming, los datos son procesados a su llegada al sistema, produciendo respuestas continuas sin llegar a almacenarse. Esta nueva visión impone desafíos para el procesamiento de datos al vuelo: 1) las respuestas deben producirse de manera continua cada vez que nuevos datos llegan al sistema; 2) los datos son accedidos solo una vez y, generalmente, no son almacenados en su totalidad; y 3) el tiempo de procesamiento por dato para producir una respuesta debe ser bajo. Aunque existen dos modelos para el cómputo de respuestas continuas, el modelo evolutivo y el de ventana deslizante; éste segundo se ajusta mejor en ciertas aplicaciones al considerar únicamente los datos recibidos más recientemente, en lugar de todo el histórico de datos. En los últimos años, la minería de datos en streaming se ha centrado en el modelo evolutivo. Mientras que, en el modelo de ventana deslizante, el trabajo presentado es más reducido ya que estos algoritmos no sólo deben de ser incrementales si no que deben borrar la información que caduca por el deslizamiento de la ventana manteniendo los anteriores tres desafíos. Una de las tareas fundamentales en minería de datos es la búsqueda de agrupaciones donde, dado un conjunto de datos, el objetivo es encontrar grupos representativos, de manera que se tenga una descripción sintética del conjunto. Estas agrupaciones son fundamentales en aplicaciones como la detección de intrusos en la red o la segmentación de clientes en el marketing y la publicidad. Debido a las cantidades masivas de datos que deben procesarse en este tipo de aplicaciones (millones de eventos por segundo), las soluciones centralizadas puede ser incapaz de hacer frente a las restricciones de tiempo de procesamiento, por lo que deben recurrir a descartar datos durante los picos de carga. Para evitar esta perdida de datos, se impone el procesamiento distribuido de streams, en concreto, los algoritmos de agrupamiento deben ser adaptados para este tipo de entornos, en los que los datos están distribuidos. En streaming, la investigación no solo se centra en el diseño para tareas generales, como la agrupación, sino también en la búsqueda de nuevos enfoques que se adapten mejor a escenarios particulares. Como ejemplo, un mecanismo de agrupación ad-hoc resulta ser más adecuado para la defensa contra la denegación de servicio distribuida (Distributed Denial of Services, DDoS) que el problema tradicional de k-medias. En esta tesis se pretende contribuir en el problema agrupamiento en streaming tanto en entornos centralizados y distribuidos. Hemos diseñado un algoritmo centralizado de clustering mostrando las capacidades para descubrir agrupaciones de alta calidad en bajo tiempo frente a otras soluciones del estado del arte, en una amplia evaluación. Además, se ha trabajado sobre una estructura que reduce notablemente el espacio de memoria necesario, controlando, en todo momento, el error de los cómputos. Nuestro trabajo también proporciona dos protocolos de distribución del cómputo de agrupaciones. Se han analizado dos características fundamentales: el impacto sobre la calidad del clustering al realizar el cómputo distribuido y las condiciones necesarias para la reducción del tiempo de procesamiento frente a la solución centralizada. Finalmente, hemos desarrollado un entorno para la detección de ataques DDoS basado en agrupaciones. En este último caso, se ha caracterizado el tipo de ataques detectados y se ha desarrollado una evaluación sobre la eficiencia y eficacia de la mitigación del impacto del ataque. ABSTRACT Advances in hardware allow to collect huge volumes of data emerging applications that must provide information in near-real time, e.g., patient monitoring, health monitoring of water pipes, etc. The data streaming model emerges to comply with these applications overcoming the traditional store-then-process model. With the store-then-process model, data is stored before being consulted; while, in streaming, data are processed on the fly producing continuous responses. The challenges of streaming for processing data on the fly are the following: 1) responses must be produced continuously whenever new data arrives in the system; 2) data is accessed only once and is generally not maintained in its entirety, and 3) data processing time to produce a response should be low. Two models exist to compute continuous responses: the evolving model and the sliding window model; the latter fits best with applications must be computed over the most recently data rather than all the previous data. In recent years, research in the context of data stream mining has focused mainly on the evolving model. In the sliding window model, the work presented is smaller since these algorithms must be incremental and they must delete the information which expires when the window slides. Clustering is one of the fundamental techniques of data mining and is used to analyze data sets in order to find representative groups that provide a concise description of the data being processed. Clustering is critical in applications such as network intrusion detection or customer segmentation in marketing and advertising. Due to the huge amount of data that must be processed by such applications (up to millions of events per second), centralized solutions are usually unable to cope with timing restrictions and recur to shedding techniques where data is discarded during load peaks. To avoid discarding of data, processing of streams (such as clustering) must be distributed and adapted to environments where information is distributed. In streaming, research does not only focus on designing for general tasks, such as clustering, but also in finding new approaches that fit bests with particular scenarios. As an example, an ad-hoc grouping mechanism turns out to be more adequate than k-means for defense against Distributed Denial of Service (DDoS). This thesis contributes to the data stream mining clustering technique both for centralized and distributed environments. We present a centralized clustering algorithm showing capabilities to discover clusters of high quality in low time and we provide a comparison with existing state of the art solutions. We have worked on a data structure that significantly reduces memory requirements while controlling the error of the clusters statistics. We also provide two distributed clustering protocols. We focus on the analysis of two key features: the impact on the clustering quality when computation is distributed and the requirements for reducing the processing time compared to the centralized solution. Finally, with respect to ad-hoc grouping techniques, we have developed a DDoS detection framework based on clustering.We have characterized the attacks detected and we have evaluated the efficiency and effectiveness of mitigating the attack impact.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Es conocida la importancia del agua como factor clave en el Desarrollo Humano. El agua debe ser suficiente para cubrir las necesidades básicas de las personas (de 50 a 100 litros/persona/día) y con unas condiciones mínimas de calidad (3 litros/persona/día de agua potable). Los problemas principales relacionados con el agua son el acceso, la cantidad y calidad de la misma, y el coste. La falta de calidad da lugar a enfermedades, que en muchos casos son mortales al complicarse con problemas relacionados con una deficiente alimentación y/o con otras enfermedades, falta de medicamentos o de asistencia médica. En otros casos, está relacionada con el acceso incorrecto al saneamiento y la falta higiene. Y en todos los casos, la población afectada es la más pobre. Sin embargo, a pesar que los agentes implicados en las labores de cooperación como ONGs, agencias donantes de ayuda al desarrollo, etc. adoptan el “Modelo de Respuesta a la Demanda”, estudios existentes sobre los puntos de agua (un punto de agua es la parte de la instalación de abastecimiento de agua por donde se accede al agua) y su relación con la tecnología utilizada en los proyectos de instalación de sistemas de abastecimiento de agua, ponen de manifiesto que en los primeros cinco años de funcionamiento, aproximadamente un 30% de los puntos de agua se convierten en no funcionales. En el presente proyecto se estudian las causas del abandono de los sistemas de abastecimiento de agua, presentando una solución de bajo coste a uno de sus problemas técnicos más frecuentes, como es el diseño de la válvula de apertura y cierre de la instalación de abastecimiento de agua, o grifo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El riesgo asociado a la rotura de un depósito de agua en entorno urbano (como la ocurrida, por ejemplo, en la Ciudad Autónoma de Melilla en Noviembre de 1997) y los potenciales daños que puede causar, pone en duda la seguridad de este tipo de infraestructuras que, por necesidades del servicio de abastecimiento de agua, se construyen habitualmente en puntos altos y cercanos a los núcleos de población a los que sirven. Sin embargo, la baja probabilidad de que se produzca una rotura suele rebajar los niveles de alerta asociados a los depósitos, haciéndose hincapié en la mejora de los métodos constructivos sin elaborar metodologías que, como en el caso de las presas y las balsas de riego, establezcan la necesidad de clasificar el riesgo potencial de estas infraestructuras en función de su emplazamiento y de estudiar la posible construcción de medidas mitigadoras de una posible rotura. Por otro lado, para establecer los daños que pueden derivarse de una rotura de este tipo, se hace imprescindible la modelización bidimensional de la ola de rotura por cuanto la malla urbana a la que afectaran no es susceptible de simulaciones unidimensionales, dado que no hay un cauce que ofrezca un camino preferente al agua. Este tipo de simulación requiere de una inversión económica que no siempre está disponible en la construcción de depósitos de pequeño y mediano tamaño. Esta tesis doctoral tiene como objetivo el diseño de una metodología simplificada que, por medio de graficas y atendiendo a las variables principales del fenómeno, pueda estimar un valor para el riesgo asociado a una posible rotura y sirva como guía para establecer si un deposito (existente o de nueva implantación) requiere de un modelo de detalle para estimar el riesgo y si es conveniente implantar alguna medida mitigadora de la energía producida en una rotura de este tipo. Con carácter previo se ha establecido que las variables que intervienen en la definición de riesgo asociado a la rotura, son el calado y la velocidad máxima en cada punto sensible de sufrir daños (daños asociados al vuelco y arrastre de personas principalmente), por lo que se ha procedido a estudiar las ecuaciones que rigen el problema de la rotura del depósito y de la transmisión de la onda de rotura por la malla urbana adyacente al mismo, así como los posibles métodos de resolución de las mismas y el desarrollo informático necesario para una primera aproximación a los resultados. Para poder analizar las condiciones de contorno que influyen en los valores resultantes de velocidad y calado, se ha diseñado una batería de escenarios simplificados que, tras una modelización en detalle y un análisis adimensional, han dado como resultado que las variables que influyen en los valores de calado y velocidad máximos en cada punto son: la altura de la lamina de agua del depósito, la pendiente del terreno, la rugosidad, la forma del terreno (en términos de concavidad) y la distancia del punto de estudio al deposito. Una vez definidas las variables que influyen en los resultados, se ha llevado a cabo una segunda batería de simulaciones de escenarios simplificados que ha servido para la discusión y desarrollo de las curvas que se presentan como producto principal de la metodología simplificada. Con esta metodología, que solamente necesita de unos cálculos simples para su empleo, se obtiene un primer valor de calado y velocidad introduciendo la altura de la lámina de agua máxima de servicio del depósito cuyo riesgo se quiere evaluar. Posteriormente, y utilizando el ábaco propuesto, se obtienen coeficientes correctores de los valores obtenidos para la rugosidad y pendiente media del terreno que se esta evaluando, así como para el grado de concavidad del mismo (a través de la pendiente transversal). Con los valores obtenidos con las curvas anteriores se obtienen los valores de calado y velocidad en el punto de estudio y, aplicando la formulación propuesta, se obtiene una estimación del riesgo asociado a la rotura de la infraestructura. Como corolario a la metodología mencionada, se propone una segunda serie de gráficos para evaluar, también de forma simplificada, la reducción del riesgo que se obtendría con la construcción de alguna medida mitigadora como puede ser un dique o murete perimetral al depósito. Este método de evaluación de posible medidas mitigadoras, aporta una guía para analizar la posibilidad de disminuir el riesgo con la construcción de estos elementos, o la necesidad de buscar otro emplazamiento que, si bien pueda ser no tan favorable desde el punto de vista de la explotación del depósito, presente un menor riesgo asociado a su rotura. Como complemento a la metodología simplificada propuesta, y además de llevar a cabo la calibración de la misma con los datos obtenidos tras la rotura del depósito de agua de Melilla, se ha realizado una serie de ejemplos de utilización de la metodología para, además de servir de guía de uso de la misma, poder analizar la diferencia entre los resultados que se obtendrían con una simulación bidimensional detallada de cada uno de los casos y el método simplificado aplicado a los mismos. The potential risk of a catastrophic collapse of a water supply reservoir in an urban area (such as the one occurred in Melilla in November 1997) and the damages that can cause, make question the security in this kind of infrastructures, which, by operational needs, are frequently built in high elevations and close to the urban areas they serve to. Since the likelihood of breakage is quite low, the alert levels associated to those infrastructures have also been downgraded focussing on the improvement of the constructive methods without developing methodologies (like the ones used in the case of dams or irrigation ponds) where there is a need of classifying the potential risk of those tanks and also of installing mitigating measures. Furthermore, to establish the damages related to a breakage of this kind, a twodimensional modelling of the breakage wave becomes imperative given that the urban layout does not provide a preferential way to the water. This kind of simulation requires financial investment that is not always available in the construction of small and medium sized water tanks. The purpose of this doctoral thesis is to design a simplified methodology, by means of charts and attending to the main variables of the phenomenon, that could estimate a value to the risk associated to a possible breakage. It can also be used as a guidance to establish if a reservoir (existing or a new one) requires a detailed model to estimate the risk of a breakage and the benefits of installing measures to mitigate the breakage wave effects. Previously, it has been established that the variables involved in the risk associated to a breakage are the draft and the maximum speed in every point susceptible to damages (mainly damages related to people). Bellow, the equations ruling the problem of the reservoir breakage have been studied as well as the transmission of the breakage wave through the urban network of the city and the possible methods to solve the equations and the computer development needed to a first approach to the results. In order to be able to analyse the boundary conditions affecting the values resulting (speed and draft), a set of scenarios have been designed. After a detailed modelling and a dimensionless analysis it has been proved that the variables that influence the operational draughts and the maximum speed in every point are the water level in the tank, the slope, the roughness and form (in terms of concavity) of the terrain and the distance between the tank and the control point. Having defined the involving variables, a second set of simulations of the simplified scenarios has been carried out and has helped to discuss and develop the curves that are here presented as the final product of the simplified methodology. This methodology only needs some simple calculations and gives a first value of draft and speed by introducing the maximum water level of the tank being evaluated. Subsequently, using the suggested charts, the method gives correction coefficients of the measured values for roughness and average slope of the assessed terrain as well as the degree of concavity (through transverse gradient).With the values from the previous curves (operational draughts and speed at the point of survey) and applying the proposed formulation, an estimation of the risk associated to the breakage of the infrastructure is finally obtained. As a corollary of the mentioned methodology, another set of diagrams is proposed in order to evaluate, in a simplified manner also, the risk reduction that could be gained with the construction of some mitigating measures such as dikes or retaining walls around the reservoir. This evaluating method provides a guide to analyse the possibility to reduce the risk, constructing those elements or even looking for a different site that could be worse in terms of exploitation of the tank but much safer. As a complement to the simplified methodology here proposed, and apart from completing its calibration with the obtained data after the reservoir breakage in Melilla, a number of examples of the use of the methodology have been made to be used as a user guide of the methodology itself, as well as giving the possibility of analysing the different results that can be obtained from a thorough two-dimensional simulation or from the simplified method applied to the examples.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La implantación de las nuevas metodologías de enseñanza a partir de las directrices establecidas en el Espacio Europeo de Educación Superior, ha supuesto una renovación necesaria en los materiales docentes utilizados. En este sentido, el presente trabajo muestra los avances en el uso de programas informáticos para la resolución de estructuras desarrollado a lo largo de las diferentes asignaturas que conforman las titulaciones de Ingeniería Civil, el Máster de Caminos, Canales, y Puertos, así como el Máster de Ingeniería de los Materiales, Agua y Terreno de la Universidad de Alicante. De esta forma el alumno se aproxima a la realidad laboral, modelizando estructuras civiles partiendo previamente de información real de las mimas a través de visitas de campo. El uso de dichas herramientas se ha introducido de forma progresiva en las diferentes asignaturas del tal forma que el alumno se ha ido familiarizando con la resolución de estructuras a través de elementos barra, para continuar desarrollando elementos placa, modelos reológicos y análisis dinámicos de estructuras. Por ello, y con el fin de completar la educación de los alumnos, en el presente trabajo se ha tratado de aproximar al alumno a las estructuras reales y a su posterior modelización numérica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El constante deterioro de las fuentes h?dricas y su uso como recurso en el abastecimiento de agua para consumo humano han conllevado a la b?squeda de la optimizaci?n de los procesos de tratamiento de forma tal que se alcancen condiciones de agua segura con el menor riesgo posible de afectaciones a la salud de la poblaci?n. Es por esto que los sistemas de abastecimiento de agua potable han adoptado estrategias enmarcadas dentro de los planes de seguridad del agua mediante la reducci?n de la contaminaci?n en la fuente de abastecimiento, la remoci?n o reducci?n de diferentes contaminantes mediante los procesos de tratamiento y la prevenci?n de la contaminaci?n del agua en el sistema de almacenamiento y distribuci?n al usuario final. Al observar que la filtraci?n es una de las etapas m?s cr?ticas dentro del tratamiento por ser la ?ltima barrera f?sica para la remoci?n de part?culas presentes en el agua; se plante? este proyecto de grado para estudiar a escala de laboratorio el uso de carb?n activado granular en el proceso de filtraci?n de agua clarificada del Rio Cauca, con el fin de analizar la eficiencia de remoci?n de turbiedad y materia org?nica medida como UV254 y as? establecer el alcance de los valores l?mite recomendados por las entidades internacionales para la disminuci?n del riesgo microbiol?gico y el riesgo cr?nico que pueda estar asociado a la presencia de materia org?nica en el agua para consumo humano. Se emple? carb?n activado granular de origen bituminoso y arena en seis diferentes configuraciones como medio filtrante principal en la etapa de filtraci?n (50%CAG ? 50% Arena, 65% CAG ? 35% Arena, 75% CAG ? 25% Arena, 85% CAG ? 15% Arena, 90% CAG ? 10% Arena y 100% CAG). Se consider? adem?s una configuraci?n con antracita y arena (70% Antracita ? 30% Arena) para comparar el comportamiento de ambos materiales filtrantes en el tratamiento de agua resultante del proceso de clarificaci?n efectuado por la Planta de Tratamiento de Agua Potable Puerto Mallarino en la ciudad de Cali. Se emple? un sistema de filtraci?n en columnas con distribuci?n de agua mediante conducciones reguladas a un caudal constante de 12 mL/min. El efluente de cada unidad de filtros fue evaluado y comparado con el afluente mediante la medici?n de Color Aparente, Turbiedad, UV254, pH y Conductividad. Se obtuvo como resultado que la configuraci?n C5 con 90% de CAG y 10% Arena logr? una mayor estabilidad de la turbiedad obteniendo valores m?nimos por debajo de 2 UNT (MAVDT), 0.5 UNT (WHO) y 0.15 UNT (EPA) y aunque no tuvo diferencias significativas comparado con el filtro de Antracita y Arena, si present? un mejor desempe?o en la remoci?n de turbiedad debido al alcance de un mayor n?mero de datos por debajo de 0.3 UNT. En cuanto a la eficiencia de remoci?n de materia org?nica en el agua medida como UV254 se observaron mejores resultados para la configuraci?n C4 con 85% de CAG y 15% Arena y aunque las eficiencias de remoci?n de materia org?nica no fueron significativamente altas se observa claramente la ventaja que presenta el uso de CAG como medio filtrante adsorbente comparado con el medio convencional de Antracita y Arena. La obtenci?n de bajas eficiencias de remoci?n fue debido al contenido de material en suspensi?n ya que los filtros de CAG trabajaron en la retenci?n de dicho material afectando considerablemente la capacidad de adsorci?n. Mediante esta investigaci?n se comprob? que la selecci?n adecuada de las condiciones operacionales de los filtros de CAG puede generar agua comparativamente similar o superior a los filtros conformados con materiales convencionales como Antracita y arena. De igual forma, el uso de CAG como medio filtrante para el tratamiento de agua del Rio Cauca es un insumo que puede aportar a una posible estrategia para disminuir el riesgo microbiol?gico y el riesgo cr?nico asociado con el contenido de materia org?nica en el agua distribuida a la poblaci?n cale?a

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el área de Aerofotogrametría Digital, el software comercial prevalente para postproceso presenta limitaciones debido a dos factores: (i) las legislaciones de cada país o región requieren diferentes convenciones, y (ii) las necesidades de las empresas son tan cambiantes que no justifican la compra de software de alto rendimiento, que puede quedar sin utilizar debido a un viraje del mercado -- El presente proyecto se ha desarrollado para atender necesidades de procesamiento automático de planos (partición, detección y corrección de errores, etc.), así como módulos de importación – exportación paquete a paquete, trazado de rutas e interacción con GPS -- Este artículo informa de los dos últimos aspectos -- Debido a necesidades de los clientes, los archivos entregados deben llevar un formato comercial (DWG, DXF), pero el procesamiento de los archivos debe ser hecho en paquetes y formatos diversos (DGN) -- Por lo tanto, fue necesario diseñar e implementar un formato acompañante que permitió llevar la información que se pierde al usar filtros comerciales (DGN a DXF/DWG) -- Asimismo se crearon módulos de importación y exportación redundantes, que hicieron efectivos dichos atributos -- En el aspecto de generación de rutas de vuelo, se reportan en este artículo la aplicación de algoritmos tradicionales de barrido (peinado) de áreas 2D, a los cuales se agregaron restricciones geométricas (puntos fijos, offsets, orden de los barridos de acuerdo a coordenadas del sitio de partida, etc.) -- Debido a los altos costos de equipos equivalentes, se decidió desarrollar software para traducción de rutas entre formatos GPS y formatos geográficos locales al país -- Ello permite la eliminación de fuentes de error y además facilita la carga del plan de vuelo, a costos mucho menores a los del hardware / software comercial

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo se llevó a cabo en 64 fincas seleccionadas al azar ubicadas en 15 comarcas con el objetivo de realizar una caracterización de los sistemas de producción bovina de doble prepósito en el municipio de San Pedro de Lóvago, Chontales. El estudio se desarrolló en cuatro fases: Realización de la encuesta a los productores, elaboración de la base de datos, el análisis estadístico y redacción de resultados utilizando los programas computarizados Excel, Access y Word. Se realizó una caracterización general de las fincas y se analizaron siete componentes obteniendo los siguientes resultados: Características generales de las fincas: El 85.93% de los productores poseen fincas con extensiones menores de 100mz, dedicadas más del 90% de su superficie a la actividad ganadera; el total de ganado perteneciente a los productores consultados es de 4775 cabezas lo que representa aproximadamente el 10% del total de cabezas de este municipio; el 81.75% poseen únicamente corrales de alambre de púas; el 62.5% de las fincas consultadas tienen principalmente ríos y quebradas como fuente de abastecimiento de agua para el ganado; sólo el 34.37% de las fincas se benefician de la asistencia técnica brindada a los productores por parte de las cooperativas; el 92% de los productores consultados obtienen el mayor ingreso de sus fincas a través de la venta de leche. Caracterización del manejo del ganado: el 58.81% de los productores consultados se dedican a la explotación de doble propósito; la producción de leche promedio por vaca/día es de 3.4l; el 65% de los productores llevan registros de su ganado aunque solo registran un tipo de evento, ya sea de nacimiento, pesaje de leche o reproductivo; el 85.94% de estos productores realizan trashumancia de todo el ganado, cuya actividad la desarrollan mayormente en el mes de enero. Caracterización del manejo de la sanidad animal: Ninguno de los productores consultados posee y cumplen con un calendario zoosanitario completo en sus fincas. Caracterización del manejo reproductivo: Se caracteriza por la poca atención reproductiva a las vacas, y en casos necesarios la realiza el mismo productor; los problemas reproductivos lo representan en su mayoría la retención de placenta con un 43.75%. Manejo genético y razas de interés para el mejoramiento: Las razas predominantes en los hatos son las de origen cebuino , las que representan el 57.81% del hato; entre los sementales utilizados el 56.26% pertenecen a las razas Pardo Suizo y Holstein; en la actualidad solamente el 4.68% de los productores están utilizan do la técnica de inseminación artificial, para llevar a cabo el mejoramiento genético del ganado. Caracterización del manejo de la alimentación del ganado: La alimentación del ganado es a base de pasturas en su mayoría naturales; el 51.56% de las fincas están divididas ente 6-10 potreros; El 75% de los productores suministran sales minerales a su ganado. Comercialización de la leche y carne: El 89.06% de los productores comercializan su leche a través de las cooperativas, la mayoría de los productores realizan sus transacciones comerciales de ganado en pie (novillos y vacas de descarte) a través de intermediarios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tesis ( Maestro en Ciencias Geológicas) U.A.N.L.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los planes de mejoramiento son el instrumento para encauzar la gestión de la calidad del agua. Esta propuesta aborda enfoques estratégicos y frentes de acción para el suministro de agua potable. Se incluye una guía metodológica y un esquema de evaluación integral, para formular planes viables y verificables.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El propósito de esta investigación fue el de hacer un análisis transversal de la política pública de acceso al agua en Colombia, desde la implementación, funcionamiento y efectividad de la misma, en el contexto del municipio de Río de Oro en el departamento del Cesar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente escrito, constituye una aproximación a los procesos de privatización del agua en América Latina. Lo anterior, en el marco de la acción colectiva, específicamente de los movimientos sociales y su interacción estratégica con oponentes como las compañías multinacionales, las organizaciones financieras internacionales y el Estado. Tomando como referencia las luchas ocurridas en Bolivia, Uruguay y México, con especial énfasis en La Guerra del Agua en Cochabamba (Bolivia).