895 resultados para base de datos software


Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUMEN Las enfermedades cardiovasculares constituyen en la actualidad la principal causa de mortalidad en el mundo y se prevé que sigan siéndolo en un futuro, generando además elevados costes para los sistemas de salud. Los dispositivos cardiacos implantables constituyen una de las opciones para el diagnóstico y el tratamiento de las alteraciones del ritmo cardiaco. La investigación clínica con estos dispositivos alcanza gran relevancia para combatir estas enfermedades que tanto afectan a nuestra sociedad. Tanto la industria farmacéutica y de tecnología médica, como los propios investigadores, cada día se ven involucrados en un mayor número de proyectos de investigación clínica. No sólo el incremento en su volumen, sino el aumento de la complejidad, están generando mayores gastos en las actividades asociadas a la investigación médica. Esto está conduciendo a las compañías del sector sanitario a estudiar nuevas soluciones que les permitan reducir los costes de los estudios clínicos. Las Tecnologías de la Información y las Comunicaciones han facilitado la investigación clínica, especialmente en la última década. Los sistemas y aplicaciones electrónicos han proporcionado nuevas posibilidades en la adquisición, procesamiento y análisis de los datos. Por otro lado, la tecnología web propició la aparición de los primeros sistemas electrónicos de adquisición de datos, que han ido evolucionando a lo largo de los últimos años. Sin embargo, la mejora y perfeccionamiento de estos sistemas sigue siendo crucial para el progreso de la investigación clínica. En otro orden de cosas, la forma tradicional de realizar los estudios clínicos con dispositivos cardiacos implantables precisaba mejorar el tratamiento de los datos almacenados por estos dispositivos, así como para su fusión con los datos clínicos recopilados por investigadores y pacientes. La justificación de este trabajo de investigación se basa en la necesidad de mejorar la eficiencia en la investigación clínica con dispositivos cardiacos implantables, mediante la reducción de costes y tiempos de desarrollo de los proyectos, y el incremento de la calidad de los datos recopilados y el diseño de soluciones que permitan obtener un mayor rendimiento de los datos mediante la fusión de datos de distintas fuentes o estudios. Con este fin se proponen como objetivos específicos de este proyecto de investigación dos nuevos modelos: - Un modelo de recuperación y procesamiento de datos para los estudios clínicos con dispositivos cardiacos implantables, que permita estructurar y estandarizar estos procedimientos, con el fin de reducir tiempos de desarrollo Modelos de Métrica para Sistemas Electrónicos de Adquisición de Datos y de Procesamiento para Investigación Clínica con Dispositivos Cardiacos Implantables de estas tareas, mejorar la calidad del resultado obtenido, disminuyendo en consecuencia los costes. - Un modelo de métrica integrado en un Sistema Electrónico de Adquisición de Datos (EDC) que permita analizar los resultados del proyecto de investigación y, particularmente del rendimiento obtenido del EDC, con el fin de perfeccionar estos sistemas y reducir tiempos y costes de desarrollo del proyecto y mejorar la calidad de los datos clínicos recopilados. Como resultado de esta investigación, el modelo de procesamiento propuesto ha permitido reducir el tiempo medio de procesamiento de los datos en más de un 90%, los costes derivados del mismo en más de un 85% y todo ello, gracias a la automatización de la extracción y almacenamiento de los datos, consiguiendo una mejora de la calidad de los mismos. Por otro lado, el modelo de métrica posibilita el análisis descriptivo detallado de distintos indicadores que caracterizan el rendimiento del proyecto de investigación clínica, haciendo factible además la comparación entre distintos estudios. La conclusión de esta tesis doctoral es que los resultados obtenidos han demostrado que la utilización en estudios clínicos reales de los dos modelos desarrollados ha conducido a una mejora en la eficiencia de los proyectos, reduciendo los costes globales de los mismos, disminuyendo los tiempos de ejecución, e incrementando la calidad de los datos recopilados. Las principales aportaciones de este trabajo de investigación al conocimiento científico son la implementación de un sistema de procesamiento inteligente de los datos almacenados por los dispositivos cardiacos implantables, la integración en el mismo de una base de datos global y optimizada para todos los modelos de dispositivos, la generación automatizada de un repositorio unificado de datos clínicos y datos de dispositivos cardiacos implantables, y el diseño de una métrica aplicada e integrable en los sistemas electrónicos de adquisición de datos para el análisis de resultados de rendimiento de los proyectos de investigación clínica. ABSTRACT Cardiovascular diseases are the main cause of death worldwide and it is expected to continue in the future, generating high costs for health care systems. Implantable cardiac devices have become one of the options for diagnosis and treatment of cardiac rhythm disorders. Clinical research with these devices has acquired great importance to fight against these diseases that affect so many people in our society. Both pharmaceutical and medical technology companies, and also investigators, are involved in an increasingly number of clinical research projects. The growth in volume and the increase in medical research complexity are contributing to raise the expenditure level associated with clinical investigation. This situation is driving health care sector companies to explore new solutions to reduce clinical trial costs. Information and Communication Technologies have facilitated clinical research, mainly in the last decade. Electronic systems and software applications have provided new possibilities in the acquisition, processing and analysis of clinical studies data. On the other hand, web technology contributed to the appearance of the first electronic data capture systems that have evolved during the last years. Nevertheless, improvement of these systems is still a key aspect for the progress of clinical research. On a different matter, the traditional way to develop clinical studies with implantable cardiac devices needed an improvement in the processing of the data stored by these devices, and also in the merging of these data with the data collected by investigators and patients. The rationale of this research is based on the need to improve the efficiency in clinical investigation with implantable cardiac devices, by means of reduction in costs and time of projects development, as well as improvement in the quality of information obtained from the studies and to obtain better performance of data through the merging of data from different sources or trials. The objective of this research project is to develop the next two models: • A model for the retrieval and processing of data for clinical studies with implantable cardiac devices, enabling structure and standardization of these procedures, in order to reduce the time of development of these tasks, to improve the quality of the results, diminish therefore costs. • A model of metric integrated in an Electronic Data Capture system (EDC) that allow to analyze the results of the research project, and particularly the EDC performance, in order to improve those systems and to reduce time and costs of the project, and to get a better quality of the collected clinical data. As a result of this work, the proposed processing model has led to a reduction of the average time for data processing by more than 90 per cent, of related costs by more than 85 per cent, and all of this, through automatic data retrieval and storage, achieving an improvement of quality of data. On the other hand, the model of metrics makes possible a detailed descriptive analysis of a set of indicators that characterize the performance of each research project, allowing inter‐studies comparison. This doctoral thesis results have demonstrated that the application of the two developed models in real clinical trials has led to an improvement in projects efficiency, reducing global costs, diminishing time in execution, and increasing quality of data collected. The main contributions to scientific knowledge of this research work are the implementation of an intelligent processing system for data stored by implantable cardiac devices, the integration in this system of a global and optimized database for all models of devices, the automatic creation of an unified repository of clinical data and data stored by medical devices, and the design of a metric to be applied and integrated in electronic data capture systems to analyze the performance results of clinical research projects.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El trabajo fin de grado que se presenta en este documento trata de “Aplicar técnicas de Data Mining a un conjunto de datos procedentes de ataques de virus informáticos interceptados en servidores de Internet”. La propuesta de este trabajo surgió de una Institución con el fin de extraer información de un conjunto de datos proveniente de ejecuciones de virus informáticos. Lamentablemente, debido a fuertes restricciones de privacidad por parte de esta Institución y así como al relevo de la persona responsable de éste área en dicha Institución, el Proyecto finalmente se canceló. Como consecuencia, y teniendo en cuenta el carácter didáctico de este trabajo fin de grado, el proyecto KDD (Knowledge Discovery in Databases) en sí y sus objetivos de negocio y objetivos de data mining, se han establecido conforme con la misma temática de predicción de ataques de virus que había planteado la Institución en el pasado, contando con una base de datos que ha sido recopilada de diferentes empresas anónimas. Para llevar un desarrollo estructurado de todas las fases del proceso KDD, se ha trabajado siguiendo como referencia una metodología para proyectos de Data Mining, “CRISP-DM”, cuyo estándar incluye un modelo y una guía, estructurados en seis fases. Como herramienta de Data Mining a utilizar, se ha elegido el software de libre distribución “WEKA”. Por último, cabe destacar que el proyecto ha concluido satisfactoriamente, lográndose cada una de las metas establecidas como proyecto de minería de datos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente documento es la memoria del proyecto BADELEWeb, un software desarrollado con el objetivo de mejorar la gestión y el aprovechamiento de la base de datos de contenidos lingüísticos denominada BADELE. Este software ofrece desde el manejo básico de la base de datos a la explotación más detallada mediante la ejecución de consultas sobre funciones lingüísticas. Además, como parte del proyecto se incluye una interfaz que permite el aprovechamiento, por parte de un usuario, de ese recubrimiento. En este documento se presentan los aspectos teóricos necesarios para el desarrollo del proyecto, y la descripción de la funcionalidad que el software debe tener, así como una descripción técnica del desarrollo realizado. Posteriormente se presentan los resultados obtenidos en el proyecto para terminar con una visión de posibles mejoras que se pueden realizar en un futuro. Como anexo se incluye un manual con instrucciones para la instalación del software por parte de un administrador de sistemas para su utilización posterior.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto de fin de grado es uno de los resultados generados en un proyecto de financiación privada por parte de Telefónica consistente en el desarrollo y posterior implantación de un sistema para minería de datos de empresas presentes en Internet. Este TFG surge a partir de un proyecto que el grupo de investigación AICU-LABS (Mercator) de la UPM ha desarrollado para Telefónica, y tiene como elemento principal el desarrollo de Agentes web (también llamados robots software, “softbots” o “crawlers”) capaces de obtener datos de empresas a partir de sus CIF a través de internet. El listado de empresas nos los proporciona Telefónica, y está compuesto por empresas que no son clientes de Telefónica en la actualidad. Nuestra misión es proporcionarles los datos necesarios (principalmente teléfono, correo electrónico y dirección de la empresa) para la creación de una base de datos de potenciales clientes. Para llevar a cabo esta tarea, se ha realizado una aplicación que, a partir de los CIF que nos proporcionan, busque información en internet y extraiga aquella que nos interese. Además se han desarrollado sistemas de validación de datos para ayudarnos a descartar datos no válidos y clasificar los datos según su calidad para así maximizar la calidad de los datos producidos por el robot. La búsqueda de datos se hará tanto en bases de datos online como, en caso de localizarlas, las propias páginas web de las empresas. ABSTRACT This Final Degree Project is one of the results obtained from a project funded by Telefónica. This project consists on the development and subsequent implantation of a system which performs data mining on companies operating on the Internet. This document arises from a project the research group AICU-LABS (Mercator) from the Universidad Politécnica de Madrid has developed for Telefónica. The main goal of this project is the creation of web agents (also known as “crawlers” or “web spiders”) able to obtain data from businesses through the Internet, knowing only their VAT identification number. The list of companies is given by Telefónica, and it is composed by companies that are not Telefónica’s customers today. Our mission is to provide the data required (mainly phone, email and address of the company) to create a database of potential customers. To perform this task, we’ve developed an application that, starting with the given VAT numbers, searches the web for information and extracts the data sought. In addition, we have developed data validation systems, that are capable of discarding low quality data and also sorting the data according to their quality, to maximize the quality of the results produced by the robot. We’ll use both the companies’ websites and external databases as our sources of information.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La evolución de las tecnologías de la información y comunicación, ha provocado que en el desarrollo de las labores de los profesionales sean incluidas herramientas tecnológicas que ayuden y faciliten a la consecución del trabajo de los mismos, así también que el buen desempeño de un profesional hoy en día no solo se mida por sus conocimientos teóricos sino también por su habilidad para el manejo de sistemas informáticos, también sobre cómo logran adatarlos a su trabajo para poder ser más eficientes en llevar a cabo sus responsabilidades. Es por ello que se vuelve indispensable contar con una herramienta tecnológica que facilite y automatice la mayor parte de los procesos en una profesión, ya que de no ser así significaría resistirse a los cambios y por lo tanto quedar en desventaja respecto a la competencia, debido a la evolución y globalización de la tecnología y por ende correr el riesgo de volverse obsoleto en el ámbito laboral por no hacer uso de las TIC en la formación y desarrollo de la profesión. Por tal razón se investigó la situación de las pequeñas firmas de auditoría en cuanto al uso e implementación de la tecnología en sus procesos, tal investigación confirmó que las mismas, tenían problemas en cuanto a la administración, registro y control de la cartera de clientes, así como también en la administración y registro de la información de los empleados, problemas en la agenda de las visitas, de los procedimientos a ejecutar, entre otros. Todo lo anterior porque la mayor parte de las firmas no implementan la tecnología en su trabajo debido al costo que implica adquirir un programa que automatice y facilite sus actividades; es por ello que como grupo de investigación se tomó a bien elaborar un software que se ajuste a las necesidades de las firmas con el objetivo de solventar la problemática identificada en las mismas. En tal sentido la propuesta para resolver la problemática identificada y comprobada, consistió en la elaboración de un software que fuera capaz de llevar un registro y control de la cartera de clientes y empleados; poder registrar los procedimientos a ejecutar en el desarrollo de una auditoría por cada cliente existente; de registrar y programar las visitas que se harán a los clientes; así como también hacer el registro y asignación de encargos a los empleados y poder registrar las capacitaciones que estos últimos reciben; que la aplicación pudiera hacer recordatorios de fechas claves concernientes a los encargos y contar con un buscador en donde se pueda consultar toda la información que en la misma se vacíe. Finalmente que esta sea capaz de generar reportes. Para el diseño y elaboración del intangible se utilizó bibliografía referente al diseño y programación de sistemas, así mismo se investigó referente a los diferentes tipos de entornos y lenguajes que más se adaptaban a nuestras necesidades; se siguió el ciclo de vida de los soportes lógicos con el fin de cumplir con las etapas del mismo y poder llevar a cabo la elaboración del sistema propuesto. El trabajo inició mediante el suministro de una encuesta a las unidades de análisis las cuales fueron firmas de auditoría, después de haber pasado el instrumento a todos los elementos que conformaron la muestra y haber obtenido los resultados, se procedió a hacer la tabulación y análisis para poder dar paso a la formulación del diagnóstico sobre la problemática en estudio, determinando la necesidad de un sistema computarizado diseñado conforme a los estándares manifestados por los auditores para su uso en el desarrollo de sus labores. Por lo demás se desarrolló la propuesta, la cual contempló el diseño y programación de la aplicación de acuerdo a los requerimientos planteados y a las especificaciones que se pudieron identificar previamente, así como también las identificadas después de la tabulación y análisis de los resultados; es decir de acuerdo a los requerimientos que los las unidades de análisis deseaban que también tuviese el software a parte de las que se les plantearon en la encuesta. Para esto se hizo un estudio sobre la factibilidad técnica, operativa y económica de este, describiendo el lenguaje de programación y las relaciones entre las tablas que incluye la base de datos. Asimismo se presenta cada formulario con sus respectivos botones de acción y barra de herramienta a tomar en cuenta y el esquema de los reportes que de forma indispensable debe generar como producto del procesamiento electrónico de los datos. Para finalizar se redactaron a criterio del grupo de investigación, algunas conclusiones del trabajo realizado acompañado de sus respectivas recomendaciones a considerar por las firmas auditoras.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

[ES] El presente manual describe el manejo de grafos de forma interactiva en el entorno 3D que proporciona el programa Xglore (http://sourceforge.net/projects/xglore/). Forma parte del proyecto “Nerthusv2: Base de datos léxica en 3D del inglés antiguo” patrocinado por el Ministerio de Ciencia e Innovación (nº: FFI08-04448/FILO).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Castellano. En este proyecto se desarrolla una aplicación web que permite la gestión de datos obtenidos en las pruebas que se realizan a los generadores síncronos en Banco de Pruebas. El objetivo de este proyecto es almacenar estos datos en una base de datos de forma que se encuentren centralizados para su posterior explotación.Para llevar a cabo esta tarea, se han utilizado tecnologías como PHP, MySQL, JavaScript y Ajax.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este artículo describiremos cómo se ha realizado un Sistema para controlar la Información generada en una Base de Datos distribuida en lugares alejados geográficamente. La diferencia frente a otros sistemas más sofisticados radica en la economía, y la flexibilidad de la solución propuesta. El sistema de comunicaciones se instala sobre un soporte físico de extrema sencillez; con ello se consigue una instalación muy económica.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

[ES]Este Trabajo de Fin de Grado tiene como objeto crear un programa que sirva como herramienta para los cálculos en las propiedades a fatiga de una pieza. El conjunto del trabajo se centra en su creación mediante la herramienta Excel. El programa cuenta con tres diferentes pestañas: una para los datos que debe introducir el usuario, otra correspondiente a los cálculos y por último una en la que aparecen los resultados. El usuario debe conocer las propiedades de la probeta del material a ensayar, así como el rango de ciclos en el cual se va a trabajar (siempre en un rango de ciclos medio alto). A partir de estas informaciones de la probeta, y gracias a la curva de Basquin y la ecuación de Marin, el programa será capaz de obtener la curva de resistencia a fatiga correspondiente para la pieza. Se incluyen también casos especiales en los que se realicen tratamientos mecánicos de mejora, con una tensión límite del proceso. Para obtener la curva S-N de la pieza se pedirá información en la pestaña de interfaz con el usuario sobre distintas propiedades de la pieza, que permitan así calcular los valores de los coeficientes de Marín gracias a la base de datos que contiene el programa. El usuario tiene también la opción de introducir él mismo los valores de los coeficientes para así obtener una curva que se aproxime más a sus resultados experimentales. En resumen, la función del programa es la de ser una calculadora de la resistencia fatiga de la pieza a partir de los datos que se disponen de la probeta.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este informe recoge la documentación generada para llevar a cabo una práctica interuniversitaria en el área de base de datos durante los cursos 09/10 y 10/11. Se ha desarrollado una experiencia entre la UPV/EHU y la Universidad de la Rioja incorporando de forma sistemática la telecolaboración, formando equipos de trabajo con estudiantes de las dos universidades que no se conocen entre sí y han trabajado a distancia. El proyecto se ha realizado en el ámbito de dos asignaturas de bases de datos concretas, una de cada universidad, donde las similitudes y diferencias entre ambas producen equipos heterogéneos. Los alumnos han colaborado en las diferentes fases de la creación de una base de datos, desde la invención de unos requisitos hasta la realización de consultas. Para el desarrollo de esta práctica se han elaborado enunciados detallados para cada fase con ejemplos del trabajo a realizar. Además se ha acordado una rúbrica de evaluación y una encuesta para valorar la experiencia. En el presente documento se recopila dicho material de soporte.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La productividad forrajera (PF) es una variable crítica para el manejo y la planificación de los sistemas de producción ganaderos. Sin embargo, las dificultades para cuantificarla a campo y la necesidad de manejar un marco conceptual robusto para utilizarla en la toma de decisiones hacen que habitualmente los sistemas de producción se manejen con una caracterización rudimentaria de esta variable. En esta tesis se desarrolló un sistema de seguimiento de la PF en tiempo real y a la escala de lote, basado en la lógica de la eficiencia en el uso de la radiación (EUR). Primero se diseñó y se puso en funcionamiento una versión preliminar del sistema, y luego se investigaron en mayor detalle dos aspectos críticos de su funcionamiento: la estimación de la fracción de radiación absorbida por el canopeo (fRFAA) a partir de índices de vegetación derivados de imágenes satelitales, y el comportamiento de la EUR ante variaciones del estrés ambiental, el manejo de la defoliación, y la escala temporal de observación. La metodología para implementar la versión preliminar del sistema de seguimiento forrajero se basó en estimar la fRFAA y la EUR. La primera fue estimada como una función no lineal del índice de vegetación normalizado del sensor MODIS. La estimación de la EUR se basó en calibraciones empíricas entre la PF estimada a campo y la radiación absorbida para dos recursos forrajeros: pasturas de loma y bajos de agropiro. Los resultados mostraron que la radiación absorbida predijo datos independientes de PF con precisión aceptable. El sistema fue implementado informáticamente en un software específico denominado Segf. En relación al primer aspecto de mejora del sistema, la estimación de la fRFAA, se estudió la absorción de radiación a campo con una barra de interceptación en cultivos de trigo (utilizados como modelo experimental) y se la correlacionó con distintos índices de vegetación calculados a partir del sensor espectral MODIS. Se encontró que los índices de vegetación explicaron entre 90 y 94 por ciento de las variaciones de fRFAA. El índice de vegetación mejorado presentó una relación más lineal que el clásico índice de vegetación normalizado, posiblemente debido a la ausencia de saturación del primero ante aumentos del área foliar. En relación al segundo aspecto de mejora del sistema, la variabilidad de la EUR, se realizó un experimento de un año sobre una pastura consociada de festuca y alfalfa sometida a distintos tratamientos. La EUR fue más estable que la fRFAA ante cambios de la disponibilidad de recursos y de intensidad de defoliación. Sin embargo, la EUR tendió a disminuir ante estrés hídrico (déficit y exceso), y a aumentar ante defoliación severa y sombreado. Además, la variabilidad de la EUR a lo largo del rebrote de la pastura y entre tratamientos dependió de la escala temporal de observación o cálculo: fue más variable al considerar períodos de 12 días que al considerar todo el período de rebrote o la estación (45 y 90 días respectivamente). Como resultado de la tesis, los productores agropecuarios y sus asesores cuentan con un sistema capaz de estimar mes a mes la PF de sus lotes para una serie temporal de aproximadamente diez años. Actualmente 1.478.000 ha ganaderas están bajo seguimiento mediante un sistema basado en esta tesis. Esto implica un cambio cualitativo de disponibilidad de información y representa una oportunidad para tomar mejores decisiones de manejo, a la vez que concientiza sobre el uso racional del forraje para maximizar su crecimiento. Adicionalmente, la base de datos de PF generada, extraordinariamente amplia en su cobertura espacial y temporal, será de utilidad para trabajos de investigación sobre los patrones espacio-temporales de PF.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La productividad forrajera (PF)es una variable crítica para el manejo y la planificación de los sistemas de producción ganaderos. Sin embargo, las dificultades para cuantificarla a campo y la necesidad de manejar un marco conceptual robusto para utilizarla en la toma de decisiones hacen que habitualmente los sistemas de producción se manejen con una caracterización rudimentaria de esta variable. En esta tesis se desarrolló un sistema de seguimiento de la PF en tiempo real y a la escala de lote, basado en la lógica de la eficiencia en el uso de la radiación (EUR). Primero se diseñó y se puso en funcionamiento una versión preliminar del sistema, y luego se investigaron en mayor detalle dos aspectos críticos de su funcionamiento: la estimación de la fracción de radiación absorbida por el canopeo (fRFAA)a partir de índices de vegetación derivados de imágenes satelitales, y el comportamiento de la EUR ante variaciones del estrés ambiental, el manejo de la defoliación, y la escala temporal de observación. La metodología para implementar la versión preliminar del sistema de seguimiento forrajero se basó en estimar la fRFAA y la EUR. La primera fue estimada como una función no lineal del índice de vegetación normalizado del sensor MODIS. La estimación de la EUR se basó en calibraciones empíricas entre la PF estimada a campo y la radiación absorbida para dos recursos forrajeros: pasturas de loma y bajos de agropiro. Los resultados mostraron que la radiación absorbida predijo datos independientes de PF con precisión aceptable. El sistema fue implementado informáticamente en un software específico denominado Segf. En relación al primer aspecto de mejora del sistema, la estimación de la fRFAA, se estudió la absorción de radiación a campo con una barra de interceptación en cultivos de trigo (utilizados como modelo experimental)y se la correlacionó con distintos índices de vegetación calculados a partir del sensor espectral MODIS. Se encontró que los índices de vegetación explicaron entre 90 y 94 por ciento de las variaciones de fRFAA. El índice de vegetación mejorado presentó una relación más lineal que el clásico índice de vegetación normalizado, posiblemente debido a la ausencia de saturación del primero ante aumentos del área foliar. En relación al segundo aspecto de mejora del sistema, la variabilidad de la EUR, se realizó un experimento de un año sobre una pastura consociada de festuca y alfalfa sometida a distintos tratamientos. La EUR fue más estable que la fRFAA ante cambios de la disponibilidad de recursos y de intensidad de defoliación. Sin embargo, la EUR tendió a disminuir ante estrés hídrico (déficit y exceso), y a aumentar ante defoliación severa y sombreado. Además, la variabilidad de la EUR a lo largo del rebrote de la pastura y entre tratamientos dependió de la escala temporal de observación o cálculo: fue más variable al considerar períodos de 12 días que al considerar todo el período de rebrote o la estación (45 y 90 días respectivamente). Como resultado de la tesis, los productores agropecuarios y sus asesores cuentan con un sistema capaz de estimar mes a mes la PF de sus lotes para una serie temporal de aproximadamente diez años. Actualmente 1.478.000 ha ganaderas están bajo seguimiento mediante un sistema basado en esta tesis. Esto implica un cambio cualitativo de disponibilidad de información y representa una oportunidad para tomar mejores decisiones de manejo, a la vez que concientiza sobre el uso racional del forraje para maximizar su crecimiento. Adicionalmente, la base de datos de PF generada, extraordinariamente amplia en su cobertura espacial y temporal, será de utilidad para trabajos de investigación sobre los patrones espacio-temporales de PF.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La presente tesis consiste en la creación de una empresa dedicada a la producción y comercialización de quesos en base a leche de cabra, ubicada en la provincia de Pichincha, en el Distrito Metropolitano de Quito. El principal objetivo es terminar la viabilidad y factibilidad del proyecto en base a la información recolectada y sistematizada de diferentes estudios y evaluaciones, esto permitirá tener un fundamento para tomar decisiones, impactando en el desarrollo de la ganadería caprina en el Ecuador, además de difundir los excelentes beneficios de la leche de cabra. Se lograr recopilar información en base a datos primarios y secundarios, contando a personas inmersas en forma directa en la producción de la leche de cabra y trato de cabras.