957 resultados para Extracción pesquera
Resumo:
A través del conocimiento de los recursos pesqueros, es decir especies, cantidad extraíble, métodos de pesca, etc., se ofrece a la comunidad un medio para mejorar su nivel de vida. En el presente trabajo se han catalogado 171. especies cuya captura es rentable económicamente. Están agrupadas en tres Phyllum y 73 familias. Una vez realizada la identificación de especies, se ha elaborado un modelo matemático, que basado en la dinámica de poblaciones, nos permite estimar la cantidad de biomasa existente en el caladero para una determinada especie. En función de la biomasa estimada de esta forma, pueden planificarse las capturas, de tal forma que la explotación del recurso sea sostenible, para evitar que éste se agote. En función de la estimación, las autoridades económicas podrán planificar la política pesquera adecuada para conseguir la sostenibilidad ambiental y económica a medio y largo plazo. Se puede aplicar este modelo a cualquier especie, pero lo hemos particularizado a la gamba blanca por su especial interés económico para el país. Se observa cómo evolucionarán las capturas hasta el año 2027, en el que tanto la producción como el beneficio es máximo. A continuación obtenemos una estabilización de las capturas y por tanto de los ingresos, lo que nos permite mantener la extracción y la sostenibilidad de la especie. ABSTRACT The knowledge of fishery resources, i.e., species, the quantity of fish that can be caught, fishing methods, etc, provides the community with a means to improve their standard of living. In this work, we have listed some species the yield of which is economically profitable. They have been grouped into three categories… The mathematical model, based on population dynamics, allows us to plan the harvesting and to estimate resources. In turn, this will translate into an ability to plan the budget by the economic authorities, since the middle and long turn incomes are known. This model can be applied to any species, but we have chosen the white shrimp because of its special economic value for the country. It shows how the yields will develop up to a maximum in 2027. Then we will obtain a stable catch and therefore a stable income. This will allow us to maintain the harvesting and also the sustainability of the species.
Resumo:
La introducción de las cirugías de mínima invasión en rutina clínica ha provocado la incorporación de los sistemas de vídeo dentro del quirófano. Así, estas técnicas proporcionan al cirujano imágenes que antes solo podían ser vistas mediante cirugía abierta. Los vídeos obtenidos en las intervenciones son almacenados en repositorios. El uso posterior de estos vídeos se ve limitado generalmente a su reproducción, debido a las dificultades de clasificación y gestión. La información que contienen estos repositorios puede ser explotada, reutilizando el conocimiento obtenido en cirugías similares. En este artículo de investigación se presenta el diseño de un módulo de gestión de conocimiento (MGC) para un repositorio de vídeos de cirugía de mínima invasión (CMI). El objetivo del módulo es gestionar y reutilizar la información contenida en el repositorio de vídeos laparoscópicos, para que puedan ser utilizadas con las experiencias previas en entornos de formación de nuevos cirujanos. Para este fin, se han implementado técnicas de recuperación de imagen y vídeo basadas en sus contenidos visuales (CBIR y CBVR). El MGC permite la recuperación de imágenes/vídeos, proporcionando información sobre la tarea que se está realizando en la escena quirúrgica. Los resultados obtenidos en este trabajo muestran la posibilidad de recuperar vídeos de CMI, a partir del instrumental presente en la escena quirúrgica.
Resumo:
La diabetes mellitus es un trastorno en la metabolización de los carbohidratos, caracterizado por la nula o insuficiente segregación de insulina (hormona producida por el páncreas), como resultado del mal funcionamiento de la parte endocrina del páncreas, o de una creciente resistencia del organismo a esta hormona. Esto implica, que tras el proceso digestivo, los alimentos que ingerimos se transforman en otros compuestos químicos más pequeños mediante los tejidos exocrinos. La ausencia o poca efectividad de esta hormona polipéptida, no permite metabolizar los carbohidratos ingeridos provocando dos consecuencias: Aumento de la concentración de glucosa en sangre, ya que las células no pueden metabolizarla; consumo de ácidos grasos mediante el hígado, liberando cuerpos cetónicos para aportar la energía a las células. Esta situación expone al enfermo crónico, a una concentración de glucosa en sangre muy elevada, denominado hiperglucemia, la cual puede producir a medio o largo múltiples problemas médicos: oftalmológicos, renales, cardiovasculares, cerebrovasculares, neurológicos… La diabetes representa un gran problema de salud pública y es la enfermedad más común en los países desarrollados por varios factores como la obesidad, la vida sedentaria, que facilitan la aparición de esta enfermedad. Mediante el presente proyecto trabajaremos con los datos de experimentación clínica de pacientes con diabetes de tipo 1, enfermedad autoinmune en la que son destruidas las células beta del páncreas (productoras de insulina) resultando necesaria la administración de insulina exógena. Dicho esto, el paciente con diabetes tipo 1 deberá seguir un tratamiento con insulina administrada por la vía subcutánea, adaptado a sus necesidades metabólicas y a sus hábitos de vida. Para abordar esta situación de regulación del control metabólico del enfermo, mediante una terapia de insulina, no serviremos del proyecto “Páncreas Endocrino Artificial” (PEA), el cual consta de una bomba de infusión de insulina, un sensor continuo de glucosa, y un algoritmo de control en lazo cerrado. El objetivo principal del PEA es aportar al paciente precisión, eficacia y seguridad en cuanto a la normalización del control glucémico y reducción del riesgo de hipoglucemias. El PEA se instala mediante vía subcutánea, por lo que, el retardo introducido por la acción de la insulina, el retardo de la medida de glucosa, así como los errores introducidos por los sensores continuos de glucosa cuando, se descalibran dificultando el empleo de un algoritmo de control. Llegados a este punto debemos modelar la glucosa del paciente mediante sistemas predictivos. Un modelo, es todo aquel elemento que nos permita predecir el comportamiento de un sistema mediante la introducción de variables de entrada. De este modo lo que conseguimos, es una predicción de los estados futuros en los que se puede encontrar la glucosa del paciente, sirviéndonos de variables de entrada de insulina, ingesta y glucosa ya conocidas, por ser las sucedidas con anterioridad en el tiempo. Cuando empleamos el predictor de glucosa, utilizando parámetros obtenidos en tiempo real, el controlador es capaz de indicar el nivel futuro de la glucosa para la toma de decisones del controlador CL. Los predictores que se están empleando actualmente en el PEA no están funcionando correctamente por la cantidad de información y variables que debe de manejar. Data Mining, también referenciado como Descubrimiento del Conocimiento en Bases de Datos (Knowledge Discovery in Databases o KDD), ha sido definida como el proceso de extracción no trivial de información implícita, previamente desconocida y potencialmente útil. Todo ello, sirviéndonos las siguientes fases del proceso de extracción del conocimiento: selección de datos, pre-procesado, transformación, minería de datos, interpretación de los resultados, evaluación y obtención del conocimiento. Con todo este proceso buscamos generar un único modelo insulina glucosa que se ajuste de forma individual a cada paciente y sea capaz, al mismo tiempo, de predecir los estados futuros glucosa con cálculos en tiempo real, a través de unos parámetros introducidos. Este trabajo busca extraer la información contenida en una base de datos de pacientes diabéticos tipo 1 obtenidos a partir de la experimentación clínica. Para ello emplearemos técnicas de Data Mining. Para la consecución del objetivo implícito a este proyecto hemos procedido a implementar una interfaz gráfica que nos guía a través del proceso del KDD (con información gráfica y estadística) de cada punto del proceso. En lo que respecta a la parte de la minería de datos, nos hemos servido de la denominada herramienta de WEKA, en la que a través de Java controlamos todas sus funciones, para implementarlas por medio del programa creado. Otorgando finalmente, una mayor potencialidad al proyecto con la posibilidad de implementar el servicio de los dispositivos Android por la potencial capacidad de portar el código. Mediante estos dispositivos y lo expuesto en el proyecto se podrían implementar o incluso crear nuevas aplicaciones novedosas y muy útiles para este campo. Como conclusión del proyecto, y tras un exhaustivo análisis de los resultados obtenidos, podemos apreciar como logramos obtener el modelo insulina-glucosa de cada paciente. ABSTRACT. The diabetes mellitus is a metabolic disorder, characterized by the low or none insulin production (a hormone produced by the pancreas), as a result of the malfunctioning of the endocrine pancreas part or by an increasing resistance of the organism to this hormone. This implies that, after the digestive process, the food we consume is transformed into smaller chemical compounds, through the exocrine tissues. The absence or limited effectiveness of this polypeptide hormone, does not allow to metabolize the ingested carbohydrates provoking two consequences: Increase of the glucose concentration in blood, as the cells are unable to metabolize it; fatty acid intake through the liver, releasing ketone bodies to provide energy to the cells. This situation exposes the chronic patient to high blood glucose levels, named hyperglycemia, which may cause in the medium or long term multiple medical problems: ophthalmological, renal, cardiovascular, cerebrum-vascular, neurological … The diabetes represents a great public health problem and is the most common disease in the developed countries, by several factors such as the obesity or sedentary life, which facilitate the appearance of this disease. Through this project we will work with clinical experimentation data of patients with diabetes of type 1, autoimmune disease in which beta cells of the pancreas (producers of insulin) are destroyed resulting necessary the exogenous insulin administration. That said, the patient with diabetes type 1 will have to follow a treatment with insulin, administered by the subcutaneous route, adapted to his metabolic needs and to his life habits. To deal with this situation of metabolic control regulation of the patient, through an insulin therapy, we shall be using the “Endocrine Artificial Pancreas " (PEA), which consists of a bomb of insulin infusion, a constant glucose sensor, and a control algorithm in closed bow. The principal aim of the PEA is providing the patient precision, efficiency and safety regarding the normalization of the glycemic control and hypoglycemia risk reduction". The PEA establishes through subcutaneous route, consequently, the delay introduced by the insulin action, the delay of the glucose measure, as well as the mistakes introduced by the constant glucose sensors when, decalibrate, impede the employment of an algorithm of control. At this stage we must shape the patient glucose levels through predictive systems. A model is all that element or set of elements which will allow us to predict the behavior of a system by introducing input variables. Thus what we obtain, is a prediction of the future stages in which it is possible to find the patient glucose level, being served of input insulin, ingestion and glucose variables already known, for being the ones happened previously in the time. When we use the glucose predictor, using obtained real time parameters, the controller is capable of indicating the future level of the glucose for the decision capture CL controller. The predictors that are being used nowadays in the PEA are not working correctly for the amount of information and variables that it need to handle. Data Mining, also indexed as Knowledge Discovery in Databases or KDD, has been defined as the not trivial extraction process of implicit information, previously unknown and potentially useful. All this, using the following phases of the knowledge extraction process: selection of information, pre- processing, transformation, data mining, results interpretation, evaluation and knowledge acquisition. With all this process we seek to generate the unique insulin glucose model that adjusts individually and in a personalized way for each patient form and being capable, at the same time, of predicting the future conditions with real time calculations, across few input parameters. This project of end of grade seeks to extract the information contained in a database of type 1 diabetics patients, obtained from clinical experimentation. For it, we will use technologies of Data Mining. For the attainment of the aim implicit to this project we have proceeded to implement a graphical interface that will guide us across the process of the KDD (with graphical and statistical information) of every point of the process. Regarding the data mining part, we have been served by a tool called WEKA's tool called, in which across Java, we control all of its functions to implement them by means of the created program. Finally granting a higher potential to the project with the possibility of implementing the service for Android devices, porting the code. Through these devices and what has been exposed in the project they might help or even create new and very useful applications for this field. As a conclusion of the project, and after an exhaustive analysis of the obtained results, we can show how we achieve to obtain the insulin–glucose model for each patient.
Resumo:
Cálculo de una máquina de extracción
Resumo:
El presente proyecto de fin de grado es uno de los resultados generados en un proyecto de financiación privada por parte de Telefónica consistente en el desarrollo y posterior implantación de un sistema para minería de datos de empresas presentes en Internet. Este TFG surge a partir de un proyecto que el grupo de investigación AICU-LABS (Mercator) de la UPM ha desarrollado para Telefónica, y tiene como elemento principal el desarrollo de Agentes web (también llamados robots software, “softbots” o “crawlers”) capaces de obtener datos de empresas a partir de sus CIF a través de internet. El listado de empresas nos los proporciona Telefónica, y está compuesto por empresas que no son clientes de Telefónica en la actualidad. Nuestra misión es proporcionarles los datos necesarios (principalmente teléfono, correo electrónico y dirección de la empresa) para la creación de una base de datos de potenciales clientes. Para llevar a cabo esta tarea, se ha realizado una aplicación que, a partir de los CIF que nos proporcionan, busque información en internet y extraiga aquella que nos interese. Además se han desarrollado sistemas de validación de datos para ayudarnos a descartar datos no válidos y clasificar los datos según su calidad para así maximizar la calidad de los datos producidos por el robot. La búsqueda de datos se hará tanto en bases de datos online como, en caso de localizarlas, las propias páginas web de las empresas. ABSTRACT This Final Degree Project is one of the results obtained from a project funded by Telefónica. This project consists on the development and subsequent implantation of a system which performs data mining on companies operating on the Internet. This document arises from a project the research group AICU-LABS (Mercator) from the Universidad Politécnica de Madrid has developed for Telefónica. The main goal of this project is the creation of web agents (also known as “crawlers” or “web spiders”) able to obtain data from businesses through the Internet, knowing only their VAT identification number. The list of companies is given by Telefónica, and it is composed by companies that are not Telefónica’s customers today. Our mission is to provide the data required (mainly phone, email and address of the company) to create a database of potential customers. To perform this task, we’ve developed an application that, starting with the given VAT numbers, searches the web for information and extracts the data sought. In addition, we have developed data validation systems, that are capable of discarding low quality data and also sorting the data according to their quality, to maximize the quality of the results produced by the robot. We’ll use both the companies’ websites and external databases as our sources of information.
Resumo:
En este trabajo presentamos la integración de una técnica de análisis parcial definida sobre textos no restringidos (SUPP) sobre un sistema de extracción de información (EXIT) en el dominio restringido de los textos notariales, en concreto, en las escrituras de compraventa de inmuebles. La principal contribución está centrada en la identificación de sintagmas nominales definidos, acrónimos y alias para su resolución posterior de correferentes.
Resumo:
En la aplicación de la técnica de extracción electroquímica de cloruros (EEC), tradicionalmente se ha venido empleando como ánodo externo una malla de Ti-RuO2. En este artículo se aportan los resultados de investigaciones basadas en la utilización de ánodos formados por pasta de cemento conductora con adición de nanofibras de carbono (NFC) y su aplicación en EEC. Las experiencias se desarrollaron en probetas de hormigón contaminado previamente con cloruro. Las eficiencias alcanzadas se compararon con las obtenidas empleando un ánodo tradicional (Ti-RuO2), así como pastas de cemento con adición de otros materiales carbonosos. Los resultados muestran la viabilidad en la utilización de la pasta de cemento conductora con NFC como ánodo en la aplicación en EEC en hormigón, encontrándose eficiencias similares a las obtenidas con la tradicional malla de Ti-RuO2 pero teniendo la ventaja añadida sobre esta de que es posible adaptarla a geometrías estructurales complejas al ser aplicada en forma de pasta.
Resumo:
Esta tesis está enfocada en el programa de observadores científicos en aguas del Atlántico Sudoccidental que el Instituto Español de Oceanografía (IEO) mantiene desde el año 1989 hasta la actualidad. Dicha base de datos ya ha sido empleada previamente por otros autores para estudiar los recursos pesqueros presentes, tanto en las aguas internacionales de la plataforma patagónica, más allá de las 200 millas náuticas de la costa argentina, como en la zona de pesca actualmente incluida dentro de la jurisdicción de las islas Falkland/Malvinas. Aquí nos centramos en el estudio de la actividad pesquera española que faena en la zona de aguas internacionales conocida como “División 46” y de los recursos a los que se dirige. Varios factores justifican la necesidad de esta tesis: (1) La necesidad de desarrollar una descripción detallada de la base de datos, no realizada hasta el momento. (2) Valorar la representatividad espacial del programa de observadores. (3) Establecer una serie de análisis espacio-temporales que describan la actividad pesquera de la flota española en estas aguas, (4) Desarrollar un completo y detallado análisis espacio-temporal de la distribución y abundancia de los recursos pesqueros a los que se dirige la flota. Por otra parte, las limitaciones propias de un programa de observadores científicos en buques pesqueros nos llevan, por necesidad, a explorar soluciones metodológicas que permitan un análisis fiable del esfuerzo pesquero y de la abundancia de los recursos. A este respecto, la disponibilidad de nueva información relacionada con las características físicas del área de estudio obtenida a raíz de las campañas oceanográficas realizadas en las aguas internacionales de la plataforma patagónica por el IEO y la Secretaría General del Mar (SGM) entre los años 2007 y 2011 y la disponibilidad de datos procedentes del Sistema de Localización de Buques de la SGM entre el periodo 2001 y 2007, nos ha permitido avanzar en el conocimiento de la actividad pesquera española en esta región. Como resultados principales, hemos definido algunas características fundamentales que determinan el marco de estudio de esta base de datos, hemos explorado diversas aproximaciones metodológicas que permitan un análisis de la representatividad de un programa de observadores en aguas internacionales, hemos desarrollado una descripción espacio-temporal de la estrategia de pesca en esta aguas y, a raíz del conocimiento adquirido, hemos realizado un análisis de los factores que afectan a la distribución de M. hubbsi y al esfuerzo de pesca invertido en su captura.
Resumo:
La etiqueta azul del Marine Stewardship Council, pesca sostenible certificada, indica que un producto de pescado, fresco o transformado, procede de un recurso natural, salvaje, gestionado de manera respetuosa con el medio. Para obtenerla es necesario cumplir una serie de requisitos que son evaluados por una empresa certificadora (a la cual MSC ha dado el visto bueno y que es, a su vez, evaluada por otro organismo que asegura su completa imparcialidad). MSC presenta un modo de gestionar pesquerías que, según la propia organización, asegura la continuidad de la especie objetivo, de otras especies dependientes de ésta y del medio donde habitan. Sin embargo, obtener dicha eco-etiqueta azul es complejo y, sobre todo, económicamente difícil. El objetivo de este artículo es comprobar si el enfoque ecosistémico de este estándar ayudaría a paliar el impacto negativo de una pesquería que es fuente de riqueza, alimento y empleo perdurable en el Golfo de Cádiz. Es decir, aplicar los principios y criterios de MSC como herramienta de gestión de la pesquería de la chirla, Chamelea gallina (Linnaeus, 1758), con draga hidráulica.
Resumo:
La investigación se efectuó con información de la pesquería del calamar gigante proveniente de la flota industrial-artesanal, cruceros de investigación nacional e internacional, así como de organismos públicos y privados tanto nacionales como del extranjero. El objetivo fue estudiar las principales características biológico-pesqueras del calamar gigante, asimismo se analizaron los parámetros sociales, económicos e institucionales de la pesquería del recurso, con la finalidad de evaluar la sostenibilidad de su pesquería, proponiendo los indicadores más convenientes para describir la situación y las tendencias de las distintas dimensiones del desarrollo sostenible, en tal sentido se concluyó que la pesquería del calamar gigante sí cumple los parámetros internacionales de sostenibilidad, faltando sólo una mayor participación (ganancias económicas) por parte de los pescadores artesanales.
Resumo:
En el Perú, la pesquería más importante está dirigida al recurso anchoveta (Engraulis ringens), el cual es extraído con red de cerco, sin embargo, este arte de pesca no es 100% selectivo, generando así capturas incidentales. Esta investigación tiene como objetivo analizar cuantitativamente el efecto de la pesquería de anchoveta sobre los recursos de la fauna acompañante mediante el estudio de diferencias espacio-temporales en términos de captura y composición específica de la ictiofauna que conformó la captura incidental en todo el litoral peruano proveniente de la flota industrial durante el periodo 2003-2011. Los resultados muestran valores de captura incidental significativamente mayores en la región sur del litoral peruano a comparación de la región norte y centro, principalmente durante los años 2003 y 2006, aunque la mayor riqueza de especies fue encontrada en la región norte. Por otro lado, dentro de la composición de la captura incidental a nivel especifico destacó la presencia constante de la Caballa (Scomber japonicus), Bagre (Galeichthys peruvianus) y Múnida (Pleuroncodes monodon) en la región norte, Lorna (Sciaena deliciosa), Pejerrey (Odontesthes regia regia), y Múnida (Pleuroncodes monodon) en la región centro y Jurel (Trachurus picturatus murphyi), Caballa (Scomber japonicus), Lorna (Sciaena deliciosa), Pejerrey (Odontesthes regia regia), Múnida (Pleuroncodes monodon), Camotillo (Diplectrum conceptione) y Pampanito (Trachinotus paitensis) en la región sur. Sin embargo, los mayores volúmenes capturados se debieron a recursos costeros y fueron capturados por la flota industrial de acero en la región sur del litoral peruano.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Tesis de la Universidad Central (Madrid), Facultad de Derecho, leída el 17-03-1856.
Resumo:
En fin de texto consta : "Buen Retiro trece de Diciembre de mil setecientos sesenta"