17 resultados para Firmas empacadoras-exportadoras

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente artículo tiene como objetivo analizar el comportamiento de las firmas de contadores públicos del municipio Maracaibo, estado Zulia-Venezuela, con el propósito de dar aportes para mejorar la formación académica del contador público. El estudio es de tipo descriptivo, de campo, no experimental, se aplicó una encuesta a veinticuatro (24) firmas que visan sus estados financieros en el Colegio de Contadores Públicos del Estado Zulia, seleccionadas aleatoriamente. Los resultados obtenidos muestran un estancamiento en el crecimiento de las firmas de contadores públicos de la región y diversificación de los servicios ofrecidos como respuesta a las actuales exigencias del mercado. Se concluye que la contaduría se encuentra en un proceso de transformación, donde se exige mayor responsabilidad en la ejecución del trabajo, siendo necesario adaptar los programas académicos a las nuevas necesidades del ámbito laboral.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se ha analizado el problema de la detección de fugas de CO2 en reservorios naturales utilizados como almacenes de este gas. Los trabajos han sido realizados sobre un área del Campo de Calatrava, Ciudad Real, España, donde a causa de la actividad volcánica remanente se pueden encontrar puntos de emisión de CO2. Se han utilizado imágenes QuickBird y WorldView-2 para la generación de firmas espectrales e índices de vegetación. Estos índices han sido evaluados para obtener los más idóneos para la detección de fugas de CO2. Palabras clave: teledetección, CO2, vegetación, satélite. ABSTRACT The problem of detecting CO2 leaks in natural reservoirs used to store the gas has been analyzed. The works have been done over an area where, because of the residual volcanic activity, CO2 delivery spots can be found. This area is located in Campo de Calatrava, Ciudad Real, Spain. QuickBird and WorldView-2 imagery has been used to generate spectral signatures and vegetation indexes. These indexes have been evaluated in order to obtain the most suitable ones to detect CO2 leaks. Keywords: remote sensing, CO2, vegetation, satellite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis propone una metodología para medir variables de impacto socio económico en la ciudad Puerto de Valparaíso, como una alternativa que permite evaluar la asignación del uso y explotación del borde costero. La ciudad de Valparaíso se formó al alero de la actividad marítima portuaria, en sus comienzos esta actividad fue el motor de desarrollo económico de la ciudad, sus habitantes mantenían una alta dependencia de ésta actividad, formando una identidad y cultura portuaria. Con la decadencia de la actividad portuaria, producto principalmente a la construcción del canal de Panamá y a la modernización de los buques de transporte aumentando su distancia franqueable1, la ciudad fue dejando su dependencia de esta actividad. Hoy en día casi la totalidad del borde costero de la ciudad está asignado a las actividades portuarias con escasa participación laboral de los habitantes de la ciudad y una alta demanda urbana por el uso del borde costero. Por otra parte, la ciudad ha presentado en la última década altos niveles de cesantía, cuestionándose la verdadera utilidad de mantener un puerto en la ciudad. La investigación de la tesis permitió dimensionar la cantidad de firmas y actividades económicas que se desarrollaban en torno a la actividad marítima portuaria en la ciudad, cuantificando los empleos que éstas otorgaban a la ciudad, los niveles de remuneraciones, los tributos a la municipalidad de la ciudad, el aporte al comercio local, entre otros. Descubriéndose hallazgos que permiten reflexionar sobre la importancia del la actividad en el desarrollo económico actual y futuro de la ciudad. También los antecedentes obtenidos permiten contribuir a la evaluación de proyectos alternativos para el uso y explotación del borde costero. La metodología utilizada también puede ser adaptada para medir los beneficios de otras ciudades puertos en el mundo. Los resultados obtenidos fueron expuestos a las autoridades gubernamentales locales, presentados en seminarios y congresos nacionales e internacionales, como en la prensa local; los más destacados son: la actividad otorga 12.727 empleos directos e indirectos que corresponden al 12% de la fuerza laboral ocupada; la actividad representa el 19% del Producto Interno Bruto de la ciudad; la actividad aporta un 21% al presupuesto municipal por concepto de recaudación de tributos y representan un 11% del presupuesto total asignado al municipio por el Estado de Chile. El sector industrial marítimo-portuario de la ciudad sigue siendo la actividad industrial más relevante en la ciudad y demanda el desarrollo de una planificación estratégica que permita vincular la actividad turística de la ciudad vecina de Viña del Mar con la actividad portuaria de Valparaíso. Para lograr tal objetivo es necesario realizar cambios en los atributos de las operaciones portuarias que permitan ofrecer productos asociados al turismo. This thesis proposes a methodology to measure the socio economic variables in the port city of Valparaiso, as an alternative to evaluate the allocation of the usage and exploitation of the coastline. The city of Valparaiso was formed to advance the port maritime activity and in the beginning this activity was the engine of economic development of the city. Its inhabitants remained highly dependent on it and formed a port identity and culture. With the decline of port activity, mainly due to the construction of the Panama Canal and the modernization of the transport vessels increasing distances, the city lost its dependence on this activity. Today almost all of the coastline of the city is assigned to port activities with very little labor participation of the inhabitants of the city and a high demand for the use of urban waterfront. Moreover, the city has shown high levels of unemployment in the past decade, questioning the true value of maintaining a port in the city. The research of this thesis provides insights into the number of firms and economic activities that were developed around the port maritime activity in the city, quantifying the jobs they gave to the city, the levels of pay, taxes to the municipality of city and the contribution to local commerce, among others. The findings discovered allow reflexions on the importance of the activity in the current and future economic development of the city. The data obtained also allows a contribution of the evaluation of alternative projects for the use and exploitation of the coastline. The methodology can also be adapted to measure the benefits of other port cities in the world. The results were presented to local government authorities, at seminars and national and international conferences, and in the local press. The most important finding are: the activity maritime port activity provides 12,727 direct and indirect jobs that are 12% of the employed labor force; activity represents which is 19% of the GDP of the city, the activity contributes 21% to the municipal budget by way of the collection of taxes and represents 11% of the total budget allocated to the municipality by the Republic of Chile. The industrial maritime port sector of the city remains the most important industrial activity in the city and demands the development of strategic planning to link the tourism in the neighboring city of Viña del Mar and to the Valparaiso port activity. To achieve this goal it is necessary to make changes to the attributes of port operations that allow the offering of products associated with tourism.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La determinación del origen de un material utilizado por el hombre en la prehistoria es de suma importancia en el ámbito de la arqueología. En los últimos años, los estudios de procedencia han utilizado técnicas que suelen ser muy precisas pero con el inconveniente de ser metodologías de carácter destructivo. El fenómeno de la minería a gran escala es una de las características que acompaña al Neolítico, de ahí que la revolución correspondiente a este periodo sea una de las etapas más importantes para la humanidad. El yacimiento arqueológico de Casa Montero es una mina de sílex neolítica ubicada en la Península Ibérica, de gran importancia por su antigüedad y su escala productiva. Este sitio arqueológico corresponde a una cantera de explotación de rocas silícicas desarrollada en el periodo neolítico en la que solamente se han encontrado los desechos de la extracción minera, lo cual incrementa la variabilidad de las muestras analizadas, de las que se desconoce su contexto económico, social y cultural. Es de gran interés arqueológico saber por qué esos grupos neolíticos explotaban de forma tan intensiva determinados tipos de material y cuál era el destino de la cadena productiva del sílex. Además, por ser una excavación de rescate, que ha tenido que procesar varias toneladas de material, en un tiempo relativamente corto, requiere de métodos expeditivos de clasificación y manejo de dicho material. Sin embargo,la implementación de cualquier método de clasificación debe evitar la alteración o modificación de la muestra,ya que,estudios previos sobre caracterización de rocas silícicas tienen el inconveniente de alterar parcialmente el objeto de estudio. Por lo que el objetivo de esta investigación fue la modelización del registro y procesamiento de datos espectrales adquiridos de rocas silícicas del yacimiento arqueológico de Casa Montero. Se implementó la metodología para el registro y procesamiento de datos espectrales de materiales líticos dentro del contexto arqueológico. Lo anterior se ha conseguido con la aplicación de modelos de análisis espectral, algoritmos de suavizado de firmas espectrales, reducción de la dimensionalidad de las características y la aplicación de métodos de clasificación, tanto de carácter vectorial como raster. Para la mayoría de los procedimientos se ha desarrollado una aplicación informática validada tanto por los propios resultados obtenidos como comparativamente con otras aplicaciones. Los ensayos de evaluación de la metodología propuesta han permitido comprobar la eficacia de los métodos. Por lo que se concluye que la metodología propuesta no solo es útil para materiales silícicos, sino que se puede generalizar en aquellos procesos donde la caracterización espectral puede ser relevante para la clasificación de materiales que no deban ser alterados, además, permite aplicarla a gran escala, dado que los costes de ejecución son mínimos si se comparan con los de métodos convencionales. Así mismo, es de destacar que los métodos propuestos, representan la variabilidad del material y permiten relacionarla con el estado del yacimiento, según su contenido respecto de las tipologías de la cadena operativa. ABSTRACT: The determination of the origin of a material used by man in prehistory is very important in the field of archaeology. In recent years the provenance studies have used techniques that tend to be very precise but with the drawback of being destructive methodologies. The phenomenon of mining on a large scale is a feature that accompanies the Neolithic period; the Neolithic revolution is one of the most important periods of humanity. The archaeological site of Casa Montero is a Neolithic flint mine located in the Iberian Peninsula of great importance for its antiquity and its scale. This archaeological site corresponds to a quarry exploitation of silicic rocks developed in the Neolithic period, in which only found debris from mining, which increases the variability of the samples analyzed, including their economic, social and cultural context is unknown. It is of great archaeological interest to know why these Neolithic groups exploited as intensive certain types of material and what the final destination of flint was in the productive chain. In addition, being an excavation of rescue that had to process several tons of material in a relatively short time requires expeditious methods of classification and handling of the material. However, the implementation of any method of classification should avoid the alteration or modification of the sample, since previous studies on characterization of silicic rocks have the disadvantage of destroying or partially modify the object of study. So the objective of this research wasthe modeling of the registration and processing of acquired spectral data of silicic rocks of the archaeological site of Casa Montero. The methodology implemented for modeling the registration and processing of existing spectral data of lithic materials within the archaeological context, was presented as an alternative to the conventional classification methods (methods destructive and expensive) or subjective methods that depend on the experience of the expert. The above has been achieved with the implementation of spectral analysis models, smoothing of spectral signatures and the dimensionality reduction algorithms. Trials of validation of the proposed methodology allowed testing the effectiveness of the methods in what refers to the spectral characterization of siliceous materials of Casa Montero. Is remarkable the algorithmic contribution of the signal filtering, improve of quality and reduction of the dimensionality, as well the proposal of using raster structures for efficient storage and analysis of spectral information. For which it is concluded that the proposed methodology is not only useful for siliceous materials, but it can be generalized in those processes where spectral characterization may be relevant to the classification of materials that must not be altered, also allows to apply it on a large scale, given that the implementation costs are minimal when compared with conventional methods.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Monografía, integrada en las publicaciones de la Red Temática FRUTURA, de CYTED, recoge las aportaciones de sus miembros en su tercera reunión científico-técnica, dando continuidad a las celebradas en Madrid y Sao Paulo en 2009. Se denominó “Situación actual, retos y soluciones en logística y transporte refrigerado internacional de frutas y hortalizas” y se celebró en la Universidad Politécnica de Cartagena, España, en junio de 2010. El evento se desarrolló durante tres jornadas, incluyendo el III Seminario Internacional de Transporte Frigorífico Marítimo, el I Seminario Internacional de Transporte Frigorífico Terrestre y Aéreo y el Foro Empresarial: Desafíos y Oportunidades del Intercambio Comercial Hortofrutícola España-Iberoamérica. La temática se enmarcó dentro del principal objetivo de la Red, el desarrollo de un sistema integral de mejora de la calidad y seguridad de las frutas durante la manipulación, el transporte y la comercialización, mediante nuevas tecnologías de inspección y monitorización. Las frutas y hortalizas frescas se producen frecuentemente en lugares alejados de los centros de consumo. Grandes volúmenes de productos, con frecuencia muy perecederos, se transportan diariamente a pequeñas o grandes distancias, tanto dentro de los propios países productores, como entre las naciones y Continentes. Paralelamente, los consumidores exigen de ellos una calidad cada día más elevada, no solo organoléptica, sino también nutricional, con especial garantía de la seguridad y el respeto del medio ambiente. Esto implica una alta exigencia al planificar el transporte y las operaciones omplementarias, para optimizar la calidad global y minimizar las pérdidas. Los aspectos asociados al transporte hortofrutícola en fresco, tanto en España como en Iberoamérica se abordaron a través de conferencias relacionadas con la situación en cada país participante. Así, se trataron los principales problemas y desafíos del transporte terrestre en Argentina y Uruguay, y de la exportación marítima desde Brasil, desde España (incluyendo tratamientos cuarentenarios) y desde Chile (con la modelización del envasado en atmósfera modificada a escala de pallet, los atributos de calidad en el transporte terrestre y aéreo y el seguimiento de la calidad de la fruta cortada mediante imágenes hiperespectrales). La calidad de las contribuciones recogidas en esta monografía, son un buen indicador del alto nivel científico de los miembros de la Red, cuyas aportaciones se vieron enriquecidas con el debate entre ponentes y participantes. Ello facilitó el intercambio de experiencias, la discusión de las temáticas en los diferentes ámbitos, la ampliación de conocimientos y la posibilidad de colaborar para llevar adelante nuevos avances tecnológicos. Asimismo, permitió identificar las limitaciones, problemas y desafíos que presenta el sector. Son aún muchos los condicionantes que surgen durante el transporte de productos perecederos, en especial de frutas y hortalizas, que requieren una solución técnica y económica. Durante las jornadas se realizaron diversas vistitas técnicas al Puerto de Cartagena, en sus áreas de logística, terminales y sistemas operativos de carga y descarga, contenedores isotermos y frigoríficos y cámaras frigoríficas de almacenamiento, organizadas por la Agencia Marítima Erhardt, S.A., Consignataria de buques de Cartagena (Murcia); la sede de la Autoridad Portuaria de Cartagena, donde se analizaron el desarrollo y previsiones de crecimiento de sus instalaciones portuarias en el futuro inmediato; la plataforma logística de exportación del Grupo Caliche S.A., ubicada en San Javier (Murcia) y la central hortofrutícola exportadora de cítricos y hortalizas de SAT San Cayetano, también en San Javier (Murcia). El interés por la temática de esta reunión quedó demostrado por la elevada participación durante las jornadas de empresarios, técnicos, investigadores y profesionales iberoamericanos. Pensamos que el fin último, que fue conocer en más profundidad la realidad presente del transporte terrestre, marítimo y aéreo en Iberoamérica mediante el acercamiento entre Universidades y Centros de Investigación y las Empresas del sector (exportadoras, importadoras y transportistas), se alcanzó plenamente. Deseamos agradecer al Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria (AC2010-00017-00-00), a la Comunidad Autónoma de la Región de Murcia, a la Fundación Séneca de la Región de Murcia (14506/OC/10) y al Ayuntamiento de Cartagena su valiosa colaboración para la realización de este evento. Igualmente destacamos la ayuda desinteresada de los miembros del Grupo de Postrecolección y Refrigeración y del Instituto de Biotecnología Vegetal de la UPCT, quienes contribuyeron enormemente al éxito de la reunión.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con base en la Distribución de Wigner-Ville(WVO) se realizó un análisis en tiempo y frecuencia de datos obtenidos con el Radar de Penetración Terrestre (GPR), basado en el estudio de la descomposición de la señal espectral. Se calcula una correlación entre la señal original y las componentes de tiempo-frecuencia para obtener anomalías estructurales de la información contenida en el radargrama relacionándola con la geología disponible. En primer lugar se describe la aplicación de un ejemplo teórico constituido por lo que representaría un túnel (tubería). Se obtuvieron las firmas correspondientes en el dominio del tiempo y en el dominio de la frecuencia. Finalmente se analiza esta metodología en un sido de prueba en la detección de un tambo enterrado donde son conocidas la geometría y su profundidad. Este especial sitio fue facilitado por la Universidad Nacional Autónoma de México, en los terrenos del Observatorio Magnético de Teoloyucan, Estado de México. Los resultados obtenidos son bastante alentadores, ya que la WVD es capaz de definir los rasgos morfofógicos relacionados con el tambo y abre la posibilidad de localizar este tipo de estructuras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con la película magnética se constituye un tipo de memoria rápida, memoria estática, destructiva o no, que lía sido adoptada en la estructura de varios ordenadores de firmas diferentes. Se han utilizado técnicas diversas en la construcción de las memorias de" película, entre las que comentaremos las siguientes: técnica planar, técnica de varillas o de agujas y técnica de hilo recubierto

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis doctoral se propone una técnica biométrica de verificación en teléfonos móviles consistente en realizar una firma en el aire con la mano que sujeta el teléfono móvil. Los acelerómetros integrados en el dispositivo muestrean las aceleraciones del movimiento de la firma en el aire, generando tres señales temporales que pueden utilizarse para la verificación del usuario. Se proponen varios enfoques para la implementación del sistema de verificación, a partir de los enfoques más utilizados en biometría de firma manuscrita: correspondencia de patrones, con variantes de los algoritmos de Needleman-Wusch (NW) y Dynamic Time Warping (DTW), modelos ocultos de Markov (HMM) y clasificador estadístico basado en Máquinas de Vector Soporte (SVM). Al no existir bases de datos públicas de firmas en el aire y con el fin de evaluar los métodos propuestos en esta tesis doctoral, se han capturado dos con distintas características; una con falsificaciones reales a partir del estudio de las grabaciones de usuarios auténticos y otra con muestras de usuarios obtenidas en diferentes sesiones a lo largo del tiempo. Utilizando estas bases de datos se han evaluado una gran cantidad de algoritmos para implementar un sistema de verificación basado en firma en el aire. Esta evaluación se ha realizado de acuerdo con el estándar ISO/IEC 19795, añadiendo el caso de verificación en mundo abierto no incluido en la norma. Además, se han analizado las características que hacen que una firma sea suficientemente segura. Por otro lado, se ha estudiado la permanencia de las firmas en el aire a lo largo del tiempo, proponiendo distintos métodos de actualización, basados en una adaptación dinámica del patrón, para mejorar su rendimiento. Finalmente, se ha implementado un prototipo de la técnica de firma en el aire para teléfonos Android e iOS. Los resultados de esta tesis doctoral han tenido un gran impacto, generando varias publicaciones en revistas internacionales, congresos y libros. La firma en el aire ha sido nombrada también en varias revistas de divulgación, portales de noticias Web y televisión. Además, se han obtenido varios premios en competiciones de ideas innovadoras y se ha firmado un acuerdo de explotación de la tecnología con una empresa extranjera. ABSTRACT This thesis proposes a biometric verification technique on mobile phones consisting on making a signature in the air with the hand holding a mobile phone. The accelerometers integrated in the device capture the movement accelerations, generating three temporal signals that can be used for verification. This thesis suggests several approaches for implementing the verification system, based on the most widely used approaches in handwritten signature biometrics: template matching, with a lot of variations of the Needleman- Wusch (NW) and Dynamic Time Warping (DTW) algorithms, Hidden Markov Models (HMM) and Supported Vector Machines (SVM). As there are no public databases of in-air signatures and with the aim of assessing the proposed methods, there have been captured two databases; one. with real falsification attempts from the study of recordings captured when genuine users made their signatures in front of a camera, and other, with samples obtained in different sessions over a long period of time. These databases have been used to evaluate a lot of algorithms in order to implement a verification system based on in-air signatures. This evaluation has been conducted according to the standard ISO/IEC 19795, adding the open-set verification scenario not included in the norm. In addition, the characteristics of a secure signature are also investigated, as well as the permanence of in-air signatures over time, proposing several updating strategies to improve its performance. Finally, a prototype of in-air signature has been developed for iOS and Android phones. The results of this thesis have achieved a high impact, publishing several articles in SCI journals, conferences and books. The in-air signature deployed in this thesis has been also referred in numerous media. Additionally, this technique has won several awards in the entrepreneurship field and also an exploitation agreement has been signed with a foreign company.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El fin de este proyecto es conseguir que el intercambio de información que se realiza entre las distintas entidades a la hora de comprar un producto, se haga de una manera segura y confidencial. Los objetivos de este proyecto serán: • Con el protocolo SSL garantizar la confidencialidad y autenticación de los usuarios. • Infraestructura TCP/IP para poder conectar las distintas entidades. • Desarrollo de un código para construir las firmas asiméticas de datos. • Implementar las transacciones que se realizan entre las entidades para poder comprar un producto. • Comprobar que al comprar un producto se realizan los intercambios necesarios entre las entidades. • A la hora de realizar la compra del producto, la tarjeta que utilizará el cliente tendrá una identidad desconocida para el comerciante. Solo el banco podrá identificarla. El proyecto se desarrollará utilizando las librerías de Java JCE (Java Cryptography Extension)y JSSE(Java Secure Sockets Extension.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Asamblea General de la ONU, a solicitud del gobierno peruano, declara en el año 2008 el Año Internacional de la Papa, (AIP). Desde el año 2005, el gobierno peruano ha puesto en marcha estrategias en torno a la importancia de la papa, como la declaración del 30 de Mayo como el Día Nacional de la Papa. El año 2014 es declarado por la FAO, (Food and Agriculture Organization of the United Nations), Año Internacional de la Agricultura Familiar, con un enfoque compartido por esta Tesis Doctoral en el apoyo a la familia campesina peruana. El gobierno peruano utiliza las cadenas de valor como una estrategia de promoción de desarrollo sostenible, que ha permitido contribuir a la inclusión social y económica de productores pobres de zonas alto andinas, como las localizadas en la mancomunidad municipal del Yacus, (MMY), provincia de Jauja, departamento de Junín. Esta estrategia, en la que el mercado incorpora a los pequeños agricultores de las zonas altas de los Andes, (que disponen de recursos económicos muy bajos), en procesos productivos rentables, implica una serie de cambios a realizar, como la transformación de los patrones de producción tradicional hacia aquellos productos o servicios que tienen demanda en el mercado, o la variación de la mentalidad del agricultor pequeño hacia una concepción empresarial de su producción. (Fabián, 2013). Por otra parte, la sostenibilidad de las cadenas de valor depende del eslabón más débil, lo que obliga a conocer la situación de todos los eslabones para poder integrar y reforzar la cadena. Se requiere un sistema de transparencia adecuado que facilite el flujo de la información entre los distintos eslabones. (Briz et al., 2012). Además, el establecimiento de la cadena de valor debe hacerse con cuidado, ya que la eficacia y supervivencia de las empresas están cada vez más ligadas a la cadena de valor a la que pertenece y a la coordinación de la misma. (Briz, 2011). En esta situación, adquiere importancia el estudio de la cadena de valor de la papa nativa, para una vez establecidas sus características, poder determinar la viabilidad o no de una cadena de valor de este producto que repercuta parte de la riqueza generada en los pequeños agricultores alto andinos, e incluso, de su extensión hasta España. Existen estudios sobre las papas nativas, realizadas por diferentes universidades de distintos países, e incluso, de diferentes continentes. Sin embargo, la mayoría de los estudios se centran en la mejora de la producción de la papa nativa. La novedad de la investigación realizada en la presente Tesis Doctoral radica en el estudio de la viabilidad de la comercialización de la papa nativa, mediante el establecimiento de una cadena de valor que se inicie en la provincia de Jauja, Perú, y finalice tanto en los mercados peruanos de las regiones de Junín y Lima, como en España. El objetivo planteado en esta investigación es la mejora de las condiciones económicas y sociales de las comunidades agrícolas de la provincia de Jauja en el Perú, así como fomentar su desarrollo tecnológico e industrial, mediante el fomento de la cadena de valor de la papa nativa y sus derivados. Se establecen como objetivos específicos la caracterización de los eslabones de la cadena de valor de la papa nativa y sus derivados en la provincia de Jauja del Perú y en España, de manera que se determine el valor agregado en los mismos; el fortalecimiento de las organizaciones de productores de papas nativas para la comercialización de sus producciones y para el fomento de la cultura empresarial; y el desarrollo de una cadena de comercialización papas nativas y sus derivados con origen en la Provincia de Jauja, Perú, y que finalice en España, con la venta al consumidor español. Para alcanzar estos objetivos la metodología utilizada es la cadena de valor agroalimentaria, utilizando como herramientas de análisis el análisis DAFO de la cadena de valor de la papa nativa. Las fuentes de información primarias utilizadas proceden en parte del proyecto de cooperación de UPM, “Mejora de la cadena de valor de la patata andina como impulso al desarrollo rural. Caso de tres Comunidades Campesinas en la Provincia de Jauja del Perú”, en el que participó el doctorando, y en parte proceden de la batería de encuestas específicamente diseñadas para los diferentes eslabones de la cadena de valor de la papa nativa. Las fuentes de información secundarias proceden de artículos académicos publicados, de artículos publicados por revistas especializadas del sector y de informes realizados por diferentes instituciones gubernamentales, tanto españolas como peruanas. Las conclusiones de la investigación son las siguientes. La creación de la mancomunidad del Yacus ha beneficiado a los pequeños agricultores. Estos consiguen mejores condiciones de venta y mejores precios para sus productos, lo que repercute en la mejora de sus condiciones de vida. Estas mejoras en las condiciones de venta de los productos se deben a su pertenencia a una cadena de valor de papa nativa que está funcionando de forma eficaz. Las empresas consideradas para constituir la cadena de valor han mostrado interés por formar parte de ella: los campesinos para obtener mejores precios por sus productos y unas mejores condiciones de venta; los distribuidores para asegurarse una calidad determinada de unas variedades fijas de papa nativa; la industria transformadora por disponer de un suministro de producto adecuado al derivado de papa nativa correspondiente, (hojuelas, tunta, etc.); las empresas exportadoras para tener suministro garantizado de los productos que ellos requieren en los volúmenes adecuados. Es una situación ventajosa para todas las empresas participantes. A pesar de trabajar con un producto tradicional, la cadena de valor de la papa nativa presenta innovación en los productos comercializados, tanto en la papa nativa fresca como en sus derivados, en los formatos de los productos, en la red de distribución, en las instituciones peruanas y en el consumidor final. Se percibe una demanda de papa nativa y de sus productos derivados en aquellos países donde existen comunidades de latinoamericanos que han emigrado de sus países de origen. España está entre los países que han acogido a un importante número de personas de origen latinoamericano. A pesar de la fuerte crisis económica sufrida por España, que ha llevado consigo la vuelta a sus países de origen de parte de su comunidad latinoamericana, el tamaño de esta población sigue siendo importante. Esta población demanda productos originarios de sus propios países, y los consumirían de forma frecuente si los precios son adecuados a su capacidad de consumo. El precio de venta de la papa nativa y sus derivados en España es de gran importancia. La importación de estos productos desde Perú hace que este eleve a niveles que le resta competitividad, en especial en la papa fresca. Se aconseja la búsqueda de empresas que puedan adaptar la producción de la papa fresca de forma local, y mantener para los derivados la exportación directa a España. Las preferencias de los consumidores peruanos y españoles en cuanto a formatos y marcas se refieren no son coincidentes. De las encuestas realizadas, se concluye que no puede seguirse la misma estrategia de marketing en ambos países, debiéndose diferenciar los formatos de los paquetes de la papa nativa y de sus derivados en España y en Perú, para así lograr llegar a los consumidores potenciales de ambos países. ABSTRACT At the request of the Peruvian government, the UN General Assembly declared the International Year of the Potato in 2008. Since 2005, the Peruvian government has implemented strategies around the importance of the potato, as the declaration of the 30th of May as the National Day of the Potato. FAO (Food and Agriculture Organization of the United Nations) has declared 2014 as the International Year of Family Farming, with an approach shared by this Ph.D. dissertation about the Peruvian peasant family. The Peruvian government uses value chains as a strategy to promote sustainable development, which has allowed to contribute to the social and economic inclusion of poor farmers in the high Andean regions as those located in the municipal commonwealth of Yacus (MMY) province of Jauja, department of Junín. This strategy, which incorporates small farmers in the high Andean regions, (who have very low income), to the market with profitable production processes, implies a number of changes that should take place, such as changing patterns of traditional production to those products or services that are in demand in the market, or changes in the mentality of the small farmer into a concept of production business. (Fabián, 2013). Moreover, the sustainability of value chains depends on the weakest link, which demands a knowledge of the status of all the links, in order to integrate and strengthen the chain. It is required an adequate transparency to facilitate the flow of information between the various actors. (Briz et al., 2012). Furthermore, the establishment of the value chain should be done carefully, since the effectiveness and the survival of the businesses are increasingly linked to the value chain where the firm is included and to its coordination. (Briz, 2011). In this situation, it becomes important to study the value chain of the native potato, once we establish its features, to be able to determine the feasibility or not of a value chain of this product, which has an impact of the generated wealth in small farms of the high Andean regions, and even the extension of this value chain to Spain. There are studies on native potatoes, made by different universities in several countries and even in more than one continent. However, most studies focus on improving the production of native potato. The originality of the research conducted in this Ph.D. dissertation is the study of the feasibility of commercialization of native potato, by the creation of a value chain that starts in the province of Jauja, Perú, and ends both in Peruvian markets in the region of Lima, and in Spain. The main goal of this research is to improve the economic and social conditions of farming communities in the province of Jauja in Perú, while promoting its technological and industrial development, by the establishment of a value chain of the native potato and derivatives. The specific objectives of the research are the characterization of the links in the value chain of the native potato and its derivatives in the province of Jauja, (Perú) and in Spain, in order to determine the added value; the strengthening of organizations of native potato producers, to commercialize their products and the promotion of enterprise culture; and the development of a chain to market native potato and its derivatives, with its origin in the province of Jauja, (Perú), and its end in Spain, with the sale to the Spanish consumer. In order to achieve these objectives, the used methodology is the agrifood value chain, using as a tool to analysis it the SWOT analysis of the value chain of the native potato. The primary sources of information used in the research come partly from UPM cooperation project, "Improving the value chain of Andean potato as a boost to rural development. Case Three Rural Communities in the Province of Jauja, (Perú)", in which the Ph.D. student was involved, and partly from the surveys, which were specifically designed for the different links of the value chain of the native potato. The secondary sources of information come from academic articles, from articles published by magazines of the industry, and from reports of several government institutions, both Spanish and Peruvian. The conclusions of the research are as follows. The creation of the commonwealth of Yacus has benefited small farmers. They get better sales conditions and better prices for their products, which results in the improvement of their living conditions. These improvements are due to a value chain of native potato which is working effectively. All the firms invited to constitute the value chain have shown interest in being part of it: the farmers to get better prices for their products and better sale conditions; the distributors to ensure a certain quality of fixed varieties of native potato, the processing industry in order to have an adequate supply of product to the corresponding derivative of native potato (chips, “tunta”, etc.); exporting firms to have a guaranteed supply of the products that they require with the right volumes. It's a win-win situation for all participating companies. Despite being a traditional product, the value chain of the native potato presents innovation in marketed products, (both fresh native potato and its derivatives), in the formats of products, in the distribution network, in Peruvian institutions and in relation with the consumer. There is a perceived demand of native potato and its products in countries where communities of Latin Americans have settled down. Spain is among the countries that have received a significant number of people from Latin America. Despite the strong economic crisis suffered by Spain, which has lead to a return to their home countries of part of the Latin American community, the size of this population is still considerable. This population demands products from their own countries, and they frequently consume them if the prices are suitable to their standard of living. The selling price of the native potato and its derivatives in Spain is of great importance. The import of these products from Perú makes the prices rise to levels that reduce competitiveness, especially in fresh native potatoes. It is advised to look for companies which can adapt the fresh potato production in our country, and keep direct export to Spain for the derivatives products. The preferences of Peruvian and Spanish consumers in terms of formats and brands are not the same. The surveys concluded that the same marketing strategy cannot be followed in both countries. Packet formats of native potato and its derivatives should be differentiated in Spain and Perú, in order to reach the potential consumers of both countries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La evidencia empírica aplicada a países de cierto tamaño y desarrollo económico, muestra que existe una relación directa y positiva entre la intensidad de la industria manufacturera, medida como porcentaje de su PIB, y ciertas variables económicas como, el crecimiento, el desempleo y la balanza exterior de bienes y servicios. En el caso de esta última, se verifica empíricamente, que los países con una proporción de actividad manufacturera inferior al 20%, tienen una marcada tendencia a presentar déficits crónicos de balanza de bienes y servicios, lo que conduce a persistentes déficits por cuenta corriente, al ser el primer déficit el principal componente del segundo. Esto trae consigo un continuado incremento del endeudamiento externo que no cesa, y que terminará en algún momento por desequilibrar el conjunto de la economía de los países con esos déficits crónicos. Las anteriores conclusiones, abren una vía de orientación de la política económica, que tiene como objetivo la promoción de la industria manufacturera de cada país. Y esto es un hecho ya en 2014. Países relevantes, como Alemania o Francia en la UE, incluso los EEUU y últimamente el Reino Unido, y por supuesto países del área asiática como Japón, Corea del Sur y China, llevan años promoviendo su industria manufacturera. Resulta significativo, que el debate ideológico sobre la bondad de la aplicación política industrial por parte de los gobiernos, frente a las teorías liberales de mantener a los poderes públicos lejos de ese tipo de actividades, haya dado paso a un modelo generalizado de corte más bien horizontal, donde los países casi sin excepciones apoyan el desarrollo de sus empresas con numerosos instrumentos, que van bastante más lejos de los habituales de I+D. Se valora por tanto, la industria manufacturera como algo vital para el equilibrio económico. Incluso la UE, defensora durante décadas de la no intervención de los diferentes Estados miembros en actividades de promoción industrial más allá del apoyo a las actividades de I+D, realiza un giro copernicano, que termina en 2012 proclamando que la industria manufacturera es vital para el equilibrio económico de la UE, que hay que promoverla, e incluso marca un objetivo, precisamente del 20%, como contribución manufacturera a su PIB. Es decir, se da por asumido que los servicios no son un sustituto indefinido de la industria y que por tanto tienen un límite, lo que se contrapone frontalmente contra la anterior creencia de que el aumento de la participación de los servicios en la economía, no solo era bueno, sino un síntoma de desarrollo. Esta premisa ya ha dejado de ser cierta para esos y otros países. En cambio, en España nada de esto sucede en las dos últimas décadas, sino que la industria manufacturera no recibe especial atención de los poderes públicos y se desliza en una pendiente de disminución de su contribución al PIB, que incluso se acelera con la crisis económica que comienza en 2007, hasta alcanzar cifras del orden del 12% del PIB en 2013. La política económica que se aplica es la de la deflación de costes, con los efectos consecuentes sobre los salarios y sobre la capacidad de la economía de generar riqueza. Se apuesta por un modelo de mano de obra barata, que recuerda al de los años 60. Como indicador relevante de esta situación, lo que exporta la industria manufacturera española, no ha ganado en contenido tecnológico en los últimos quince años. Esta situación se ve empeorada por un hecho significativo adicional, y es que casi el 40% de las ventas de la industria manufacturera española provienen de empresas de propiedad extranjera, con lo que eso supone por una parte de dependencia tecnológica del exterior como en el caso del automóvil, y de incertidumbre sobre su futuro, al estar basadas en el mantenimiento en el futuro de una mano de obra barata, que frenará que los españoles que trabajan en esas empresas, progresen económicamente. La propuesta de esta Tesis, es en cambio apostar por un modelo de crecimiento para España que tenga como uno de sus pilares el desarrollo de una industria manufacturera sólida y con cada vez mayor contenido tecnológico. Para ello, se propone un Plan de política industrial, donde se incluye la creación de actores impulsores de este plan, que deben ser del máximo nivel político. Si los diferentes gobiernos no entienden y asumen esta necesidad de apoyo a la industria a largo plazo e independiente de los cambios políticos, no será posible llevar a cabo este Plan. Para su puesta en marcha, se propone la creación o refuerzo de numerosos instrumentos de apoyo a la industria manufacturera de carácter fundamentalmente horizontal que van mucho más allá de los habituales del I+D, y que en varios casos, tienen una clara semejanza con otros existentes ya en otros países desarrollados desde hace años. La promoción de la industria manufacturera necesita nuevos instrumentos, como una financiación a largo plazo para las empresas, una promoción ordenada y eficaz de la actividad internacional de las empresas exportadoras, la mayoría de las cuales exportan productos manufacturados, una educación y formación profesional que esté alineada con estos objetivos, unos instrumentos que apoyen en especial el desarrollo la industria manufacturera, o la participación minoritaria pero significativa, del Estado en empresas españolas pertenecientes a sectores estratégicos entre otros. En resumen, esta Tesis propone una alternativa de política económica radicalmente diferente a la de dejar la industria manufacturera española a su suerte, y basar el futuro económico de España en una mano de obra barata. ABSTRACT The empirical evidence, applied to countries of certain size and economic development, shows that there exists a direct and positive relationship between industrial manufacturing activity, measured as a percentage of GDP, and certain economic variables, such as growth, unemployment and the foreign balance of trade. In the case of the latter, it is verified empirically that the countries with a percentage of manufacturing activity below 20% have a marked tendency for chronic deficits of the balance of trade, leading to persistent deficits in the current account, being that the former deficit is the main component of the latter. This brings about a continued increase in foreign debt that does not cease, and that will end at some point by disrupting the economy of the countries with these chronic deficits. The previous conclusions open the way to a new direction for economic policy, which promotes industrial manufacturing in each country. This is already a fact in 2014. Relevant countries, such as Germany or France in the EU, even the US and ultimately the UK, and of course countries of East Asia such as Japan, South Korea and China, have been promoting their industrial manufacturing for years. It becomes significant that the ideological debate about the goodwill of the application of industrial policy by governments, against liberal theories that maintain public powers far from these kinds of activities, has taken a step towards a horizontal-cut generalized model, where countries, with almost no exception, rely on various instruments to develop their companies that go much further than the usual R&D. Industrial manufacture is therefore valued as vital for economic stability. Even the EU, proponent for decades of non-intervention policy that goes beyond R&D, has gone full circle, ending in 2012 by proclaiming that industrial manufacture is vital for the economic stability of the EU, that it must be promoted. They even mark precisely 20% as an objective for manufacturing as a percentage of GDP. In other words, it is a given that services are not an indefinite substitute for industry, and that therefore it has a limit as such. This rejects the notion that the increase in services at the cost of manufacture is not only healthy, but is also a symptom of development. This premise is no longer true for these and other countries. On the other hand, none of this happens in Spain, where industrial manufacture receives no special attention from the public authorities, and it slides on a downward slope of percentage contribution to GDP, which accelerates the economic crisis that begins in 2007, until manufacture reaches values of around 12% of GDP in 2013. The economic policy applied is that of cost deflation, with consequential effects on wages and the capacity of the economy to generate wealth. A model is proposed for cheaper labor, akin to that of the 1960s. As a relevant indicator of this situation, manufacturing exports from Spain have not grown technologically in the last 15 years. The situation is made worse by another significant fact: almost 40% of sales of the manufacturing industry originate from companies of foreign origin, which supposes on one hand a technological dependence on foreign countries, such as in the case of the automotive industry, and on the other hand uncertainty in its future, being that they are based on maintaining cheap labor in the future, which will slow economic progress of Spaniards working in these companies. The proposition of this Thesis is to bet on a growth model for Spain that has as one of its pillars the development of a solid manufacturing industry, with increasing technological content. For this, an industrial policy plan is proposed, which includes the creation of driving agents for this plan, which must be of maximum political level. If the various governments don’t understand and assume this necessity for support of industry in the long term, independent of political change, this plan will not be accomplished. To start it, the creation or reinforcement of numerous instruments to promote the manufacturing activities are proposed, with a fundamentally horizontal nature that goes far beyond the usual R&D, and that, in several cases, have a clear similarity with others existing in other countries, having been developed for years. The promotion of the manufacturing industry needs new instruments, such as the long-term financing of companies, an orderly and efficient promotion of international activity of exporting companies, the most of which export manufactured goods, education and professional training which is in tune with these objectives, some instruments which support in particular the development of the manufacturing industry, or the minor yet significant participation of the State in Spanish companies belonging to strategic sectors, among others. In summary, this Thesis proposes an different alternative to the economic policy of leaving the manufacturing industry of Spain to its chances, and to base the economic future of Spain on a cheaper labor force.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Framework Lógico de Edimburgo ha demostrado ser una poderosa herramienta en el estudio formal de sistemas deductivos, como por ejemplo lenguajes de programación. Sin embargo su principal implementación, el sistema Twelf, carece de expresividad, obligando al programador a escribir código repetitivo. Este proyecto presenta una manera alternativa de utilizar Twelf: a través de un EDSL (Lenguaje Embebido de Dominio Específico) en Scala que permite representar firmas del Framework Lógico, y apoyándonos en Twelf como backend para la verificación, abrimos la puerta a diversas posibilidades en términos de metaprogramación. El código fuente, así como instrucciones para instalar y configurar, está accesible en https://github.com/akathorn/elfcala. ---ABSTRACT---The Edinburgh Logical Framework has proven to be to be a powerful tool in the formal study of deductive systems, such as programming languages. However, its main implementation, the Twelf system, lacks expressiveness, requiring the programmer to write repetitive code. This project presents an alternative way of using Twelf: by providing a Scala EDSL (Embedded Domain Specific Language) that can encode Logical Framework signatures and relying on Twelf as a backend for the verification, we open the door to different possibilities in terms of metaprogramming. The source code, along with instructions to install and configure, is accessible at https://github.com/akathorn/elfcala

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El DNS (Domain Name System) es un sistema que permite localizar equipos y servicios de Internet a través de nombres descriptivos organizados de forma jerárquica gracias a un mecanismo de consulta/respuesta. Cuando un usuario escriba un nombre de dominio en una aplicación, los servidores DNS podrán traducirlo a otra información asociada con él mismo, como una dirección IP o un alias, por lo que el DNS puede entenderse como una base de datos globalmente jerarquizada que nació a causa de la necesidad de poder recordar fácilmente los nombres de todos los servidores conectados a Internet. La necesidad del uso del DNS y su carencia en sistemas de seguridad, han conformado un entorno propicio para multitud de ataques, entre los que se encuentran el MITM (Man In The Middle), caché poisoning, negación de servicios o fugas de información entre otros, generando situaciones comprometidas para multitud de usuarios. Para poder contrarrestarlos se han ido implementando un conjunto de modelos de seguridad, entre los que destacan algunos como el DNSSEC, con su uso de firmas criptográficas , el WSEC DNS con identificadores aleatorios o el DNS Curve que cifraba todo el contenido transmitido. Este proyecto consta de una breve introducción al DNS, donde se podrá conocer su estructura y entender su funcionamiento. Posteriormente se pasará a analizar conceptos de seguridad web, particularizándose en un examen exhaustivo de las vulnerabilidades en el DNS. Finalmente se estudiarán distintos modelos de seguridad que se han ido implementando a lo largo del tiempo para intentar solventar estos problemas junto con sus ventajas y desventajas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.