1000 resultados para Soporte en telecomunicaciones
Resumo:
El proyecto Mundo Escrito tiene dos dimensiones. Una de preservación de archivos que conservan una memoria intelectual y artística, que nuestras intervenciones buscan recuperar, y otra de producción. La preservación de antiguas entrevistas en audio a protagonistas del mundo literario misionero implica una primera dificultad, la transformación de los soportes. Esto involucra un proceso de "desocultamiento" de aquellos materiales sonoros y visuales por el tipo de soporte en el que están disponibles. La segunda dimensión implica la producción de entrevistas filmadas a protagonistas y a testigos de la vida literaria misionera, con el fin de realizar documentales sobre el mundo literario misionero de las últimas décadas
Resumo:
El proyecto Mundo Escrito tiene dos dimensiones. Una de preservación de archivos que conservan una memoria intelectual y artística, que nuestras intervenciones buscan recuperar, y otra de producción. La preservación de antiguas entrevistas en audio a protagonistas del mundo literario misionero implica una primera dificultad, la transformación de los soportes. Esto involucra un proceso de "desocultamiento" de aquellos materiales sonoros y visuales por el tipo de soporte en el que están disponibles. La segunda dimensión implica la producción de entrevistas filmadas a protagonistas y a testigos de la vida literaria misionera, con el fin de realizar documentales sobre el mundo literario misionero de las últimas décadas
Resumo:
En los últimos años se han publicado varios estudios realizados con métodos etnográficos y sociológicos (Turkle, Urresti) que han caracterizando los usos de las nuevas tecnologías por parte de los jóvenes, tanto en la facilidad con que las adoptan como en su calidad de nativos digitales. A pesar de compartir generacionalmente la socialización en los nuevos medios, los jóvenes se diferencian en las posibilidades de producción debido al contexto particular en el cual participan. Estos novedosos usos se dan especialmente en ámbitos no escolares, quedando muchas veces por fuera de la acción y la conceptualización de la Pedagogía. Algunas de las características de estos nuevos lenguajes contrastan con las propuestas clásicas de la Pedagogía escolar y se desplazan hacia modelos que tienen en cuenta la complejidad, la autoorganización, la distribución del conocimiento y la conexión de los participantes en redes y grupos. Teniendo en cuenta estos estudios sobre los nuevos lenguajes tecnológicos de los jóvenes trataremos de identificar los desafíos y respuestas posibles que puede dar la Pedagogía. Se plantearán algunos interrogantes significativos: ¿Es posible transmitir la cultura sin el soporte en el cual esta se codificó? ¿Hay un nuevo mito construido sobre las tecnologías de la información y comunicación (Fischer)? ¿La inclusión de los nuevos medios garantiza un acceso sin segmentación? Es difícil predecir cómo las nuevas tecnologías nos pueden afectar en el futuro, lo que sí sabemos es que lo harán, así como ya lo hicieron la creación del libro y la pedagogía que lo acompañó. Para algunos autores los efectos de las tecnologías ponen en dificultades a la subjetividad puesto que tienen un carácter orgánico y demandante (Kelly, Turkle). Otros sin embargo despejan estos fantasmas. Consideraremos algunas propuestas de inmersión en los nuevos medios como la del conectivismo (Downes), que corren el eje de la adquisición hacia la organización del propio conocimiento.
Resumo:
El proyecto Mundo Escrito tiene dos dimensiones. Una de preservación de archivos que conservan una memoria intelectual y artística, que nuestras intervenciones buscan recuperar, y otra de producción. La preservación de antiguas entrevistas en audio a protagonistas del mundo literario misionero implica una primera dificultad, la transformación de los soportes. Esto involucra un proceso de "desocultamiento" de aquellos materiales sonoros y visuales por el tipo de soporte en el que están disponibles. La segunda dimensión implica la producción de entrevistas filmadas a protagonistas y a testigos de la vida literaria misionera, con el fin de realizar documentales sobre el mundo literario misionero de las últimas décadas
Resumo:
En los últimos años se han publicado varios estudios realizados con métodos etnográficos y sociológicos (Turkle, Urresti) que han caracterizando los usos de las nuevas tecnologías por parte de los jóvenes, tanto en la facilidad con que las adoptan como en su calidad de nativos digitales. A pesar de compartir generacionalmente la socialización en los nuevos medios, los jóvenes se diferencian en las posibilidades de producción debido al contexto particular en el cual participan. Estos novedosos usos se dan especialmente en ámbitos no escolares, quedando muchas veces por fuera de la acción y la conceptualización de la Pedagogía. Algunas de las características de estos nuevos lenguajes contrastan con las propuestas clásicas de la Pedagogía escolar y se desplazan hacia modelos que tienen en cuenta la complejidad, la autoorganización, la distribución del conocimiento y la conexión de los participantes en redes y grupos. Teniendo en cuenta estos estudios sobre los nuevos lenguajes tecnológicos de los jóvenes trataremos de identificar los desafíos y respuestas posibles que puede dar la Pedagogía. Se plantearán algunos interrogantes significativos: ¿Es posible transmitir la cultura sin el soporte en el cual esta se codificó? ¿Hay un nuevo mito construido sobre las tecnologías de la información y comunicación (Fischer)? ¿La inclusión de los nuevos medios garantiza un acceso sin segmentación? Es difícil predecir cómo las nuevas tecnologías nos pueden afectar en el futuro, lo que sí sabemos es que lo harán, así como ya lo hicieron la creación del libro y la pedagogía que lo acompañó. Para algunos autores los efectos de las tecnologías ponen en dificultades a la subjetividad puesto que tienen un carácter orgánico y demandante (Kelly, Turkle). Otros sin embargo despejan estos fantasmas. Consideraremos algunas propuestas de inmersión en los nuevos medios como la del conectivismo (Downes), que corren el eje de la adquisición hacia la organización del propio conocimiento.
Resumo:
Este trabajo, Adquisición de empresas: un enfoque financiero, estudia y da más detalle sobre los procesos de adquisición y fusiones de empresas, con su foco principal en los aspectos financieros, sin pero olvidar los de más factores que concurren en una operación de este tipo, como: las operaciones, la estrategia empresarial e IT. He elegido este tema por la importancia que M&A tienen en el escenario económico moderno totalmente globalizado, donde hay muchos mercados muy maduro donde el crecimiento inorgánico de las empresas es fundamental para el éxito, y en muchos casos la sobrevivencia, de las mismas. Muchas empresas Europa miran fuera de Europa para seguir creciendo, ya que el mercado Europeo es en muchos casos muy estancado, así mismo muchas empresas extra europeas miran a Europa como ocasión de crecimiento. Si esta última situación hasta la fecha se ha dado de forma principal por empresas Estadounidenses, en el futuro se dará por realidades que de momento consideramos como nuestro “territorio de conquista”. No hay que olvidar que hoy en día el eje atlántico, Europa - Américas, ya ha sido superado por el eje pacifico, Américas – Asia, en cuanto a volúmenes de negocio y comercios. En este entorno, de mercados siempre más maduros y competitivos, si bien una estrategia de coste pura no puede ser la única solución, sí es necesario cuidar esta faceta. En el trabajo he revisado desde el principio hasta el final, todas los aspectos involucrados en un proceso de adquisición o fusión. He valorado por un lado los aspectos más generales y estratégico, es decir porque se plantea una posible adquisición, las motivaciones validadas y las que lo son menos y los tipos de M&A existentes. Por otra parte, he entrado más en el detalle operativo de este tipo de operaciones y he detallado cómo funciona la valoración de una empresa y las posibles aproximaciones, cómo se estructura el proceso de compra/venta y finalmente cómo se financian estas operaciones. Resultado final de este trabajo es un modelo para PYMES a utilizar en la valoración de empresas de cara a la adquisición. Así que tras detallar los conceptos que he considerado importante en un proceso de M&A, he formalizado en una herramienta de soporte en los siguientes ejes: - ¿Mi empresa necesita empezar un proceso de M&A? - ¿Tengo toda la información necesaria de la empresa/activo objetivo para hacer una buena valoración? - ¿Cómo encaja la empresa/activo objetivo con mi empresa?
Resumo:
Un escenario habitualmente considerado para el uso sostenible y prolongado de la energía nuclear contempla un parque de reactores rápidos refrigerados por metales líquidos (LMFR) dedicados al reciclado de Pu y la transmutación de actínidos minoritarios (MA). Otra opción es combinar dichos reactores con algunos sistemas subcríticos asistidos por acelerador (ADS), exclusivamente destinados a la eliminación de MA. El diseño y licenciamiento de estos reactores innovadores requiere herramientas computacionales prácticas y precisas, que incorporen el conocimiento obtenido en la investigación experimental de nuevas configuraciones de reactores, materiales y sistemas. A pesar de que se han construido y operado un cierto número de reactores rápidos a nivel mundial, la experiencia operacional es todavía reducida y no todos los transitorios se han podido entender completamente. Por tanto, los análisis de seguridad de nuevos LMFR están basados fundamentalmente en métodos deterministas, al contrario que las aproximaciones modernas para reactores de agua ligera (LWR), que se benefician también de los métodos probabilistas. La aproximación más usada en los estudios de seguridad de LMFR es utilizar una variedad de códigos, desarrollados a base de distintas teorías, en busca de soluciones integrales para los transitorios e incluyendo incertidumbres. En este marco, los nuevos códigos para cálculos de mejor estimación ("best estimate") que no incluyen aproximaciones conservadoras, son de una importancia primordial para analizar estacionarios y transitorios en reactores rápidos. Esta tesis se centra en el desarrollo de un código acoplado para realizar análisis realistas en reactores rápidos críticos aplicando el método de Monte Carlo. Hoy en día, dado el mayor potencial de recursos computacionales, los códigos de transporte neutrónico por Monte Carlo se pueden usar de manera práctica para realizar cálculos detallados de núcleos completos, incluso de elevada heterogeneidad material. Además, los códigos de Monte Carlo se toman normalmente como referencia para los códigos deterministas de difusión en multigrupos en aplicaciones con reactores rápidos, porque usan secciones eficaces punto a punto, un modelo geométrico exacto y tienen en cuenta intrínsecamente la dependencia angular de flujo. En esta tesis se presenta una metodología de acoplamiento entre el conocido código MCNP, que calcula la generación de potencia en el reactor, y el código de termohidráulica de subcanal COBRA-IV, que obtiene las distribuciones de temperatura y densidad en el sistema. COBRA-IV es un código apropiado para aplicaciones en reactores rápidos ya que ha sido validado con resultados experimentales en haces de barras con sodio, incluyendo las correlaciones más apropiadas para metales líquidos. En una primera fase de la tesis, ambos códigos se han acoplado en estado estacionario utilizando un método iterativo con intercambio de archivos externos. El principal problema en el acoplamiento neutrónico y termohidráulico en estacionario con códigos de Monte Carlo es la manipulación de las secciones eficaces para tener en cuenta el ensanchamiento Doppler cuando la temperatura del combustible aumenta. Entre todas las opciones disponibles, en esta tesis se ha escogido la aproximación de pseudo materiales, y se ha comprobado que proporciona resultados aceptables en su aplicación con reactores rápidos. Por otro lado, los cambios geométricos originados por grandes gradientes de temperatura en el núcleo de reactores rápidos resultan importantes para la neutrónica como consecuencia del elevado recorrido libre medio del neutrón en estos sistemas. Por tanto, se ha desarrollado un módulo adicional que simula la geometría del reactor en caliente y permite estimar la reactividad debido a la expansión del núcleo en un transitorio. éste módulo calcula automáticamente la longitud del combustible, el radio de la vaina, la separación de los elementos de combustible y el radio de la placa soporte en función de la temperatura. éste efecto es muy relevante en transitorios sin inserción de bancos de parada. También relacionado con los cambios geométricos, se ha implementado una herramienta que, automatiza el movimiento de las barras de control en busca d la criticidad del reactor, o bien calcula el valor de inserción axial las barras de control. Una segunda fase en la plataforma de cálculo que se ha desarrollado es la simulació dinámica. Puesto que MCNP sólo realiza cálculos estacionarios para sistemas críticos o supercríticos, la solución más directa que se propone sin modificar el código fuente de MCNP es usar la aproximación de factorización de flujo, que resuelve por separado la forma del flujo y la amplitud. En este caso se han estudiado en profundidad dos aproximaciones: adiabática y quasiestática. El método adiabático usa un esquema de acoplamiento que alterna en el tiempo los cálculos neutrónicos y termohidráulicos. MCNP calcula el modo fundamental de la distribución de neutrones y la reactividad al final de cada paso de tiempo, y COBRA-IV calcula las propiedades térmicas en el punto intermedio de los pasos de tiempo. La evolución de la amplitud de flujo se calcula resolviendo las ecuaciones de cinética puntual. Este método calcula la reactividad estática en cada paso de tiempo que, en general, difiere de la reactividad dinámica que se obtendría con la distribución de flujo exacta y dependiente de tiempo. No obstante, para entornos no excesivamente alejados de la criticidad ambas reactividades son similares y el método conduce a resultados prácticos aceptables. Siguiendo esta línea, se ha desarrollado después un método mejorado para intentar tener en cuenta el efecto de la fuente de neutrones retardados en la evolución de la forma del flujo durante el transitorio. El esquema consiste en realizar un cálculo cuasiestacionario por cada paso de tiempo con MCNP. La simulación cuasiestacionaria se basa EN la aproximación de fuente constante de neutrones retardados, y consiste en dar un determinado peso o importancia a cada ciclo computacial del cálculo de criticidad con MCNP para la estimación del flujo final. Ambos métodos se han verificado tomando como referencia los resultados del código de difusión COBAYA3 frente a un ejercicio común y suficientemente significativo. Finalmente, con objeto de demostrar la posibilidad de uso práctico del código, se ha simulado un transitorio en el concepto de reactor crítico en fase de diseño MYRRHA/FASTEF, de 100 MW de potencia térmica y refrigerado por plomo-bismuto. ABSTRACT Long term sustainable nuclear energy scenarios envisage a fleet of Liquid Metal Fast Reactors (LMFR) for the Pu recycling and minor actinides (MAs) transmutation or combined with some accelerator driven systems (ADS) just for MAs elimination. Design and licensing of these innovative reactor concepts require accurate computational tools, implementing the knowledge obtained in experimental research for new reactor configurations, materials and associated systems. Although a number of fast reactor systems have already been built, the operational experience is still reduced, especially for lead reactors, and not all the transients are fully understood. The safety analysis approach for LMFR is therefore based only on deterministic methods, different from modern approach for Light Water Reactors (LWR) which also benefit from probabilistic methods. Usually, the approach adopted in LMFR safety assessments is to employ a variety of codes, somewhat different for the each other, to analyze transients looking for a comprehensive solution and including uncertainties. In this frame, new best estimate simulation codes are of prime importance in order to analyze fast reactors steady state and transients. This thesis is focused on the development of a coupled code system for best estimate analysis in fast critical reactor. Currently due to the increase in the computational resources, Monte Carlo methods for neutrons transport can be used for detailed full core calculations. Furthermore, Monte Carlo codes are usually taken as reference for deterministic diffusion multigroups codes in fast reactors applications because they employ point-wise cross sections in an exact geometry model and intrinsically account for directional dependence of the ux. The coupling methodology presented here uses MCNP to calculate the power deposition within the reactor. The subchannel code COBRA-IV calculates the temperature and density distribution within the reactor. COBRA-IV is suitable for fast reactors applications because it has been validated against experimental results in sodium rod bundles. The proper correlations for liquid metal applications have been added to the thermal-hydraulics program. Both codes are coupled at steady state using an iterative method and external files exchange. The main issue in the Monte Carlo/thermal-hydraulics steady state coupling is the cross section handling to take into account Doppler broadening when temperature rises. Among every available options, the pseudo materials approach has been chosen in this thesis. This approach obtains reasonable results in fast reactor applications. Furthermore, geometrical changes caused by large temperature gradients in the core, are of major importance in fast reactor due to the large neutron mean free path. An additional module has therefore been included in order to simulate the reactor geometry in hot state or to estimate the reactivity due to core expansion in a transient. The module automatically calculates the fuel length, cladding radius, fuel assembly pitch and diagrid radius with the temperature. This effect will be crucial in some unprotected transients. Also related to geometrical changes, an automatic control rod movement feature has been implemented in order to achieve a just critical reactor or to calculate control rod worth. A step forward in the coupling platform is the dynamic simulation. Since MCNP performs only steady state calculations for critical systems, the more straight forward option without modifying MCNP source code, is to use the flux factorization approach solving separately the flux shape and amplitude. In this thesis two options have been studied to tackle time dependent neutronic simulations using a Monte Carlo code: adiabatic and quasistatic methods. The adiabatic methods uses a staggered time coupling scheme for the time advance of neutronics and the thermal-hydraulics calculations. MCNP computes the fundamental mode of the neutron flux distribution and the reactivity at the end of each time step and COBRA-IV the thermal properties at half of the the time steps. To calculate the flux amplitude evolution a solver of the point kinetics equations is used. This method calculates the static reactivity in each time step that in general is different from the dynamic reactivity calculated with the exact flux distribution. Nevertheless, for close to critical situations, both reactivities are similar and the method leads to acceptable practical results. In this line, an improved method as an attempt to take into account the effect of delayed neutron source in the transient flux shape evolutions is developed. The scheme performs a quasistationary calculation per time step with MCNP. This quasistationary simulations is based con the constant delayed source approach, taking into account the importance of each criticality cycle in the final flux estimation. Both adiabatic and quasistatic methods have been verified against the diffusion code COBAYA3, using a theoretical kinetic exercise. Finally, a transient in a critical 100 MWth lead-bismuth-eutectic reactor concept is analyzed using the adiabatic method as an application example in a real system.
Resumo:
La aplicación de la vigilancia tecnología se ha mostrado como una de las herramientas más importantes para ganar competitividad y mejorar las actividades de innovación de las empresas. La vigilancia se basa en captar las informaciones, normalmente patentes y publicaciones científicas, más relevantes para un determinado campo tecnológico y valorarlas para influir en la toma de decisiones. Las fases clásicas son: búsqueda, análisis y comunicación de la información. El trabajo se soportará tanto en herramientas comerciales como en otras que deberá desarrollar el estudiante, y tendrá como objetivo fundamental el desarrollar una metodología, basada en la vigilancia, para tomar decisiones sobre tecnologías y en este caso aplicadas a las tecnologías multimedia. El objetivo principal en la propuesta de una metodología genérica de vigilancia tecnológica (VT/IC) para la toma de decisiones con un ejemplo de aplicación en las tecnologías multimedia y que más adelante se explicitó en TV 3D. La necesidad de que el proceso de VT/IC se soporte en una metodología es imprescindible si queremos darle la importancia que debe tener en el ciclo productivo de cualquier tipo de organización y muy especialmente en una organización involucrada en investigación y desarrollo (I+D+i). Esta metodología posibilitará, entre otras cosas, que estos procesos que conforman la VT/IC puedan integrarse en una organización compartiendo los procesos productivos, de administración y de dirección de la organización. Permitirá una medición de su funcionamiento y las posibles modificaciones para obtener un mejor funcionamiento. Proveerá a los posibles elementos involucrados en la VT/IC de la documentación, procesos, herramientas, elementos de medición de un sistema definido, publicado, medido y analizado de trabajo. Finalmente a modo de ejemplo de un proceso de consulta VT/IC utilizaremos el criterio de búsqueda genérico 3D TV propuesto. Estructura del PFC: Para lograr estos objetivos el trabajo ha sido dividido en 6 etapas: 1.- Descripción del PFC: Una presentación del PFC y su desarrollo. 2.- Vigilancia tecnológica: Desarrollo del concepto de VT/IC, los efectos esperados, beneficios y riesgos de la VT/IC, concepto de inteligencia competitiva (IC), concepto aplicado de vigilancia tecnológica e inteligencia competitiva (VT/IC). 3.- Técnicas de análisis empresarial donde la VT/IC es útil: para empezar a entender como debe ser la VT/IC analizamos como una organización utiliza las distintas técnicas de análisis y que información aportan cada una de ellas, finalmente analizamos como la VT/IC ayuda a esas técnicas de análisis. 4.- Gestión de las fuentes de información: análisis de los tipos de fuentes de información y sus herramientas de búsqueda asociadas. 5.- Metodología propuesta de la VT/IC: desarrollo de la metodología de implementación y de funcionamiento de una unidad de VT/IC. 6.- Observatorio: a modo de ejemplo, “3d TV”. ABSTRACT. The application of surveillance technology has proven to be one of the most important to increase competitiveness and improve the innovation activities of enterprises tools. Surveillance is based on capturing the information, usually patents and scientific publications most relevant to a given technological field and assess them to influence decision making. The classical phases are: search, analysis and communication of information. The work will support both commercial and other tools to be developed by the student, and will have as main objective to develop a methodology, based on monitoring to make decisions about technologies and in this case applied to multimedia technologies. The main objective in the proposed generic methodology for technological awareness (VT / IC) for decision making with an example application in multimedia technologies and later made explicit 3D TV. The need for the process of VT / CI support methodology is essential if we give it the importance it should have in the production cycle of any organization and especially in an organization involved in research and development (R + D + i). This methodology will allow, among other things, that these processes that make up the VT / IC can be integrated into an organization sharing production processes, management and direction of the organization. It will allow a measurement of its performance and possible changes for better performance. It will provide the possible elements involved in the VT / IC documentation, processes, tools, measuring elements of a defined system, published, measured and analyzed work. Finally an example of a consultation process VT / IC use generic search criteria proposed 3D TV. Structure of the PFC: To achieve these objectives the work has been divided into 6 stages: 1. PFC Description: A presentation of the PFC and its development. 2. Technology Watch: Concept Development of VT / IC, expected effects, benefits and risks of VT / IC concept of competitive intelligence (CI) concept applied technology watch and competitive intelligence (VT / IC). 3. Business analysis techniques where VT / IC is useful: to begin to understand how it should be the VT / IC analyze how an organization uses different analysis techniques and information provide each finally analyze how the VT / IC helps these analysis techniques. 4. Management information sources: analysis of the types of information sources and their associated search tools. 5. proposed methodology VT / IC: methodology development and operational deployment of a unit of VT / IC. 6. Observatory: by way of example, "3D TV".
Resumo:
La evaluación de ontologías, incluyendo diagnóstico y reparación de las mismas, es una compleja actividad que debe llevarse a cabo en cualquier proyecto de desarrollo ontológico para comprobar la calidad técnica de las ontologías. Sin embargo, existe una gran brecha entre los enfoques metodológicos sobre la evaluación de ontologías y las herramientas que le dan soporte. En particular, no existen enfoques que proporcionen guías concretas sobre cómo diagnosticar y, en consecuencia, reparar ontologías. Esta tesis pretende avanzar en el área de la evaluación de ontologías, concretamente en la actividad de diagnóstico. Los principales objetivos de esta tesis son (a) ayudar a los desarrolladores en el diagnóstico de ontologías para encontrar errores comunes y (b) facilitar dicho diagnóstico reduciendo el esfuerzo empleado proporcionando el soporte tecnológico adecuado. Esta tesis presenta las siguientes contribuciones: • Catálogo de 41 errores comunes que los ingenieros ontológicos pueden cometer durante el desarrollo de ontologías. • Modelo de calidad para el diagnóstico de ontologías alineando el catálogo de errores comunes con modelos de calidad existentes. • Diseño e implementación de 48 métodos para detectar 33 de los 41 errores comunes en el catálogo. • Soporte tecnológico OOPS!, que permite el diagnstico de ontologías de forma (semi)automática. De acuerdo con los comentarios recibidos y los resultados de los test de satisfacción realizados, se puede afirmar que el enfoque desarrollado y presentado en esta tesis ayuda de forma efectiva a los usuarios a mejorar la calidad de sus ontologías. OOPS! ha sido ampliamente aceptado por un gran número de usuarios de formal global y ha sido utilizado alrededor de 3000 veces desde 60 países diferentes. OOPS! se ha integrado en software desarrollado por terceros y ha sido instalado en empresas para ser utilizado tanto durante el desarrollo de ontologías como en actividades de formación. Abstract Ontology evaluation, which includes ontology diagnosis and repair, is a complex activity that should be carried out in every ontology development project, because it checks for the technical quality of the ontology. However, there is an important gap between the methodological work about ontology evaluation and the tools that support such an activity. More precisely, not many approaches provide clear guidance about how to diagnose ontologies and how to repair them accordingly. This thesis aims to advance the current state of the art of ontology evaluation, specifically in the ontology diagnosis activity. The main goals of this thesis are (a) to help ontology engineers to diagnose their ontologies in order to find common pitfalls and (b) to lessen the effort required from them by providing the suitable technological support. This thesis presents the following main contributions: • A catalogue that describes 41 pitfalls that ontology developers might include in their ontologies. • A quality model for ontology diagnose that aligns the pitfall catalogue to existing quality models for semantic technologies. • The design and implementation of 48 methods for detecting 33 out of the 41 pitfalls defined in the catalogue. • A system called OOPS! (OntOlogy Pitfall Scanner!) that allows ontology engineers to (semi)automatically diagnose their ontologies. According to the feedback gathered and satisfaction tests carried out, the approach developed and presented in this thesis effectively helps users to increase the quality of their ontologies. At the time of writing this thesis, OOPS! has been broadly accepted by a high number of users worldwide and has been used around 3000 times from 60 different countries. OOPS! is integrated with third-party software and is locally installed in private enterprises being used both for ontology development activities and training courses.
Resumo:
El objetivo seguido en este proyecto fin de carrera, ha sido el análisis de la evolución general de la tecnología, tanto electrónica, como en Telecomunicaciones e Informática, desde sus inicios hasta la actualidad, realizando un estudio sobre cómo esos avances han mejorado, incluso cambiado nuestra vida cotidiana y cómo a consecuencia de la conversión de muchos de estos productos tecnológicos en objeto de consumo masivo, la propia dinámica económico-comercial ha llevado a las empresas a la programación del fin del su vida útil con el objeto de incrementar su demanda y, consiguientemente, la producción. Se trata de lo que se conoce desde hace décadas como Obsolescencia Programada. Para realizar este documento se ha realizado un breve repaso por los acontecimientos históricos que promovieron el inicio de esta práctica, así como también nos ha llevado a realizar mención de todos esos aparatos tecnológicos que han sufrido una mayor evolución y por tanto son los más propensos a que se instauren en ellos, debido a cómo influyen dichos cambios en los consumidores. Otro de los aspectos más importantes que rodean a la Obsolescencia Programada, es cómo influye en el comportamiento de la sociedad, creando en ella actitudes consumistas, que precisamente son las que alimentan que el ciclo económico siga basándose en incluir esta práctica desde el diseño del producto, puesto que a mayor consumo, mayor producción, y por tanto, supone un aumento de beneficios para el fabricante. Aunque, lo que para algunos supone un amplio margen de rentabilidad, existen otros componentes de la ecuación que no salen tan bien parados, como pueden ser los países del tercer mundo que están siendo poblados de basura electrónica, y en general el medio ambiente y los recursos de los que hoy disponemos, que no son ilimitados, y que están viéndose gravemente afectados por la inserción de esta práctica. Como cierre de este análisis, se repasarán algunas de las técnicas empleadas en algunos de los productos más utilizados hoy en día y las conclusiones a las que se han llevado después de analizar todos estos puntos del tema. ABSTRACT. The main goal followed in this final project has been analyzing the overall evolution of technology, both electronics and telecommunications. Also, computer science; from beginning to present it has been realized some studies about these advances have improved our daily life, even changing our routine, and turn us massive consumers of all technological products on the market. This dynamic economic and commercial has led companies to programming the end of its useful life in order to increase demand, and consequently, the production. This is known as Obsolescence. To make this document has been made a brief review through historical events that promoted the opening of this practice, and also led us to make mention all these technological devices have undergone further evolution and therefore more likely to establish them, because these changes affect consumers. Another important aspect around planned obsolescence is how to influence in society’s behavior, creating consumerist attitudes, which are precisely those feed the economic cycle continues to be based on including this practice from product design, because increased consumption and production. Therefore, this fact increases profits for the manufacturer. Although, for some people suppose a wide margin of profitability, there are other components do not have such luck; for example, third World countries have been filled with e-waste and the environment, in general, and resources available today which are not unlimited, and who are seriously affected by the inclusion of this practice. To close this analysis, we will review a few techniques used in some products most widely used today, and the conclusions that have been made after analyzing all these points of the topic.
Resumo:
Introducción: El modelo organizativo de los cuidados paliativos se lleva a cabo principalmente en hospitales y domicilios, resultando complejo decidir donde sería más adecuado vivir el final de la vida. Objetivo: Dado el marco actual del sistema de salud, se precisa una comparativa entre hospital y domicilio, valorando cuales son las preferencias de los pacientes y si éstas coinciden con la realidad, teniendo en cuenta el control de síntomas y los costes en ambos servicios. Método: Para ello, se ha realizado una revisión bibliográfica reciente de artículos originales publicados entre el año 2000 y 2016, realizando una búsqueda en diferentes bases de datos (PUBMED, Biblioteca Virtual de Salud, SCIELO, MEDLINE) y examinando 16 estudios para el análisis de los resultados. Resultados: Estos resultados indican, que la mayoría de los pacientes prefiere el domicilio para pasar sus últimos días de vida, sin embargo, la realidad muestra que fallecen más en el hospital. El control de síntomas es mayor en el domicilio y también resulta más económico en comparación con el hospital. Conclusiones: El presente estudio demuestra que el deseo de los pacientes dista de la realidad, siendo ésta una situación perjudicial para ellos. Sin embargo, estudios recientes introducen la necesidad de estudiar las preferencias de los pacientes en relación a diversos factores, como son su enfermedad y localización geográfica. En general, el soporte en el domicilio por una unidad de cuidados paliativos resulta de mayor calidad y rentable, lo que abre un marco para su implantación en los diferentes sistemas de salud del estado Español.
Resumo:
En la actualidad, muchos gobiernos están publicando (o tienen la intención de publicar en breve) miles de conjuntos de datos para que personas y organizaciones los puedan utilizar. Como consecuencia, la cantidad de aplicaciones basadas en Open Data está incrementándose. Sin embargo cada gobierno tiene sus propios procedimientos para publicar sus datos, y esto causa una variedad de formatos dado que no existe un estándar internacional para especificar los formatos de estos datos. El objetivo principal de este trabajo es un análisis comparativo de datos ambientales en bases de datos abiertas (Open Data) pertenecientes a distintos gobiernos. Debido a esta variedad de formatos, debemos construir un proceso de integración de datos que sea capaz de unir todos los tipos de formatos. El trabajo implica un pre-procesado, limpieza e integración de las diferentes fuentes de datos. Existen muchas aplicaciones desarrolladas para dar soporte en el proceso de integración por ejemplo Data Tamer, Data Wrangler como se explica en este documento. El problema con estas aplicaciones es que necesitan la interacción del usuario como parte fundamental del proceso de integración. En este trabajo tratamos de evitar la supervisión humana aprovechando las similitudes de los datasets procedentes de igual área que en nuestro caso se aplica al área de medioambiente. De esta forma los procesos pueden ser automatizados con una programación adecuada. Para conseguirlo, la idea principal de este trabajo es construir procesos ad hoc adaptados a las fuentes de cada gobierno para conseguir una integración automática. Concretamente este trabajo se enfoca en datos ambientales como lo son la temperatura, consumo de energía, calidad de aire, radiación solar, velocidad del viento, etc. Desde hace dos años el gobierno de Madrid está publicando sus datos relativos a indicadores ambientales en tiempo real. Del mismo modo, otros gobiernos han publicado conjuntos de datos Open Data relativos al medio ambiente (como Andalucía o Bilbao), pero todos estos datos tienen diferentes formatos. En este trabajo se presenta una solución capaz de integrar todas ellos que además permite al usuario visualizar y hacer análisis sobre los datos en tiempo real. Una vez que el proceso de integración está realizado, todos los datos de cada gobierno poseen el mismo formato y se pueden lanzar procesos de análisis de una manera más computacional. Este trabajo tiene tres partes fundamentales: 1. Estudio de los entornos Open Data y la literatura al respecto; 2. Desarrollo de un proceso de integración y 3. Desarrollo de una Interface Gráfica y Analítica. Aunque en una primera fase se implementaron los procesos de integración mediante Java y Oracle y la Interface Gráfica con Java (jsp), en una fase posterior se realizó toda la implementación con lenguaje R y la interface gráfica mediante sus librerías, principalmente con Shiny. El resultado es una aplicación que provee de un conjunto de Datos Ambientales Integrados en Tiempo Real respecto a dos gobiernos muy diferentes en España, disponible para cualquier desarrollador que desee construir sus propias aplicaciones.
Resumo:
La diferenciación y el soporte en calidad de servicio es utilizada en muchas arquitecturas de red, técnicas y frameworks, tales como IP, con los esquemas de DiffServ e IntServ, redes NGN, GMPLS (Generalized Multiprotocol Label Switching) y redes ópticas, entre otras. Actualmente, la calidad de servicio no es solo una cuestión técnica, sino que se ha convertido en un producto que puede ser visto desde numerosas perspectivas, en las que los clientes, cada día, demandan más servicios, de mayor calidad. Por lo tanto, los proveedores deben mejorar sus implementaciones para permanecer en este reñido mercado (Piotr, Stankiewicz, Cholda, & Jajszczyk, 2011). En este contexto, las redes actuales deben garantizar la calidad en los servicios sin importar el incremento paulatino de usuarios y dispositivos de interconectividad. La mejor manera de hacerlo no es necesariamente invirtiendo en la infraestructura más moderna que soporte técnicas para este fin. Existen mecanismos que se pueden aplicar sobre infraestructuras de red actuales, las cuales ayudan a manejar el tráfico de manera adecuada, de tal manera que los parámetros de calidad de servicio se mantengan dentro de los límites permisibles establecidos por la Recomendación Y.1541 (UIT, 2011a).
Resumo:
Introducción Este trabajo parte de la pregunta:¿Hacia dónde avanzan los espacios rurales de Mesoamérica con la globalización? La respuesta obliga a hacer un ejercicio prospectivo sobre cuatro aspectos que están ocurriendo en la actualidad y que impactan a la región. Uno es el papel que desempeña la estrategia de negociación bilateral que ha venido impulsando Estados Unidos desde los noventa en la región, de cara asegurar un marco jurídico que permita mejores condiciones a la inversión extranjera en telecomunicaciones, seguros y en la producción y comercio de mercancías, asi como nuevas condiciones de protección de los derechos de propiedad intelectual…
Resumo:
Programa de doctorado: Tecnología de las Telecomunicaciones