908 resultados para metabolismo cellulare, modellistica, approccio su più livelli, fosforilazione ossidativa, sistema biologico
Resumo:
El objetivo de esta investigación es analizar los retos a los que se enfrentan las Sociedades de Garantías Recíprocas (SGR) y su papel en la financiación de la PYME en el contexto actual de crisis financiera en España. Entre las principales conclusiones, destacar que ante las mayores dificultades actuales, las SGR adquieren mayor relevancia para facilitar el acceso al crédito para las PYMES debido a que son un instrumento directo, con su garantía los fondos del sistema bancario llegan hacia estas empresas, y muy eficaz, por el efecto multiplicador de su actividad. Sin embargo, a su vez, estas sociedades están afectadas igualmente por el aumento de la morosidad al que deben enfrentarse y que incide en su actividad avalista. Se analiza, por tanto, la importancia de mantener la solvencia de las SGR y de CERSA (Compañía Española de Reafianzamiento) en niveles adecuados para que puedan cumplir con los retos actuales de ampliar su actividad incluso a un mayor número de PYMES. = The aim of this paper is to analyze the challenges confronted by the Reciprocal Guarantees Societies (SGRs,Spanish acronym), and its role in the financing of SMEs in the current context of financial crisis in Spain. Major findings include, considering the greatest current difficulties of nowadays, that the SGRs acquires greater relevance to facilitate the access to credit for SMEs because they are a direct instrument, with its guarantee funds incoming to these companies from the banking system, and very effective, due to the multiplier effect of its activity. However, in turn, these societies are also affected by the increase in doubtful assets which have to face and that affect his guarantor activity. It is analyzed, therefore, the relevance of maintaining the SGRs and CERSA (Compañía Española de Reafianzamiento) solvency at appropriate levels in order to address the current challenges of expanding its activity, indeed to a larger number of SMEs.
Resumo:
Logic programming (LP) is a family of high-level programming languages which provides high expressive power. With LP, the programmer writes the properties of the result and / or executable specifications instead of detailed computation steps. Logic programming systems which feature tabled execution and constraint logic programming have been shown to increase the declarativeness and efficiency of Prolog, while at the same time making it possible to write very expressive programs. Tabled execution avoids infinite failure in some cases, while improving efficiency in programs which repeat computations. CLP reduces the search tree and brings the power of solving (in)equations over arbitrary domains. Similarly to the LP case, CLP systems can also benefit from the power of tabling. Previous implementations which take ful advantage of the ideas behind tabling (e.g., forcing suspension, answer subsumption, etc. wherever it is necessary to avoid recomputation and terminate whenever possible) did not offer a simple, well-documented, easy-to-understand interface. This would be necessary to make the integratation of arbitrary CLP solvers into existing tabling systems possible. This clearly hinders a more widespread usage of the combination of both facilities. In this thesis we examine the requirements that a constraint solver must fulfill in order to be interfaced with a tabling system. We propose and implement a framework, which we have called Mod TCLP, with a minimal set of operations (e.g., entailment checking and projection) which the constraint solver has to provide to the tabling engine. We validate the design of Mod TCLP by a series of use cases: we re-engineer a previously existing tabled constrain domain (difference constraints) which was connected in an ad-hoc manner with the tabling engine in Ciao Prolog; we integrateHolzbauer’s CLP(Q) implementationwith Ciao Prolog’s tabling engine; and we implement a constraint solver over (finite) lattices. We evaluate its performance with several benchmarks that implement a simple abstract interpreter whose fixpoint is reached by means of tabled execution, and whose domain operations are handled by the constraint over (finite) lattices, where TCLP avoids recomputing subsumed abstractions.---ABSTRACT---La programación lógica con restricciones (CLP) y la tabulación son extensiones de la programación lógica que incrementan la declaratividad y eficiencia de Prolog, al mismo tiempo que hacen posible escribir programasmás expresivos. Las implementaciones anteriores que integran completamente ambas extensiones, incluyendo la suspensión de la ejecución de objetivos siempre que sea necesario, la implementación de inclusión (subsumption) de respuestas, etc., en todos los puntos en los que sea necesario para evitar recomputaciones y garantizar la terminación cuando sea posible, no han proporcionan una interfaz simple, bien documentada y fácil de entender. Esta interfaz es necesaria para permitir integrar resolutores de CLP arbitrarios en el sistema de tabulación. Esto claramente dificulta un uso más generalizado de la integración de ambas extensiones. En esta tesis examinamos los requisitos que un resolutor de restricciones debe cumplir para ser integrado con un sistema de tabulación. Proponemos un esquema (y su implementación), que hemos llamadoMod TCLP, que requiere un reducido conjunto de operaciones (en particular, y entre otras, entailment y proyección de almacenes de restricciones) que el resolutor de restricciones debe ofrecer al sistema de tabulación. Hemos validado el diseño de Mod TCLP con una serie de casos de uso: la refactorización de un sistema de restricciones (difference constraints) previamente conectado de un modo ad-hoc con la tabulación de Ciao Prolog; la integración del sistema de restricciones CLP(Q) de Holzbauer; y la implementación de un resolutor de restricciones sobre retículos finitos. Hemos evaluado su rendimiento con varios programas de prueba, incluyendo la implementación de un intérprete abstracto que alcanza su punto fijo mediante el sistema de tabulación y en el que las operaciones en el dominio son realizadas por el resolutor de restricciones sobre retículos (finitos) donde TCLP evita la recomputación de valores abstractos de las variables ya contenidos en llamadas anteriores.
Resumo:
La última década ha sido testigo de importantes avances en el campo de la tecnología de reconocimiento de voz. Los sistemas comerciales existentes actualmente poseen la capacidad de reconocer habla continua de múltiples locutores, consiguiendo valores aceptables de error, y sin la necesidad de realizar procedimientos explícitos de adaptación. A pesar del buen momento que vive esta tecnología, el reconocimiento de voz dista de ser un problema resuelto. La mayoría de estos sistemas de reconocimiento se ajustan a dominios particulares y su eficacia depende de manera significativa, entre otros muchos aspectos, de la similitud que exista entre el modelo de lenguaje utilizado y la tarea específica para la cual se está empleando. Esta dependencia cobra aún más importancia en aquellos escenarios en los cuales las propiedades estadísticas del lenguaje varían a lo largo del tiempo, como por ejemplo, en dominios de aplicación que involucren habla espontánea y múltiples temáticas. En los últimos años se ha evidenciado un constante esfuerzo por mejorar los sistemas de reconocimiento para tales dominios. Esto se ha hecho, entre otros muchos enfoques, a través de técnicas automáticas de adaptación. Estas técnicas son aplicadas a sistemas ya existentes, dado que exportar el sistema a una nueva tarea o dominio puede requerir tiempo a la vez que resultar costoso. Las técnicas de adaptación requieren fuentes adicionales de información, y en este sentido, el lenguaje hablado puede aportar algunas de ellas. El habla no sólo transmite un mensaje, también transmite información acerca del contexto en el cual se desarrolla la comunicación hablada (e.g. acerca del tema sobre el cual se está hablando). Por tanto, cuando nos comunicamos a través del habla, es posible identificar los elementos del lenguaje que caracterizan el contexto, y al mismo tiempo, rastrear los cambios que ocurren en estos elementos a lo largo del tiempo. Esta información podría ser capturada y aprovechada por medio de técnicas de recuperación de información (information retrieval) y de aprendizaje de máquina (machine learning). Esto podría permitirnos, dentro del desarrollo de mejores sistemas automáticos de reconocimiento de voz, mejorar la adaptación de modelos del lenguaje a las condiciones del contexto, y por tanto, robustecer al sistema de reconocimiento en dominios con condiciones variables (tales como variaciones potenciales en el vocabulario, el estilo y la temática). En este sentido, la principal contribución de esta Tesis es la propuesta y evaluación de un marco de contextualización motivado por el análisis temático y basado en la adaptación dinámica y no supervisada de modelos de lenguaje para el robustecimiento de un sistema automático de reconocimiento de voz. Esta adaptación toma como base distintos enfoque de los sistemas mencionados (de recuperación de información y aprendizaje de máquina) mediante los cuales buscamos identificar las temáticas sobre las cuales se está hablando en una grabación de audio. Dicha identificación, por lo tanto, permite realizar una adaptación del modelo de lenguaje de acuerdo a las condiciones del contexto. El marco de contextualización propuesto se puede dividir en dos sistemas principales: un sistema de identificación de temática y un sistema de adaptación dinámica de modelos de lenguaje. Esta Tesis puede describirse en detalle desde la perspectiva de las contribuciones particulares realizadas en cada uno de los campos que componen el marco propuesto: _ En lo referente al sistema de identificación de temática, nos hemos enfocado en aportar mejoras a las técnicas de pre-procesamiento de documentos, asimismo en contribuir a la definición de criterios más robustos para la selección de index-terms. – La eficiencia de los sistemas basados tanto en técnicas de recuperación de información como en técnicas de aprendizaje de máquina, y específicamente de aquellos sistemas que particularizan en la tarea de identificación de temática, depende, en gran medida, de los mecanismos de preprocesamiento que se aplican a los documentos. Entre las múltiples operaciones que hacen parte de un esquema de preprocesamiento, la selección adecuada de los términos de indexado (index-terms) es crucial para establecer relaciones semánticas y conceptuales entre los términos y los documentos. Este proceso también puede verse afectado, o bien por una mala elección de stopwords, o bien por la falta de precisión en la definición de reglas de lematización. En este sentido, en este trabajo comparamos y evaluamos diferentes criterios para el preprocesamiento de los documentos, así como también distintas estrategias para la selección de los index-terms. Esto nos permite no sólo reducir el tamaño de la estructura de indexación, sino también mejorar el proceso de identificación de temática. – Uno de los aspectos más importantes en cuanto al rendimiento de los sistemas de identificación de temática es la asignación de diferentes pesos a los términos de acuerdo a su contribución al contenido del documento. En este trabajo evaluamos y proponemos enfoques alternativos a los esquemas tradicionales de ponderado de términos (tales como tf-idf ) que nos permitan mejorar la especificidad de los términos, así como también discriminar mejor las temáticas de los documentos. _ Respecto a la adaptación dinámica de modelos de lenguaje, hemos dividimos el proceso de contextualización en varios pasos. – Para la generación de modelos de lenguaje basados en temática, proponemos dos tipos de enfoques: un enfoque supervisado y un enfoque no supervisado. En el primero de ellos nos basamos en las etiquetas de temática que originalmente acompañan a los documentos del corpus que empleamos. A partir de estas, agrupamos los documentos que forman parte de la misma temática y generamos modelos de lenguaje a partir de dichos grupos. Sin embargo, uno de los objetivos que se persigue en esta Tesis es evaluar si el uso de estas etiquetas para la generación de modelos es óptimo en términos del rendimiento del reconocedor. Por esta razón, nosotros proponemos un segundo enfoque, un enfoque no supervisado, en el cual el objetivo es agrupar, automáticamente, los documentos en clusters temáticos, basándonos en la similaridad semántica existente entre los documentos. Por medio de enfoques de agrupamiento conseguimos mejorar la cohesión conceptual y semántica en cada uno de los clusters, lo que a su vez nos permitió refinar los modelos de lenguaje basados en temática y mejorar el rendimiento del sistema de reconocimiento. – Desarrollamos diversas estrategias para generar un modelo de lenguaje dependiente del contexto. Nuestro objetivo es que este modelo refleje el contexto semántico del habla, i.e. las temáticas más relevantes que se están discutiendo. Este modelo es generado por medio de la interpolación lineal entre aquellos modelos de lenguaje basados en temática que estén relacionados con las temáticas más relevantes. La estimación de los pesos de interpolación está basada principalmente en el resultado del proceso de identificación de temática. – Finalmente, proponemos una metodología para la adaptación dinámica de un modelo de lenguaje general. El proceso de adaptación tiene en cuenta no sólo al modelo dependiente del contexto sino también a la información entregada por el proceso de identificación de temática. El esquema usado para la adaptación es una interpolación lineal entre el modelo general y el modelo dependiente de contexto. Estudiamos también diferentes enfoques para determinar los pesos de interpolación entre ambos modelos. Una vez definida la base teórica de nuestro marco de contextualización, proponemos su aplicación dentro de un sistema automático de reconocimiento de voz. Para esto, nos enfocamos en dos aspectos: la contextualización de los modelos de lenguaje empleados por el sistema y la incorporación de información semántica en el proceso de adaptación basado en temática. En esta Tesis proponemos un marco experimental basado en una arquitectura de reconocimiento en ‘dos etapas’. En la primera etapa, empleamos sistemas basados en técnicas de recuperación de información y aprendizaje de máquina para identificar las temáticas sobre las cuales se habla en una transcripción de un segmento de audio. Esta transcripción es generada por el sistema de reconocimiento empleando un modelo de lenguaje general. De acuerdo con la relevancia de las temáticas que han sido identificadas, se lleva a cabo la adaptación dinámica del modelo de lenguaje. En la segunda etapa de la arquitectura de reconocimiento, usamos este modelo adaptado para realizar de nuevo el reconocimiento del segmento de audio. Para determinar los beneficios del marco de trabajo propuesto, llevamos a cabo la evaluación de cada uno de los sistemas principales previamente mencionados. Esta evaluación es realizada sobre discursos en el dominio de la política usando la base de datos EPPS (European Parliamentary Plenary Sessions - Sesiones Plenarias del Parlamento Europeo) del proyecto europeo TC-STAR. Analizamos distintas métricas acerca del rendimiento de los sistemas y evaluamos las mejoras propuestas con respecto a los sistemas de referencia. ABSTRACT The last decade has witnessed major advances in speech recognition technology. Today’s commercial systems are able to recognize continuous speech from numerous speakers, with acceptable levels of error and without the need for an explicit adaptation procedure. Despite this progress, speech recognition is far from being a solved problem. Most of these systems are adjusted to a particular domain and their efficacy depends significantly, among many other aspects, on the similarity between the language model used and the task that is being addressed. This dependence is even more important in scenarios where the statistical properties of the language fluctuates throughout the time, for example, in application domains involving spontaneous and multitopic speech. Over the last years there has been an increasing effort in enhancing the speech recognition systems for such domains. This has been done, among other approaches, by means of techniques of automatic adaptation. These techniques are applied to the existing systems, specially since exporting the system to a new task or domain may be both time-consuming and expensive. Adaptation techniques require additional sources of information, and the spoken language could provide some of them. It must be considered that speech not only conveys a message, it also provides information on the context in which the spoken communication takes place (e.g. on the subject on which it is being talked about). Therefore, when we communicate through speech, it could be feasible to identify the elements of the language that characterize the context, and at the same time, to track the changes that occur in those elements over time. This information can be extracted and exploited through techniques of information retrieval and machine learning. This allows us, within the development of more robust speech recognition systems, to enhance the adaptation of language models to the conditions of the context, thus strengthening the recognition system for domains under changing conditions (such as potential variations in vocabulary, style and topic). In this sense, the main contribution of this Thesis is the proposal and evaluation of a framework of topic-motivated contextualization based on the dynamic and non-supervised adaptation of language models for the enhancement of an automatic speech recognition system. This adaptation is based on an combined approach (from the perspective of both information retrieval and machine learning fields) whereby we identify the topics that are being discussed in an audio recording. The topic identification, therefore, enables the system to perform an adaptation of the language model according to the contextual conditions. The proposed framework can be divided in two major systems: a topic identification system and a dynamic language model adaptation system. This Thesis can be outlined from the perspective of the particular contributions made in each of the fields that composes the proposed framework: _ Regarding the topic identification system, we have focused on the enhancement of the document preprocessing techniques in addition to contributing in the definition of more robust criteria for the selection of index-terms. – Within both information retrieval and machine learning based approaches, the efficiency of topic identification systems, depends, to a large extent, on the mechanisms of preprocessing applied to the documents. Among the many operations that encloses the preprocessing procedures, an adequate selection of index-terms is critical to establish conceptual and semantic relationships between terms and documents. This process might also be weakened by a poor choice of stopwords or lack of precision in defining stemming rules. In this regard we compare and evaluate different criteria for preprocessing the documents, as well as for improving the selection of the index-terms. This allows us to not only reduce the size of the indexing structure but also to strengthen the topic identification process. – One of the most crucial aspects, in relation to the performance of topic identification systems, is to assign different weights to different terms depending on their contribution to the content of the document. In this sense we evaluate and propose alternative approaches to traditional weighting schemes (such as tf-idf ) that allow us to improve the specificity of terms, and to better identify the topics that are related to documents. _ Regarding the dynamic language model adaptation, we divide the contextualization process into different steps. – We propose supervised and unsupervised approaches for the generation of topic-based language models. The first of them is intended to generate topic-based language models by grouping the documents, in the training set, according to the original topic labels of the corpus. Nevertheless, a goal of this Thesis is to evaluate whether or not the use of these labels to generate language models is optimal in terms of recognition accuracy. For this reason, we propose a second approach, an unsupervised one, in which the objective is to group the data in the training set into automatic topic clusters based on the semantic similarity between the documents. By means of clustering approaches we expect to obtain a more cohesive association of the documents that are related by similar concepts, thus improving the coverage of the topic-based language models and enhancing the performance of the recognition system. – We develop various strategies in order to create a context-dependent language model. Our aim is that this model reflects the semantic context of the current utterance, i.e. the most relevant topics that are being discussed. This model is generated by means of a linear interpolation between the topic-based language models related to the most relevant topics. The estimation of the interpolation weights is based mainly on the outcome of the topic identification process. – Finally, we propose a methodology for the dynamic adaptation of a background language model. The adaptation process takes into account the context-dependent model as well as the information provided by the topic identification process. The scheme used for the adaptation is a linear interpolation between the background model and the context-dependent one. We also study different approaches to determine the interpolation weights used in this adaptation scheme. Once we defined the basis of our topic-motivated contextualization framework, we propose its application into an automatic speech recognition system. We focus on two aspects: the contextualization of the language models used by the system, and the incorporation of semantic-related information into a topic-based adaptation process. To achieve this, we propose an experimental framework based in ‘a two stages’ recognition architecture. In the first stage of the architecture, Information Retrieval and Machine Learning techniques are used to identify the topics in a transcription of an audio segment. This transcription is generated by the recognition system using a background language model. According to the confidence on the topics that have been identified, the dynamic language model adaptation is carried out. In the second stage of the recognition architecture, an adapted language model is used to re-decode the utterance. To test the benefits of the proposed framework, we carry out the evaluation of each of the major systems aforementioned. The evaluation is conducted on speeches of political domain using the EPPS (European Parliamentary Plenary Sessions) database from the European TC-STAR project. We analyse several performance metrics that allow us to compare the improvements of the proposed systems against the baseline ones.
Resumo:
La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.
Resumo:
Las técnicas de resolución de restricciones son mecanismos que garantizan que todas las transacciones en un mercado competitivo de electricidad se pueden lograr sin la violación de los límites de operación. Es un tema importante en un mercado competitivo de la electricidad, ya que un manejo inadecuado puede segmentar el sistema y hacer que algunos de los participantes puedan ejercer poder de mercado. El propósito principal de este artículo es presentar una metodología que permite garantizar un despacho seguro, tanto en estado normal como después de contingencias, utilizando la técnica del re-despacho tras el análisis topológico. El artículo describe paso a paso el proceso de aplicación de la metodología propuesta e ilustra su aplicación al caso del sistema eléctrico de la República Dominicana y cómo puede ayudar a solventar el problema mencionado cuando el ahorro durante los periodos de contingencia supera al extra-coste durante los periodos de funcionamiento normal
Resumo:
Escoger la evolución y originalidad en el pensamiento económico y social de Raúl Prebisch surge del interrogante de por qué las regiones subdesarrolladas no han salido de esa condición. En el intento de dar una respuesta a esta problemática tan delicada y vigente en la actualidad, esta tesis pretende, por un lado, seguir la evolución cognitiva del economista estructuralista Raúl Prebisch, y por el otro, determinar la originalidad en su esquema interpretativo del Capitalismo Periférico. En una primera aproximación, el autor se presenta como un clásico. Su cargo en la CEPAL y la sucesión de hitos históricos que desestabilizan el sistema económico, hacen que se vayan produciendo en él mutaciones teóricas tendientes a la teoría keynesiana. Al llegar a los ochenta se percibe una inflexión determinante: el autor se ve en la necesidad de incluir una totalidad de variables que expliquen la inviabilidad del capitalismo, acercándose a la metodología marxista, pero no como herramienta política. En la búsqueda de la originalidad en Prebisch, la enseñanza económica ha sido una herencia adquirida. Dicho de otro modo, se aprecia en sus reflexiones una originalidad ecléctica, aprehende lo esencial de las doctrinas conocidas y las contrasta con la realidad de la región, llegando a reveladoras conclusiones. Destacan su propuesta de transformación del sistema. Su consentimiento esperado o desesperado del equilibrio entre socialismo y capitalismo para evitar las crisis sociales y políticas que este último trae. Se deduce que el pensamiento de Prebisch es una evolución, no una revolución, no hay una originalidad pura. Pero reconociendo que la tarea del investigador nunca acaba, se afirma, pese a su férreo resguardo de su neutralidad valorativa, que Prebisch se erige como keynesiano de izquierdas.
Resumo:
Este proyecto consiste en el desarrollo de un sistema para simular misiones de rescate usando equipos de robots donde cada robot tiene sus propios objetivos y debe coordinarse con el resto de sus compañeros para realizar con existo la misión de rescate en escenarios dinámicos. El escenario se caracteriza por contener: - Agentes Robot: son las entidades del sistema encargado de tareas relacionadas con el rescate, como por ejemplo, explorar el terreno o rescatar a una víctima. Se organizan de forma jerárquica, esto es, hay un jefe encargado de asignar tareas a los demás robots, que serán subordinados. - Víctimas: son los objetivos a rescatar en la misión. Tienen una identificación, una localización y una esperanza de vida. -Obstáculos: delimitan una zona por la que el robot no puede pasar. Simulan la existencia de paredes, rocas, árboles…, es decir, cualquier tipo de estructura existente en un escenario real. - Zona segura: marca un punto del mapa adonde los robots moverán a las víctimas en el rescate. Representa lo que en un rescate real sería un campamento u hospital. El sistema permite: - Crear y gestionar escenarios de simulación - Definir equipos de robots con diferentes miembros, diferentes objetivos y comportamientos. - Definir modelos organizativos en los equipos y estrategias de coordinación. - Realizar los objetivos individuales y de grupo para salvar a las víctimas llevándolas al sitio seguro esquivando los obstáculos. - Realizar experimentos de simulación: probar distintas configuraciones de equipo con un número variable de robots, varias víctimas en lugares diferentes y escenarios independientes. Se ha partido del proyecto ROSACE(Robots et Systèmes AutoCommunicants Embarqués / Robots y sistemas embebidos autocomunicantes), que está construido sobre la herramienta ICARO, que es una Infraestructura Ligera de Componentes Software Java basada en Agentes y Recursos y Organizaciones para el desarrollo de aplicaciones distribuidas. El punto de partida ya implementaba una versión preliminar del proyecto capaz de organizar objetivos entre los robots y que consigan ir a la localización objetivo. El presente proyecto utiliza el patrón arquitectónico de ROSACE y parte de su infraestructura pero desarrolla un sistema original con nuevas herramientas para definir y gestionar escenarios, disponer de un modelo más realista del comportamiento de los robots y controlar el proceso de simulación para incluir posibles fallos de los robots y para el estudio individual y colectivo de los miembros de los equipos.
Resumo:
La tesi si propone in una prima parte di introdurre importanti concetti quali la reale forma della Terra, la definizione di quota ortometrica ed ondulazione geoidica ed i riferimenti rispetto a cui esse si misurano: ciò è necessario per descrivere la quota Helmert, la quota dinamica e la quota normale, ossia i sistemi di quote corrette per gravità attualmente utilizzati. Nella seconda parte le argomentazioni principali verteranno sui sistemi di riferimento verticali dei paesi europei e sull’importanza di unificare i datums in un’unica soluzione. Si elencheranno i vari tentativi di aggregazione dei sistemi che si sono susseguiti nella storia europea, con approfondimenti sulle loro caratteristiche e parametri statistici. Nella terza ed ultima parte, si discuterà della realizzazione più moderna di un sistema di riferimento verticale comune ai paesi comunitari, e si indicheranno le sue differenze rispetto ai sistemi precedenti. Si concluderà l’elaborato con un breve accenno sul futuro dei datum verticali europei.
Resumo:
La constitución política en su artículo primero ha establecido el modelo político en el cual se enmarca el Estado Colombiano, precepto que por su prevalencia normativa, se convierte en fundamento de todo actuar y que se expresa así: Colombia es un Estado social de derecho, organizado en forma de República unitaria, descentralizada, con autonomía de sus entidades territoriales, democrática, participativa y pluralista, fundada en el respeto de la dignidad humana, en el trabajo y la solidaridad de las personas que la integran y en la prevalencia del interés general. La introducción de este nuevo modelo político implica un cambio radical en la forma de concebir el Estado, ante la pérdida sacramental del texto legal entendido como emanación de la voluntad popular y la mayor preocupación por la justicia material y por el logro de soluciones que consulten la especificidad de los hechos (M.P. BARÓN, Ciro., 1992), situación que conviene un cambio de pensamiento en la elaboración de las normas y que a partir, de 1991 debe consultar su impacto en la solución de los problemas que aquejan la sociedad. Consecuente con lo anterior, el sistema tributario, no puede ser ajeno a los postulados incluidos en el artículo primero de la constitución política atrás citado, y en tal sentido la Asamblea Constituyente, aunque en su momento no acogió las recomendaciones dadas por el Instituto Colombiano de Derecho Tributario, en el sentido de incluir un artículo que dijera que los tributos debían fundarse en la capacidad económica del sujeto pasivo, si consagró en su artículo 363 que el sistema tributario debía fundarse en los principios de equidad y progresividad, entre otros (BRAVO, 1997). Es aquí donde se centra el presente proyecto de investigación, que busca indagar por el principio de progresividad, que por efecto metodológicos se limitara a las pyme, específicamente en la pequeña empresa, aquella con planta de personal entre once (11) y cincuenta (50) trabajadores y activo total entre quinientos un (501) y menos de cinco mil un (5.001) salarios mínimos legales mensuales vigentes. Estas personas jurídicas, se ven abocadas a una fuerte carga impositiva directa, en el cual el impuesto de renta recobra relevancia, haciéndose necesario analizar su impacto a las luces de la nueva reforma, a efecto de vislumbrar la efectiva materialización del principio de progresividad o por si el contrario los recientes cambios normativos han contradicho el mandato impuesto en la Constitución política en cuanto al respeto que debe contener toda norma en materia tributaria, en cuanto al principio objeto de estudio.
Resumo:
[es] El objetivo de nuestro artículo es presentar y discutir la explicación que sobre la apócope, tanto normal como extrema, ofrece el romanista mexicano Lema (1997). Lema asume como punto de partida de su hipótesis la ruina del sistema declinativo del latín clásico y la consolidación románica de la íntima asociación entre la vocal final y el género gramatical (/–a/ = femenino, /–o/ = masculino). Él opina que la ausencia de valor morfemático, en lo que respecta a la categoría de género gramatical, de la /–e/ provocó necesariamente su pérdida en posición final absoluta de palabra. Intentaremos mostrar que el razonamiento de Lema no es aceptable por varias razones. Nuestra idea sigue siendo que la correcta explicación de la apócope medieval ha de partir de parámetros fonéticos, en la línea expositiva desarrollada por Lapesa, no morfológicos. [en] The aim of our article is to expose and discuss the explanation offered by Lema (1997) for vocalic apocope in Medieval Spanish. Lema assumes that the starting point is the loss of Classical Latin declension system, which gives rise to the strong Romance association between final vowel and grammatical gender (/-a/ = feminine, /-o/ = masculine). He thinks that /-e/, because of its lack of morphological function as regards to grammatical gender, dropped, in word final position, in all instances, with no exception. We’ll try to show that Lema’s theory is unacceptable for several reasons. On the contrary, we consider that the adequate understanding of Old Spanish apocope depends on phonetic -not morphological- criteria, according to Lapesa’s hypotheses.
Resumo:
Desde su creación en 1972, el sistema UPAC ha generado grandes controversias, en algunas ocasiones sustentadas en hechos económico-financieros, en otras basadas en posiciones y creencias personales, y en otras fundamentadas en situaciones de las corporaciones de ahorro y vivienda o de los usuarios. Esto ha originado una gran polarización de conceptosy opiniones que obligan a revisar en detalle el proceso UPAC. Este fue el objetivo central de la investigación "Análisis del comportamiento del sistema de financiación en UPAC versus la capacidad de pago de los usuarios", realizada en la Universidad del Valle. [Tomado de Introducción]
Resumo:
Conferencia y debate posterior con Chema de Francisco, Director de Estampa Feria Internacional de Arte Contemporáneo, que se celebra en Madrid desde 1993. La sesión consistió en un recorrido por diferentes aspectos que implican tanto el coleccionismo de arte como su repercusión profesional en el sistema del arte contemporáneo, estableciendo interesantes reflexiones acerca del sentido de hacer una colección, perfiles de coleccionistas o modos de comercialización del objeto artístico. Además de director de ESTAMPA, Chema de Francisco es socio fundador y vocal de 9915, Asociación de Coleccionistas Privados de Arte Contemporáneo. Desde 2010 es miembro del Consejo de Cultura de la Comunidad de Madrid. Sus proyectos de comisariado van desde el arte emergente con nuevos medios en Tangentes al Paisaje de jóvenes artistas en 2003 y Longitudes de Onda y SON, sobre videocreación, música contemporánea y arte sonoro para el Auditorio Nacional de Música en 2010 y 2011 respectivamente, hasta la recuperación de la fotografía de los años cincuenta de Gustavo Torner con exposiciones en distintas ciudades españolas, los libros de artista de Fernando Millán en el Círculo de Bellas Artes de Madrid en 2011 o la obra gráfica de Pablo Palazuelo en el Museo del Grabado en Málaga en 2010. Ha publicado sendos libros de conversaciones con el poeta Fernando Millán y el músico Llorenç Barber en Ardora Ediciones. Actualmente prepara la catalogación razonada de la obra gráfica de Pablo Palazuelo en colaboración con la Fundación Palazuelo. Como crítico ha publicado distintos estudios sobre la poesía experimental en España, sobre literatura y vanguardia española, sobre la obra de Pablo Palazuelo, Juan Eduardo Cirlot o Julián Ríos, y sobre la obra gráfica de José Manuel Broto, Miquel Barceló, José María Sicilia, Antoni Tapies, Pablo Palazuelo, José Manuel Ciria o Darío Urzay. Ha colaborado para Instituciones y Museos como Artium de Vitoria, Patio Herreriano de Valladolid, Esteban Vicente de Segovia, Fundación Juan March de Madrid, Museo Español de Grabado Contemporáneo, Museo Municipal de Málaga, Museo de Arte de Santander MAS, Fundación Rodríguez Acosta de Granada, Caja Granada, Caja de Ahorros del Mediterráneo en Alicante, Fundación Mercedes Calles en Cáceres, Instituto Cervantes o Calcografía Nacional en Madrid, entre otros. Chema de Francisco es licenciado en Ciencias de la Información por la Universidad Europea de Madrid. Amplía su formación con estudios de Filología y Literatura Española, Estética, Historia del Arte y Documentación en la Universidad Complutense de Madrid, y Estética y Retórica Musical en el Centro para la Difusión de la Música Contemporánea y el Real Conservatorio de Música de Madrid.
Resumo:
En el presente artículo se exponen las bases para un nuevo proyecto de gestión del yacimiento arqueológico de Calatrava la Vieja (Carrión de Calatrava, Ciudad Real), en el que se plantea la implantación de una Infraestructura de Datos Espaciales (IDE) como sistema de gestión global, utilizando como herramienta los SIG, y su potencialidad como integrador de informaciones cartográficas a diferentes escalas, indispensables en la continua codificación gráfica de la información arqueológica, con informaciones documentales de diverso ámbito y entidad, presentadas en bases de datos. Se analizan en el artículo una serie de pautas fundamentales, a tener en cuenta en un proyecto de esta envergadura, que deben servir de referencia a lo largo del trabajo, de esta forma se presentan las cuestiones claves de interés que puede conllevar la aplicación de estas herramientas en la gestión de un yacimiento arqueológico, así como de su entorno tanteando las posibilidades de su proyección y utilidad. A partir de esta presunción, se presenta la compleja diacronía del complejo de Calatrava «la Vieja», desde su primera ocupación en la Edad del Bronce, hasta su abandono en el siglo XV, destacando su continuidad y la importancia de nuestras actuaciones que han de ser igualmente expuestas. Partiendo de este «palimpsesto» evolutivo presentado, se analizan las posibilidades que ofrecen los SIG a través de las diferentes relaciones que podamos obtener con las Bases de Datos y analizando la potencialidad de su aplicación en estudios inter-site. Además, se plantean las premisas que debería tener la Base de Datos, «caballo de batalla» fundamental para la correcta inserción digital de datos, para su interrelación con otros datos y con el posterior análisis y estudio de sus relaciones con las diferentes realidades del yacimiento. En último lugar exponemos las primeras pautas de trabajo que hemos realizado en la codificación digital del yacimiento y de su georreferenciación espacial, para su posterior inserción en el Sistema de Información Geográfico. Éste exige una correcta ubicación geo-espacial, y con ello un amplio trabajo de aplicaciones topográficas para crear una geometría espacial y una cartografía de calidad suficiente para insertar información real de las diferentes evidencias, que se pueden encontrar en un yacimiento de estas características.
Resumo:
82 p.
Resumo:
Universidad de Costa Rica. Posgrado en Administraci?n y Direcci?n de Empresas. Maestr?a Profesional en Administraci?n y Direcci?n de Empresas, 2015