1000 resultados para Tematización de un esquema


Relevância:

30.00% 30.00%

Publicador:

Resumo:

De acuerdo con los modelos teóricos más usados para el estudio del trabajo infantil, uno de los principales determinantes de su nivel es la pobreza del hogar en el que residen los niños. Más concretamente, Basu y Van (1998) plantean a nivel teórico el llamado por ellos ?luxury axiom? (la), según el cual los hogares están comandados por padres altruistas y pobres que recurren al trabajo infantil como un medio de escapar de la pobreza. Según este mismo esquema teórico y si la economía está en una situación de equilibrio múltiple, puede que la aplicación efectiva de las leyes que prohíben el trabajo infantil provoque un empeoramiento del bienestar de los hogares y aumente la pobreza. Para que esto se dé, es necesario también que el otro axioma del modelo de Basu y Van (1998), el ?complementary axiom?, no se verifique en la realidad. Con datos provenientes de la Encuesta de Actividades de Niños, Niñas y Adolescentes (EANNA) realizada en la Argentina en 2004, se exploran empíricamente estas hipótesis. En primer lugar, se trata de examinar en qué medida el ingreso familiar estaría actuando como un determinante de la participación económica de niños entre 5 y 17 años. Luego se procede a analizar la cuestión simulando una situación de política pública que reduzca en un porcentaje dado la participación económica de niños, niñas y adolescentes y observando su impacto sobre las tasas de pobreza de las distintas regiones de la Argentina. También se analizan hipótesis específicas, como, por ejemplo, la endogeneidad del ingreso familiar total que estaría recibiendo los efectos de un moral hazard en la conducta de los adultos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las indagaciones en la pregunta por lo que hay permiten distinguir a grandes rasgos entre dos enfoques: uno, el de los pensadores que entendieron que el tema a investigar era la naturaleza y estructura del mundo, y otro, el de aquellos quienes, al sostener que describir el mundo no es simplemente copiarlo, atendieron a lo que se llamó esquema conceptual: esto es, al marco conceptual cuya forma toman las descripciones del mundo. La situación se puede plantear como un dilema, ninguno de cuyos cuernos permite alentar esperanzas de avances bien fundados. O bien se pretende describir el mundo, tal como es, sin contemplar el hecho de que esa descripción incluye elecciones conceptuales propias de un sujeto, o bien se centra la investigación en los rasgos de el/los esquema/s conceptual/es imprescindibles para construir una descripción del mundo, imposibilitando, con ello, el acceso a la realidad tal como ésta es. En el siglo XX se cuenta con recursos de sistemas de lógica considerablemente más desarrollados y abarcadores (en sus posibilidades de aplicación) que los anteriores. Tales recursos brindan nuevas posibilidades de abordaje de la pregunta por lo que hay, no sólo por los ámbitos que se clarifican mediante ellos, sino también por el sustento que ofrecen para la reflexión filosófica los resultados obtenidos. Los avances producidos en el ámbito de la lógica en algo más de un siglo tuvieron variadas repercusiones en el enfoque y el tratamiento de distintas cuestiones filosóficas. Así, se ha echado mano a conceptos y recursos de lógica al considerar preguntas acerca de la estructura del mundo. Para la determinación de los componentes de la realidad se ha recurrido a la lógica, desde diversas posiciones filosóficas. Por ejemplo, se ha entendido que la lógica subyacente a la teoría científica brinda en algún sentido elementos para determinar la ontología (o para descartar la posibilidad de hacerlo, o para establecer qué función cumple la noción de ontología en la teoría científica). También, desde una óptica más amplia, se ha intentado mostrar que el uso del lenguaje tiene consecuencias respecto de la ontología. Hilary Putnam ha sugerido la posibilidad de ser al mismo tiempo un realista y un relativista conceptual. Involucra consideraciones como las mencionadas, respecto de lógica y ontología. Su objetivo es el intento de hacer justicia a la realidad y al misterio de nuestro mundo de sentido común. Tomo esta tesis como una propuesta de trabajo. Me interesa pensar en cómo ofrecer algunos elementos de juicio para evaluar sus alcances. Para ello, examino la sugerencia de Putnam mediante un ejemplo construido con ese objetivo. Entiendo que se requerirán, al menos, dos esquemas conceptuales diferentes: al que surgiría de la lógica de orden 1, tal como la desarrolla Quine, y al que podría obtenerse a partir de la teoría de objetos no existentes de Castañeda. Se contará así con elementos de juicio más precisos que los habituales para evaluar las consecuencias que se seguirían para la ontología en caso de sostener ambos esquemas conceptuales, en consonancia con la propuesta de Putnam que se ha tomado como objetivo general del proyecto

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El enfoque cognitivo-prototípico sostiene que la intención comunicativa motiva otros aspectos del lenguaje: la sintaxis, la fonética y la fonología. En el marco de esa hipótesis, el presente trabajo, propone una síntesis evaluativa y comparativa de resultados obtenidos previamente con el fin de sugerir figuras entonativas que parecen funcionar con suficiente sistematicidad como para considerarlas patrones fonológicos. Estos emergen, precisamente, de una motivación semántico pragmática común que también motiva la sintaxis: la intención del hablante de realzar un aspecto de su mensaje. Se analizan ejemplos del español rioplatense que contienen segmentos con construcciones con tal/tan....que, cláusulas relativas con un(a)(s)...que, y construcciones hendidas propiamente dichas con esquema es...el/la/los/las que. Se confeccionaron corpora con un total de 1.028 oraciones que fueron grabadas en forma especial por 12 hablantes, seis mujeres y seis varones, cuatro por cada corpus, sin problemas de habla y con un nivel de formación educativa media y terciaria. Se caracterizaron los siguientes ítems prosódicos: a) Tonos de frontera (juntura) (Inicio y fin de la frase entonativa); b) Tonos nucleares (acentos más característicos); c) Duración de pausas; d) Frecuencia fundamental y e) Picos de energía. De la transcripción tonal alineada temporalmente surgen contornos entonativos que pueden considerarse por su sistematicidad como patrones fonológicos de estas estructuras. Los contornos tonales muestran una frase entonativa delimitada por un acento de juntura inicial alto y un acento de juntura final M (medio). El tono subyacente L+H* marca contrastivamente los constituyentes de la oración portadora del elemento de realce y emerge en todas las frases entonativas detectadas, con repetición del mismo tipo de acento tonal, como indicador de la modulación que el hablante ejerce sobre su frecuencia fundamental. Se observa en los tres casos la presencia fuerte de picos de F0. El efecto de las pausas previas al que se observa en todos los casos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En todas las disciplinas deportivas, la técnica representa un factor determinante de la preparación. El aprendizaje y el perfeccionamiento técnico constituyen un objetivo primario del entrenamiento. El entrenador debe de proporcionar información a los deportistas que faciliten la comprensión del proceso de aprendizaje, de programar adecuadamente las sesiones de entrenamiento dirigidas a la adquisición de la técnica, de implementar estrategias adecuadas e individualizadas de corrección de los errores. Para incrementar la comprensión del aprendizaje es esencial referirse a la teoría básica. Las diversas teorías del movimiento se proponen como modelo para elaborar predicciones verificables a nivel empírico y extraer indicaciones aplicables para estructurar adecuadamente la enseñanza de las habilidades motrices. En el presente trabajo se ilustran y discuten las principales líneas teóricas y didácticas de la teoría del esquema de Richard Schmidt. Los constructos innovadores, presentados desde el punto de vista teórico, son: el programa motor generalizado y el esquema motor, fundamentado en el procesamiento de informaciones relativas a condiciones iniciales, parámetros utilizados para la respuesta, feedback sensorial y resultados obtenidos. Partiendo de estos conceptos se dan indicaciones para aplicar en la práctica, entre otras, la comprensión del movimiento, la reconsideración de los errores y la importancia de la variabilidad de la práctica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A lo largo de la post-convertibilidad el esquema de los ganadores y perdedores entre los grandes grupos económicos 'pertenecientes al sector servicios, financiero, agro-industrial, industrial, petrolero-minero' se fue redefiniendo. Este trabajo de cuenta de tales cambios a partir de considerar los estudios sociales más importantes sobre el tema, que incluyen tanto el problema de la crisis de la convertibilidad como la nueva situación de los grandes grupos económicos y el Estado durante la post-convertibilidad. De esta manera es de suponer como necesario comenzar con una conceptualización de la crisis de la convertibilidad y sus consecuencias, para entender la situación y los problemas que debieron solucionar los grandes grupos económicos y el Estado a comienzos de la post-convertibilidad para impulsar un proceso de crecimiento económico sostenido. Así las dicotomías presentes entre los trabajos que priorizan, por un lado, la lucha entre fracciones, y, por otro, el peso de la crisis, nos servirá para dicho fin. En segundo lugar se analizaran los diferentes trabajos que explican, de diversas maneras, la nueva situación en que se encontraron -y se encuentran- las fracciones de la burguesía, y su relación con las funciones del Estado a lo largo de la post-convertibilidad. De aquí saldrán los principales insumos para pensar el rol del Estado -bajo un nuevo tipo de arbitraje- y las acciones de los grandes grupos económicos, ambos condicionados por la crisis de la convertibilidad y el mercado mundial. Con las conceptualizaciones aceptadas, se analizará la acción de los grandes grupos económicos y las funciones del Estado para un caso específico: los grandes grupos económicos de las empresas privatizadas y su relación con el nuevo tipo de arbitraje estatal en la post-convertibilidad, según dos periodos diferentes. Y, se redefinirá el esquema de ganadores y perdedores para tal caso, teniendo como elemento distintivo la relación de las empresas privatizadas y los subsidios

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la presente ponencia se analizará la tematización de la pena de muerte y el motivo del garrote vil en el guión de Rafael Azcona de la película 'El verdugo' (dir. Luis García Berlanga, 1963). Teniendo en cuenta el año del rodaje, se prestará especial atención a los distintos recursos de distanciamiento empleados ante un tema dramático y horroroso como lo es la pena capital. Se observarán las distintas representaciones del humor como modo de quiebre del dramatismo. 'El verdugo' como relato no sólo se trata de un alegato contra la pena de muerte. En tanto aparecen temáticas como la falta de libertad de los españoles de la época y la hipocresía social, se puede confirmar que la película trasciende lo humorístico para abordar diferentes motivos y críticas al gobierno franquista y a una sociedad española conservadora capaz de naturalizar costumbres, conductas y prácticas violentas. Rafael Azcona, presenta no sin sarcasmo, una sociedad hipócrita y conservadora, pendiente del aparentar y la opulencia. Estas críticas e ideas presentes en 'El verdugo' se desarrollan principalmente a partir de la figura retórica del contraste, vertebradora a su vez para el análisis del guión

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo surge en el marco de la labor que vengo desarrollando en el espacio del Curso Introductorio a las Carreras de Psicología de la Facultad de Psicología de la Universidad Nacional de La Plata, particularmente desde el año 2007 a la fecha. La propuesta toma como ejes centrales el abordaje del conocimiento psicológico desde una perspectiva histórica y el trabajo grupal como estrategia de enseñanza, aprendizaje y formación. La organización y desarrollo del curso conlleva la configuración de un dispositivo de formación que propicia el desarrollo profesional docente tanto de los Licenciados y/o Profesores en Psicología que asumen el rol de profesores como de los estudiantes avanzados de las carreras que se incorporan al mismo en calidad de ayudantes alumnos. Se considera que las instancias contempladas en ese dispositivo favorecen los procesos de reflexión sobre la experiencia, necesarios en la construcción del conocimiento profesional. Esto implica pensar que la profesionalización, en el caso del docente universitario, requiere no sólo la preparación en relación a los conocimientos disciplinares sino también la apropiación de conocimientos pedagógicos que le permitan analizar sus propias prácticas y mejorarlas. Entre las actividades contempladas para ello se proponen: encuentros sistemáticos del equipo docente, trabajo en colaboración entre profesores y ayudantes alumnos en torno a la planificación y desarrollo de la enseñanza, autoevaluación de las propias prácticas. Respecto a ésta última, cada año se solicita a cada integrante del equipo docente, que elabore una reflexión escrita, una narrativa en la que delimite los obstáculos enfrentados a la hora de asumir y desempeñar el rol docente, los modos de abordaje y/o superación de los mismos y la identificación de los aspectos facilitadores. Ello bajo el supuesto de que dicha actividad posibilita la presentación y representación narrada de la propia experiencia, permitiendo una toma de distancia que da lugar a la asunción de una posición más crítica, en un proceso de reconstrucción de las formas de actuar y ser en el aula. En esta oportunidad me centraré en la experiencia de tres docentes, con diferentes trayectorias en el marco del Curso Introductorio, focalizando en las narrativas que a modo de autoevaluación elaboraron tras el desarrollo del Curso 2011. La metodología corresponde al enfoque cualitativo e incorpora aspectos que hacen tanto a los diseños narrativos (recolección de experiencias para su análisis) como a la investigación-acción (resolución de problemas concretos y mejoramiento de las prácticas). La autoevaluación permite tomar distancia de la práctica para trabajar sobre ella. Dicha actividad da cuenta, por un lado de la capacidad de objetivar las acciones realizadas, focalizando en las posibilidades y limitaciones al tiempo que evidencia la posición asumida por el docente en relación a la misma (Palou de Maté, 1998). La posibilidad de volver sobre los episodios protagonizados en situación de enseñar, a partir de: una preocupación, una duda, la identificación con lo que le sucedió a un compañero, la elaboración de una respuesta a la consigna propuesta para la autoevaluación, abre a la posibilidad de que la propia práctica se constituya en objeto de reflexión. La problematización, tematización y significación producto de la objetivación de las propias prácticas, potenciadas en el espacio de trabajo grupal, promueven la articulación e integración de saberes y por ende el desarrollo profesional docente

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta Tesis Doctoral se aborda la utilización de filtros de difusión no lineal para obtener imágenes constantes a trozos como paso previo al proceso de segmentación. En una primera parte se propone un formulación intrínseca para la ecuación de difusión no lineal que proporcione las condiciones de diseño necesarias sobre los filtros de difusión. A partir del marco teórico propuesto, se proporciona una nueva familia de difusividades; éstas son obtenidas a partir de técnicas de difusión no lineal relacionadas con los procesos de difusión regresivos. El objetivo es descomponer la imagen en regiones cerradas que sean homogéneas en sus niveles de grises sin contornos difusos. Asimismo, se prueba que la función de difusividad propuesta satisface las condiciones de un correcto planteamiento semi-discreto. Esto muestra que mediante el esquema semi-implícito habitualmente utilizado, realmente se hace un proceso de difusión no lineal directa, en lugar de difusión inversa, conectando con proceso de preservación de bordes. Bajo estas condiciones establecidas, se plantea un criterio de parada para el proceso de difusión, para obtener imágenes constantes a trozos con un bajo coste computacional. Una vez aplicado todo el proceso al caso unidimensional, se extienden los resultados teóricos, al caso de imágenes en 2D y 3D. Para el caso en 3D, se detalla el esquema numérico para el problema evolutivo no lineal, con condiciones de contorno Neumann homogéneas. Finalmente, se prueba el filtro propuesto para imágenes reales en 2D y 3D y se ilustran los resultados de la difusividad propuesta como método para obtener imágenes constantes a trozos. En el caso de imágenes 3D, se aborda la problemática del proceso previo a la segmentación del hígado, mediante imágenes reales provenientes de Tomografías Axiales Computarizadas (TAC). En ese caso, se obtienen resultados sobre la estimación de los parámetros de la función de difusividad propuesta. This Ph.D. Thesis deals with the case of using nonlinear diffusion filters to obtain piecewise constant images as a previous process for segmentation techniques. I have first shown an intrinsic formulation for the nonlinear diffusion equation to provide some design conditions on the diffusion filters. According to this theoretical framework, I have proposed a new family of diffusivities; they are obtained from nonlinear diffusion techniques and are related with backward diffusion. Their goal is to split the image in closed contours with a homogenized grey intensity inside and with no blurred edges. It has also proved that the proposed filters satisfy the well-posedness semi-discrete and full discrete scale-space requirements. This shows that by using semi-implicit schemes, a forward nonlinear diffusion equation is solved, instead of a backward nonlinear diffusion equation, connecting with an edgepreserving process. Under the conditions established for the diffusivity and using a stopping criterion I for the diffusion time, I have obtained piecewise constant images with a low computational effort. The whole process in the one-dimensional case is extended to the case where 2D and 3D theoretical results are applied to real images. For 3D, develops in detail the numerical scheme for nonlinear evolutionary problem with homogeneous Neumann boundary conditions. Finally, I have tested the proposed filter with real images for 2D and 3D and I have illustrated the effects of the proposed diffusivity function as a method to get piecewise constant images. For 3D I have developed a preprocess for liver segmentation with real images from CT (Computerized Tomography). In this case, I have obtained results on the estimation of the parameters of the given diffusivity function.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El peaje urbano ha demostrado ser una de las medidas más efectivas a la hora de promover un cambio en el reparto modal, como ha quedado demostrado en diversas ciudades como Londres o Estocolmo. Los efectos, no obstante, son muy diferentes según el esquema de peaje implantado, pudiendo incluso provocar efectos adversos en algunas zonas. En el contexto de las políticas de tarificación de carreteras, el peaje urbano debe ser tratado de forma diferente debido a sus características específicas. Las áreas urbanas y metropolitanas son las más afectadas por la congestión, y a su vez son dónde se realizan la mayor parte de los desplazamientos diarios, muy sensibles a la implantación de un peaje debido a su frecuencia. En este caso, se ha definido una metodología para analizar la implantación de un peaje urbano tipo cordón en la ciudad de Madrid. Para ello, se ha utilizado un modelo de transporte que comprende toda la región de Madrid, tanto la red viaria como la red de transporte público, lo cual permite analizar los efectos no sólo en el área de estudio sino en el conjunto de la región. Los resultados se han analizado en términos del cambio modal, tiempo de viaje y coste para los usuarios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se presentan las mejoras introducidas en un código de transporte de radiación acoplada a la hidrodinámica llamado ARWEN para el estudio de sistemas en el rango de física de alta densidad de energía (High Energy Density Physics). Los desarrollos introducidos se basan en las siguientes áreas: ít>,~ Ecuaciones de estado: se desarrolla una nueva metodología mediante la cual es posible ajustar los resultados de un modelo simple de ecuaciones de estado como QEOS a datos experimentales y resultados de AIMD. Esta metodología tiene carácter general para poder ser aplicada en gran cantidad de materuales de interés y amplia la flexibilidad de ajuste de los métodos de los que ha partido como base este trabajo. En segundo lugar, se ha desarrollado una librería para la gestión de tablas de datos de ecuaciones de estado que también incluye la gestión de tablas con datos de opacidades y de ionización. Esta nueva librería extiende las capacidades de la anterior al tener llamadas más específicas que aceleran los cálculos, y posibilidad de uso de varias tablas a la vez. Solver de difusión: se ha desarrollado un nuevo paquete para resolver la ecuación de difusión que se aplicará a la conducción de calor dentro del plasma. El método anterior no podía ser ejecutado en paralelo y producía resultados dependientes de la resolución de la malla, mientras que este método es paralelizable y además obtiene una solución con mejor convergencia, lo que supone una solución que no depende del refinamiento del mallado. Revisión del paquete de radiación: en primer lugar se ha realizado una revisión de la implementación del modelo de radiación descubriendo varios errores que han sido depurados. También se ha incluido la nueva librería de gestión de tablas de opacidades que permiten la obtención de las propiedades ópticas del plasma en multigrupos de energía. Por otra parte se ha extendido el cálculo de los coeficientes de transporte al esquema multimaterial que ha introducido David Portillo García en el paquete hidrodinámico del código de simulación. Por último se ha revisado el esquema de resolución del transporte y se ha modificado para hacerlo paralelizable. • Se ha implementado un paquete de trazado de rayos para deposición láser que extiende la utilidad del anterior al ser en 3D y poder utilizar entonces diferentes configuraciones. • Una vez realizadas todas estas tareas se ha aplicado el código ARWEN al estudio de la astrofísica de laboratorio simulando los experimentos llevados a cabo en la instalación PALS por Chantal Stehlé acerca de ondas de choque radiativas. Se han comparado los resultados experimentales frente a las predicciones del código ARWEN obteniéndose una gran concordancia en la velocidad de la onda de choque generada y en las dimensiones del precursor. El código de simulación sobre el que se ha trabajado, junto con los desarrollos aportados por otros investigadores durante la realización de esta tesis, ha permitido participar en colaboraciones con laboratorios de Francia o Japón y se han producido resultados científicos publicados basados en el trabajo descrito en esta tesis. ABSTRACT Improvements in radiation hydrodynamic code ARWEN for the study of systems in the range of physics high energy density (High Energy Density Physics) are presented. The developments introduced are based on the following áreas: • Equations of state: a new methodology was developed to adjust the results of a simple Equation of State model like QEOS to experimental data and results of AIMD. This methodology can be applied to a large amount of materials and it increases the flexibility and range of the previous methods used as basis for this work. Also a new computer library has been developed to manage data tables of thermodynamic properties as well as includes the management of opacity and ionization data tables. This new library extends the capabilities of the previous one with more specific routines, and the possibility of using múltiple tables for several materials. • Diffusion solver: a new package has been developed to solve the diffusion equation applied to the heat conduction of the plasma. The previous method is not parallelizable and it produced mesh dependent results, while this new package can be executed in parallel and achieves a more converged solution that does not depend on the refinement of the mesh. • Radiation package: the check of the radiation model rose several bugs in the implementation that had been removed. The new computer library for EOS managing includes capabilities to store opacity tables for multigroups of energy. Moreover the transport coefficients calculations have been extended for the new multimaterial hydrodynamic package developed by David Portillo García. Also the solving methodology for the transport equation has been modified to make the code run in parallel. • A new ray tracing package has been introduced to extend the previous one to 3D. Once all these tasks has been implemented, the ARWEN code has been applied to study laboratory astrophysics systems. Simulations have been done in order to reproduce the results of the experiments carried out in PALS facility by Chantal Stehlé in radiative shock production. Experimental results are in cióse agreement to the ARWEN estimations of the speed of the shock wave and the length of the precursor. The simulation code used in this thesis, including the work done in ARWEN by other colleagues at the time of this research, allowed the collaboration with other research institution in France and Japan and some of the results presented in this thesis have been published in scientific journals.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El esquema actual que existe en el ámbito de la normalización y el diseño de nuevos estándares de codificación dedeo se está convirtiendo en una tarea difícil de satisfacer la evolución y dinamismo de la comunidad de codificación dedeo. El problema estaba centrado principalmente en poder explotar todas las características y similitudes entre los diferentes códecs y estándares de codificación. Esto ha obligado a tener que rediseñar algunas partes comunes a varios estándares de codificación. Este problema originó la aparición de una nueva iniciativa de normalización dentro del comité ISO/IEC MPEG, llamado Reconfigurable Video Coding (RVC). Su principal idea era desarrollar un estándar de codificación dedeo que actualizase e incrementase progresivamente una biblioteca de los componentes, aportando flexibilidad y la capacidad de tener un código reconfigurable mediante el uso de un nuevo lenguaje orientado a flujo de Actores/datos denominado CAL. Este lenguaje se usa para la especificación de la biblioteca estándar y para la creación de instancias del modelo del decodificador. Más tarde, se desarrolló un nuevo estándar de codificación dedeo denominado High Efficiency Video Coding (HEVC), que actualmente se encuentra en continuo proceso de actualización y desarrollo, que mejorase la eficiencia y compresión de la codificación dedeo. Obviamente se ha desarrollado una visión de HEVC empleando la metodología de RVC. En este PFC, se emplean diferentes implementaciones de estándares empleando RVC. Por ejemplo mediante los decodificadores Mpeg 4 Part 2 SP y Mpeg 4 Part 10 CBP y PHP así como del nuevo estándar de codificación HEVC, resaltando las características y utilidad de cada uno de ellos. En RVC los algoritmos se describen mediante una clase de actores que intercambian flujos de datos (tokens) para realizar diferentes acciones. El objetivo de este proyecto es desarrollar un programa que, partiendo de los decodificadores anteriormente mencionados, una serie de secuencia dedeo en diferentes formatos de compresión y una distribución estándar de los actores (para cada uno de los decodificadores), sea capaz de generar diferentes distribuciones de los actores del decodificador sobre uno o varios procesadores del sistema sobre el que se ejecuta, para conseguir la mayor eficiencia en la codificación del vídeo. La finalidad del programa desarrollado en este proyecto es la de facilitar la realización de las distribuciones de los actores sobre los núcleos del sistema, y obtener las mejores configuraciones posibles de una manera automática y eficiente. ABSTRACT. The current scheme that exists in the field of standardization and the design of new video coding standards is becoming a difficult task to meet the evolving and dynamic community of video encoding. The problem was centered mainly in order to exploit all the features and similarities between different codecs and encoding standards. This has forced redesigning some parts common to several coding standards. This problem led to the emergence of a new initiative for standardization within the ISO / IEC MPEG committee, called Reconfigurable Video Coding (RVC). His main idea was to develop a video coding standard and gradually incrementase to update a library of components, providing flexibility and the ability to have a reconfigurable code using a new flow -oriented language Actors / data called CAL. This language is used for the specification of the standard library and to the instantiation model decoder. Later, a new video coding standard called High Efficiency Video Coding (HEVC), which currently is in continuous process of updating and development, which would improve the compression efficiency and video coding is developed. Obviously has developed a vision of using the methodology HEVC RVC. In this PFC, different implementations using RVC standard are used. For example, using decoders MPEG 4 Part 2 SP and MPEG 4 Part 10 CBP and PHP and the new coding standard HEVC, highlighting the features and usefulness of each. In RVC, the algorithms are described by a class of actors that exchange streams of data (tokens) to perform different actions. The objective of this project is to develop a program that, based on the aforementioned decoders, a series of video stream in different compression formats and a standard distribution of actors (for each of the decoders), is capable of generating different distributions decoder actors on one or more processors of the system on which it runs, to achieve greater efficiency in video coding. The purpose of the program developed in this project is to facilitate the realization of the distributions of the actors on the cores of the system, and get the best possible settings automatically and efficiently.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este artículo se presenta el modelado y análisis de un sistema de teloperación bilateral no lineal de n grados de libertad controlado por convergencia de estado. Se considera que el operador humano aplica una fuerza constante sobre el manipulador local mientras realiza la tarea. Además, la interacción entre el manipulador remoto y el entorno se considera pasiva. La comunicación entre el sitio local y remoto se realiza mediante un canal de comunicación con retardo de tiempo. El análisis presentado en este artículo considerada que éste es variable. En este artículo también se demuestra la estabilidad del sistema utilizando la teoría de Lyapunov-Krasovskii demostrándose que el esquema de control por convergencia de estado para el caso con retardo de tiempo variable asegura la estabilidad del sistema de teleoperación no lineal. También se muestra experimentalmente que, para el caso de protocolos de comunicación fiables, el esquema propuesto garantiza que se logra la coordinación posición local-remoto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo propone un procedimiento a través del cual un razonador evalúa la información de una base de datos y la clasifica de forma automática en conceptos, relaciones, roles y atributos. Esta clasificación se desarrolla mediante un procedimiento dividido en dos métodos: primero, un Algoritmo de migración el cual genera una ontología con los elementos del esquema relacional de la base de datos. El segundo método es la Estrategia de clasificación de la información, esta consiste en una serie de consultas SPARQL mediante las que se clasifica la información de la base de datos.---ABSTRACT---This paper proposes a method by which a reasoner evaluates information from a database and automatically classifies in concepts, relationships, roles and attributes. This classification is developed through a procedure divided into two methods: first, a migration algorithm which generates an ontology with elements of relational schema database. The second method is the strategy classification of information, this is a series of SPARQL queries through that classified using the information the database.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo fin de grado versa sobre el diseño y simulación del elemento radiante de una antena impresa con polarización circular, operativa en la banda Ka de frecuencias (18 – 31 GHz) para un sistema de comunicaciones entre aviones y satélites. Su principal característica es que la antena está formada por placas de circuito impreso apiladas. En las placas superiores se sitúan los elementos radiantes, mientras que en las capas internas se diseñan las líneas de transmisión, que forman la alimentación del array. Como elementos radiantes se ha recurrido a la tecnología de parches apilados, para conseguir un ancho de banda relativamente alto en una estructura multicapa de dieléctricos plásticos. Para excitarlos se han desarrollado dos tipos de red de alimentación, para comprobar con cuál se obtiene una mejor respuesta. Los tipos que se usan son: mediante sonda coaxial y por línea de transmisión, concretamente stripline. Respecto a la polarización circular del elemento (en tecnología stripline), se desarrolla una red de polarización haciendo uso de una doble alimentación y un híbrido 90º. Entre los elementos de este tipo de estructuras se produce un fuerte acoplo. Para reducir el efecto de este acoplo, se realiza un análisis optimizando el diseño

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se describe someramente el procedimiento de colocación por fondeo de una tubería de polietileno en un emisario submarino. El problema estructural se plantea en grandes movimientos pero con material elástico y deformaciones pequeñas. Se estudian las distintas acciones actuales: peso propio, inundación del tubo, oleaje, corriente marina, tiro de arrastre y modificaciones del esquema estructural. Algunas de las acciones anteriores son de persecución (follower forces) y por lo tanto, generalmente no son conservativas. Por otra parte, se establecen las pertinentes condiciones de contorno, algunas no lineales con carácter unilateral como es la representada por la existencia del fondo marino. Se determinan los esfuerzos y movimientos en las distintas etapas de un proceso de inmersión del emisario, desde su posición inicial de flotación hasta su colocación en el fondo del mar. El modelo presentado se aplica al estudio de unos casos simples de colocación del emisario en el lecho marino.