14 resultados para Implementación

em Universidade Complutense de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bogotá, la capital de Colombia, es la ciudad con mayor población del país. Hacia el año 2014 la ciudad alcanza los 7.7 millones de habitantes que sumados a la población del área metropolitana, superan los 9 millones. Según el decreto ley 1421 de 19932, Bogotá está integrada por trece (13) sectores que se despliegan en tres niveles: a) nivel central: 16 entidades, b) nivel descentralizado: 31 entidades y c) nivel local: 20 localidades (Portel.bogota.gov.co, s.f). Desde el nivel central se lidera la formulación e instrumentación de las políticas públicas, en cuyo trazado convergen el cumplimiento el programa de gobierno del alcalde Mayor y el plan de desarrollo distrital, así como, procesos sociales que legitiman, desde lo local sus objetivos y metas. Sin embrago, la participación en diferentes proyectos de ciudad han nutrido mi experiencia profesional, pero sobre todo, han plantado interrogantes sobre los cuales he decido profundizar en el presente ejercicio académico, los cuales se citan a continuación: ¿Porqué, luego de intensivos y agotables ejercicios de formulación de políticas, en los cuales se integran múltiples intereses de la sociedad civil, el estado y el sector privado, en la etapa de implementación, los objetivos y metas no logran alcanzar los resultados esperados, como se deseó en el comienzo?. ¿Porqué, parecen insuficientes las capacidades institucionales que posee el distrito, para tramitar las políticas públicas que diseña, sobre todo en la fase de implementación, en la cual emergen la insatisfacción y el descreimiento social?...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En 1990, Chile recuperó la democracia, tras 16 años de dictadura militar, la pobreza alcanzaba a más de un tercio de la población. Los nuevos gobiernos democráticos debieron diseñar políticas innovadoras para superar la pobreza, aumentando el gasto social, pero manteniendo los equilibrios macroeconómicos. Para fortalecer la política social se creó una nueva institucionalidad: el Fondo Solidario de Inversión Social (FOSIS), encargado del desarrollo e implementación de programas para superar la pobreza de quienes quedaban marginados de las políticas sectoriales tradicionales. Usando la técnica del estudio de caso, este estudio describe y analiza la implementación de los programas sociales de FOSIS entre 1990 y 2000. Se usan datos primarios y secundarios. Los datos primarios corresponden a entrevistas a informantes clave por los cargos que ocupaban durante el periodo de estudio. Los datos secundarios corresponden a información de los diferentes organismos nacionales e internacionales vinculados al análisis de la política social. En el marco de lo expuesto, el presente estudio se propone conocer la política social desarrollada en Chile por el FOSIS en el periodo 1990-2010. A fin de realizar este propósito el estudio se plantea los siguientes objetivos específicos: 1.- Identificar los ciclos que ha seguido la política social implementada para superar la pobreza en el periodo de análisis, caracterizando sus énfasis e ideologías orientadoras. 2.- Describir los programas a través de los cuales se ha ejecutado la política pública destinada a la superación de la pobreza, visualizando su pertinencia para que la población usuaria logre cumplir los objetivos planteados. 3.- Analizar la implementación de los programas diseñados para la superación de la pobreza, caracterizando el proceso y los controles establecidos para velar que se cumpla con lo diseñado...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta memoria hacemos contribuciones dentro del campo de los lenguajes de bases de datos. Nos hemos propuesto tres objetivos fundamentales: 1. Mejorar la expresividad de los lenguajes de bases de datos actuales. 2. Desarrollar semánticas formales para nuestras propuestas de lenguajes de bases de datos extendidos. 3. Llevar a cabo la implementación de las semánticas anteriores en sistemas de bases de datos prácticos. Hemos conseguido estos tres objetivos en distintas áreas dentro de las bases de datos. Por un lado, en el campo de las bases de datos deductivas, proponemos HH:(C). Este lenguaje extiende las capacidades de los lenguajes de bases de datos deductivos con restricciones dado que permite consultas hipotéticas y cuanti cación universal. Por otro lado, utilizamos el estudio dentro de las bases de datos deductivas y lo aplicamos a las bases de datos relacionales. En concreto proponemos HR-SQL que incorpora consultas hipotéticas y de niciones recursivas no lineales y mutuamente recursivas. La idea tras esta propuesta es superar algunas limitaciones expresivas del lenguaje estándar de de nición de bases de datos SQL. A continuación introducimos ambas aproximaciones. Las fórmulas de Harrop hereditarias con restricciones, HH(C), se han usado como base para lenguajes de programación lógica con restricciones. Al igual que la programación lógica da soporte a lenguajes de bases de datos deductivas como Datalog (con restricciones), este marco se usa como base para un sistema de bases de datos deductivas que mejora la expresividad de los sistemas aparecidos hasta el momento. En el segundo capítulo de esta memoria se muestran los resultados teóricos que fundamentan el lenguaje HH:(C) y una implementación concreta de este esquema que demuestra la viabilidad y expresividad del esquema. Las principales aportaciones con respecto a Datalog son la incorporación de la implicación intuicionista, que permite formular hipótesis, y el uso de cuanti cadores incluso en el lenguaje de restricciones. El sistema está diseñado de forma que soporta diferentes sistemas de restricciones. La implementación incluye varios dominios concretos y también funciones de agregación y restricciones de integridad que son habituales en otros lenguajes de bases de datos relacionales. El signi cado del lenguaje se de ne mediante una semántica de pruebas y el mecanismo operacional se de ne mediante una sem ánica de punto jo que es correcta y completa con respecto a la primera. Para el cómputo de las consultas hipotéticas y de las funciones de agregación se hace uso de una noción de estrati cación más compleja que la que usa Datalog. La semántica de punto jo desarrollada constituye un marco apropiado que lleva a la implementación de un sistema concreto...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El consumo inapropiado de antifúngicos ha contribuido en años recientes al incremento global de la resistencia antifúngica y ha jugado un papel importante en los cambios epidemiológicos y en la etiología de las infecciones fúngicas. Además, el sobreuso de antifúngicos conlleva un riesgo de toxicidad asociada a los mismos y un muy significativo aumento en el gasto sanitario. Los programas de control del uso de antifúngicos consisten en intervenciones multidisciplinares, lideradas por especialistas en enfermedades infecciosas, microbiología clínica y farmacia, que establecen redes de cooperación y comunicación con los principales servicios prescriptores, con el fin de optimizar el tratamiento antifúngico y el manejo de las infecciones fúngicas invasivas. Sin embargo, la experiencia en el desarrollo de programas de optimización del uso de antifúngicos es muy limitada, pues la mayoría de los esfuerzos se han centrado en el control de los antibacterianos...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las Redes Definidas por Software (Software Defined Networking) permiten la monitorización y el control centralizado de la red, de forma que los administradores pueden tener una visión real y completa de la misma. El análisis y visualización de los diferentes parámetros obtenidos representan la forma más viable y práctica de programar la red en función de las necesidades del usuario. Por este motivo, en este proyecto se desarrolla una arquitectura modular cuyo objetivo es presentar en tiempo real la información que se monitoriza en una red SDN. En primera instancia, las diferentes métricas monitorizadas (error, retardo y tasa de datos) son almacenadas en una base de datos, para que en una etapa posterior se realice el análisis de dichas métricas. Finalmente, los resultados obtenidos, tanto de métricas en tiempo real como de los datos estadísticos, son presentados en una aplicación web. La información es obtenida a través de la interfaz REST que expone el controlador Floodlight y para el análisis de la información se plantea una comparación entre los valores medios y máximos del conjunto de datos. Los resultados obtenidos muestran gráficamente de forma clara y precisa las diferentes métricas de monitorización. Además, debido al carácter modular de la arquitectura, se ofrece un valor añadido a los sistemas actuales de monitorización SDN.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A lo largo de la historia, nuestro planeta ha atravesado numerosas y diferentes etapas. Sin embargo, desde finales del cretácico no se vivía un cambio tan rápido como el actual. Y a la cabeza del cambio, nosotros, el ser humano. De igual manera que somos la causa, debemos ser también la solución, y el análisis a gran escala de la tierra está siendo un punto de interés para la comunidad científica en los últimos años. Prueba de ello es que, cada vez con más frecuencia, se lanzan gran cantidad de satélites cuya finalidad es el análisis, mediante fotografías, de la superficie terrestre. Una de las técnicas más versátiles para este análisis es la toma de imágenes hiperespectrales, donde no solo se captura el espectro visible, sino numerosas longitudes de onda. Suponen, eso sí un reto tecnológico, pues los sensores consumen más energía y las imágenes más memoria, ambos recursos escasos en el espacio. Dado que el análisis se hace en tierra firme, es importante una transmisión de datos eficaz y rápida. Por ello creemos que la compresión en tiempo real mediante FPGAs es la solución idónea, combinando un bajo consumo con una alta tasa de compresión, posibilitando el análisis ininterrumpido del astro en el que vivimos. En este trabajo de fin de grado se ha realizado una implementación sobre FPGA, utilizando VHDL, del estándar CCSDS 123. Este está diseñado para la compresión sin pérdida de imágenes hiperespectrales, y permite una amplia gama de configuraciones para adaptarse de manera óptima a cualquier tipo de imagen. Se ha comprobado exitosamente la validez de la implementación comparando los resultados obtenidos con otras implementaciones (software) existentes. Las principales ventajas que presentamos aquí es que se posibilita la compresión en tiempo real, obteniendo además un rendimiento energético muy prometedor. Estos resultados mejoran notablemente los de una implementación software del algoritmo, y permitirán la compresión de las imágenes a bordo de los satélites que las toman.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesis intenta demostrar cómo implementando unas nociones básicas de dibujo en los programas de Formación Profesional del área de automoción, relacionados con el diseño de vehículos, los alumnos perciben una mejora objetiva en su visión espacial, compresión e interpretación gráfica, a la vez que experimentan un plus motivacional durante la jornada en la que se desarrolla la actividad. En origen se detectó que tanto los marcos legislativos como las programaciones específicas de formación profesional, carecían de contenidos propios relacionados con la didáctica del dibujo, pese a que se citan conceptos directamente relacionados con la interpretación y comprensión gráfica...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis doctoral tiene su origen en el proyecto educativo online y offline Arte Casellas que se inició con el propósito de solucionar dos necesidades. La primera, ofrecer a los alumnos de bachillerato una formación que les capacitase para superar la prueba específica de acceso a los Estudios Superiores de Grado de Diseño y la segunda la superación de paradigmas educativos obsoletos estimulando el espíritu de emprendimiento e independencia económica de los docentes. El citado proyecto contaba con una página web en la que se estaban aplicando los conceptos básicos de marca personal y marketing educativo y se había comenzando a implementar, entre otros productos, un curso online impartido por videoconferencia sincrónica con el que se estaba enseñando dibujo técnico y artístico, creatividad e historia del diseño. Este curso se convirtió en el estudio de caso de esta tesis doctoral...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Utilizar el Proyecto Emprededor de Aula como una fuente de aprendizaje y emprendimiento entre los jóvenes dentro del aula.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Metabolómica es una sub-área de la biología de sistemas que tiene como objetivo el estudio de las moléculas de pequeño tamaño (normalmente <1000 Da) llamadas metabolitos. Los metabolitos son el resultado de las reacciones químicas que concurren en una célula y que revelan información acerca del estado del organismo en el que se encuentran. La parte computacional de un análisis metabolómico comienza con la identifcación de los compuestos químicos (metabolitos) correspondientes con las masas obtenidas mediante espectrografía de masas, y se lleva a cabo mediante búsquedas manuales en múltiples bases de datos de metabolitos. El proceso de identificación requiere del análisis de cada una de las masas detectadas en el espectrómetro junto a datos que ofrece la espectrometría, como es la abundancia de cada una de las masas o los tiempos de retención. Este proceso es tedioso y consume una gran cantidad de tiempo del químico analítico, pues debe buscarse la información base de datos a base de datos e ir cruzando los datos de cada una de las búsquedas hasta obtener una lista de resultados formada por los metabolitos presentes en la muestra a analizar. El objetivo de este proyecto es desarrollar una herramienta web que simplifque y automatice la búsqueda e identifcación de metabolitos. Para ello se ha construido una herramienta capaz de integrar y buscar automáticamente información de los metabolitos en múltiples bases de datos metabolómicas. Esto ha requerido unifcar los compuestos entre las diferentes bases de datos cuando había sufciente información para asegurar que los compuestos provenientes de varias fuentes de datos eran realmente el mismo. Además, en este proceso de búsqueda se tiene en cuenta conocimiento sobre las reacciones químicas que pueden alterar la masa del metabolito registrada por el espectrómetro de masas, como la formación de aductos y multímeros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La diabetes mellitus tipo 1 (DM1) es una enfermedad crónica caracterizada por la incapacidad del páncreas de producir insulina. Esta hormona regula la absorción de la glucosa del torrente sanguíneo por parte de las células. Debido a la ausencia de insulina en el cuerpo, la glucosa se acumula en el torrente sanguíneo provocando problemas a corto y largo plazo, como por ejemplo deterioro celular. Los pacientes con esta enfermedad necesitan controlar su glucemia (concentración de glucosa en sangre) midiendo la misma de forma regular e inyectándose insulina subcutánea de por vida. Para conocer la glucemia se pueden utilizar Monitores Continuos de Glucosa (MCG), que proporcionan el valor de la glucosa intersticial en un rango entre uno y cinco minutos. Los MCG actuales presentan los siguientes problemas: Por un lado, el sensor que lleva incorporado introduce ruidos asociados a la medición obtenida. Y, por otro lado, el sensor se degrada a lo largo de su vida útil, lo que dificulta la interpretación de los datos obtenidos. La solución propuesta en este trabajo consiste en la utilización de filtros de partículas. Este tipo de filtros consta de cuatro fases: inicialización, predicción, corrección y remuestreo. Son capaces de identificar los estados ocultos del sistema (glucosa en sangre y degeneración del sensor), a partir de medidas indirectas del mismo (como por ejemplo la glucosa intersticial) teniendo en cuenta el ruido de las mediciones del MCG. En este proyecto se va a aplicar un filtro de partículas de cuatro estados (glucosa, velocidad de variación de la glucosa, degeneración del sensor y velocidad de variación de la degeneración del sensor.). En primera instancia, se utilizará la herramienta Matlab para analizar el correcto funcionamiento de este algoritmo frente a los problemas mencionados anteriormente de los MCG. Y, en segundo lugar, se realizará una implementación hardware sobre una FPGA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para entender nuestro proyecto, debemos comprender DEVS. Dentro de los formalismos más populares de representación de sistemas de eventos discretos se encuentra DES. En la década de los 70, el matemático Bernard Zeigler propuso un formalismo general para la representación de dichos sistemas. Este formalismo denominado DEVS (Discrete EVent System Specification) es el formalismo más general para el tratamiento de DES. DEVS permite representar todos aquellos sistemas cuyo comportamiento pueda describirse mediante una secuencia de eventos discretos. Estos eventos se caracterizan por un tiempo base en el que solo un número de eventos finitos puede ocurrir. DEVS Modelado y Simulación tiene múltiples implementaciones en varios lenguajes de programación como por ejemplo en Java, C# o C++. Pero surge la necesidad de implementar una plataforma distribuida estable para proporcionar la mecánica de interoperabilidad e integrar modelos DEVS diversificados. En este proyecto, se nos dará como código base el core de xDEVS en java, aplicado de forma secuencial y paralelizada. Nuestro trabajo será implementar el core de manera distribuida de tal forma que se pueda dividir un sistema DEVS en diversas máquinas. Para esto hemos utilizado sockets de java para hacer la transmisión de datos lo más eficiente posible. En un principio deberemos especificar el número de máquinas que se conectarán al servidor. Una vez estas se hayan conectado se les enviará el trabajo específico que deberán simular. Cabe destacar que hay dos formas de dividir un sistema DEVS las cuales están implementadas en nuestro proyecto. La primera es dividirlo en módulos atómicos los cuales son subsistemas indivisibles en un sistema DEVS. Y la segunda es dividir las funciones de todos los subsistemas en grupos y repartirlos entre las máquinas. En resumen el funcionamiento de nuestro sistema distribuido será comenzar ejecutando el trabajo asignado al primer cliente, una vez finalizado actualizará la información del servidor y este mandara la orden al siguiente y así sucesivamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Implementación de un framework para la inclusión de logros en ¡Acepta el Reto!” es un proyecto que tiene como objetivo la inclusión de un sistema de logros en ¡Acepta el reto! Los logros son reconocimientos, independientes de la funcionalidad de la web, dentro de ¡Acepta el reto!, que es una página web que propone ejercicios de programación y a su vez los compila y los ejecuta. La labor del framework desarrollado es vigilar las acciones que los usuarios van realizando en el portal para otorgarles los distintos logros implementados. Durante el diseño se ha prestado especial atención a la posibilidad de añadir nuevos logros tras el despliegue del sistema y a la eficiencia en el proceso de comprobación de los mismos. Para demostrar su efectividad, se han hecho pruebas de carga utilizando los datos de usuarios, envíos y ejercicios actuales de la web.