8 resultados para Salbuchi, Adrián

em Universidade Complutense de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una doctrina fundamental de la biología, la medicina, la fisiología o la farmacología es la relativa constancia del medio biológico interno (Homeostasis). Las variables homeostáticas no se mantienen a un nivel constante, sino dentro de un cierto intervalo de valores repetidos a intervalos regulares (Ritmos Biológicos); cuando dicho ciclo se cumple en un periodo de 24 h se denomina Ritmo Circadiano. Los sincronizadores que definen este ritmo son, entre otros, la alternancia luz-oscuridad o la rutina de sueño (descanso-actividad). La Cronobiología estudia los ritmos biológicos y sus mecanismos de cronometraje, determinando la influencia que los mismos pueden ejercer en los seres vivos. La Cronofarmacología, a su vez, estudia los efectos de los fármacos en función del ritmo circadiano (bien por alteraciones en su cinética: cronofarmacocinética; o en su dinamia: cronofarmacodinamia), determinando el período decisivo de su administración, para conseguir un aumento de su eficacia y/o disminución de sus efectos adversos. Estas alteraciones son, particularmente, importantes en aquellos grupos farmacológicos más críticos como los anestésicos, ya que existen diferencias en la capacidad anestesia dependientes de la hora del día en que se administran estos fármacos. El etomidato es un agente anestésico no barbitúrico de acción rápida, recomendado para la inducción anestésica en animales que presentan patologías que comprometen su estabilidad hemodinámica, ya que no provoca alteraciones severas en el sistema cardiovascular o en la presión intracraneal. Actúa facilitando la transmisión mediada por GABA, al interactuar con una zona alostérica del complejo receptor GABA – ionóforo Cl-...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los deslizamientos de ladera son un problema importante en la región de los valles interandinos de Bolivia. Este estudio analiza la susceptibilidad o predisposición al movimiento de ladera de los municipios de Guanay, Teoponte y Tipuani, situados en el departamento de La Paz, Bolivia. La metodología aplicada es la Analityc Hierarchy/Network Process, o método AHP. Tras su aplicación en un Sistema de Información Geográfica, este método, devuelve valores de susceptibilidad bastante fiables. Las conclusiones que se extraen de este análisis ponen de relieve la necesidad de realizar estudios de detalle en algunas zonas de los tres municipios al haber lugares con una Muy Alta y Alta susceptibilidad al movimiento de ladera, que, además, interfieren con zonas pobladas y con caminos y carreteras principales que son importantes para la articulación social de la región.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años hemos sido testigos de la expansión del paradigma big data a una velocidad vertiginosa. Los cambios en este campo, nos permiten ampliar las áreas a tratar; lo que a su vez implica una mayor complejidad de los sistemas software asociados a estas tareas, como sucede en sistemas de monitorización o en el Internet de las Cosas (Internet of Things). Asimismo, la necesidad de implementar programas cada vez robustos y eficientes, es decir, que permitan el cómputo de datos a mayor velocidad y de los se obtengan información relevante, ahorrando costes y tiempo, ha propiciado la necesidad cada vez mayor de herramientas que permitan evaluar estos programas. En este contexto, el presente proyecto se centra en extender la herramienta sscheck. Sscheck permite la generación de casos de prueba basados en propiedades de programas escritos en Spark y Spark Streaming. Estos lenguajes forman parte de un mismo marco de código abierto para la computación distribuida en clúster. Dado que las pruebas basadas en propiedades generan datos aleatorios, es difícil reproducir los problemas encontrados en una cierta sesion; por ello, la extensión se centrará en cargar y guardar casos de test en disco mediante el muestreo de datos desde colecciones mayores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los procesadores multicore asimétricos con repertorio común de instrucciones (AMPsAsymmetric Multicore Processors) han sido propuestos recientemente como alternativa de bajo consumo a los procesadores multicore simétricos convencionales. Los AMPs combinan, en un mismo chip, cores rápidos de alto rendimiento, con cores más lentos y sencillos de consumo reducido. Uno de los ejemplos más destacados de procesador multicore asimétrico es el procesador big.LITTLE de ARM, que incorporan algunos modelos de teléfonos móviles y tablets disponibles en la actualidad. Trabajos previos han demostrado que para explotar los beneficios potenciales de los procesadores multicore asimétricos, el sistema operativo debe tener en cuenta el beneficio relativo (speedup) que cada aplicación experimenta al ejecutar en un core rápido frente a un core lento. Actualmente, los planificadores por defecto de los sistemas operativos de propósito general no tienen en cuenta la diversidad de speedups entre aplicaciones que puede estar presente en una carga de trabajo multiprogramada. En consecuencia, la asignación de aplicaciones a cores que hacen estos planificadores no extrae el máximo rendimiento por vatio de la plataforma. Recientemente se han realizado extensiones en el kernel Linux para ofrecer un mejor soporte de planificación en multicore asimétricos. Sin embargo, estas extensiones del planificador, utilizadas fundamentalmente en dispositivos móviles con el sistema operativo Android, tampoco tienen en cuenta la diversidad de speedups en las aplicaciones de la carga de trabajo. Por lo tanto estas extensiones no constituyen una aproximación robusta desde el punto de vista de la eficiencia energética. En este proyecto se lleva a cabo la evaluación exhaustiva de distintos algoritmos de planificación para multicore asimétricos sobre una plataforma provista de un procesador ARM big.LITTLE. El principal objetivo del estudio es cuantificar el grado de eficiencia energética y el rendimiento global proporcionado por implementaciones de estos algoritmos en el kernel Linux sobre hardware multicore asimétrico real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Metabolómica es una sub-área de la biología de sistemas que tiene como objetivo el estudio de las moléculas de pequeño tamaño (normalmente <1000 Da) llamadas metabolitos. Los metabolitos son el resultado de las reacciones químicas que concurren en una célula y que revelan información acerca del estado del organismo en el que se encuentran. La parte computacional de un análisis metabolómico comienza con la identifcación de los compuestos químicos (metabolitos) correspondientes con las masas obtenidas mediante espectrografía de masas, y se lleva a cabo mediante búsquedas manuales en múltiples bases de datos de metabolitos. El proceso de identificación requiere del análisis de cada una de las masas detectadas en el espectrómetro junto a datos que ofrece la espectrometría, como es la abundancia de cada una de las masas o los tiempos de retención. Este proceso es tedioso y consume una gran cantidad de tiempo del químico analítico, pues debe buscarse la información base de datos a base de datos e ir cruzando los datos de cada una de las búsquedas hasta obtener una lista de resultados formada por los metabolitos presentes en la muestra a analizar. El objetivo de este proyecto es desarrollar una herramienta web que simplifque y automatice la búsqueda e identifcación de metabolitos. Para ello se ha construido una herramienta capaz de integrar y buscar automáticamente información de los metabolitos en múltiples bases de datos metabolómicas. Esto ha requerido unifcar los compuestos entre las diferentes bases de datos cuando había sufciente información para asegurar que los compuestos provenientes de varias fuentes de datos eran realmente el mismo. Además, en este proceso de búsqueda se tiene en cuenta conocimiento sobre las reacciones químicas que pueden alterar la masa del metabolito registrada por el espectrómetro de masas, como la formación de aductos y multímeros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoy en día la cantidad de información de la que el mundo dispone es inmensa y la gran mayoría está al alcance de un click gracias a las tecnologías de la información. Muchos de los recursos que existen en Internet están escritos a mano por personas y para personas, pero este hecho tiene muchas limitaciones, como el idioma, el contenido, las expresiones en la comunicación o la disposición de la información en el texto. Todos estos factores influyen en el lector permitiendo entender mejor o peor los conceptos, relaciones e ideas que se expresan. Un ejemplo de un recurso muy utilizado a día de hoy es Wikipedia, que cuenta con más de cinco millones de artículos en inglés y más de un millón en otros doce idiomas entre los cuales se encuentran el castellano, el francés y el alemán. Por otro lado, existen otros recursos que aportan información de otras formas más interesantes desde el punto de vista de la informática, como pueden ser ConceptNet o WordNet. Las ventajas que ofrecen este tipo de recursos son que no disponen de varios lenguajes, es decir el conocimiento está unificado en uno solo, no tienen estructura de texto y se puede automatizar más fácilmente la inserción de nueva información, lo que se traduce en un crecimiento más rápido del conocimiento. Este tipo de recursos son ideales para su uso en aplicaciones informáticas gracias a que no es necesario un proceso de extracción de información de la fuente. Sin embargo, este tipo de información no está pensada para la lectura por parte de un humano, ya que se enfrentaría a muchos datos de golpe y sin un orden lógico para la comprensión, además de carecer de la conjugación propia o traducción a un idioma concreto. Este trabajo tiene como objetivo principal partir de un recurso de información no legible ni manejable por humanos e ideado para el uso por computadoras, y dar lugar a una interpretación de esta información que permita la lectura y comprensión en lenguaje natural por personas. Podemos verlo como un trabajo que posibilita y facilita el entendimiento Máquina-Hombre. Para ello se hace uso de un sistema de generación de lenguaje natural, inteligencia artificial y de la creatividad computacional. Además, este trabajo forma parte de un proyecto mayor, del que hablaremos en la sección 2.5, en el que se generan nuevos conceptos a partir de otros. El papel que desempeña esta aplicación permite describir los nuevos conceptos generados y poder entenderlos. A la hora de abordar el problema de la generación de texto podemos encontrar varias formas de atacar la cuestión, y todas las soluciones se pueden considerar como válidas. Se implementarán sistemas de diferente complejidad y naturaleza, como generadores básicos de textos o generadores con planificación y otras soluciones comunes en este campo como el uso de plantillas y el estudio de las propiedades de los textos generados por los humanos. Por esta razón, en este trabajo se desarrollarán varios métodos y se valorarán según ciertos criterios como la claridad del texto, su organización, o si se ha hecho un buen uso de la gramática o la ortografía. Como objetivos secundarios de este proyecto podemos remarcar la generación de un servicio web que permita que esté disponible la aplicación para su uso, y aporte valor tanto al mundo de la investigación como al del conocimiento. También se valora la semejanza a los generados por humanos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con un enfoque novedoso, este libro recoge las originales aportaciones que un grupo de universitarios españoles han elaborado acerca de la Administración pública en España. El objetivo es transmitir conocimientos desde el ámbito académico a cualquier ciudadano, para alentar la reflexión con criterio nuestras administraciones, sus cambios y sus previsibles dinámicas. También se dirige especialmente al funcionario, que no deja de ser una parte representativa de la sociedad, como una oportunidad para repensar su propia labor y desempeño en los servicios que ofrecen, que garantizan el bienestar de toda la ciudadanía.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tema de esta memoria es La función formativa de la evaluación en un currículum integral. Después de experimentar un proceso de autoevaluación y autorreflexión en cuanto a la propia práctica docente, emergió un mayor interés por investigar acerca del uso, conceptualización y práctica de la evaluación y el currículum en el aula. Ante tal preocupación, se fueron añadiendo otros elementos que configuran la calidad y efectividad de dichas tareas educativas. Entre otros: las realidades contextuales del aula vinculadas con un verdadero aprendizaje; las políticas educativas institucionales y de sistemas de gobiernos; la implementación de procesos evaluativos; las creencias y percepciones de los alumnos y profesores acerca de la evaluación y el currículum; el enfoque racional y puesta en acción del proyecto curricular. Tanto la función de la evaluación del aprendizaje como de la racionalidad curricular que practican los profesores tienen un impacto significativo en la calidad de los procesos formativos de enseñanza-aprendizaje, así como en la motivación y desarrollo de valores de los discentes. La realidad educativa actual pone al manifiesto ciertas incongruencias que se manifiestan en el discurso y la práctica docente en el aula, más particularmente en lo que se relaciona con la construcción y aplicación del aprendizaje en la vida, la formación de valores universales, la aplicación adecuada de la función formativa para que asista al aprendizaje y práctica docente. La literatura revisada destaca que los sistemas universitarios han asignado tradicionalmente una mayor importancia a la función sumativa de la evaluación dentro de su proyecto educativo dando oportunidad a la medición del conocimiento memorizado, antes que a la misión de promover el aprendizaje. Desde una perspectiva racional positivista técnica, la evaluación del aprendizaje ha servido como instrumento calificador cuyos resultados constituyen el criterio casi único para aprobar o desaprobar alguna materia. La realidad del aula declara que la evaluación y el currículum con funciones técnico-científicas no están ejerciendo un impacto efectivo de transformación de procesos de desarrollo, que concurran en un verdadero aprendizaje...