1000 resultados para Análisis de sistemas
Resumo:
En la educación especial para autistas el método principal de la comunicación se hace con imágenes que hacen posible la comunicación entre profesores y alumnos. El gran problema de un niño autista es la enfermedad que afecta la comunicación del niño. A partir del analisis del sistema de comunicación vigente - Las cifras del Sistema de Comunicación (PEC) – se detectaron algunas inconsistencias en los símbolos utilizados, como son la falta de informidad y usabilidad visual. Así, este trabajo parte de la propuesta de cambiar, renovando el sistema. Nos proponemos a la creación de un conjunto de símbolos uniforme, coherente y convincente. Una vez que, desde el punto de vista del diseño y la ilustración, consideramos como esencial para la enseñanza del autista un establecimiento de determinada calidad en las imágenes e ilustraciones utilizadas en este universo. La investigación se centrará en el campo de la ilustración y el producto se sentará en el intento de reformular el sistema de comunicaciones implementada hoy en día, con el objetivo principal de hacer la comunicación fácil e inmediata entre los niños autistas, los profesores, padres y amigos. Es decir, buscamos la eficacia de comunicación entre el autista y los que los rodean.
Resumo:
La cromatogafía líquida de alta perfomance (HPLC) se ha transformado en una de las herramientas analíticas preferidas en el ámbito académico, tecnológico e industrial. Aunque la técnica data de fin de la década del ´60, no ha sido hasta mediado de los años '70 que la misma ganó popularidad, fundamentalmente por los avances logrados en la reproducibilidad de la fabricación de fases estacionarias, mejores bombas de alta presión y el desarrollo de detectores más sensibles. La cromatografía líquida de alta performance es en la actualidad una técnica de gran utilidad en la química clínica y en la bioquímica. Esta técnica resulta muy útil para el análisis de compuestos a nivel de trazas dentro de las complejas matrices biológicas. El objetivo principal del presente proyecto es realizar investigaciones en el área de la Química Analítica, específicamente química bioanalítica, a fin de desarrollar metodologías y detectores electroquímicos altamente sensibles y selectivos para el análisis de compuestos de interés biológico mediante cromatografía líquida de alta presión. El proyecto comprende tres líneas íntimamente relacionadas: A) Análisis de metabolitos de catecolaminas por HPLC con apareamiento iónico, en orina de ratas cuyas madres han sido sometidas a estrés por inmovilización; esto permitirá correlacionar el efecto del estrés prenatal en los niveles de catecolaminas presentes en las crías. Esta línea está comprendida en un objetivo más amplio que es correlacionar el efecto del estrés prenatal sobre la madurez sexual de las crías. B) Análisis de antibióticos del grupo de las fluoroquinolonas mediante técnicas electroquímicas y de HPLC. Se pretenden elucidar los procesos de electrodo que ocurren durante la electrorreducción de antibióticos del grupo de las fluoroquinolonas, para de esta manera desarrollar detectores electroquímicos para sistemas de flujo continuo. C) Desarrollo de un micropotenciostato computarizado para la detección en sistemas de flujo continuo. (...) También se pretende implementar el uso de un microelectrodo anular desarrollado en la Comisión Nacional de Energía Atómica.
Resumo:
En años recientes se han producido en todo el mundo importantes reformas institucionales y organizativas de los grandes sistemas de interconexión eléctrica, introduciendo elementos económicos de mercado para la formación de precios de la energía eléctrica y para la remuneración de su transporte. Estas reformas hicieron que las empresas de energía eléctrica produjeran energía de mayor calidad y a menor precio, minimizando costos de operación y retrasando inversiones para la expansión las redes. El despacho de las plantas generadoras en la forma más económica es el modo más importante de reducir los costos; los estudios de estabilidad de tensión de sistemas que operan cercanos a los límites técnicos es el modo de optimizar la utilización de las redes y minimizar las inversiones. La planificación de la operación del Sistema Argentino de Interconexión (SADI), tiene como objetivo minimizar el valor esperado sobre las hidrologías del costo de operación más falla del parque generador. (...) El SADI posee un inusual despliegue geográfico de su trazado, con grandes centrales eléctricas muy alejadas de los principales centros de consumo. Esta característica, sumada al hecho del constante incremento de la potencia transmitida, hace que sea susceptible a sufrir fallas tales como el colapso de las áreas más comprometidas o del sistema completo (black-out). El estudio de las posibles condiciones de colapso de tensión es la forma más adecuada de prevenir este tipo de evento que originarían cuantiosas pérdidas para las empresas de energía y para la industria nacional. El objetivo del presente proyecto es indagar en la aplicación de técnicas: a) De optimización evolutiva para resolver el problema del DE del SADI, comparándolas con los desarrollos actualmente utilizados. b) Para el diagnóstico de un posible colapso de tensión en el sistema y las medidas a aplicar para que tal evento no se produzca.
Resumo:
Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.
Resumo:
Investigación producida a partir de una estancia en el Instituto de Investigación en Ingeniería de Aragón (IIIA) de la Universidad de Zaragoza. Una de las principales dificultades a las que se enfrenta el personal médico en las unidades de cuidado crítico es la selección de los modos ventilatorios y la configuración de los parámetros de ventilación adecuados. La mayoría de los ventiladores disponibles en el mercado tienen un gran número de modos ventilatorios, con muy buenas prestaciones pero difíciles de configurar si no se cuenta con herramientas que tengan en cuenta las características antropométricas, fisiológicas, farmacológicas o patológicas propias de cada caso clínico. Determinar cual es el mejor modo ventilatorio para cada caso en determinada fase de la enfermedad, constituye un paso definitivo en el tratamiento clínico, puesto que la configuración apropiada de los parámetros de ventilación puede reducir el tiempo de conexión al ventilador y facilitar así la recuperación del paciente. El análisis del patrón respiratorio (muscular y ventilatorio), objetivo principal del trabajo realizado, permite identificar los parámetros más sensibles al estímulo respiratorio. Se analiza, diseña e implementa técnicas que permitan conocer mejor la respuesta del sistema de control respiratorio ante estímulos y patologías ventilatorias, mediante el tratamiento de señales biomédicas y simulación algorítmica del sistema respiratorio en situaciones particulares.
Resumo:
Una característica importante de la robótica es la comunicación entre sistema base y robot que puede establecerse de forma remota. Ello representa la base del proyecto que se describe a continuación, el cual se descompone de dos partes, una por cada miembro del proyecto: sistema software y sistema hardware. En el sistema software analizaremos las diferentes tecnologías inalámbricas (características, funcionamiento, seguridad, etc.), se realizará una comparativa de los diferentes módulos de comunicación y finalmente decidiremos aquellos que nos interesa para la implementación en Radiofrecuencia (RF) y Bluetooth. En este sistema también estudiaremos la interfaz gráfica que se utilizará, así como los programas creados en este entorno para realizar las implementaciones. En el sistema hardware trataremos de realizar el control de dos periféricos de forma independiente, un servomotor y un sonar, que nos servirán como ejemplo para analizar una posible comunicación entre varios robots y un PC. Por lo tanto, en este apartado analizaremos a fondo los diferentes componentes que harán posible tanto la comunicación, vía RF y Bluetooth, como el control de los diferentes dispositivos.
Resumo:
Una característica importante de la robótica es la comunicación entre sistema base y robot que puede establecerse de forma remota. Ello representa la base del proyecto que se describe a continuación, el cual se descompone de dos partes, una por cada miembro del proyecto: Sistema software y sistema hardware. En el sistema software analizaremos las diferentes tecnologías inalámbricas (características, funcionamiento, seguridad, etc.), se realizará una comparativa de los diferentes módulos de comunicación y finalmente decidiremos aquellos que nos interesa para la implementación en Radiofrecuencia (RF) y Bluetooth. En este sistema también estudiaremos la interfaz gráfica que se utilizará, así como los programas creados en este entorno para realizar las implementaciones. En el sistema hardware trataremos de realizar el control de dos periféricos de forma independiente, un servomotor y un sonar, que nos servirán como ejemplo para analizar una posible comunicación entre varios robots y un PC. Por lo tanto, en este apartado analizaremos a fondo los diferentes componentes que harán posible tanto la comunicación, vía RF y Bluetooth, como el control de los diferentes dispositivos.
Resumo:
En este proyecto se tiene como objetivo comparar una EDAR específica con otras tres, desde el punto de vista ambiental, y establecer diferentes alternativas. En particular, se ha evaluado la mejor alternativa en la obtención de energía eléctrica para la propia utilización de la planta de tratamiento de aguas residuales, a partir del biogás generado en el digestor en la línea de lodos. En este tipo de instalaciones, entre las alternativas tanto en su uso actual como en fase de desarrollo, el motor de cogeneración de electricidad y el calor es el más utilizado para obtener simultáneamente la electricidad necesaria para las instalaciones y el calor necesario para mantener el digestor de lodos a la temperatura de trabajo (36ºC aproximadamente). Las otras alternativas evaluadas en este estudio son las pilas de biogás de membrana electrolítica polimérica (en inglés Polymeric Electrolyte Membrane, PEM) y las pilas de óxidos sólidos (en inglés Solid Oxide Fuel Cells, SOFC) con una turbina de gas (sistema híbrido SOFC-GT). Por otro lado, se estudian las características de los materiales que componen los dispositivos MEC (microbial electrolysis cell) y las pilas PEM y SOFC, así como las ventajas e inconvenientes de usar estas nuevas tecnologías en el tratamiento de aguas residuales, así como la evaluación del impacto ambiental de la EDAR objeto de estudio, que se ha llevado a cabo utilizando el análisis de ciclo de vida (ACV). El ACV es una herramienta que permite comparar diferentes procesos o productos que tengan la misma función, y así evaluar la alternativa que conlleve una mejora en el medio ambiental. La metodología de ACV pretende evaluar en detalle el ciclo de vida completo de un producto o proceso. Un ACV se suele definir de tipo "cradle to grave" o "desde la cuna hasta la tumba" o bien de tipo "gate to gate", o "de puerta a puerta". En el primer caso el estudio analiza el ciclo de vida completo del sistema, dese el origen hasta el final, mientras que en el segundo caso el ACV no tiene en cuenta su disposición final (vertedero, reciclaje, etc.). Un estudio de ACV del primer tipo conlleva hacer un estudio muy detallado, que en la práctica puede resultar muy largo y laborioso por la dificultad de encontrar todos los datos necesarios. Por ello, muchos estudios de ACV que se encuentran en la literatura suelen ser del tipo "gate to gate". Además, hay que esablecer las fronteras del sistema a estudiar, ya que hay procesos que tienen muy poca contribución a las categorías de impacto ambiental. En una EDAR los principales procesos considerados en el ACV llevado a cabo son el consumo de productos químicos, de electricidad, la producción de lodos y su utilización como composta, el biogás y su utilización para producir electricidad, los residuos sólidos y las distintas emisiones al medio producidas por el propio funcionamiento de la EDAR. Las operaciones relacionadas indirectamente como el transporte de los lodos, de productos químicos, de los residuos sólidos y la infraestructura con una vida media de 30 años no influyen significativamente en los resultados, por ejemplo el transporte de los lodos con un camión a 30km contribuyen en menos de 1% en todas las categorías de impacto. De acuerdo con las normativas ISO series 14040 que regulan las pautas de un ACV, se establece una unidad funcional apropiada, o sea habitante equivalente, ya que es la más apropiada por tener en cuenta la carga contaminante en el agua a tratar, parámetro imprescindible para comparar EDARs. Redefiniendo las fronteras, se realiza un ACV del depósito del biogás sin tener en cuenta el resto de la instalación y se toma como unidad funcional m3 de biogás, en el caso concreto de obtener biogás mediante un dispositivo MEC, que maximiza la cantidad de hidrógeno en detrimento de la cantidad de metano contenido en el biogás, observándose que la contribución de un biogás con un alto contenido en hidrógeno y, por tanto bajo en metano, produce una mejora ambiental. Las categorías de impacto ambiental que tienen contribución son el calentamiento global y la oxidación fotoquímica; el dispositivo MEC hace quela contribución a estas categorías de impacto sea de un orden de magnitud inferior con respecto al biogás generado en un digestor. Además, si se produce la combustión del biogás, la única categoría de impacto que tiene contribución es la de calentamiento global; para una dispositivo MEC la contribución sigue siendo un orden de magnitud inferior con respecto al biogás de un digestor de lodos.
Resumo:
El rápido crecimiento del los sistemas multicore y los diversos enfoques que estos han tomado, permiten que procesos complejos que antes solo eran posibles de ejecutar en supercomputadores, hoy puedan ser ejecutados en soluciones de bajo coste también denominadas "hardware de comodidad". Dichas soluciones pueden ser implementadas usando los procesadores de mayor demanda en el mercado de consumo masivo (Intel y AMD). Al escalar dichas soluciones a requerimientos de cálculo científico se hace indispensable contar con métodos para medir el rendimiento que los mismos ofrecen y la manera como los mismos se comportan ante diferentes cargas de trabajo. Debido a la gran cantidad de tipos de cargas existentes en el mercado, e incluso dentro de la computación científica, se hace necesario establecer medidas "típicas" que puedan servir como soporte en los procesos de evaluación y adquisición de soluciones, teniendo un alto grado de certeza de funcionamiento. En la presente investigación se propone un enfoque práctico para dicha evaluación y se presentan los resultados de las pruebas ejecutadas sobre equipos de arquitecturas multicore AMD e Intel.
Resumo:
Para este trabajo se ha desarrollado un programa en Matlab, que nos permite realizar ensayos con algunas de las herramientas fundamentales del análisis técnico. Concretamente nos hemos centrado en el “Indicador de Movimiento Direccional” de Wilder. El programa está formado por seis funciones que permiten descargar datos, hacer la simulación del indicador, ajustar automáticamente algunos de sus parámetros y presentar los resultados obtenidos en la simulación. Con los experimentos y simulaciones realizadas se ha visto la importancia de escoger adecuadamente los períodos de ±DIs (indicadores direccionales positivo y negativo) y el ADX (Average Directional Movement Index). También hemos visto que la reglas decisión apuntadas por autores de reconocido prestigio como Cava y Ortiz ,no siempre se comportan como cabría esperar. Se propone mejorar el rendimiento y la fiabilidad de este indicador Incluyendo alguna media móvil de los precios y el volumen de contratación, en los criterios de decisión. También se podría mejorar implementando un sistema para que se pudiesen autoajustar los criterios de decisión.
Resumo:
El empleo generalizado de los modelos de ecuaciones estructurales ha llevado al planteamiento de distintas estrategias de trabajo en el ámbito de los diseños no experimentales. Es por ello que este tipo de análisis estadístico está relacionado en su propia configuración con aspectos de carácter estrictamente metodológico. Ello no es en sí mismo una novedad, puesto que técnicas como el Anova presentan esa misma configuración. Sin embargo, no puede pensarse en los sistemas de ecuaciones estructurales en los mismos términos que el resto de pruebas estadísticas. De ahí que en este articulo se pretenda efectuar un análisis de la técnica en cuestión desde una perspectiva teórica y empírica para mostrar algunos de los elementos criticos de este tipo de tratamiento de datos. Así se efectua una revisión del proceso de modelización estadística estructural, comentando la posibilidad de interpretación causal a partir de la estimación de parametros, su adecuación en diseños experimentales y, de forma general, una evaluación de los procedimientos de ajuste global de los datos obtenidos
Resumo:
Dentro del proceso de definición de las vías de participación en el PLAN DIRECTOR DE PARTICIPACIÓN CIUDADANA 2010-2015 del Ayuntamiento de Barcelona, se plantea la necesidad de fomentar mecanismos de participación directa y a, partir de esta necesidad, se plantea el desarrollo de una aplicación de Consultas Populares.Dentro de los procesos participativos, las consultas a realizar pueden ser vinculantes y por tanto resulta de la mayor importancia fundamentar su desarrollo garantizando la corrección formal de todo el proceso.Entre los requerimientos, especificados por en Instituto Municipal de Informática, el sistema de votación a plantear debe estar cubierto por alguna de las licencias consideradas libres o de código abierto. Una de las principales características de este tipo de aplicaciones es que resulta posible la utilización y modificación del código.Como primer paso se definen los conceptos básicos implicados comenzando con la del propio concepto de e-Voting. A partir de las experiencias previas realizadas en nuestro entorno geográfico, es posible establecer que los estándares más utilizados son los generados por el Consejo de Europa, qué utilizaremos para concretar las diferentes fases de un Proceso de Consulta, los actores implicados así como las diferentes funciones a de cada uno de ellos para cada una de las fases.Sobre esta base se analizan las diferentes alternativas existentes entre lo que se denominan Esquemas de Votación. Centrándonos en el escogido como más conveniente, el Esquema de Voto Oculto, se describen las características de seguridad que permiten dar validez a un proceso de consulta realizado por este medio. Así mismo se describen los principales conceptos teóricos implicados mediante una aproximación que permita su comprensión de forma intuitiva, especialmente en lo que se refiere a las técnicas criptográficas implicadas.En tercer lugar se ha realizado una búsqueda de posibles aplicaciones que sirvan de punto de partida y se han hecho pruebas comparativas para las cuales se han adaptado las herramientas correspondientes a QSOS, relacionando los estándares especificados por el Consejo Europeo y las características de seguridad que deben cumplirse.
Resumo:
En la propuesta de proyecto del IMI (Instituto Municipal de Informática) se fija como objetivo la definición, arquitectura y diseño de un sistema informático distribuido que permita la realización de consultas populares, garantizando la confidencialidad, seguridad, sincronía y posibilidad de acceso móvil.
Resumo:
Para este trabajo se ha desarrollado un programa en Matlab, que nos permite realizar ensayos con algunas de las herramientas fundamentales del análisis técnico. Concretamente nos hemos centrado en el “Indicador de Movimiento Direccional” de Wilder. El programa está formado por seis funciones que permiten descargar datos, hacer la simulación del indicador, ajustar automáticamente algunos de sus parámetros y presentar los resultados obtenidos en la simulación. Con los experimentos y simulaciones realizadas se ha visto la importancia de escoger adecuadamente los períodos de ±DIs (indicadores direccionales positivo y negativo) y el ADX (Average Directional Movement Index). También hemos visto que la reglas decisión apuntadas por autores de reconocido prestigio como Cava y Ortiz ,no siempre se comportan como cabría esperar. Se propone mejorar el rendimiento y la fiabilidad de este indicador Incluyendo alguna media móvil de los precios y el volumen de contratación, en los criterios de decisión. También se podría mejorar implementando un sistema para que se pudiesen autoajustar los criterios de decisión.
Resumo:
Tesis (Maestría en Ciencias de la Ingeniería con Especialidad en Control) UANL