976 resultados para control software
Resumo:
La presente investigación muestra los pasos sugeridos para introducirse a la creación de sistemas electrónicos programables a través de la tecnología FPGA. Un FPGA es un dispositivo programable de alta capacidad que puede ser utilizado para la creación de sistemas digitales de control y automatización de procesos. La investigación se divide en cuatro capítulos estructurados de la siguiente forma: Capítulo I- Teoría general: Abarca las características básicas de los FPGA en general y las del equipo a utilizar; Capítulo II-Software: Consta de un manual de usuario sobre el software utilizado en la investigación; Capítulo III-Laboratorios: Una serie de laboratorios prácticos; Capítulo IV- Aplicaciones: Metodología y ejemplo
Resumo:
Embedded software systems in vehicles are of rapidly increasing commercial importance for the automotive industry. Current systems employ a static run-time environment; due to the difficulty and cost involved in the development of dynamic systems in a high-integrity embedded control context. A dynamic system, referring to the system configuration, would greatly increase the flexibility of the offered functionality and enable customised software configuration for individual vehicles, adding customer value through plug-and-play capability, and increased quality due to its inherent ability to adjust to changes in hardware and software. We envisage an automotive system containing a variety of components, from a multitude of organizations, not necessarily known at development time. The system dynamically adapts its configuration to suit the run-time system constraints. This paper presents our vision for future automotive control systems that will be regarded in an EU research project, referred to as DySCAS (Dynamically Self-Configuring Automotive Systems). We propose a self-configuring vehicular control system architecture, with capabilities that include automatic discovery and inclusion of new devices, self-optimisation to best-use the processing, storage and communication resources available, self-diagnostics and ultimately self-healing. Such an architecture has benefits extending to reduced development and maintenance costs, improved passenger safety and comfort, and flexible owner customisation. Specifically, this paper addresses the following issues: The state of the art of embedded software systems in vehicles, emphasising the current limitations arising from fixed run-time configurations; and the benefits and challenges of dynamic configuration, giving rise to opportunities for self-healing, self-optimisation, and the automatic inclusion of users’ Consumer Electronic (CE) devices. Our proposal for a dynamically reconfigurable automotive software system platform is outlined and a typical use-case is presented as an example to exemplify the benefits of the envisioned dynamic capabilities.
Resumo:
In database applications, access control security layers are mostly developed from tools provided by vendors of database management systems and deployed in the same servers containing the data to be protected. This solution conveys several drawbacks. Among them we emphasize: 1) if policies are complex, their enforcement can lead to performance decay of database servers; 2) when modifications in the established policies implies modifications in the business logic (usually deployed at the client-side), there is no other possibility than modify the business logic in advance and, finally, 3) malicious users can issue CRUD expressions systematically against the DBMS expecting to identify any security gap. In order to overcome these drawbacks, in this paper we propose an access control stack characterized by: most of the mechanisms are deployed at the client-side; whenever security policies evolve, the security mechanisms are automatically updated at runtime and, finally, client-side applications do not handle CRUD expressions directly. We also present an implementation of the proposed stack to prove its feasibility. This paper presents a new approach to enforce access control in database applications, this way expecting to contribute positively to the state of the art in the field.
Resumo:
Requirements specification has long been recognized as critical activity in software development processes because of its impact on project risks when poorly performed. A large amount of studies addresses theoretical aspects, propositions of techniques, and recommended practices for Requirements Engineering (RE). To be successful, RE have to ensure that the specified requirements are complete and correct what means that all intents of the stakeholders in a given business context are covered by the requirements and that no unnecessary requirement was introduced. However, the accurate capture the business intents of the stakeholders remains a challenge and it is a major factor of software project failures. This master’s dissertation presents a novel method referred to as “Problem-Based SRS” aiming at improving the quality of the Software Requirements Specification (SRS) in the sense that the stated requirements provide suitable answers to real customer ́s businesses issues. In this approach, the knowledge about the software requirements is constructed from the knowledge about the customer ́s problems. Problem-Based SRS consists in an organization of activities and outcome objects through a process that contains five main steps. It aims at supporting the software requirements engineering team to systematically analyze the business context and specify the software requirements, taking also into account a first glance and vision of the software. The quality aspects of the specifications are evaluated using traceability techniques and axiomatic design principles. The cases studies conducted and presented in this document point out that the proposed method can contribute significantly to improve the software requirements specification.
Resumo:
In database applications, access control security layers are mostly developed from tools provided by vendors of database management systems and deployed in the same servers containing the data to be protected. This solution conveys several drawbacks. Among them we emphasize: (1) if policies are complex, their enforcement can lead to performance decay of database servers; (2) when modifications in the established policies implies modifications in the business logic (usually deployed at the client-side), there is no other possibility than modify the business logic in advance and, finally, 3) malicious users can issue CRUD expressions systematically against the DBMS expecting to identify any security gap. In order to overcome these drawbacks, in this paper we propose an access control stack characterized by: most of the mechanisms are deployed at the client-side; whenever security policies evolve, the security mechanisms are automatically updated at runtime and, finally, client-side applications do not handle CRUD expressions directly. We also present an implementation of the proposed stack to prove its feasibility. This paper presents a new approach to enforce access control in database applications, this way expecting to contribute positively to the state of the art in the field.
Resumo:
El objetivo del TFG es ejectuar y documentar el proceso de actualizaci on de un sistema software real de car acter empresarial, perteneciente a la empresa dedicada a las transacciones de divisas Foreign Exchange Solutions SL. El sistema est a implementado en Python 2.7 usando el framework de desarrollo r apido de aplicaciones web Django que, comenzando por su versi on 1.3.1, terminar a al nal del proyecto en la versi on 1.4.10, lo que nos llevar a a tener que actualizar todas las librer as relacionadas, adem as de mejorar la calidad del c odigo e incluso cambiar la estructura del proyecto, prestando adem as especial atenci on a la pruebas unitarias y de regresi on para comprobar el correcto funcionamiento del sistema a lo largo del desarrollo. Todo esto con el n de conseguir las nuevas funcionalidades y caracter sticas que una versi on m as nueva nos ofrece, adem as de mejorar la calidad de la aplicaci on -aumentar la reutilizaci on del c odigo y reducir futuros errores gracias a un c odigo m as sencillo y legible-, aumentar el rendimiento, y obtener una buena cobertura de pruebas. Usaremos adem as la metodolog a agil Scrum, el SGBD PostgreSQL, adem as de otras herramientas como Solr, ElasticSearch, Redis, Celery o Mercurial para el control de versiones.
Resumo:
Object-oriented modeling is spreading in current simulation of wastewater treatments plants through the use of the individual components of the process and its relations to define the underlying dynamic equations. In this paper, we describe the use of the free-software OpenModelica simulation environment for the object-oriented modeling of an activated sludge process under feedback control. The performance of the controlled system was analyzed both under normal conditions and in the presence of disturbances. The object-oriented described approach represents a valuable tool in teaching provides a practical insight in wastewater process control field.
Resumo:
El presente trabajo empleó herramientas de hardware y software de licencia libre para el establecimiento de una estación base celular (BTS) de bajo costo y fácil implementación. Partiendo de conceptos técnicos que facilitan la instalación del sistema OpenBTS y empleando el hardware USRP N210 (Universal Software Radio Peripheral) permitieron desplegar una red análoga al estándar de telefonía móvil (GSM). Usando los teléfonos móviles como extensiones SIP (Session Initiation Protocol) desde Asterisk, logrando ejecutar llamadas entre los terminales, mensajes de texto (SMS), llamadas desde un terminal OpenBTS hacia otra operadora móvil, entre otros servicios.
Resumo:
Objetivos: Listar las variables imprescindibles en los cuadros de mando integrales para abarcar todas las áreas básicas de trabajo en una Unidad de Radiofarmacia hospitalaria, cuya adecuada gestión puede ser clave para optimizar los recursos disponibles. En segundo lugar, enumerar los beneficios que redundan en la práctica de trabajo diario tras su integración. Métodos: Revisión de la bibliografía publicada sobre cuadros de mando integrales, seleccionando las variables para que el radiofarmacéutico asuma un papel activo en la mejora de su área de trabajo. Se utilizan programas construídos en Microsoft Access para la gestión integral. Se administran en varios módulos toda la información desde la prescripción y citación de los pacientes (asignándoles un código) hasta que se les realiza la exploración. Se recogen también variables como: fecha y hora límites de tramitación de radiofármaco al proveedor; fecha prueba médica; gestión de eluciones de generadores y kits fríos; turnos de trabajo del personal; registro de incidencias tipificadas y de datos de recepción, marcaje, control de calidad y dispensación de cada radiofármaco (asegurando la trazabilidad); detección de desviaciones entre actividad calibrada y medida; la actividad dispensada y la disponible a tiempo real; gestión de eliminación de residuos radiactivos, de existencias y caducidades; fechas de próximas revisiones de equipos; archivado de PNT; sistemas conversores de unidades y registro de informes clínicos. Resultados: Los programas especializados gestionan la información que se maneja en la Unidad de Radiofarmacia, facilitando tomar decisiones coste-efectivas. Los parámetros analizados son: número de preparaciones elaboradas y actividad manejada; posibles incidencias en cualquiera de los procesos cotidianos; porcentaje de resolución satisfactoria sin que derive en falta de disponibilidad; correcta trazabilidad de los radiofármacos; porcentaje de controles de calidad satisfactorios; evolución en el consumo por tipo de radiofármaco, etc. La mejora en la gestión de pedidos asegura la presencia del radiofármaco necesario para cada exploración. Conclusiones: Estos nuevos cuadros de mando integrales son útiles para optimizar pedidos y radiofármacos, asegurar trazabilidad, gestionar inventario, informes clínicos, residuos radiactivos y para evaluar la eficiencia de la Unidad de radiofarmacia, permitiendo la integración de estos datos con otros softwares de gestión sanitaria. Esta metodología puede aplicarse en Centros Sanitarios de Atención Primaria para enfocar al personal en sus funciones asistenciales y operativas.
Resumo:
Trabajo realizado en la empresa CAF Power&Automation
Resumo:
Trabajo realizado en la empresa ULMA Embedded Solutions
Resumo:
For a long time, electronic data analysis has been associated with quantitative methods. However, Computer Assisted Qualitative Data Analysis Software (CAQDAS) are increasingly being developed. Although the CAQDAS has been there for decades, very few qualitative health researchers report using it. This may be due to the difficulties that one has to go through to master the software and the misconceptions that are associated with using CAQDAS. While the issue of mastering CAQDAS has received ample attention, little has been done to address the misconceptions associated with CAQDAS. In this paper, the author reflects on his experience of interacting with one of the popular CAQDAS (NVivo) in order to provide evidence-based implications of using the software. The key message is that unlike statistical software, the main function of CAQDAS is not to analyse data but rather to aid the analysis process, which the researcher must always remain in control of. In other words, researchers must equally know that no software can analyse qualitative data. CAQDAS are basically data management packages, which support the researcher during analysis.
Resumo:
En esta tesis se aborda la implementación de un sistema completo de visión activa, en el que se capturan y generan imágenes de resolución espacial variable. Todo el sistema se integra en un sólo dispositivo del tipo AP SoC (All Programmable System on Chip), lo que nos permite llevar a cabo el codiseño hardware-software del mismo, implementando en la parte lógica los bloques de preprocesado intensivo, y en la parte software los algoritmos de procesado de control más complejo. El objetivo es que, trabajando con un campo visual del orden de Megapíxeles, se pueda procesar una tasa moderada de imágenes por segundo. Las imágenes multiresolución se generan a partir de sensores de resolución uniforme con una latencia nula, lo que permite tener preparada la imagen de resolución variable en el mismo instante en que se ha terminado de capturar la imagen original. Como innovación con respecto a las primeras contribuciones relacionadas con esta Tesis, se procesan imágenes con toda la información de color. Esto implica la necesidad de diseñar conversores entre espacios de color distintos, para adecuar la información al tipo de procesado que se va a realizar con ella. Estos bloques se integran sin alterar la latencia de entrega de los sucesivos fotogramas. El procesamiento de estas imágenes multirresolución genera un mapa de saliencia que permite mover la fóvea hacía la región considerada como más relevante en la escena. El contenido de la imagen se estructura en una jerarquía de niveles de abstracción. A diferencia de otras arquitecturas de este tipo, como son la pirámide regular y el polígono foveal, en las que se trabaja con imágenes de resolución uniforme en los distintos niveles de la jerarquía, la pirámide irregular foveal que se propone en esta tesis combina las ideas de trabajar con una imagen realmente multirresolución, que incluya el campo de visión completo que abarcan sensor y óptica, con el procesamiento jerárquico propio de las pirámides irregulares. Para ello en esta tesis se propone la implementación de un algoritmo de diezmado irregular que, tomando como base la imagen multirresolución, dará como resultado una estructura piramidal donde los distintos niveles no son imágenes sino grafos orientados a la resolución del problema de segmentación y estimación de saliencia. Todo el sistema se integra en torno a la arquitectura de bus AXI, que permite conectar entre si todos los cores desarrollados en la parte lógica, así como el acceso a la memoria compartida con los algoritmos implementados en la parte software. Esto es posible gracias a los bloques de acceso directo a memoria AXI-VDMA, en una propuesta de configuración que permite tanto la integración perfectamente coordinada de la transferencia de la imagen multirresolución generada a la zona de trabajo del algoritmo de segmentación como su recuperación para la posterior visualización del resultado del proceso, y todo ello con una tasa de trabajo que mejora los resultados de plataformas similares.
Resumo:
En el año de 1993 se implementó el “SICGE” (Sistema Integrado de Contabilidad Gubernamental del Estado) en 8 ministerios del Gobierno Central como un plan piloto, posteriormente se fueron incorporando las entidades autónomas y hospitales. Finalmente para el año 2000, el Ministerio de Hacienda, a través de la Dirección General de Contabilidad Gubernamental, instala este sistema contable computarizado inicialmente en 50 alcaldías, con la finalidad de que en un corto plazo se encuentren incorporadas la totalidad de municipalidades del país. Al finalizar el año 2004, las 262 alcaldías municipales contaban con el sistema contable citado anteriormente. En tal sentido y de acuerdo a la implementación del sistema de contabilidad gubernamental, se estandariza en las alcaldías el registro y control de los hechos económicos los cuales quedan reflejados en sus Estados Financieros definiendo en ellos todos sus recursos financieros y físicos que poseen y tomando en consideración el incremento de sus actividades ha surgido la necesidad de presentar una información financiera razonable; que sea útil para la toma de decisiones. Los bienes depreciables y no depreciables como parte de los recursos físicos que posee la municipalidad, y como un rubro importante dentro de los Estados Financieros, deberán ser controlados y registrados en las municipalidades a través de manuales de políticas y procedimientos, elaborados en base a las normas técnicas de control interno de cada municipalidad, en concordancia con la normas específicas de contabilidad Gubernamental ( emitidas por la Dirección General de Contabilidad Gubernamental). Precisamente esto motivó a realizar una propuesta en la que se pueda aportar una mejora a los controles ya existente sobre los bienes institucionales que poseen las municipalidades, siendo esto posible a través del diseño de un módulo para el control y registro de los bienes depreciables y no depreciables, permitiendo una integración con el software contable utilizado por las municipalidades. El método utilizado para el desarrollo del trabajo fue el hipotético deductivo, realizando la investigación bibliográfica y la de campo. La investigación se realizó con el total de la población de veintidós alcaldías municipales del departamento de la Libertad. De acuerdo a los resultados obtenidos durante la presente investigación se puede afirmar que un alto porcentaje de las municipalidades no cuentan con una persona que se encargue de la custodia de los bienes instituciones, por lo que al departamento de contabilidad se le ha delegado esta función. Las municipalidades del departamento de La Libertad en su mayoría no cuentan con políticas y procedimientos para el manejo y control de los bienes depreciables y no depreciables. Los resultados del estudio demuestran que un alto porcentaje de municipalidades considera necesario contar con un módulo automatizado que registre y controle los bienes instituciones, sin embargo la mayoría de ellas no cuentan con un software. Como resultado de la investigación se propone la creación de un módulo automatizado de control y registro de los bienes depreciables y no depreciables, el cual se encuentra relacionado con las políticas y procedimientos, que faciliten el control los bienes.La Dirección General de Contabilidad Gubernamental debe elaborar una norma específica que establezca lineamientos para un adecuado registro y presentación de las revaluaciones de los bienes institucionales.
Resumo:
El incremento permanente de las expectativas y necesidades relacionada con la informática, al igual que la actualización continua de los elementos que componen la tecnología de este campo, obliga a las entidades que la aplican a contar con controles, políticas y procedimientos que aseguren a la alta dirección que los recursos humanos, materiales y financieros involucrados, son protegidos adecuadamente y que se orienten a la rentabilidad y competitividad del negocio. La tecnología de informática, traducida en hardware, software, sistemas de información, investigación tecnológica, redes locales, bases de datos, ingeniería de software, telecomunicaciones, servicios y organización de informática es una herramienta estratégica que brinda rentabilidad y ventaja competitiva a los negocios frente a sus similares en el mercado; pero puede originar costos y desventajas competitivas si no es bien administrada y dirigida por el personal encargado. El desarrollo acelerado de la tecnología de computación y la significativa expansión del uso de computadoras para realizar tareas contables, han aumentado considerablemente la necesidad que tenemos de conocer con detalle los diversos sistemas de computación comúnmente en uso y los correspondientes procedimientos de control. Lo que resulta innegable es que la informática se convierte cada día en una herramienta permanente de los procesos principales de los negocios, en una fuerza estratégica, un aliado confiable y oportuno. Todo lo anterior es posible tenerlo en la empresa si se implantan controles y esquemas de seguridad requeridos para su aprovechamiento óptimo. Los contadores públicos en nuestro medio carecen de una guía práctica para la evaluación del control interno en informática que conlleve al desarrollo de la auditoria en forma eficiente, oportuna y profesional. La respuesta siempre ha existido: mediante evaluaciones oportunas y completas de dicha función por personal calificado (o sea, consultores externos, auditores en informática), o evaluaciones periódicas por el mismo personal de informática entre otras estrategias. El objetivo principal de la guía práctica para la evaluación del control interno en la auditoría en informática es el de brindar al auditor una idea de los aspectos de control que podrá encontrar en los diversos sistemas electrónicos de procesamiento de datos actualmente en uso. El trabajo está orientado a proporcionar una metodología específica para que sirva de guía al profesional de la contaduría pública en el desarrollo y diseño de la evaluación del control interno para auditoría de informática, así como para la captación de información en forma lógica, ordenada y comprensible para facilitar su uso posterior al Recomendar políticas y procedimientos que aseguren la calidad y eficiencia en cada una de las funciones de informática, así como los productos y servicios de esta área.