1000 resultados para Sistema de medida de pH
Resumo:
En los hospitales y residencias geriátricas de hoy en día es necesario que tengan un sistema asistencial paciente-enfermera. Este sistema debe ser capaz de controlar y gestionar cada una de las alarmas que se puedan generar en el menor tiempo posible y con la mayor eficacia. Para ello se ha diseñado una solución completa llamada ConnectCare. La arquitectura modular del sistema y la utilización de comunicación IP permiten adaptar el sistema a cada situación proporcionando soluciones específicas a medida. Este sistema se compone de un software llamado Buslogic que gestiona las alarmas en un servidor y de unos dispositivos llamados Fonet Control TCP/IP que posee una doble función: por una parte, sirve como dispositivo intercomunicador telefónico y por otra parte, sirve como dispositivo de gestión de alarmas y control de otros dispositivos externos. Como dispositivo intercomunicador telefónico, se integra en la red telefónica como un terminal de extensión analógica permitiendo la intercomunicación entre el paciente y el personal sanitario. Se hará una breve descripción de la parte intercomunicadora pero no es el objeto de este proyecto. En cambio, en la parte de control se hará más hincapié del diseño y su funcionamiento ya que sí es el objeto de este proyecto. La placa de control permite la recepción de señales provenientes de dispositivos de llamadas cableados, como son pulsadores asistenciales tipo “pera” o tiradores de baño. También es posible recibir señales de alerta de dispositivos no estrictamente asistenciales como detectores de humo o detectores de presencia. Además, permite controlar las luces de las habitaciones de los residentes y actuar sobre otros dispositivos externos. A continuación se mostrará un presupuesto para tener una idea del coste que supone. El presupuesto se divide en dos partes, la primera corresponde en el diseño de la placa de control y la segunda corresponde a la fabricación en serie de la misma. Después hablaremos sobre las conclusiones que hemos sacado tras la realización de este proyecto y sobre las posibles mejoras, terminando con una demostración del funcionamiento del equipo en la vida real. ABSTRACT. Nowadays, in hospitals and nursing homes it is required to have a patient-nurse care system. This system must be able to control and manage each one of the alarms, in the shortest possible time and with maximum efficiency. For this, we have designed a complete solution called ConnectCare. The system architecture is modular and the communication is by IP protocol. This allows the system to adapt to each situation and providing specific solutions. This system is composed by a software, called Buslogic, which it manages the alarms in the PC server and a hardware, called Fonet Control TCP / IP, which it has a dual role: the first role, it is a telephone intercom device and second role, it is a system alarm manager and it can control some external devices. As telephone intercom device, it is integrated into the telephone network and also it is an analog extension terminal allowing intercommunication between the patient and the health personnel. A short description of this intercommunication system will be made, because it is not the subject of this project. Otherwise, the control system will be described with more emphasis on the design and operation point of view, because this is the subject of this project. The control board allows the reception of signals from wired devices, such as pushbutton handset or bathroom pullcord. It is also possible to receive warning signals of non nurse call devices such as smoke detectors or motion detectors. Moreover, it allows to control the lights of the patients’ rooms and to act on other external devices. Then, a budget will be showed. The budget is divided into two parts, the first one is related with the design of the control board and the second one corresponds to the serial production of it. Then, it is discussed the conclusions of this project and the possible improvements, ending with a demonstration of the equipment in real life.
Resumo:
El proyecto trata del desarrollo de un software para realizar el control de la medida de la distribución de intensidad luminosa en luminarias LED. En el trascurso del proyecto se expondrán fundamentos teóricos sobre fotometría básica, de los cuales se extraen las condiciones básicas para realizar dicha medida. Además se realiza una breve descripción del hardware utilizado en el desarrollo de la máquina, el cual se basa en una placa de desarrollo Arduino Mega 2560, que, gracias al paquete de Labview “LIFA” (Labview Interface For Arduino”), será posible utilizarla como tarjeta de adquisición de datos mediante la cual poder manejar tanto sensores como actuadores, para las tareas de control. El instrumento de medida utilizado en este proyecto es el BTS256 de la casa GigaHerzt-Optik, del cual se dispone de un kit de desarrollo tanto en lenguaje C++ como en Labview, haciendo posible programar aplicaciones basadas en este software para realizar cualquier tipo de adaptación a las necesidades del proyecto. El software está desarrollado en la plataforma Labview 2013, esto es gracias a que se dispone del kit de desarrollo del instrumento de medida, y del paquete LIFA. El objetivo global del proyecto es realizar la caracterización de luminarias LED, de forma que se obtengan medidas suficientes de la distribución de intensidad luminosa. Los datos se recogerán en un archivo fotométrico específico, siguiendo la normativa IESNA 2002 sobre formato de archivos fotométricos, que posteriormente será utilizado en la simulación y estudio de instalaciones reales de la luminaria. El sistema propuesto en este proyecto, es un sistema basado en fotometría tipo B, utilizando coordenadas VH, desarrollando un algoritmo de medida que la luminaria describa un ángulo de 180º en ambos ejes, con una resolución de 5º para el eje Vertical y 22.5º para el eje Horizontal, almacenando los datos en un array que será escrito en el formato exigido por la normativa. Una vez obtenidos los datos con el instrumento desarrollado, el fichero generado por la medida, es simulado con el software DIALux, obteniendo unas medidas de iluminación en la simulación que serán comparadas con las medidas reales, intentando reproducir en la simulación las condiciones reales de medida. ABSTRACT. The project involves the development of software for controlling the measurement of light intensity distribution in LEDs. In the course of the project theoretical foundations on basic photometry, of which the basic conditions for such action are extracted will be presented. Besides a brief description of the hardware used in the development of the machine, which is based on a Mega Arduino plate 2560 is made, that through the package Labview "LIFA" (Interface For Arduino Labview "), it is possible to use as data acquisition card by which to handle both sensors and actuators for control tasks. The instrument used in this project is the BTS256 of GigaHerzt-Optik house, which is available a development kit in both C ++ language as LabView, making it possible to program based on this software applications for any kind of adaptation to project needs. The software is developed in Labview 2013 platform, this is thanks to the availability of the SDK of the measuring instrument and the LIFA package. The overall objective of the project is the characterization of LED lights, so that sufficient measures the light intensity distribution are obtained. Data will be collected on a specific photometric file, following the rules IESNA 2002 on photometric format files, which will then be used in the simulation and study of actual installations of the luminaire. The proposed in this project is a system based on photometry type B system using VH coordinates, developing an algorithm as the fixture describe an angle of 180 ° in both axes, with a resolution of 5 ° to the vertical axis and 22.5º for the Horizontal axis, storing data in an array to be written in the format required by the regulations. After obtaining the data with the instrument developed, the file generated by the measure, is simulated with DIALux software, obtaining measures of lighting in the simulation will be compared with the actual measurements, trying to play in the simulation the actual measurement conditions .
Resumo:
El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.
Resumo:
Para a adequada implantação de um Programa de Concessão, Adaptação e Acompanhamento do Sistema FM em estudantes com deficiência auditiva nas escolas brasileiras é necessário um trabalho intersetorial, caracterizado por uma cuidadosa articulação entre os Sistemas Educacional e de Saúde. As ações em rede integrarão os diferentes níveis de atenção da pessoa com deficiência auditiva, conforme a nova política interministerial Viver Sem Limites. O objetivo deste estudo foi desenvolver e analisar a eficácia de um ambiente virtual de transmissão de informações sobre Sistema FM para profissionais utilizando a Teleducação Interativa. Devido à distribuição geográfica dos profissionais que atuam com a adaptação do Sistema FM em alunos usuários de Sistema FM foi proposto o acesso aos módulos à distância (Teleducação) via internet por meio do Portal Sistema FM disponibilizado em endereço eletrônico http://portalsistemafm.fob.usp.br/. O portal é composto por 7 módulos, sendo que todos os materiais foram transformados em infográficos, com possibilidade de download. Realizaram o cadastro no Portal Sistema FM 50 profissionais que atuam em Serviços de Saúde Auditiva credenciados pelo SUS, sendo que 31 fonoaudiólogos avaliaram o Portal Sistema FM. Para a avaliação do programa de capacitação foram propostos os instrumentos Ficha de Pesquisa Motivacional, Escala de Autoavaliação de Impacto do Treinamento no trabalho - medida de amplitude e um Questionário sobre o conteúdo teórico, todos contidos em um módulo do Portal. Os fonoaudiólogos, respondendo a Ficha de Pesquisa Motivacional, consideraram o Portal Sistema FM com expectativa para o sucesso. A Escala de Impacto no Trabalho demonstrou que o acesso aos módulos do Portal Sistema FM gerou um impacto no trabalho dos participantes, quando aplicado após o primeiro acesso e dois meses depois, porém não foi indicada diferença estatisticamente significante quando comparadas. No questionário sobre o conteúdo teórico os participantes obtiveram uma média de 79,03% de acerto. O Portal Sistema FM foi criado e encontra-se disponível no endereço eletrônico http://portalsistemafm.fob.usp.br/, sendo avaliado como um portal impressionante quanto à motivação dos participantes. O acesso aos módulos trouxe impacto no trabalho dos profissionais.
Resumo:
O sistema de medidas cautelares pessoais no processo penal brasileiro não mais gravita em torno da prisão preventiva, uma vez que o legislador instituiu um rol de medidas cautelares menos gravosas, a ela alternativas. Nesse contexto, como deve orientar-se a escolha judicial da medida a ser aplicada ao caso concreto? A constitucional idade de qualquer intervenção no direito fundamental de liberdade depende, essencialmente, de sua fundamentação constitucional, que é controlada a partir da proporcionalidade. A proporcional idade, portanto, é a pedra angular do sistema de medidas cautelares pessoais. A decisão que impõe uma medida cautelar pessoal jamais pode resultar de uma intuição individual misteriosa, senão de um procedimento cognoscitivo estruturado e comprovável de maneira intersubjetiva. Daí a importância da investigação da existência de um direito fundamental do imputado à individualização da medida cautelar pessoal, para afastar qualquer discricionariedade judicial na sua escolha. O objetivo do presente trabalho, portanto, é propor um método racional, baseado no exame da proporcionalidade, para controle intersubjetivo da justificação da decisão judicial que, no processo penal, imponha uma medida cautelar pessoal.
Resumo:
Por se tratar de um elemento essencial às plantas e um metal pesado ao mesmo tempo, o níquel requer atenção quanto aos aspectos da fisiologia de plantas e ambiental. Além disso, existe um intervalo estreito entre as exigências nutricionais e os teores tóxicos às plantas. Neste contexto, objetivou-se avaliar o efeito do Ni no sistema solo-planta, com foco no ciclo do N e a disponibilidade do elemento no solo, por meio de experimento em condições controladas, utilizando vasos distribuídos inteiramente ao acaso, utilizando-se esquema fatorial 2 x 5, com sete repetições cada tratamento. O primeiro fator foi constituído de duas saturações por base (50 e 70%) e o segundo de cinco doses de Ni (0; 0,1; 0,5; 1,0 e 10,0 mg dm-3 de solo). Os vasos foram preenchidos com 8 dm3 de terra e cultivados com soja [Glycine max (L.) Merrill] sucedida por girassol (Helianthus annuus L.). Os parâmetros qualitativos e quantitativos: altura de plantas (AP), diâmetro do caule (DC), número de nós (NN), estádio fenológico (EF), índice SPAD e, diâmetro do capítulo (DCap) (para girassol) foram avaliadas aos 30 e 60 dias após a emergência (d.a.e.) de cada cultivo. Plantas inteiras de soja, amostradas em quatro vasos de cada tratamento, foram coletadas no estádio R1. Na mesma ocasião foram coletadas amostras de solo da rizosfera. Em seguida, as plantas coletadas foram divididas em: folhas; raízes (nódulos na soja) e parte aérea. Foram determinados nas folhas utilizadas para diagnose em soja e girassol: os teores de macro e micronutrientes, as atividades da redutase do nitrato e da urease e as concentrações dos ácidos orgânicos: oxálico, malônico, succínico, málico, tartárico, fumárico, oxaloacético, cítrico e lático. Os mesmos ácidos orgânicos foram determinados em raízes secundárias de girassol e nódulos de soja. Foram realizadas avaliações ultraestruturais por meio de microscopia eletrônica de transmissão (MET) em raízes de girassol, e estruturais e de tonalidade em nódulos de soja, por meio de microscopia de luz. No solo, foram determinadas: atividade urease, desidrogenase, Ni total e fitodisponível pelos métodos: Mehlich-1, Mehlich-3 e DTPA. No período de maturidade fisiológica de cada cultura foi realizada a colheita das plantas dos vasos restantes para determinação de produção de grãos, teores de Ni na planta inteira e Ni e N nos grãos. Ao final dos dois experimentos foi realizada nova coleta de solo para extração sequencial de Ni. O índice SPAD em soja aos 60 d.a.e., a produção de massa seca da parte aérea da soja e da raiz de girassol foram influenciados pela saturação por bases, doses de níquel e pela a interação destes. Foram influenciados pelas saturações por base e doses de níquel (fatores isolados): para soja: AP aos 60 d.a.e., NN aos 30 e 60 d.a.e., SPAD aos 30 d.a.e.; para girassol: AP e NN aos 30 e 60 d.a.e., DC e SPAD aos 30 d.a.e. As demais variáveis avaliadas aos 30 e 60 d.a.e. foram influenciadas apenas pela saturação por bases, ou doses de Ni separadamente. As plantas de soja e girassol apresentaram maiores teores de Ni nos diferentes tecidos avaliados (exceto grãos) quando cultivadas sob V50%. A produção de grãos de soja e girassol não foi influenciada pelos tratamentos, porém o teor de N dos grãos de soja influenciado pelas doses de Ni na V70%. A atividade da enzima urease nas folhas de soja e girassol foi responsiva positivamente ao aumento das doses de Ni. Quatro dos ácidos orgânicos avaliados e o teor de N nas folhas e nos grãos foram maiores nas plantas cultivadas sob V70% com a dose de 0,5 mg dm-3 de Ni. As doses de Ni bem com as saturações por bases influenciaram diretamente o balanço de nutrientes das plantas. Os extratores Mehlich-1, Mehlich-3 e DTPA apresentaram elevado coefienciente de correlação entre a fração de Ni disponível no solo e a concentração do elemento nas plantas de soja e girassol, sendo o extrator DTPA o que apresentou maior coeficiente de correlação. O Ni apresentou distribuição variável entre as diferentes frações do solo em função dos tratamentos. Os solos dos tratamentos com saturação por bases de 70% apresentaram maior concentração de Ni ligado a carbonato, comparado aos tratamentos sob saturação por bases de 50%. A distribuição do Ni entre as frações do solo seguiu a seguinte orgem: ligado a carbonato < trocável < ligado a óxidos < matéria orgânica < residual. A saturação por bases exerceu efeito diferenciado para a atividade da urease no solo em função da cultura avaliada. Por sua vez, o Ni exerceu efeito diferenciado sobre a atividade de desidrogenase em função da cultura estudada
Resumo:
Ensaios de distribuição de água de aspersores são convencionalmente realizados manualmente, requerendo tempo e mão de obra treinada. A automação desses ensaios proporciona redução da demanda por esses recursos e apresenta potencial para minimizar falhas e/ou desvios de procedimento. Atualmente, laboratórios de ensaio e calibração acreditados junto a organismos legais devem apresentar em seus relatórios a incerteza de medição de seus instrumentos e sistemas de medição. Além disso, normas de ensaio e calibração apresentam especificação de incerteza aceitável, como a norma de ensaios de distribuição de água por aspersores, ISO 15886-3 (2012), a qual exige uma incerteza expandida de até 3% em 80% dos coletores. Os objetivos deste trabalho foram desenvolver um sistema automatizado para os ensaios de aspersores em laboratório e realizar a análise de incerteza de medição, para sua quantificação nos resultados de ensaio e para dar suporte ao dimensionamento dos tubos de coleta. O sistema automático foi constituído por um subsistema de gerenciamento, por meio de um aplicativo supervisório, um de pressurização e um de coleta, por meio de módulos eletrônicos microprocessados desenvolvidos. De acordo com instruções do sistema de gerenciamento o sistema de pressurização ajustava a pressão no aspersor por meio do controle da rotação da motobomba, e o sistema de coleta realizava a medição da intensidade de precipitação de água ao longo do raio de alcance do aspersor. A água captada por cada coletor drenava para um tubo de coleta, que estava conectado a uma das válvulas solenoides de um conjunto, onde havia um transmissor de pressão. Cada válvula era acionada individualmente numa sequência para a medição do nível de água em cada tubo de coleta, por meio do transmissor. Por meio das análises realizadas, as menores incertezas foram obtidas para os menores diâmetros de tubo de coleta, sendo que se deve utilizar o menor diâmetro possível. Quanto ao tempo de coleta, houve redução da incerteza de medição ao se aumentar a duração, devendo haver um tempo mínimo para se atingir a incerteza-alvo. Apesar de cada intensidade requer um tempo mínimo para garantir a incerteza, a diferença mínima de nível a ser medida foi a mesma. Portanto, para os ensaios visando atender a incerteza, realizou-se o monitoramento da diferença de nível nos tubos, ou diferença de nível, facilitando a realização do ensaio. Outra condição de ensaio considerou um tempo de coleta para 30 voltas do aspersor, também exigido pela norma ISO 15886-3 (2012). A terceira condição considerou 1 h de coleta, como tradicionalmente realizado. As curvas de distribuição de água obtidas por meio do sistema desenvolvido foram semelhantes às obtidas em ensaios convencionais, para as três situações avaliadas. Para tempos de coleta de 1 h ou 30 voltas do aspersor o sistema automático requereu menos tempo total de ensaio que o ensaio convencional. Entretanto, o sistema desenvolvido demandou mais tempo para atingir a incerteza-alvo, o que é uma limitação, mesmo sendo automatizado. De qualquer forma, o sistema necessitava apenas que um técnico informasse os parâmetros de ensaio e o acionasse, possibilitando que o mesmo alocasse seu tempo em outras atividades.
Resumo:
En este estudio se valida y calibra un nuevo sistema hiperespectral formado por una cámara y un espectrógrafo para la medida de propiedades de color y espectrales con elevada resolución espacial. En primer lugar se analiza la respuesta del sistema en términos de repetitividad y reproducibilidad con respecto a un espectrofotómetro convencional. Por otro lado, se proporciona la exactitud del sistema en relación a patrones de longitud de onda y fotométricos. Los resultados obtenidos ponen de manifiesto las ventajas de este tipo de dispositivos para ser utilizados en aplicaciones industriales.
Resumo:
La Ley General de Sanidad 14/1986 de 25 de Abril posibilitó el tránsito del antiguo modelo de Seguridad Social al actual modelo de Sistema Nacional de Salud (SNS), financiado con impuestos y de cobertura prácticamente universal. Desde entonces se han producido profundos cambios en el sistema que culminaron en el año 2002 con la descentralización total de competencias en materia de salud en las Comunidades Autónomas. La regulación nacional de competencias en materia de salud se realiza desde el Consejo Interterritorial del Sistema Nacional de Salud, organismo que agrupa a los máximos responsables autonómicos en materia de salud de cada Comunidad Autónoma y que tiene entre otras, la responsabilidad de evitar las desigualdades en servicios sanitarios dentro del territorio nacional. La creación y competencias del Consejo Interterritorial quedan recogidas en la Ley 16/2003 de 28 de mayo de Cohesión de la calidad del Sistema Nacional de Salud. La cartera de servicios comunes del SNS se establece en el Real Decreto 1030/2006 de 15 de Septiembre, actualizando el Real Decreto 63/1995 de 20 de enero sobre Ordenación de las prestaciones sanitarias, resultando del actual marco legislativo con la descentralización de competencias y gestión de los presupuestos un horizonte de posible variabilidad en los modelos de gestión de cada CCAA, que, si bien deben garantizar la universalidad de las prestaciones, también ofrece una diversidad de modalidades de gestionar los recursos en materia de salud. En cuanto al estado de salud de los españoles, destacar que la esperanza de vida al nacer se sitúa en 79,9 años, superior a la media europea, 78,3 años, y la esperanza de vida ajustada por incapacidad fue en 2002 de 72,6 años en España respecto a los 70,8 de la UE. Según cifras del propio Ministerio de Sanidad, la percepción de la salud de los ciudadanos fue positiva para un 73% de los hombres y un 63,2 de las mujeres. Alrededor del 60% de la población tiene un peso normal y la morbilidad sitúa en los primeros lugares las enfermedades del aparato circulatorio, el cáncer y las enfermedades del aparato respiratorio (CIE-9). El gasto sanitario en España, es un capítulo presupuestario importante, al situarse en torno al 7,5 del P.I.B, y los recursos e inversiones presentan aparentes desigualdades autonómicas. Los modelos de gestión y dependencia patrimonial de los recursos, variables entre Autonomías, plantean la necesidad de monitorizar un seguimiento que permita evaluar en los próximos diez años el impacto de la descentralización de competencias del Sistema. La estructura del Sistema tiene dos niveles asistenciales mayoritarios, atención primaria y especializada, absorbiendo la atención especializada la mayor parte del presupuesto. El incremento del gasto sanitario y la universalidad de las prestaciones han condicionado en gran medida la implantación de modelos de gestión diferentes a los tradicionales. Esta situación no es exclusiva del Estado Español. En los Estados del entorno de la Unión Europea, el Consejo de Ministros de Sanidad de la UE en su sesión celebrada los días 1 y 2 de Junio de 200625 concluyeron un documento que recoge los valores y principios comunes de los sistemas sanitarios de los países de la Unión Europea, resaltando los principios y valores de los sistemas sanitarios como soporte estructural de dichos estados. Como conclusión, en este momento (2007) el Sistema Nacional de Salud Español, está inmerso en un proceso de trasformación orientado a garantizar la eficiencia de las prestaciones de manera responsable, es decir, ofertar al ciudadano la mejor calidad de servicios al mínimo coste.
Resumo:
La tendencia a la concentración de flujos económicos y humanos en las principales aglomeraciones ha generado unos polos de atracción global en detrimento de las opciones de desarrollo del resto de territorios. Sin embargo la recomposición territorial está siendo más compleja y afecta también al territorio no metropolitano. La introducción de elementos de creatividad en las economías urbanas es un ejemplo de la relativa dispersión territorial de nuevas actividades productivas. La localización de actividades económicas creativas ha sido analizada para el caso de ciudades medias, periferias urbanas y espacios rurales, pero no para el de ciudades turísticas. El objetivo del trabajo es analizar, a escala local y partiendo del cálculo de un índice sintético de creatividad, el comportamiento de dicho índice y en qué medida la clase creativa se localiza en los destinos turísticos del mediterráneo español y las Islas Canarias en comparación con otros tipos de municipios y entre municipios turísticos según su grado de especialización. Los resultados obtenidos permiten formular la hipótesis sobre cómo contribuyen los espacios turísticos a la reorganización productiva del territorio y valorar sus posibilidades de competitividad basadas en la mejora de la tolerancia, la innovación y el emprendimiento, proporcionando oportunidades de desarrollo más integrales y diversificadas en el momento de crisis actual.
Resumo:
La creciente demanda de alimentos a nivel mundial le ofrece a la Rep. Argentina la posibilidad de transformarse en uno de los principales proveedores de granos y carnes. Según la "Food and Agriculture Organization", el aumento de la producción dependerá en gran medida de la utilización del agua. Un reciente estudio realizado por el Banco Mundial, considera que Argentina posee un buen potencial para ampliar la superficie de riego. El riego complementario es una técnica que le permite a la región centro sur de la provincia de Córdoba aumentar y estabilizar los rendimientos de los cultivos extensivos característicos de la zona. El uso eficiente de sistemas de riego es un problema multidimensional y esto lo convierte en un tema complejo de investigación. Este proyecto se caracteriza por la interdisciplinariedad y el trabajo colaborativo con impacto a nivel de Departamento, Facultad y Universidad. A nivel de Universidad el proyecto integra a docentes investigadores de la Universidad Nacional de Río Cuarto (UNRC) y de la Universidad Nacional de Córdoba (UNC). A nivel de Facultades de la UNRC el proyecto integra a docentes-investigadores de tres Facultades: Ingeniería (FI), Agronomía y Veterinaria (FAyV), y Ciencias Económicas (FCE). Para la impulsión de aguas superficiales para su uso en riego no hay diseños específicos. En el marco de este proyecto se pretende desarrollar un sistema de bombeo para riego que permita impulsar aguas superficiales poco profundas, ya sea desde ríos, lagunas e incluso canales. El sistema deberá ser liviano, de fácil transporte y de geometría variable para poder adaptarse a distintas topografías de las fuentes de agua. A su vez debe ser capaz de adaptarse a las distintas plantas motrices (tractores) que se disponen en el ámbito rural. El sistema deberá superar los problemas de bombeo relacionados a la poca profundidad de los ríos del sur de la provincia de Córdoba. Por sus características, el sistema también podría ser utilizado para el bombeo de agua en zonas anegadas por problemas de inundaciones. El desarrollo tecnológico propuesto en este proyecto, es un aporte tecnológico que reviste especial importancia tanto para el sector productivo primario como para el sector productivo metalmecánico del sur de la provincia de Córdoba y en particular del Departamento Río Cuarto (donde se encuentra la UNRC). En el campo de aplicación de las tecnologías agrícolas el presente proyecto aporta innovación en el espectro de los productos desarrollados por la industria metalmecánica y agromecánica regional.
Resumo:
O objetivo deste trabalho é o projeto, construção e teste de um sistema que permita a medida de viscosidade de líquidos utilizando o método do fio vibrante em regime livre. A principal contribuição original deste trabalho é o modo de controlo do estímulo e aquisição de sinal no contexto da medição de viscosidade, utilizando uma interface gráfica (GUI) onde o utilizador pode controlar o estímulo e a taxa de aquisição do sensor. A Field Programmable Gate Array (FPGA) é utilizada para controlar e sincronizar todo o sistema e fazer a ligação entre a interface gráfica e o hardware desenvolvido para condicionar o sinal de estímulo do fio vibrante e de resposta do fio vibrante. A amplitude eficaz máxima de corrente a estimular o fio vibrante permite utilizar fios vibrantes com um diâmetro maior e efetuar medições em líquidos mais viscosos. Utilizando o protótipo desenvolvido para adquirir a resposta do fio vibrante fez-se o ajuste dos pontos experimentais à equação que descreve o comportamento teórico da resposta do fio vibrante, obtendo-se valores de frequência e amortecimento da resposta do fio vibrante com um desvio padrão de e respetivamente, permitindo assim calcular a viscosidade do líquido em estudo.
Resumo:
The determination and monitoring of metallic contaminants in water is a task that must be continuous, leading to the importance of the development, modification and optimization of analytical methodologies capab le of determining the various metal contaminants in natural environments, because, in many cases, the ava ilable instrumentation does not provide enough sensibility for the determination of trace values . In this study, a method of extraction and pre- concentration using a microemulsion system with in the Winsor II equilibrium was tested and optimized for the determination of Co, Cd, P b, Tl, Cu and Ni through the technique of high- resolution atomic absorption spectrometry using a continuum source (HR-CS AAS). The optimization of the temperature program for the graphite furnace (HR-CS AAS GF) was performed through the pyrolysis and atomization curves for the analytes Cd, Pb, Co and Tl with and without the use of different chemical modifiers. Cu and Ni we re analyzed by flame atomization (HR-CS F AAS) after pre-concentr ation, having the sample introduction system optimized for the realization of discrete sampling. Salinity and pH levels were also analyzed as influencing factors in the efficiency of the extraction. As final numbers, 6 g L -1 of Na (as NaCl) and 1% of HNO 3 (v/v) were defined. For the determination of the optimum extraction point, a centroid-simplex statistical plan was a pplied, having chosen as the optimum points of extraction for all of the analytes, the follo wing proportions: 70% aqueous phase, 10% oil phase and 20% co-surfactant/surfactant (C/S = 4). After extraction, the metals were determined and the merit figures obtained for the proposed method were: LOD 0,09, 0,01, 0,06, 0,05, 0,6 and 1,5 μg L -1 for Pb, Cd, Tl, Co, Cu and Ni, re spectively. Line ar ranges of ,1- 2,0 μg L -1 for Pb, 0,01-2,0 μg L -1 for Cd, 1,0 - 20 μg L -1 for Tl, 0,1-5,0 μg L -1 for Co, 2-200 μg L -1 and for Cu e Ni 5-200 μg L -1 were obtained. The enrichment factors obtained ranged between 6 and 19. Recovery testing with the certified sample show ed recovery values (n = 3, certified values) after extraction of 105 and 101, 100 and 104% for Pb, Cd, Cu and Ni respectively. Samples of sweet waters of lake Jiqui, saline water from Potengi river and water produced from the oil industry (PETROBRAS) were spiked and the recovery (n = 3) for the analytes were between 80 and 112% confirming th at the proposed method can be used in the extraction. The proposed method enabled the sepa ration of metals from complex matrices, and with good pre-concentration factor, consistent with the MPV (allowed limits) compared to CONAMA Resolution No. 357/2005 which regulat es the quality of fresh surface water, brackish and saline water in Brazil.
Resumo:
The content-based image retrieval is important for various purposes like disease diagnoses from computerized tomography, for example. The relevance, social and economic of image retrieval systems has created the necessity of its improvement. Within this context, the content-based image retrieval systems are composed of two stages, the feature extraction and similarity measurement. The stage of similarity is still a challenge due to the wide variety of similarity measurement functions, which can be combined with the different techniques present in the recovery process and return results that aren’t always the most satisfactory. The most common functions used to measure the similarity are the Euclidean and Cosine, but some researchers have noted some limitations in these functions conventional proximity, in the step of search by similarity. For that reason, the Bregman divergences (Kullback Leibler and I-Generalized) have attracted the attention of researchers, due to its flexibility in the similarity analysis. Thus, the aim of this research was to conduct a comparative study over the use of Bregman divergences in relation the Euclidean and Cosine functions, in the step similarity of content-based image retrieval, checking the advantages and disadvantages of each function. For this, it was created a content-based image retrieval system in two stages: offline and online, using approaches BSM, FISM, BoVW and BoVW-SPM. With this system was created three groups of experiments using databases: Caltech101, Oxford and UK-bench. The performance of content-based image retrieval system using the different functions of similarity was tested through of evaluation measures: Mean Average Precision, normalized Discounted Cumulative Gain, precision at k, precision x recall. Finally, this study shows that the use of Bregman divergences (Kullback Leibler and Generalized) obtains better results than the Euclidean and Cosine measures with significant gains for content-based image retrieval.
Resumo:
Este trabajo analiza el funcionamiento del sistema de financiación de las Comunidades Autónomas de régimen común en España aprobado en la Ley 22/2009, desde la perspectiva específica del análisis de sus mecanismos de nivelación. Con esa finalidad,se propone una batería de indicadores de reordenación, indicadores de intensidad de la nivelación e indicadores de distorsiones de la nivelación que se aplica para la evaluación del desempeño del sistema vigente, en comparación con el aprobado en 2001, y que puede asimismo utilizarse para la evaluación de sistemas comparados. Los resultados ponen de manifiesto que el sistema aprobado en 2009 mejora el funcionamiento del sistema anterior, en la medida en que aumenta la intensidad de la nivelación y se reduce la prevalencia y la intensidad de las principales distorsiones que se detectaban en sus resultados de nivelación (reordenaciones. sobrenivelaciones y desnivelaciones).