1000 resultados para Calibración de cámaras
Resumo:
Nowadays, a lot of applications use digital images. For example in face recognition to detect and tag persons in photograph, for security control, and a lot of applications that can be found in smart cities, as speed control in roads or highways and cameras in traffic lights to detect drivers ignoring red light. Also in medicine digital images are used, such as x-ray, scanners, etc. These applications depend on the quality of the image obtained. A good camera is expensive, and the image obtained depends also on external factor as light. To make these applications work properly, image enhancement is as important as, for example, a good face detection algorithm. Image enhancement also can be used in normal photograph, for pictures done in bad light conditions, or just to improve the contrast of an image. There are some applications for smartphones that allow users apply filters or change the bright, colour or contrast on the pictures. This project compares four different techniques to use in image enhancement. After applying one of these techniques to an image, it will use better the whole available dynamic range. Some of the algorithms are designed for grey scale images and others for colour images. It is used Matlab software to develop and present the final results. These algorithms are Successive Means Quantization Transform (SMQT), Histogram Equalization, using Matlab function and own implemented function, and V transform. Finally, as conclusions, we can prove that Histogram equalization algorithm is the simplest of all, it has a wide variability of grey levels and it is not suitable for colour images. V transform algorithm is a good option for colour images. The algorithm is linear and requires low computational power. SMQT algorithm is non-linear, insensitive to gain and bias and it can extract structure of the data. RESUMEN. Hoy en día incontable número de aplicaciones usan imágenes digitales. Por ejemplo, para el control de la seguridad se usa el reconocimiento de rostros para detectar y etiquetar personas en fotografías o vídeos, para distintos usos de las ciudades inteligentes, como control de velocidad en carreteras o autopistas, cámaras en los semáforos para detectar a conductores haciendo caso omiso de un semáforo en rojo, etc. También en la medicina se utilizan imágenes digitales, como por ejemplo, rayos X, escáneres, etc. Todas estas aplicaciones dependen de la calidad de la imagen obtenida. Una buena cámara es cara, y la imagen obtenida depende también de factores externos como la luz. Para hacer que estas aplicaciones funciones correctamente, el tratamiento de imagen es tan importante como, por ejemplo, un buen algoritmo de detección de rostros. La mejora de la imagen también se puede utilizar en la fotografía no profesional o de consumo, para las fotos realizadas en malas condiciones de luz, o simplemente para mejorar el contraste de una imagen. Existen aplicaciones para teléfonos móviles que permiten a los usuarios aplicar filtros y cambiar el brillo, el color o el contraste en las imágenes. Este proyecto compara cuatro técnicas diferentes para utilizar el tratamiento de imagen. Se utiliza la herramienta de software matemático Matlab para desarrollar y presentar los resultados finales. Estos algoritmos son Successive Means Quantization Transform (SMQT), Ecualización del histograma, usando la propia función de Matlab y una nueva función que se desarrolla en este proyecto y, por último, una función de transformada V. Finalmente, como conclusión, podemos comprobar que el algoritmo de Ecualización del histograma es el más simple de todos, tiene una amplia variabilidad de niveles de gris y no es adecuado para imágenes en color. El algoritmo de transformada V es una buena opción para imágenes en color, es lineal y requiere baja potencia de cálculo. El algoritmo SMQT no es lineal, insensible a la ganancia y polarización y, gracias a él, se puede extraer la estructura de los datos.
Resumo:
The proliferation of video games and other applications of computer graphics in everyday life demands a much easier way to create animatable virtual human characters. Traditionally, this has been the job of highly skilled artists and animators that painstakingly model, rig and animate their avatars, and usually have to tune them for each application and transmission/rendering platform. The emergence of virtual/mixed reality environments also calls for practical and costeffective ways to produce custom models of actual people. The purpose of the present dissertation is bringing 3D human scanning closer to the average user. For this, two different techniques are presented, one passive and one active. The first one is a fully automatic system for generating statically multi-textured avatars of real people captured with several standard cameras. Our system uses a state-of-the-art shape from silhouette technique to retrieve the shape of subject. However, to deal with the lack of detail that is common in the facial region for these kind of techniques, which do not handle concavities correctly, our system proposes an approach to improve the quality of this region. This face enhancement technique uses a generic facial model which is transformed according to the specific facial features of the subject. Moreover, this system features a novel technique for generating view-independent texture atlases computed from the original images. This static multi-texturing system yields a seamless texture atlas calculated by combining the color information from several photos. We suppress the color seams due to image misalignments and irregular lighting conditions that multi-texturing approaches typically suffer from, while minimizing the blurring effect introduced by color blending techniques. The second technique features a system to retrieve a fully animatable 3D model of a human using a commercial depth sensor. Differently to other approaches in the current state of the art, our system does not require the user to be completely still through the scanning process, and neither the depth sensor is moved around the subject to cover all its surface. Instead, the depth sensor remains static and the skeleton tracking information is used to compensate the user’s movements during the scanning stage. RESUMEN La popularización de videojuegos y otras aplicaciones de los gráficos por ordenador en el día a día requiere una manera más sencilla de crear modelos virtuales humanos animables. Tradicionalmente, estos modelos han sido creados por artistas profesionales que cuidadosamente los modelan y animan, y que tienen que adaptar específicamente para cada aplicación y plataforma de transmisión o visualización. La aparición de los entornos de realidad virtual/mixta aumenta incluso más la demanda de técnicas prácticas y baratas para producir modelos 3D representando personas reales. El objetivo de esta tesis es acercar el escaneo de humanos en 3D al usuario medio. Para ello, se presentan dos técnicas diferentes, una pasiva y una activa. La primera es un sistema automático para generar avatares multi-texturizados de personas reales mediante una serie de cámaras comunes. Nuestro sistema usa técnicas del estado del arte basadas en shape from silhouette para extraer la forma del sujeto a escanear. Sin embargo, este tipo de técnicas no gestiona las concavidades correctamente, por lo que nuestro sistema propone una manera de incrementar la calidad en una región del modelo que se ve especialmente afectada: la cara. Esta técnica de mejora facial usa un modelo 3D genérico de una cara y lo modifica según los rasgos faciales específicos del sujeto. Además, el sistema incluye una novedosa técnica para generar un atlas de textura a partir de las imágenes capturadas. Este sistema de multi-texturización consigue un atlas de textura sin transiciones abruptas de color gracias a su manera de mezclar la información de color de varias imágenes sobre cada triángulo. Todas las costuras y discontinuidades de color debidas a las condiciones de iluminación irregulares son eliminadas, minimizando el efecto de desenfoque de la interpolación que normalmente introducen este tipo de métodos. La segunda técnica presenta un sistema para conseguir un modelo humano 3D completamente animable utilizando un sensor de profundidad. A diferencia de otros métodos del estado de arte, nuestro sistema no requiere que el usuario esté completamente quieto durante el proceso de escaneado, ni mover el sensor alrededor del sujeto para cubrir toda su superficie. Por el contrario, el sensor se mantiene estático y el esqueleto virtual de la persona, que se va siguiendo durante el proceso, se utiliza para compensar sus movimientos durante el escaneado.
Resumo:
La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.
Resumo:
El fenómeno de explosión sobre estructuras de hormigón tiene efectos en muchos casos catastróficos a pesar de su reducida frecuencia. Las edificaciones civiles no suelen estar diseñadas para resistir este tipo de solicitación dinámica, por lo que conviene disponer de una metodología que permita analizar los efectos de las explosiones sobre las mismas. Este trabajo estudia el comportamiento de las estructuras reticuladas de hormigón armado frente a estas acciones, mediante métodos numéricos de elementos finitos lagrangianos con integración explícita en el tiempo. Se analizan de forma realista partes de la estructura como columnas y forjados usando modelos con hormigón y armaduras de forma segregada, pero las limitaciones computacionales los hacen inviables para estructuras completas. Se proponen modelos de elementos lámina y viga debidamente calibrados para obtener una respuesta similar. Se obtienen conclusiones para el uso y calibración de modelos y simulaciones realistas de edificios completos para estudios de seguridad.
Resumo:
Actualmente existen varios dispositivos que aceptan gestos sobre superficies táctiles, sean celulares, tabletas, computadores, etc. a los cuales las personas se acostumbran rápidamente a su uso y los aceptan como herramientas necesarias en su vida. Del mismo modo existen algunas aplicaciones que manejan entornos en 3D, y permiten captar gestos realizados con las manos, cuerpo, cabeza. Estas técnicas se han desarrollado mucho por separado pero se ha podido evidenciar en base a los artículos revisados que no existen muchos estudios que combinen las aplicaciones táctiles con las 3D manejadas por gestos en el aire. El presente trabajo muestra un prototipo que permite la comunicación y coordinación entre dos aplicaciones, una que muestra documentos representados por esferas en una aplicación con interacción táctil desarrollada en Unity que funciona sobre Android, y una segunda aplicación desarrollada también en Unity que maneja un entorno 3D con el que se interactúa mediante gestos realizados en el aire. Luego de algunos intentos la interacción entre ambas aplicaciones fue lograda implementando comunicación por sockets entre la aplicación en el dispositivo Android y la aplicación 3D que se encuentra alojada en un computador con Windows 7. La captura de gestos en el aire se realiza mediante el sistema Tracking Tools desarrollado por la compañía Optitrack que captura los movimientos con cámaras infrarrojas y marcadores en los dedos. Este sistema envía los datos de los gestos a nuestra aplicación 3D. Estos equipos son de propiedad del laboratorio Decoroso Crespo de la Universidad Politécnica de Madrid. Una vez lograda la implementación e interacción entre las aplicaciones se han realizado pruebas de usabilidad con nueve estudiantes del Máster Universitario en Software y Sistemas de la Universidad Politécnica de Madrid. Cada uno ha respondido una serie de encuestas para poder obtener resultados sobre cuán usable es el prototipo, la experiencia del usuario y qué mejoras se podrían realizar sobre éste. En la parte final de este documento se presentan los resultados de las encuestas y se muestran las conclusiones y trabajo futuro.---ABSTRACT---Currently there are several devices that accept gestures on touch surfaces like phones, tablets, computers, etc. to which people quickly become accustomed to their use and accept them as necessary tools in their life. Similarly there are some applications that handle 3D environments and like televisions, holograms and allow capture gestures made with hands, body, and head. These techniques have been developed on a separated way but based on some research we may say that the are not many studies that combine touch with 3D applications handled by gestures in the air. This paper presents a prototype of the interaction of two issues of a 2D showing documents represented by spheres on a touch application developed in Unity that works on Android and allows communicating with the second application also developed in Unity that handles a 3D environment interaction of gestures made in air. After some attempts interaction was achieved by implementing communication sockets between the application on the Android device and 3D application that is hosted on a computer with windows 7, and gestures capturing in the air is done by the system Tracking Tools developed by the Optitrack company it captures movements with infrared cameras and markers on the fingers, which sends data to this application gestures, these equipment are owned by the Decoroso Crespo laboratory of the Polytechnic University of Madrid. Once achieved the interaction of applications has been conducted performance tests with ten students of the university master of the Universidad Politécnica de Madrid, each has answered a series of surveys to get results on how usable is the prototype, the user experience and that improvements could be made on this.
Resumo:
El desarrollo de las tecnologías de captura de contenido audiovisual, y la disminución del tamaño de sensores y cámaras, hace posible, a día de hoy, la captura de escenas desde múltiples puntos de vista simultáneamente, generando distintos formatos de vídeo 3D, cuyo elemento común es la inclusión de vídeo multivista. En cuanto a las tecnologías de presentación de vídeo 3D, actualmente existen diversas opciones tecnológicas, entre las cuales empiezan a tomar una gran importancia las gafas de realidad virtual, también conocidas como Head-Mounted Devices (HMD). Este tipo de gafas principalmente han sido utilizadas para la visualización de vídeo panorámico (o 360). Sin embargo, al permitir localizar al usuario (posición de la cabeza y orientación), habilitan también la posibilidad de desarrollar sistemas para la visualización de vídeo multivista, ofreciendo una funcionalidad similar a la de los monitores autoestereoscópicos. En este Trabajo Fin de Grado se ha desarrollado un prototipo de un sistema que permite visualizar vídeo 3D multicámara en las Oculus Rift, un dispositivo HMD. Este sistema toma como entrada una secuencia de vídeos multivista (real o generada por ordenador) y permite, a partir de la información proporcionada por los sensores de las Oculus Rift, variar el punto de vista adaptándolo a la posición del usuario. El sistema desarrollado simula la visualización de un monitor autoestereoscópico y es parametrizable. El sistema permite variar una serie de parámetros como la distancia interocular o la densidad de cámaras, y dispone de varios modos de funcionamiento. Esto permitirá que el sistema pueda utilizarse para distintas secuencias Super MultiView (SMV), volviéndolo a la vez útil para la realización de pruebas subjetivas de calidad de experiencia.
Resumo:
En este proyecto se realiza el diseño e implementación de un sistema que detecta anomalías en las entradas de entornos controlados. Para ello, se hace uso de las últimas técnicas en visión por computador y se avisa visual y auditivamente, mediante un sistema hardware que recibe señales del ordenador al que está conectado. Se marca y fotografía, a una o varias personas, que cometen una infracción en las entradas de un establecimiento, vigilado con sistemas de vídeo. Las imágenes se almacenan en las carpetas correspondientes. El sistema diseñado es colaborativo, por lo tanto, las cámaras que intervienen, se comunican entre ellas a través de estructuras de datos con el objetivo de intercambiar información. Además, se utiliza conexión inalámbrica desde un dispositivo móvil para obtener una visión global del entorno desde cualquier lugar del mundo. La aplicación se desarrolla en el entorno MATLAB, que permite un tratamiento de la señal de imagen apropiado para el presente proyecto. Asimismo, se proporciona al usuario una interfaz gráfica con la que interactuar de manera sencilla, evitando así, el cambio de parámetros en la estructura interna del programa cuando se quiere variar el entorno o el tipo de adquisición de datos. El lenguaje que se escoge facilita la ejecución en distintos sistemas operativos, incluyendo Windows o iOS y, de esta manera, se proporciona flexibilidad. ABSTRACT. This project studies the design and implementation of a system that detects any anomalies on the entrances to controlled environments. To this end, it is necessary the use of last techniques in computer vision in order to notify visually and aurally, by a hardware system which receives signs from the computer it is connected to. One or more people that commit an infringement while entering into a secured environment, with video systems, are marked and photographed and those images are stored in their belonging file folder. This is a collaborative design system, therefore, every involved camera communicates among themselves through data structures with the purpose of exchanging information. Furthermore, to obtain a global environment vision from any place in the world it uses a mobile wireless connection. The application is developed in MATLAB environment because it allows an appropriate treatment of the image signal for this project. In addition, the user is given a graphical interface to easily interact, avoiding with this, changing any parameters on the program’s intern structure, when it requires modifying the environment or the data type acquisition. The chosen language eases its execution in different operating systems, including Windows or iOS, providing flexibility.
Resumo:
Inclui tabelas com número de ônibus envolvidos em acidentes de trânsito no Rio de Janeiro em 1998 e 1999; assaltos em ônibus em capitais brasileiras em 1998; assaltos em coletivos no Rio de Janeiro entre 1991 a 1999; assaltos em ônibus entre 1997-99 com ocorrêcias registradas pela polícia civil; decisão a favor da empresa nas câmaras cíveis
Resumo:
Incentivados por la consolidación de la inseguridad como problema público fundamental y los intentos de respuesta de parte de los distintos actores políticos, los sistemas de videovigilancia se han ido expandiendo de forma acelerada por todo el país. Este crecimiento no se ha visto acompañado por un debate público sobre la efectividad o pertinencia de instalar cámaras de seguridad, logrando se rápidamente naturalizadas y puestas fuera de discusión. Por su parte, las ciencias sociales locales no han contribuido aun en la problematización de estos nuevos dispositivos. La presente investigación se propone el estudio de un caso: el Monitoreo Público Urbano de la ciudad de La Plata (MoPU). Optamos por un acercamiento etnográfico basado en entrevistas y observación participante en la sala de monitoreo. El objetivo será describir y analizar el modo en que operadores/as de cámara organizan y realizan la tarea cotidiana de vigilancia. Intentaremos a su vez reponer sus relaciones con distintos actores dentro y fuera del organismo, como supervisores/as, funcionarios/as y policías. Intentaremos finalmente caracterizar desde este ámbito al sistema de videovigilancia como actor particular en un campo del control del delito y el lugar que adopta dentro del proceso de municipalización de la seguridad
Resumo:
A via de administração oral é a forma favorita de administração de fármacos em função das vantagens que apresenta, dentre elas destacam-se: a adesão do paciente, conveniência e praticidade. Em função disto, a maioria dos medicamentos comercializados encontra-se disponível na forma farmacêutica de administração oral, entretanto, o sucesso de um tratamento medicamentoso por esta via requer que a absorção gastrointestinal do fármaco seja suficiente para assegurar a sua disponibilidade no local de ação (VOLPE, 2010). No entanto, a absorção do fármaco no trato gastrointestinal é complexa e pode ser influenciada por vários fatores, os quais têm impacto sobre a dissolução, solubilidade e permeabilidade do fármaco. Com o intuito de aumentar a biodisponibilidade de fármacos, que possuem absorção dificultada pela via oral, a via de administração pela mucosa bucal vem sendo uma alternativa na atualidade farmacêutica. Esta mucosa é um tecido não queratinizado, altamente vascularizado e apresenta poucas enzimas metabolizadoras. Tais características possibilitam boa absorção de fármacos sem que ocorra a metabolização pré-sistêmica, ou efeito de primeira passagem, somando-se ao fato desta apresentar fácil acessibilidade para a administração de fármacos (VRIES, M. E et al., 1991; NIELSEN, H. M &RASSING, M. R, 1999). Nesse sentido, o presente trabalho teve como objetivo avaliar a permeabilidade dos fármacos antirretrovirais (lamivudina e estavudina) por meio de modelo ex vivo em segmentos da mucosa bucal de suínos, com emprego de câmaras de difusão do tipo células de Franz. Para avaliação da permeabilidade bucal dos fármacos antirretrovirais, lamivudina e estavudina, e dos marcadores para transporte transcelular (metoprolol) e paracelular (fluoresceína sódica), empregou-se método ex-vivo, em células de Franz, com segmento de mucosa bucal de suíno ( a 37ºC, meio Ringer- Krebs- HEPES, pH 7,4), e Franz posterior análise das concentrações das substâncias permeadas (fármacos e marcadores) por cromatografia líquida de alta eficiência. Os resultados obtidos, por meio do protocolo desenvolvido, demonstram que o transporte através da via paracelular (marcador fluoresceína) foi mais expressivo que o transporte transcelular (marcador metoprolol), o que provavelmente se deve ao fato dos espaços intercelulares da mucosa bucal serem mais frouxos do que aqueles observados na mucosa intestinal (junções íntimas). Quanto à lamivudina e estavudina, os resultados de permeabilidade indicaram que estes fármacos permearam por mecanismo semelhante ao do metoprolol, isto é, por via transcelular.
Resumo:
Estimativas sobre alterações climáticas globais têm aumentando a demanda por estudos sobre propriedades dos solos relativamente secos e limitações impostas à absorção de água pelas plantas em condições de escassez hídrica. Neste estudo, fatores que influenciam a retenção da água no solo e o murchamento de plantas foram avaliados com base no conceito de equilíbrio da água no solo. Objetivou-se com este estudo: (i) avaliar a confiabilidade de medições do conteúdo de água no solo sob altas sucções matriciais em câmaras de pressão, usando como referência a técnica de ponto de orvalho (ii) avaliar as interações entre espécies de plantas e solos com diferentes classes texturais no ponto de murcha permanente (iii) investigar as relações entre equilíbrio hidráulico da água no solo e murchamento de plantas a partir do conceito de corte hidráulico. Para tanto, um experimento para avaliar a influência dos tipos de solos e espécies de plantas, no ponto de murcha permanente foi conduzido em casa de vegetação da Escola Superior de Agricultura \"Luiz de Queiroz\" da Universidade de São Paulo, Piracicaba, São Paulo. Avaliou-se o murchamento de plantas de girassol (Helianthus annuus L.), milho (Zea mays L.) e soja (Glycine max L.). Os solos utilizados no estudo foram coletados na camada superficial (0-10 cm) em quatro áreas, selecionadas com o objetivo de obter classes texturais contrastantes, localizadas no município de Piracicaba, São Paulo, Brasil. Sub-amostras foram utilizadas para determinação da distribuição do tamanho de partículas e atributos químicos. Amostras indeformadas foram coletadas para a determinação da curva de retenção da água no solo pela técnica de câmaras de pressão. Adicionalmente, amostras deformadas foram utilizadas para determinação das características de retenção da água no solo pela técnica do ponto de orvalho em altos valores de sucções matriciais. Os dados de retenção de água no solo foram ajustados a modelos empíricos para estimativas da sucção matricial e conteúdo de água relacionada à água em equilíbrio hidráulico (água residual). Foram observadas similaridades nas determinações das características de retenção da água no solo entre as técnicas de câmaras de pressão e ponto de orvalho, sugerindo a boa drenagem das amostras de solo em câmaras de pressão. Interações significativas foram observadas entre os tipos de solos e espécies de plantas no ponto de murcha permanente, indicando que o movimento de água no contínuo solo-planta-atmosfera foi dependente de resistências relacionadas tanto ao solo quanto às plantas. Ou seja, tanto à capacidade do solo em transportar água até raízes, quanto à habilidade das plantas em absorver a água transportada, assim como, aos processos de regulação de água que ocorrem nas plantas. A abordagem baseada no conteúdo de água residual para o intervalo de sucções matriciais de 0 a 15.000 hPa não foi adequada para ilustrar a condição de equilíbrio hidráulico da água no solo, definidos pelo corte hidráulico, e relações com as sucções matriciais em ocorre o murchamento de plantas.
Resumo:
The market of flowers and ornamentals such as croton (Codiaeum variegatum) and petunia (Petunia×hybrida Vilm.-Andr) have been created new technologies to constantly development, as one of the most promising segments of horticulture. Fertilization providing adequate nutrition and less leaching to the environment is the objective of numerous studies around the world. Therefore, two studies were conducted to evaluate the use of controlled release fertilizer (CRF) on the growth of two ornamental species, and N loss by leaching. The first experiment aim to evaluate sources and rates of CRF and water soluble fertilizer (WSF) on croton growth and nitrogen concentration on drained solution. Results showed that treatments with WSF and low rates of CRF provided higher plants growth, and the amount of N leached was higher for WSF treatments. The second experiment objective to compare plant performance and cost for strategies that potentially provide adequate nutrition during both the production and consumer phases for container-grown Petunia plants. In addition, two experiments were conducted to evaluate nutrient release in sand containers inside of the greenhouse and under controlled temperature conditions without plants. Results showed that during production phase all fertilizer treatments produced high quality plants, and during consumer phase, plants grown with WSF only during the production phase were nutrient-deficient, while plants receiving CRFs were still growing vigorously, especially in a high rate. The release rates of all CRF products were temperature-dependent. In conclusion CRF provided plant growth at the same rate that WSF, with less N leaching and extra cost less than U$0.065 per plant with CRF during production.
Resumo:
Nessa pesquisa foram testadas tanto CCM com membranas e sem membranas que tinham por característica reproduzir sistemas de tratamento de esgoto sanitário. A etapa experimental desse trabalho foi dividida entre o Brasil (ensaios com CCM sem a MTP e utilizando esgoto sanitário) e Portugal (ensaios com CCM tradicionais de uma e duas câmaras, utilizando água residuária sintética e a bactéria Lactobacillus pentosus). A execução em dois locais diferentes resultou em um maior aprofundamento e desenvolvimento da pesquisa. As CCM foram avaliadas principalmente quanto ao potencial elétrico e eficiência da degradação de compostos orgânicos (esgoto sanitário e água residuária sintética). Para os dados obtidos no Brasil, as três configurações apresentaram maior diferença na potência em função do modo de operação. A operação intermitente apresentou a maior potência (11 mW/m2) para a CCM cilíndrica de fluxo ascendente, enquanto que operação continua a maior potência (4,2 mW/m2) foi obtida para a CCM retangular de fluxo horizontal, a qual também apresentava uma maior facilidade na manutenção quanto aos eletrodos (adição/remoção). A CCM cúbica de fluxo ascendente devido a sua concepção simples demandava um sistema complementar para o aumento da remoção de DQO. Apesar da baixa potência mensurada para os ensaios realizados no Brasil há de se pontuar que os mesmos foram obtidos para reatores sem membranas e utilizando o esgoto sanitário, o qual apresentou grande sazonalidade. Para a etapa realizada em Portugal, foi possível realizar quinze diferentes ensaios e mais um ensaio específico de crescimento. A maior potência (10,37 mW/m2) foi obtida para CCM de câmara dupla operada de modo contínuo para um tempo de detenção hidráulico (TDH) de 20 horas. A maior potência obtida para a CCM de câmara única foi de 5,53 mW/m2 quando houve a adição do extrato de levedura (função teórica de mediador). A potência da CCM, na maioria das vezes, esteve relacionada à proporção de sólidos voláteis e totais, SV/ST, quantidade de bactérias, pH, características de operação e por fim a configuração da CCM. O ensaio de crescimento revelou a correlação da potência em função da quantidade de bactérias inseridas da massa do biofilme (SV) e mostra-se como uma ferramenta na avaliação da potência das CCM.
Resumo:
A concentração demográfica e de sistemas coletivos de esgotamento sanitário dentro do perímetro urbano da maioria dos municípios brasileiros, dificulta a viabilização do fornecimento de serviços de tratamento de esgotos domésticos à habitações e núcleos habitacionais isolados situados em áreas periurbanas e rurais, intensificando os danos provocados pela poluição de origem antrópica ao meio ambiente e à preservação da saúde pública. Para contribuir no equacionamento deste problema, o presente estudo teve por finalidade avaliar uma wetland construída híbrida em escala real, composta por uma unidade com fluxo contínuo subsuperficial vertical seguida por uma unidade de fluxo contínuo subsuperficial horizontal, cultivadas com capim Vetiver, para o tratamento de efluente proveniente de tanque séptico. A presente configuração experimental busca uma solução de baixo custo e simplificada para o tratamento descentralizado de esgotos domésticos. A estação experimental de tratamento de esgotos, parte integrante e um dos produtos da Rede Nacional de Tratamento de Esgotos Descentralizados RENTED, foi construída no Centro Tecnológico de Hidráulica CTH / Escola Politécnica EPUSP, campus Butantã da USP, em São Paulo. O esgoto bruto foi proveniente do Conjunto Residencial da USP e do restaurante central da Cidade Universitária. As vazões média e máxima de esgoto bruto, respectivamente, de 640L.d-1 e 1600L.d-1, foram aplicadas à entrada do TS de 5.000L e deste escoaram por gravidade à entrada da wetland construída híbrida, com TDH total de 2,8d e 1,1d, respectivamente, sob aplicação das vazões média e máxima de projeto. O monitoramento do experimento em campo, incluindo o período inicial de partida, durou 6 meses consecutivos. Foram avaliados os parâmetros físico-químicos e microbiológicos do esgoto bruto e do efluente do tanque séptico e das câmaras da wetland construída híbrida durante 97 dias consecutivos. Os resultados indicaram que tanto as mudas jovens quanto as adultas de capim Vetiver adaptaram-se bem às condições ambientais. As eficiências médias de remoção no efluente tratado final quanto à matéria orgânica carbonácea foram de 96 por cento para DBO5,20 e 90 por cento para DQO, 40 por cento para N-total, 23 por cento para N-amoniacal total, 60 por cento para P-total, 52 por cento para P-PO4, 74 por cento para SST, 96 por cento para SSV, 75 por cento para sólidos sedimentáveis, 44 por cento para SDV, 88 por cento para sulfeto total, e 97 por cento para óleos e graxas totais, variando entre 73 por cento a 100 por cento . Cerca de 80 por cento da fração orgânica da matéria nitrogenada presente no esgoto bruto foi removida. A remoção de coliformes termotolerantes foi, em média, de 2 e 3 unidades log, e de Escherichia Coli, média de 1 e 3 unidades log, respectivamente, sob aplicação das vazões máxima e média, Giardia sp, média de 99,995 por cento , Cryptosporidium sp, média de 98,7 por cento , Enterovírus, média de 99,6 por cento , e Ascaris sp, média de 0,10 ovo/L. A remoção de sulfetos propiciou a geração de efluente tratado sem odores desagradáveis. A diminuição da vazão aplicada e a elevação do TDH influenciaram positivamente no desempenho do sistema com relação às remoções dos parâmetros físico-químicos e microbiológicos. Com base no presente estudo, ficou evidente o benefício da associação de wetlands construídas com fluxo vertical e horizontal no tratamento de efluente de tanque séptico. O capim Vetiver apresentou bom potencial de utilização em wetlands 8 construídas para tratamento de esgotos domésticos. O sistema experimental de tratamento apresentou flexibilidade operacional, mantendo bom desempenho inclusive nos períodos de sobrecarga. A qualidade do efluente tratado final obtido no presente estudo atende às exigências de lançamento e aos padrões de emissão de efluentes líquidos em corpos dágua e em sistemas públicos de esgotamento sanitário definidos na legislação ambiental federal e do Estado de São Paulo. A tecnologia de wetlands construídas híbridas associada ao tratamento de efluentes de tanque séptico apresentou bom potencial para o tratamento descentralizado de esgotos domésticos, inclusive em regiões com pouca disponibilidade de área livre.
Resumo:
Los partidos políticos son agrupaciones temporales que median entre los grupos de la sociedad y el Estado y participan en la lucha por el poder político, a través de los procesos electorales. Los partidos tienen la obligación de registrar una plataforma electoral, a través de la cual plantean propuestas preliminares que se someten a consideración de los ciudadanos con el propósito de convocar al diálogo y a la deliberación, las cuales son enriquecidas y profundizadas a lo largo de las campañas, que debieran convertirse posteriormente en la base del programa de gobierno del partido que resulte triunfador en las elecciones. Respecto a la relación que existe entre la Plataforma Electoral y las iniciativas legislativas del Ejecutivo Federal en materia político-electoral, cabe señalar que: El 15 de diciembre de 2009, el Presidente presentó la iniciativa de Reforma Política compuesta por 9 puntos, a saber: Permitir la elección consecutiva de legisladores federales, locales, miembros de los ayuntamientos y jefes delegacionales; reducir el número de integrantes de las cámaras, modificando los principios para la integración de la Cámara de Senadores; adoptar la segunda vuelta electoral para la elección del Presidente; incrementar a 4% el porcentaje mínimo de votación para que un partido político nacional conserve su registro; incorporar las candidaturas independientes; permitir a los ciudadanos y a la Suprema Corte de Justicia de la Nación presentar iniciativas de ley; facultar al Presidente para presentar iniciativas preferentes y para observar, parcial o totalmente, el Presupuesto de Egresos de la Federación y la Ley de Ingresos; así como para publicar parcialmente aquellas leyes cuyas observaciones no hayan sido superadas en el Congreso...