1000 resultados para Control de modelos predictivos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Fotogrametría, como ciencia y técnica de obtención de información tridimensional del espacio objeto a partir de imágenes bidimensionales, requiere de medidas de precisión y en ese contexto, la calibración geométrica de cámaras ocupa un lugar importante. El conocimiento de la geometría interna de la cámara es fundamental para lograr mayor precisión en las medidas realizadas. En Fotogrametría Aérea se utilizan cámaras métricas (fabricadas exclusivamente para aplicaciones cartográficas), que incluyen objetivos fotográficos con sistemas de lentes complejos y de alta calidad. Pero en Fotogrametría de Objeto Cercano se está trabajando cada vez con más asiduidad con cámaras no métricas, con ópticas de peor calidad que exigen una calibración geométrica antes o después de cada trabajo. El proceso de calibración encierra tres conceptos fundamentales: modelo de cámara, modelo de distorsión y método de calibración. El modelo de cámara es un modelo matemático que aproxima la transformación proyectiva original a la realidad física de las lentes. Ese modelo matemático incluye una serie de parámetros entre los que se encuentran los correspondientes al modelo de distorsión, que se encarga de corregir los errores sistemáticos de la imagen. Finalmente, el método de calibración propone el método de estimación de los parámetros del modelo matemático y la técnica de optimización a emplear. En esta Tesis se propone la utilización de un patrón de calibración bidimensional que se desplaza en la dirección del eje óptico de la cámara, ofreciendo así tridimensionalidad a la escena fotografiada. El patrón incluye un número elevado de marcas, lo que permite realizar ensayos con distintas configuraciones geométricas. Tomando el modelo de proyección perspectiva (o pinhole) como modelo de cámara, se realizan ensayos con tres modelos de distorsión diferentes, el clásico de distorsión radial y tangencial propuesto por D.C. Brown, una aproximación por polinomios de Legendre y una interpolación bicúbica. De la combinación de diferentes configuraciones geométricas y del modelo de distorsión más adecuado, se llega al establecimiento de una metodología de calibración óptima. Para ayudar a la elección se realiza un estudio de las precisiones obtenidas en los distintos ensayos y un control estereoscópico de un panel test construido al efecto. ABSTRACT Photogrammetry, as science and technique for obtaining three-dimensional information of the space object from two-dimensional images, requires measurements of precision and in that context, the geometric camera calibration occupies an important place. The knowledge of the internal geometry of the camera is fundamental to achieve greater precision in measurements made. Metric cameras (manufactured exclusively for cartographic applications), including photographic lenses with complex lenses and high quality systems are used in Aerial Photogrammetry. But in Close Range Photogrammetry is working increasingly more frequently with non-metric cameras, worst quality optical components which require a geometric calibration before or after each job. The calibration process contains three fundamental concepts: camera model, distortion model and method of calibration. The camera model is a mathematical model that approximates the original projective transformation to the physical reality of the lenses. The mathematical model includes a series of parameters which include the correspondents to the model of distortion, which is in charge of correcting the systematic errors of the image. Finally, the calibration method proposes the method of estimation of the parameters of the mathematical modeling and optimization technique to employ. This Thesis is proposing the use of a pattern of two dimensional calibration that moves in the direction of the optical axis of the camera, thus offering three-dimensionality to the photographed scene. The pattern includes a large number of marks, which allows testing with different geometric configurations. Taking the projection model perspective (or pinhole) as a model of camera, tests are performed with three different models of distortion, the classical of distortion radial and tangential proposed by D.C. Brown, an approximation by Legendre polynomials and bicubic interpolation. From the combination of different geometric configurations and the most suitable distortion model, brings the establishment of a methodology for optimal calibration. To help the election, a study of the information obtained in the various tests and a purpose built test panel stereoscopic control is performed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un dron o un RPA (del inglés, Remote Piloted Aircraft) es un vehículo aéreo no tripulado capaz de despegar, volar y aterrizar de forma autónoma, semiautónoma o manual, siempre con control remoto. Además, toda aeronave de estas características debe ser capaz de mantener un nivel de vuelo controlado y sostenido. A lo largo de los años, estos aparatos han ido evolución tanto en aplicaciones como en su estética y características físicas, siempre impulsado por los requerimientos militares en cada momento. Gracias a este desarrollo, hoy en día los drones son uno más en la sociedad y desempeñan tareas que para cualquier ser humano serían peligrosas o difíciles de llevar a cabo. Debido a la reciente proliferación de los RPA, los gobiernos de los distintos países se han visto obligados a redactar nuevas leyes y/o modificar las ya existentes en relación a los diferentes usos del espacio aéreo para promover la convivencia de estas aeronaves con el resto de vehículos aéreos. El objeto principal de este proyecto es ensamblar, caracterizar y configurar dos modelos reales de dron: el DJI F450 y el TAROT t810. Para conseguir un montaje apropiado a las aplicaciones posteriores que se les va a dar, antes de su construcción se ha realizado un estudio individualizado en detalle de cada una de las partes y módulos que componen estos vehículos. Adicionalmente, se ha investigado acerca de los distintos tipos de sistemas de transmisión de control remoto, vídeo y telemetría, sin dejar de lado las baterías que impulsarán al aparato durante sus vuelos. De este modo, es sabido que los RPA están compuestos por distintos módulos operativos: los principales, todo aquel módulo para que el aparato pueda volar, y los complementarios, que son aquellos que dotan a cada aeronave de características adicionales y personalizadas que lo hacen apto para diferentes usos. A lo largo de este proyecto se han instalado y probado diferentes módulos adicionales en cada uno de los drones, además de estar ambos constituidos por distintos bloques principales, incluyendo el controlador principal: NAZA-M Lite instalado en el dron DJI F450 y NAZA-M V2 incorporado en el TAROT t810. De esta forma se ha podido establecer una comparativa real acerca del comportamiento de éstos, tanto de forma conjunta como de ambos controladores individualmente. Tras la evaluación experimental obtenida tras diversas pruebas de vuelo, se puede concluir que ambos modelos de controladores se ajustan a las necesidades demandadas por el proyecto y sus futuras aplicaciones, siendo más apropiada la elección del modelo M Lite por motivos estrictamente económicos, ya que su comportamiento en entornos recreativos es similar al modelo M V2. ABSTRACT. A drone or RPA (Remote Piloted Aircraft) is an unmanned aerial vehicle that is able to take off, to fly and to land autonomously, semi-autonomously or manually, always connected via remote control. In addition, these aircrafts must be able to keep a controlled and sustained flight level. Over the years, the applications for these devices have evolved as much as their aesthetics and physical features both boosted by the military needs along time. Thanks to this development, nowadays drones are part of our society, executing tasks potentially dangerous or difficult to complete by humans. Due to the recent proliferation of RPA, governments worldwide have been forced to draft legislation and/or modify the existing ones about the different uses of the aerial space to promote the cohabitation of these aircrafts with the rest of the aerial vehicles. The main objective of this project is to assemble, to characterize and to set-up two real drone models: DJI F450 and TAROT t810. Before constructing the vehicles, a detailed study of each part and module that composes them has been carried out, in order to get an appropriate structure for their expected uses. Additionally, the different kinds of remote control, video and telemetry transmission systems have been investigated, including the batteries that will power the aircrafts during their flights. RPA are made of several operative modules: main modules, i.e. those which make the aircraft fly, and complementary modules, that customize each aircraft and equip them with additional features, making them suitable for a particular use. Along this project, several complementary modules for each drone have been installed and tested. Furthermore, both are built from different main units, including the main controller: NAZA-M Lite installed on DJI F450 and NAZA-M V2 on board of TAROT t810. This way, it has been possible to establish an accurate comparison, related to the performance of both models, not only jointly but individually as well. After several flight tests and an experimental evaluation, it can be concluded that both main controller models are suitable for the requirements fixed for the project and the future applications, being more appropriate to choose the M Lite model strictly due to economic reasons, as its performance in recreational environment is similar to the M V2.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O tema Governança de Tecnologia da Informação (GTI) tornou-se mais premente no ambiente empresarial brasileiro, principalmente após as repercussões mundiais ocorridas com a queda da bolsa de valores americana Nasdaq, com a nova configuração mundial após os ataques aos Estados Unidos em 11 de setembro de 2001 e a partir da promulgação da Lei Sarbanes-Oxley em 2002. Esse modelo de gestão tem sido implementado por organizações que buscam não somente obter melhor controle de gestão em Tecnologia da Informação, como para aquelas que têm de atender às conformidades legais exigidas pelos órgãos de controle. Implementá-la é um processo complexo e desafiador em virtude da necessidade de se identificar o melhor modelo de GTI dentre as práticas existentes no mundo empresarial. As empresas precisam fazer uma composição daquelas que melhor se aderem às suas realidades. Este trabalho tem como objetivo analisar os modelos de GTI adotados em organizações no Brasil, avaliar os seus resultados, seus níveis de maturidade, os seus benefícios, suas dificuldades e suas tendências, contribuindo assim para o seu melhor entendimento e para amenizar a carência de estudos nessa área no Brasil. Este estudo, que é de natureza empírica, baseou-se na metodologia de estudo de casos múltiplos realizado em cinco empresas para explorar como este modelo de gestão vem sendo adotado, quais estruturas, metodologias e práticas de mercado têm sido utilizadas para a sua efetividade. Neste contexto, apresentam-se os resultados obtidos, os aspectos que envolvem a implementação dos modelos de GTI nas organizações, as dificuldades encontradas, o que têm condicionado o seu desempenho e suas tendências.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O tema Governança de Tecnologia da Informação (GTI) tornou-se mais premente no ambiente empresarial brasileiro, principalmente após as repercussões mundiais ocorridas com a queda da bolsa de valores americana Nasdaq, com a nova configuração mundial após os ataques aos Estados Unidos em 11 de setembro de 2001 e a partir da promulgação da Lei Sarbanes-Oxley em 2002. Esse modelo de gestão tem sido implementado por organizações que buscam não somente obter melhor controle de gestão em Tecnologia da Informação, como para aquelas que têm de atender às conformidades legais exigidas pelos órgãos de controle. Implementá-la é um processo complexo e desafiador em virtude da necessidade de se identificar o melhor modelo de GTI dentre as práticas existentes no mundo empresarial. As empresas precisam fazer uma composição daquelas que melhor se aderem às suas realidades. Este trabalho tem como objetivo analisar os modelos de GTI adotados em organizações no Brasil, avaliar os seus resultados, seus níveis de maturidade, os seus benefícios, suas dificuldades e suas tendências, contribuindo assim para o seu melhor entendimento e para amenizar a carência de estudos nessa área no Brasil. Este estudo, que é de natureza empírica, baseou-se na metodologia de estudo de casos múltiplos realizado em cinco empresas para explorar como este modelo de gestão vem sendo adotado, quais estruturas, metodologias e práticas de mercado têm sido utilizadas para a sua efetividade. Neste contexto, apresentam-se os resultados obtidos, os aspectos que envolvem a implementação dos modelos de GTI nas organizações, as dificuldades encontradas, o que têm condicionado o seu desempenho e suas tendências.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo avaliou as alterações produzidas nos arcos dentais superiores de pacientes submetidos à Expansão Rápida da Maxila Assistida Cirurgicamente (ERMAC). A amostra utilizada foi composta de 50 modelos de gesso superiores de 18 pacientes, sendo seis do sexo masculino e 12 do sexo feminino, com média de idade de 23,3 anos. Para cada paciente foram preparados três modelos de gesso obtidos em diferentes fases: Inicial, antes do procedimento operatório (T1); três meses pós-expansão (travamento do expansor) e momento da remoção do aparelho expansor tipo Hyrax e colocação da placa removível de acrílico para contenção (T2); seis meses pós-expansão e momento de remoção da placa de acrílico (T3). O dispositivo expansor utilizado foi o disjuntor tipo Hyrax. O procedimento cirúrgico adotado foi a osteotomia lateral da maxila sem o envolvimento da lâmina pterigóide, osteotomia da espinha nasal à linha média dental (incisivos centrais superiores), separação da sutura palatina mediana por meio de cinzel e separação do septo nasal. O início da ativação ocorreu no terceiro dia pós-operatório, sendo ¼ de volta pela manhã e ¼ à noite, sendo que as ativações seguiram critérios clínicos para o controle da expansão. As medidas foram realizadas por meio da máquina de medição tridimensional (SAC), baseando-se nas alterações nos três planos (vertical, sagital e transversal) que ocorreram nos modelos de gesso. Concluiu-se que: 1. Houve um aumento estatisticamente significante nas distâncias transversais em todos os grupos de dentes (de incisivos centrais até segundos molares) de T1 para T2, demonstrando a efetividade do tratamento. De T2 para T3 não houve diferença estatisticamente significante para nenhuma variável, indicando, assim, estabilidade após seis meses do término da ERMAC; 2. Houve um aumento estatisticamente significante nas inclinações dos primeiros e segundos molares dos lados direito e esquerdo e dos segundos pré-molares apenas do lado esquerdo, sugerindo um comportamento assimétrico dos dentes avaliados; 3. Houve um aumento na largura palatina nos intervalos analisados, com diferenças estatisticamente significantes entre T1 x T2 e T1 x T3; 4. Não foram observadas diferenças estatisticamente significantes na profundidade palatina nos intervalos analisados.(AU)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo avaliou as alterações produzidas nos arcos dentais superiores de pacientes submetidos à Expansão Rápida da Maxila Assistida Cirurgicamente (ERMAC). A amostra utilizada foi composta de 50 modelos de gesso superiores de 18 pacientes, sendo seis do sexo masculino e 12 do sexo feminino, com média de idade de 23,3 anos. Para cada paciente foram preparados três modelos de gesso obtidos em diferentes fases: Inicial, antes do procedimento operatório (T1); três meses pós-expansão (travamento do expansor) e momento da remoção do aparelho expansor tipo Hyrax e colocação da placa removível de acrílico para contenção (T2); seis meses pós-expansão e momento de remoção da placa de acrílico (T3). O dispositivo expansor utilizado foi o disjuntor tipo Hyrax. O procedimento cirúrgico adotado foi a osteotomia lateral da maxila sem o envolvimento da lâmina pterigóide, osteotomia da espinha nasal à linha média dental (incisivos centrais superiores), separação da sutura palatina mediana por meio de cinzel e separação do septo nasal. O início da ativação ocorreu no terceiro dia pós-operatório, sendo ¼ de volta pela manhã e ¼ à noite, sendo que as ativações seguiram critérios clínicos para o controle da expansão. As medidas foram realizadas por meio da máquina de medição tridimensional (SAC), baseando-se nas alterações nos três planos (vertical, sagital e transversal) que ocorreram nos modelos de gesso. Concluiu-se que: 1. Houve um aumento estatisticamente significante nas distâncias transversais em todos os grupos de dentes (de incisivos centrais até segundos molares) de T1 para T2, demonstrando a efetividade do tratamento. De T2 para T3 não houve diferença estatisticamente significante para nenhuma variável, indicando, assim, estabilidade após seis meses do término da ERMAC; 2. Houve um aumento estatisticamente significante nas inclinações dos primeiros e segundos molares dos lados direito e esquerdo e dos segundos pré-molares apenas do lado esquerdo, sugerindo um comportamento assimétrico dos dentes avaliados; 3. Houve um aumento na largura palatina nos intervalos analisados, com diferenças estatisticamente significantes entre T1 x T2 e T1 x T3; 4. Não foram observadas diferenças estatisticamente significantes na profundidade palatina nos intervalos analisados.(AU)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução: As doenças cardiovasculares são a principal causa de morte no Brasil e no mundo e apresentam importante contribuição para a carga global de doenças. A dieta tem sido considerada um dos determinantes primários do estado de saúde dos indivíduos, atuando na modulação dos fatores de risco metabólicos para doença cardiovascular. Objetivos: Desenvolver um modelo conceitual para a relação entre fatores de risco metabólicos e investigar sua associação com padrões de dieta de adultos e idosos residentes no município de São Paulo. Métodos: Estudo transversal de base populacional com amostra probabilística de adultos e idosos, residentes em área urbana do município de São Paulo, que participaram do Inquérito de Saúde do Município de São Paulo, realizado em duas fases entre os anos de 2008 e 2011 (estudo ISA Capital 2008). Na primeira fase do estudo, 1.102 adultos e idosos, de ambos os sexos, foram entrevistados no domicílio, por meio da aplicação de questionário estruturado e do recordatório alimentar de 24 horas. Na segunda fase, 642 indivíduos adultos e idosos foram reavaliados quanto ao consumo alimentar por meio da aplicação, por telefone, do segundo recordatório alimentar, e, destes, 592 participaram da coleta domiciliar de amostras de sangue venoso, da medição antropométrica e da aferição da pressão arterial por técnico de enfermagem. Os alimentos relatados em ambos os recordatórios foram agrupados segundo a similaridade do valor nutricional e hábitos alimentares da população, e corrigidos pela variância intrapessoal da ingestão por procedimentos estatísticos da plataforma online Multiple Source Method. Os grupos de alimentos foram analisados por meio de análise fatorial exploratória e confirmatória (manuscrito 1) e por modelos de equações estruturais exploratórios (manuscrito 3), a fim de obter os padrões de dieta. O modelo conceitual da relação entre os fatores de risco metabólicos (leptina sérica, proteína C-reativa de alta sensibilidade sérica, pressão arterial sistólica e diastólica, razão colesterol total/lipoproteína de alta densidade, razão triacilglicerol/lipoproteína de alta densidade, glicemia de jejum plasmática, circunferência da cintura e peso corporal) foi obtido por modelos de equações estruturais estratificados por sexo (manuscrito 2). Por fim, a associação dos padrões de dieta com o modelo conceitual proposto (manuscrito 3) foi investigada por modelos de equações estruturais exploratórios. Índices de qualidade de ajuste foram estimados para avaliar a adequação de todos os modelos. As análises foram realizadas no programa Mplus versão 6.12. Resultados: No manuscrito 1, a análise fatorial exploratória revelou a existência de dois padrões de dieta, os quais apresentaram boa qualidade de ajuste na análise fatorial confirmatória quando aplicados os pontos de corte de cargas fatoriais |0,25| na rotação oblíqua Promax. No manuscrito 2, a relação entre os fatores de risco metabólicos foi diferente entre os sexos. Nas mulheres, a leptina sérica apresentou efeitos indiretos e positivos, mediados pelo peso corporal e pela circunferência da cintura, em todos os fatores de risco avaliados. Já nos homens, a leptina sérica apresentou efeitos diretos e positivos sobre a proteína C-reativa de alta sensibilidade e efeitos indiretos e positivos (mediados pelo peso corporal e pela circunferência da cintura) sobre a razão triacilglicerol/lipoproteína de alta densidade, colesterol total/lipoproteína de alta densidade e glicemia de jejum plasmática. No manuscrito 3, foram obtidos três padrões de dieta, dos quais o Tradicional apresentou relação direta e negativa com a leptina sérica e relação indireta e negativa com o peso corporal e a circunferência da cintura, bem como com os demais fatores de risco metabólicos. Já o padrão Prudente apresentou relação direta e negativa com a pressão arterial sistólica, enquanto o padrão Moderno não se associou aos fatores de risco metabólicos investigados. Conclusão: Diferenças nos padrões de dieta de acordo com o tipo de rotação fatorial empregada foram observadas. A relação entre os fatores de risco metabólicos para doença cardiovascular foi distinta entre homens e mulheres, sendo a leptina um dos possíveis hormônios envolvidos. Os padrões de dieta Tradicional e Prudente associaram-se inversamente com os fatores de risco metabólicos, desempenhando uma importante estratégia de prevenção e controle às doenças cardiovasculares no país.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os controladores eletrônicos de pulverização visam minimizar a variação das taxas de insumos aplicadas no campo. Eles fazem parte de um sistema de controle, e permitem a compensação da variação de velocidade de deslocamento do pulverizador durante a operação. Há vários tipos de controladores eletrônicos de pulverização disponíveis no mercado e uma das formas de selecionar qual o mais eficiente nas mesmas condições, ou seja, em um mesmo sistema de controle, é quantificar o tempo de resposta do sistema para cada controlador específico. O objetivo desse trabalho foi estimar os tempos de resposta para mudanças de velocidade de um sistema eletrônico de pulverização via modelos de regressão não lineares, estes, resultantes da soma de regressões lineares ponderadas por funções distribuição acumulada. Os dados foram obtidos no Laboratório de Tecnologia de Aplicação, localizado no Departamento de Engenharia de Biossistemas da Escola Superior de Agricultura \"Luiz de Queiroz\", Universidade de São Paulo, no município de Piracicaba, São Paulo, Brasil. Os modelos utilizados foram o logístico e de Gompertz, que resultam de uma soma ponderada de duas regressões lineares constantes com peso dado pela função distribuição acumulada logística e Gumbell, respectivamente. Reparametrizações foram propostas para inclusão do tempo de resposta do sistema de controle nos modelos, com o objetivo de melhorar a interpretação e inferência estatística dos mesmos. Foi proposto também um modelo de regressão não linear difásico que resulta da soma ponderada de regressões lineares constantes com peso dado pela função distribuição acumulada Cauchy seno hiperbólico exponencial. Um estudo de simulação foi feito, utilizando a metodologia de Monte Carlo, para avaliar as estimativas de máxima verossimilhança dos parâmetros do modelo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste estudo foi investigar os efeitos de dois modelos experimentais de dietas hipercalóricas em comportamentos de ansiedade, processos de aprendizagem e memória e alterações metabólicas. Os animais foram divididos em seis grupos experimentais, de acordo com a condição nutricional. 1) Controle (C); 2) Dieta de Cafeteria (DC); 3) Dieta Hiperlipídica (DH); 4) Controle AIN-93 (C/AIN-93); 5) Dieta de Cafeteria AIN-93 (DC/AIN-93), e 6) Dieta Hiperlipídica AIN-93 (DH/AIN-93). Posteriormente, os grupos foram subdivididos em dois grupos independentes, conforme a tarefa à qual foram submetidos. Pesagens foram realizadas semanalmente até os 98 dias de vida; foram verificados os pesos do fígado, do coração e o peso de tecido adiposo retroperitoneal e epididimal e foram realizadas dosagens de glicose, triglicérides, TGO e TGP no soro e gordura total, colesterol total e triglicérides no fígado. Os testes utilizados: Labirinto em T Elevado (LTE), Caixa Claro/Escuro e Labirinto Aquático de Morris (LAM). Os resultados de peso corporal, os dados comportamentais do LAM, do LTE e os dados de peso dos tecidos extraídos no dia do sacrifício e as análises bioquímicas foram submetidos a uma Análise de Variância (ANOVA). Quando apropriado, foi utilizado o teste de comparações múltiplas de Newman-Keuls (p< 0,05). Os dados comportamentais do teste claro/escuro foram submetidos ao teste t-Student (p< 0,05). Animais tratados com dieta hiperlipídica apresentaram maiores medidas de peso e ganho de peso comparados aos animais controle e dieta de cafeteria, tratados com pellet e com dieta AIN-93. Animais DH1, DC1, DH1 AIN-93, DH2 AIN-93 e DH2 apresentaram maior peso no dia do sacrifício. Animais DH1, DH1 AIN-93, DH2 e DH2 AIN-93 apresentaram maior acúmulo dos tecidos adiposos retroperitoneal e epididimal. Animais DH1 AIN-93 e DC2 AIN-93 apresentaram maiores níveis de glicose. Animais C2, DH2 e DC2 apresentaram maiores níveis de triglicérides. Animais DH1 e C1 apresentaram menores valores de TGO. Animais C2 e C2 AIN-93 apresentaram maiores níveis de TGO. Animais C1, DH1, C2 e DH2 apresentaram maiores níveis de TGP. Animais DH1 AIN-93, DH1, DH2 e DH2 AIN-93 apresentaram maiores valores de gordura total no fígado. Animais DH1 AIN-93 e DH2 apresentaram maiores níveis de colesterol no fígado. Animais DH1, DC1, DH2 e DH2 AIN-93 apresentaram maiores níveis de triglicérides no fígado. Com relação ao consumo alimentar, animais DH apresentaram maior consumo calórico e maior consumo lipídico quando comparados aos animais C e DC, com ração em pellet ou dieta AIN-93. Com relação ao LTE, não foram verificadas diferenças nas esquivas e na fuga. Animais DC1, DH1 e DH1 AIN-93 apresentaram menores níveis de ansiedade verificados a partir dos dados do teste da caixa claro-escuro. Animais DC2 AIN-93 apresentaram pior desempenho em tarefa de memória. Os dados obtidos a partir deste estudo demonstraram que as dietas utilizadas foram capazes de acarretar ganho de peso, acúmulo de tecido adiposo, alterações metabólicas, diminuição da ansiedade nos animais e pior desempenho em uma tarefa de memória em um dos grupos nutricionais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A biomassa lignicelulósica tem sua estrutura composta por celulose, hemicelulose e lignina. Dentre essas, a lignina tem se mostrado interessante por ser uma fonte precursora sustentável de fragmentos aromáticos antes obtidos apenas de combustíveis fósseis. Sua estrutura é composta por resíduos de fenilpropanóides p-hidroxibenzeno (H), guaiacil (G) e siringil (S) unidas por ligaç&otilde;es C–C e C–O–C em que a ligaç&atilde;o β–O–4 é a predominante (mais de 50%). Devido à sua complexidade estrutural e conformacional, a clivagem de suas ligaç&otilde;es é pouco seletiva e a caracterizaç&atilde;o dos fragmentos resultantes é complexa. Uma estratégia comumente empregada para evitar esses desafios é o uso de modelos mais simples. Entretanto, poucas metodologias s&atilde;o reportadas na literatura para a sua síntese e a maioria delas envolve o emprego de halocetonas. O presente trabalho desenvolveu duas novas metodologias promissoras para síntese desses oligômeros, contendo ligaç&atilde;o β–O–4 por meio da química de diazo: (a) reaç&atilde;o de inserç&atilde;o O–H entre fenol e α–aril diazocetonas, e (b) compostos α–diazo β-cetoéster. Ademais, a utilizaç&atilde;o de monômeros contendo a funç&atilde;o fenol e diazocetona no mesmo anel permitiria a síntese de cadeias de diversos tamanhos em uma única etapa. Como ponto de partida para o estudo, limitou-se à síntese de dímeros, visando entender a reaç&atilde;o de inserç&atilde;o O–H. Os produtos desejados foram obtidos em rendimentos de 27–51% após catálise com Cu(hfac)2. Por fim, os modelos de lignina propriamente ditos foram sintetizados após simples adiç&atilde;o aldólica e reduç&atilde;o em rendimentos globais de 51–78%. Os estudos envolvendo a inserç&atilde;o de fenol em α–diazo β-cetoéster mostraram resultados promissores, corroborando para uma nova estratégia sintética para a obtenç&atilde;o de modelos de lignina. Novos estudos em nosso laboratório est&atilde;o sendo desenvolvidos para se obter resultados mais conclusivos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The synthetic control (SC) method has been recently proposed as an alternative to estimate treatment effects in comparative case studies. The SC relies on the assumption that there is a weighted average of the control units that reconstruct the potential outcome of the treated unit in the absence of treatment. If these weights were known, then one could estimate the counterfactual for the treated unit using this weighted average. With these weights, the SC would provide an unbiased estimator for the treatment effect even if selection into treatment is correlated with the unobserved heterogeneity. In this paper, we revisit the SC method in a linear factor model where the SC weights are considered nuisance parameters that are estimated to construct the SC estimator. We show that, when the number of control units is fixed, the estimated SC weights will generally not converge to the weights that reconstruct the factor loadings of the treated unit, even when the number of pre-intervention periods goes to infinity. As a consequence, the SC estimator will be asymptotically biased if treatment assignment is correlated with the unobserved heterogeneity. The asymptotic bias only vanishes when the variance of the idiosyncratic error goes to zero. We suggest a slight modification in the SC method that guarantees that the SC estimator is asymptotically unbiased and has a lower asymptotic variance than the difference-in-differences (DID) estimator when the DID identification assumption is satisfied. If the DID assumption is not satisfied, then both estimators would be asymptotically biased, and it would not be possible to rank them in terms of their asymptotic bias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é saber se o direito indigenista, como denominarei o direito estatal que diz respeito aos povos indígenas, reconhece a legitimidade do direito indígena, como denominarei o direito produzido pelos povos indígenas, nas experiências colombiana, boliviana e brasileira. A escolha da Bolívia se justifica pelo fato de as Constituições recentes deste país e do Equador serem consideradas um novo marco do constitucionalismo pluralista ao refundarem suas ordens buscando superar a ausência indígena constituinte. Já a Colômbia se destaca entre os países que, sob a influência recente do Convênio 169, incorporaram expressamente o pluralismo jurídico em suas Constituições. A jurisprudência produzida pela Corte Constitucional do país a respeito do direito indígena é considerada exemplar e inspiradora dos desenvolvimentos mais recentes na Bolívia. O trabalho está voltado para dois aspectos do tema: a autonomia jurisdicional, ou a capacidade para julgar conflitos conforme as normas e procedimentos próprios, e os mecanismos de controle de tais decisões. A metodologia do trabalho abrange revisão bibliográfica, seleção e análise documental de decisões judiciais e textos legais. Argumento que a acomodação de autonomias políticas e ordens jurídicas de diferentes culturas depende da criação de meta-instituições e metarregras que solucionem conflitos e promovam a coordenação entre os direitos, permitindo que os grupos se relacionem de maneira equitativa, controlem a dinâmica de suas identidades culturais e se sintam parte de uma mesma comunidade política. A prática das instituições brasileiras, no entanto, está muito mais voltada a aplicar o direito estatal aos índios do que a exercer controle sobre o direito indígena, o que indica que o paradigma da assimilação prevalece sobre eventuais concepções multiculturais de Estado e sociedade, ainda que o direito legislado apresente regras que reconhecem o pluralismo jurídico. Em outras palavras, as instituições estatais enxergam os indígenas como pessoas que percorrem o caminho da incapacidade jurídica à capacidade plena à medida em que se familiarizam com a cultura dominante, e não como pessoas que podem transitar entre diferentes ordens jurídicas. Por outro lado, a experiência recente de países latino-americanos que se abriram ao pluralismo jurídico mostra um caminho difícil e repleto de questões em aberto. As que mais se destacam são a possibilidade de violações de direitos humanos por autoridades indígenas e a tensão entre centralização política e autonomia política. Em relação ao primeiro caso, o aspecto crucial é saber quem deve julgar as violações e sob quais critérios, além de evitar decisões culturalmente enviesadas. Já o segundo caso depende da superação de traços autoritários relacionados ao governo central e da predominância das estruturas estatais já consolidadas, tanto no nível central quanto no nível local, sobre as instituições mantidas pelos povos indígenas. Ainda há um descompasso entre o discurso constitucional de igualdade entre as ordens jurídicas e a prática de subordinação das ordens indígenas às instâncias estatais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O tema Governança de Tecnologia da Informação (GTI) tornou-se mais premente no ambiente empresarial brasileiro, principalmente após as repercussões mundiais ocorridas com a queda da bolsa de valores americana Nasdaq, com a nova configuração mundial após os ataques aos Estados Unidos em 11 de setembro de 2001 e a partir da promulgação da Lei Sarbanes-Oxley em 2002. Esse modelo de gestão tem sido implementado por organizações que buscam não somente obter melhor controle de gestão em Tecnologia da Informação, como para aquelas que têm de atender às conformidades legais exigidas pelos órgãos de controle. Implementá-la é um processo complexo e desafiador em virtude da necessidade de se identificar o melhor modelo de GTI dentre as práticas existentes no mundo empresarial. As empresas precisam fazer uma composição daquelas que melhor se aderem às suas realidades. Este trabalho tem como objetivo analisar os modelos de GTI adotados em organizações no Brasil, avaliar os seus resultados, seus níveis de maturidade, os seus benefícios, suas dificuldades e suas tendências, contribuindo assim para o seu melhor entendimento e para amenizar a carência de estudos nessa área no Brasil. Este estudo, que é de natureza empírica, baseou-se na metodologia de estudo de casos múltiplos realizado em cinco empresas para explorar como este modelo de gestão vem sendo adotado, quais estruturas, metodologias e práticas de mercado têm sido utilizadas para a sua efetividade. Neste contexto, apresentam-se os resultados obtidos, os aspectos que envolvem a implementação dos modelos de GTI nas organizações, as dificuldades encontradas, o que têm condicionado o seu desempenho e suas tendências.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo avaliou as alterações produzidas nos arcos dentais superiores de pacientes submetidos à Expansão Rápida da Maxila Assistida Cirurgicamente (ERMAC). A amostra utilizada foi composta de 50 modelos de gesso superiores de 18 pacientes, sendo seis do sexo masculino e 12 do sexo feminino, com média de idade de 23,3 anos. Para cada paciente foram preparados três modelos de gesso obtidos em diferentes fases: Inicial, antes do procedimento operatório (T1); três meses pós-expansão (travamento do expansor) e momento da remoção do aparelho expansor tipo Hyrax e colocação da placa removível de acrílico para contenção (T2); seis meses pós-expansão e momento de remoção da placa de acrílico (T3). O dispositivo expansor utilizado foi o disjuntor tipo Hyrax. O procedimento cirúrgico adotado foi a osteotomia lateral da maxila sem o envolvimento da lâmina pterigóide, osteotomia da espinha nasal à linha média dental (incisivos centrais superiores), separação da sutura palatina mediana por meio de cinzel e separação do septo nasal. O início da ativação ocorreu no terceiro dia pós-operatório, sendo ¼ de volta pela manhã e ¼ à noite, sendo que as ativações seguiram critérios clínicos para o controle da expansão. As medidas foram realizadas por meio da máquina de medição tridimensional (SAC), baseando-se nas alterações nos três planos (vertical, sagital e transversal) que ocorreram nos modelos de gesso. Concluiu-se que: 1. Houve um aumento estatisticamente significante nas distâncias transversais em todos os grupos de dentes (de incisivos centrais até segundos molares) de T1 para T2, demonstrando a efetividade do tratamento. De T2 para T3 não houve diferença estatisticamente significante para nenhuma variável, indicando, assim, estabilidade após seis meses do término da ERMAC; 2. Houve um aumento estatisticamente significante nas inclinações dos primeiros e segundos molares dos lados direito e esquerdo e dos segundos pré-molares apenas do lado esquerdo, sugerindo um comportamento assimétrico dos dentes avaliados; 3. Houve um aumento na largura palatina nos intervalos analisados, com diferenças estatisticamente significantes entre T1 x T2 e T1 x T3; 4. Não foram observadas diferenças estatisticamente significantes na profundidade palatina nos intervalos analisados.(AU)