965 resultados para objective techniques
Resumo:
Baseado na convicção de que trabalhar é gerir fruto das pesquisas com a perspectiva da Ergologia , procura-se nesta tese pensar gestão como um conceito ampliado, algo que todos os humanos operam ao trabalhar, e não somente como uma função exclusiva de administradores, no sentido restrito do termo (referido apenas aos chefes, diretores, etc.). Tendo como campo empírico o Sistema Único de Saúde (SUS) e investigando-se as proposições de alguns dos principais autores sobre o tema da Gestão e Planejamento em Saúde, verificou-se que uma exaustiva busca vem sendo empreendida por diversos agentes do campo da Saúde e por pesquisadores para aproximarem-se, compreenderem e desenvolverem melhor as habilidades, os conhecimentos, as competências e os dispositivos que permitiriam uma gestão mais eficiente do SUS e, mais especificamente, no âmbito de uma Unidade de Saúde Pública no Brasil. Estiveram em análise as práticas de gestão desenvolvidas em um Centro Municipal de Saúde do estado do Rio de Janeiro (Brasil), no qual o autor da tese, além das atividades de pesquisa, exercia a função de diretor geral. A tese teve como objetivo principal analisar, do ponto de vista da atividade, a dimensão gestionária do trabalho na Unidade de Saúde citada, a fim de discutir a viabilidade naquele local e, possivelmente em outras Unidades de Saúde do exercício de uma ergogestão, isto é, uma gestão com base nos princípios propostos pela Ergologia quando o ponto de vista da atividade tem cidadania no meio de trabalho. O referencial teórico constituiu-se de algumas abordagens clínicas do trabalho (Ergonomia da Atividade, Psicopatologia do Trabalho, Psicodinâmica do Trabalho e Clínica da Atividade, esta última em menor proporção) com elementos das contribuições do educador brasileiro Paulo Freire, do psicanalista inglês Donald Winnicott e do biólogo chileno Humberto Maturana, todas colocadas em sinergia dialética sob a orientação da perspectiva ergológica. No curso da investigação foram utilizados métodos e técnicas pertinentes a este quadro e que objetivaram possibilitar a aproximação e o diálogo com os protagonistas da atividade na Unidade de Saúde em análise. Destacam-se as influências da pesquisa-intervenção e da pesquisa etnográfica, sendo o principal dispositivo técnico utilizado aquele denominado Encontros sobre o Trabalho. A pesquisa empreendida, conjuntamente com a experiência concreta de gerenciamento (como diretor geral), permitiu concluir que o esforço de implantação da modalidade que se denomina ergogestão, privilegiando o ponto de vista da atividade, pôde colaborar para promover transformações positivas no cotidiano da Unidade posta em análise. Contudo, sua aceitação por um maior número de atores e seu desenvolvimento dependem do atendimento de algumas necessidades, apontadas pelo coletivo de trabalho como entraves a superar. Os achados aqui presentes podem contribuir para a construção de um patrimônio de informações acerca da Unidade. A partir desse patrimônio outras experiências de gerenciamento podem vir a se desenvolver, obtendo-se assim, cada vez maior êxito na gestão do processo de trabalho e na melhoria das condições do atendimento oferecido aos usuários.
Resumo:
As pontes rodoviárias de concreto armado estão sujeitas às ações dinâmicas variáveis devido ao tráfego de veículos sobre o tabuleiro. Estas ações dinâmicas podem gerar o surgimento das fraturas ou mesmo a sua propagação na estrutura. A correta consideração destes aspectos objetivou o desenvolvimento de um estudo, de forma a avaliar os esforços do tráfego de veículos pesados sobre o tabuleiro. As técnicas para a contagem de ciclos de esforços e a aplicação das regras de dano acumulado foram analisadas através das curvas S-N de diversas normas estudadas. A ponte rodoviária investigada é constituída por quatro vigas longitudinais, três transversinas e por um tabuleiro de concreto armado. O modelo computacional, desenvolvido para a análise dinâmica da ponte, foi concebido com base no emprego de técnicas usuais de discretização através do método dos elementos finitos. O modelo estrutural da obra de arte rodoviária estudada foi simulado com base no emprego de elementos finitos sólidos tridimensionais. Os veículos são representados a partir de sistemas massa-mola-amortecedor. O tráfego dessas viaturas é considerado mediante a simulação de comboios semi-infinitos, deslocando-se com velocidade constante sobre o tabuleiro da ponte. As conclusões deste trabalho versam acerca da vida útil de serviço dos elementos estruturais de pontes rodoviárias de concreto armado submetidas às ações dinâmicas provenientes do tráfego de veículos pesados sobre o tabuleiro.
Resumo:
With continuing advances in CMOS technology, feature sizes of modern Silicon chip-sets have gone down drastically over the past decade. In addition to desktops and laptop processors, a vast majority of these chips are also being deployed in mobile communication devices like smart-phones and tablets, where multiple radio-frequency integrated circuits (RFICs) must be integrated into one device to cater to a wide variety of applications such as Wi-Fi, Bluetooth, NFC, wireless charging, etc. While a small feature size enables higher integration levels leading to billions of transistors co-existing on a single chip, it also makes these Silicon ICs more susceptible to variations. A part of these variations can be attributed to the manufacturing process itself, particularly due to the stringent dimensional tolerances associated with the lithographic steps in modern processes. Additionally, RF or millimeter-wave communication chip-sets are subject to another type of variation caused by dynamic changes in the operating environment. Another bottleneck in the development of high performance RF/mm-wave Silicon ICs is the lack of accurate analog/high-frequency models in nanometer CMOS processes. This can be primarily attributed to the fact that most cutting edge processes are geared towards digital system implementation and as such there is little model-to-hardware correlation at RF frequencies.
All these issues have significantly degraded yield of high performance mm-wave and RF CMOS systems which often require multiple trial-and-error based Silicon validations, thereby incurring additional production costs. This dissertation proposes a low overhead technique which attempts to counter the detrimental effects of these variations, thereby improving both performance and yield of chips post fabrication in a systematic way. The key idea behind this approach is to dynamically sense the performance of the system, identify when a problem has occurred, and then actuate it back to its desired performance level through an intelligent on-chip optimization algorithm. We term this technique as self-healing drawing inspiration from nature's own way of healing the body against adverse environmental effects. To effectively demonstrate the efficacy of self-healing in CMOS systems, several representative examples are designed, fabricated, and measured against a variety of operating conditions.
We demonstrate a high-power mm-wave segmented power mixer array based transmitter architecture that is capable of generating high-speed and non-constant envelope modulations at higher efficiencies compared to existing conventional designs. We then incorporate several sensors and actuators into the design and demonstrate closed-loop healing against a wide variety of non-ideal operating conditions. We also demonstrate fully-integrated self-healing in the context of another mm-wave power amplifier, where measurements were performed across several chips, showing significant improvements in performance as well as reduced variability in the presence of process variations and load impedance mismatch, as well as catastrophic transistor failure. Finally, on the receiver side, a closed-loop self-healing phase synthesis scheme is demonstrated in conjunction with a wide-band voltage controlled oscillator to generate phase shifter local oscillator (LO) signals for a phased array receiver. The system is shown to heal against non-idealities in the LO signal generation and distribution, significantly reducing phase errors across a wide range of frequencies.
Resumo:
Semiconductor technology scaling has enabled drastic growth in the computational capacity of integrated circuits (ICs). This constant growth drives an increasing demand for high bandwidth communication between ICs. Electrical channel bandwidth has not been able to keep up with this demand, making I/O link design more challenging. Interconnects which employ optical channels have negligible frequency dependent loss and provide a potential solution to this I/O bandwidth problem. Apart from the type of channel, efficient high-speed communication also relies on generation and distribution of multi-phase, high-speed, and high-quality clock signals. In the multi-gigahertz frequency range, conventional clocking techniques have encountered several design challenges in terms of power consumption, skew and jitter. Injection-locking is a promising technique to address these design challenges for gigahertz clocking. However, its small locking range has been a major contributor in preventing its ubiquitous acceptance.
In the first part of this dissertation we describe a wideband injection locking scheme in an LC oscillator. Phase locked loop (PLL) and injection locking elements are combined symbiotically to achieve wide locking range while retaining the simplicity of the latter. This method does not require a phase frequency detector or a loop filter to achieve phase lock. A mathematical analysis of the system is presented and the expression for new locking range is derived. A locking range of 13.4 GHz–17.2 GHz (25%) and an average jitter tracking bandwidth of up to 400 MHz are measured in a high-Q LC oscillator. This architecture is used to generate quadrature phases from a single clock without any frequency division. It also provides high frequency jitter filtering while retaining the low frequency correlated jitter essential for forwarded clock receivers.
To improve the locking range of an injection locked ring oscillator; QLL (Quadrature locked loop) is introduced. The inherent dynamics of injection locked quadrature ring oscillator are used to improve its locking range from 5% (7-7.4GHz) to 90% (4-11GHz). The QLL is used to generate accurate clock phases for a four channel optical receiver using a forwarded clock at quarter-rate. The QLL drives an injection locked oscillator (ILO) at each channel without any repeaters for local quadrature clock generation. Each local ILO has deskew capability for phase alignment. The optical-receiver uses the inherent frequency to voltage conversion provided by the QLL to dynamically body bias its devices. A wide locking range of the QLL helps to achieve a reliable data-rate of 16-32Gb/s and adaptive body biasing aids in maintaining an ultra-low power consumption of 153pJ/bit.
From the optical receiver we move on to discussing a non-linear equalization technique for a vertical-cavity surface-emitting laser (VCSEL) based optical transmitter, to enable low-power, high-speed optical transmission. A non-linear time domain optical model of the VCSEL is built and evaluated for accuracy. The modelling shows that, while conventional FIR-based pre-emphasis works well for LTI electrical channels, it is not optimum for the non-linear optical frequency response of the VCSEL. Based on the simulations of the model an optimum equalization methodology is derived. The equalization technique is used to achieve a data-rate of 20Gb/s with power efficiency of 0.77pJ/bit.
Resumo:
1. The effect of 2,2’-bis-[α-(trimethylammonium)methyl]azobenzene (2BQ), a photoisomerizable competitive antagonist, was studied at the nicotinic acetycholine receptor of Electrophorus electroplaques using voltage-jump and light-flash techniques.
2. 2BQ, at concentrations below 3 μΜ, reduced the amplitude of voltage-jump relaxations but had little effect on the voltage-jump relaxation time constants under all experimental conditions. At higher concentrations and voltages more negative than -150 mV, 2BQ caused significant open channel blockade.
3. Dose-ratio studies showed that the cis and trans isomers of 2BQ have equilibrium binding constants (K ᵢ) of .33 and 1.0 μΜ, respectively. The binding constants determined for both isomers are independent of temperature, voltage, agonist concentration, and the nature of the agonist.
4. In a solution of predominantly cis-2BQ, visible-light flashes led to a net cis→trans isomerization and caused an increase in the agonist-induced current. This increase had at least two exponential components; the larger amplitude component had the same time constant as a subsequent voltage-jump relaxation; the smaller amplitude component was investigated using ultraviolet light flashes.
5. In a solution of predominantly trans-2BQ, UV-light flashes led to a net trans→cis isomerization and caused a net decrease in the agonist-induced current. This effect had at least two exponential components. The smaller and faster component was an increase in agonist-induced current and had a similar time constant to the voltage-jump relaxation. The larger component was a slow decrease in the agonist-induced current with rate constant approximately an order of magnitude less than that of the voltage-jump relaxation. This slow component provided a measure of the rate constant for dissociation of cis-2BQ (k_ = 60/s at 20°C). Simple modelling of the slope of the dose-rate curves yields an association rate constant of 1.6 x 108/M/s. This agrees with the association rate constant of 1.8 x 108/M/s estimated from the binding constant (Ki). The Q10 of the dissociation rate constant of cis-2BQ was 3.3 between 6° and 20°C. The rate constants for association and dissociation of cis-28Q at receptors are independent of voltage, agonist concentration, and the nature of the agonist.
6. We have measured the molecular rate constants of a competitive antagonist which has roughly the same K ᵢ as d-tubocurarine but interacts more slowly with the receptor. This leads to the conclusion that curare itself has an association rate constant of 4 x 109/M/s or roughly as fast as possible for an encounter-limited reaction.
Resumo:
The study of codes, classically motivated by the need to communicate information reliably in the presence of error, has found new life in fields as diverse as network communication, distributed storage of data, and even has connections to the design of linear measurements used in compressive sensing. But in all contexts, a code typically involves exploiting the algebraic or geometric structure underlying an application. In this thesis, we examine several problems in coding theory, and try to gain some insight into the algebraic structure behind them.
The first is the study of the entropy region - the space of all possible vectors of joint entropies which can arise from a set of discrete random variables. Understanding this region is essentially the key to optimizing network codes for a given network. To this end, we employ a group-theoretic method of constructing random variables producing so-called "group-characterizable" entropy vectors, which are capable of approximating any point in the entropy region. We show how small groups can be used to produce entropy vectors which violate the Ingleton inequality, a fundamental bound on entropy vectors arising from the random variables involved in linear network codes. We discuss the suitability of these groups to design codes for networks which could potentially outperform linear coding.
The second topic we discuss is the design of frames with low coherence, closely related to finding spherical codes in which the codewords are unit vectors spaced out around the unit sphere so as to minimize the magnitudes of their mutual inner products. We show how to build frames by selecting a cleverly chosen set of representations of a finite group to produce a "group code" as described by Slepian decades ago. We go on to reinterpret our method as selecting a subset of rows of a group Fourier matrix, allowing us to study and bound our frames' coherences using character theory. We discuss the usefulness of our frames in sparse signal recovery using linear measurements.
The final problem we investigate is that of coding with constraints, most recently motivated by the demand for ways to encode large amounts of data using error-correcting codes so that any small loss can be recovered from a small set of surviving data. Most often, this involves using a systematic linear error-correcting code in which each parity symbol is constrained to be a function of some subset of the message symbols. We derive bounds on the minimum distance of such a code based on its constraints, and characterize when these bounds can be achieved using subcodes of Reed-Solomon codes.
Resumo:
A contaminação do ar e do meio ambiente por combustíveis derivados de petróleo tem sido objeto de crescente pesquisa no Brasil. Dentre os tipos de poluição ao meio ambiente, a poluição atmosférica é a que causa mais incômodo à população. Esta exerce efeitos sobre a saúde humana, causando desde simples irritações até câncer de pulmão. Dos poluentes mais perigosos encontrados nesses ambientes, são destaques os hidrocarbonetos e os compostos monoaromáticos como o benzeno, tolueno e xilenos (BTX), presentes nesses combustíveis, que são extremamente tóxicos à saúde humana. Para controle desses compostos orgânicos voláteis, é necessário quantificá-los e compará-los aos valores limites de tolerância legislados no Brasil. A utilização da técnica de cromatografia gasosa e da técnica de espectroscopia por infravermelho permite realizar essa tarefa de maneira relativamente simples e rápida. Portanto o objetivo deste trabalho foi apresentar a composição química de amostras de gasolina do tipo C comercializadas nos postos revendedores da Região Metropolitana do Estado do Rio de Janeiro. Foram feitas análises quantitativas dos principais grupos químicos (parafínicos, olefínicos, naftênicos e aromáticos) e etanol por Cromatografia Gasosa de Alta Resolução e da composição de benzeno, tolueno e xileno (BTX) pela técnica de absorção no infravermelho. Os resultados foram comparados com os limites dados pela especificação da ANP (Portaria n 309) para a qualidade da gasolina, com o objetivo de se verificar se estão em conformidade com este agente regulamentador. Os resultados mostraram que todos os teores encontrados de olefínicos e aromáticos foram abaixo do limite especificado. Alguns postos apresentaram os teores de benzeno acima do limite especificado, indicando um nível de ação por parte da ANP principalmente pela ação tóxica do benzeno
Resumo:
A good understanding of the population dynamics of algal communities is vital in many ecological and pollution studies of freshwater and oceanic systems. Present methods require manual counting and identification of algae and can take up to 90 min to obtain a statistically reliable count on a complex population. Several alternative techniques to accelerate the process have been tried on marine samples but none have been completely successful because insufficient effort has been put into verifying the technique before field trials. The objective of the present study has been to assess the potential of in vivo fluorescence of algal pigments as a means of automatically identifying algae. For this work total fluorescence spectroscopy was chosen as the observation technique.
Resumo:
This article describes the progress of the River Communities Project which commenced in 1977. This project aimed to develop a sensitive and practical system for river site classification using macroinvertebrates as an objective means of appraising the status of British rivers. The relationship between physical and chemical features of sites and their biological communities were examined. Sampling was undertaken on 41 British rivers. Ordination techniques were used to analyze data and the sites were classified into 16 groups using multiple discrimination analysis. The potential for using the environmental data to predict to which group a site belonged and the fauna likely to be present was investigated.
Resumo:
As hepatites crônicas por vírus são as mais frequentes, destacando-se os vírus das hepatites B (VHB) e C (VHC). O estudo anatomopatológico da biópsia hepática é considerado o padrão ouro para avaliar com precisão a distorção arquitetural e o grau de fibrose do parênquima do fígado, importantes fatores prognósticos para os pacientes portadores de hepatites crônicas virais. Na avaliação histopatológica atual, em adição aos relatos subjetivos das alterações histológicas, escores semiquantitativos que correlacionam achados morfológicos com graus numéricos são usados, tais como os reconhecidos escores de Ishak e METAVIR. Entretanto, em todos estes sistemas há a desvantagem da subjetividade do examinador e da incorporação de alterações categóricas, sem referências às mudanças quantitativas do colágeno hepático. Técnicas de análise de imagens digitais (AID) que fornecem quantificação objetiva dos graus de fibrose em amostras histológicas têm sido desenvolvidas. Todavia, o alto custo e dificuldade ao acesso das tecnologias descritas restringem seu uso a poucos centros especializados. Este estudo visa o desenvolvimento de uma técnica de custo acessível para a análise de imagens digitais da fibrose hepática em hepatites crônicas virais. Foram estudadas 304 biópsias de pacientes com hepatite crônica por vírus B e C, obtidas através de agulhas Menghini. Todas as amostras tinham pelo menos 15 mm de comprimento ou cinco espaços-porta completos e foram coradas pelo método Tricrômico de Masson. O estadiamento foi feito por um único hepatopatologista experiente, sem o conhecimento dos dados clínicos dos pacientes. Os escores de Ishak e METAVIR foram aplicados. As imagens microscópicas foram digitalizadas. Os índices de fibrose foram determinados de forma automatizada, em técnica desenvolvida no programa Adobe Photoshop. Para o escore de Ishak, observamos os seguintes índices de Fibrose (IF) médios: 0,8% 0,0 (estágio 0), 2.4% 0,6 (estágio 1), 4,7% 1,6 (estágio 2), 7,4% 1,4 (estágio 3), 14,9% 3,7 (estágio 4), 23,4% 2,9 (estágio 5) e 34,5% 1,5 (estágio 6). Para a classificação METAVIR: 0,8% 0,1 (estágio F0), 3,8% 1,8 (estágio F1), 7,4% 1,4 (estágio F2), 20,4% 5,2 (estágio F3) e 34,5% 1,5 (estágio F4). Observamos uma excelente correlação entre os índices de fibrose da AID e os escores de Ishak (r=0,94; p<0,001) e METAVIR (r=0,92; p<0,001). Em relação à indicação de tratamento antiviral, foi observado IF médio de 16,4%. Em relação ao diagnóstico de cirrose, foi observado IF médio de 26,9%, para o escore de Ishak, e 34,5% para a classificação METAVIR. A reprodutibilidade intra-observador foi excelente. Este novo método de análise de imagens digitais para a quantificação de fibrose hepática tem custo acessível e foi desenvolvido com tecnologia que está disponível em todo o mundo, permitindo identificar com precisão todos os estágios de fibrose, com excelente reprodutibilidade intra-observador.