986 resultados para retrodirective array
Resumo:
This communications describes an electromagnetic model of a radial line planar antenna consisting of a radial guide with one central probe and many peripheral probes arranged in concentric circles feeding an array of antenna elements such as patches or wire curls. The model takes into account interactions between the coupling probes while assuming isolation of radiating elements. Based on this model, computer programs are developed to determine equivalent circuit parameters of the feed network and the radiation pattern of the radial line planar antenna. Comparisons are made between the present model and the two-probe model developed earlier by other researchers.
Resumo:
This study describes the derivation of two new lines of transgenic mice that express Cre recombinase under the control of tyrosinase transcriptional elements. To determine the suitability of the Tyrosinase-Cre transgene for tissue-specific gene ablation studies, a fate map of Cre expression domains was determined using the Z/AP reporter strain. It was shown that Cre-expressing cells contribute to a wide array of neural crest and neuroepithelial-derived lineages. The melanocytes of the harderian gland and eye choroid, sympathetic cephalic ganglia, leptomeninges of the telencephalon, as well as cranial nerves (V), (VII), and (IX) are derived either fully or partly from Cre-expressing cephalic crest. The cells contributing to the cranial nerves were the first to exhibit Cre expression at E10.5 as they were migrating into the branchial arches. The melanocytes, chromaffin cells of the adrenal medulla, and dorsal root ganglia are derived from trunk neural crest that either express Cre or were derived from Cre-expressing precursors. An array of brain tissue including the basal forebrain, hippocampus, olfactory bulb, and the granule cell layer of the lateral cerebellum, as well as the retinal pigmented epithelium and glia of the optic nerve originate from Cre-expressing neuroepithelial cells. (C) 2003 Wiley-Liss, Inc.
Resumo:
This review summarizes the development of exclusion chromatography, also termed gel filtration, molecular-sieve chromatography and gel permeation chromatography, for the quantitative characterization of solutes and solute interactions. As well as affording a means of determining molecular mass and molecular mass distribution, the technique offers a convenient way of characterizing solute selfassociation and solute-ligand interactions in terms of reaction stoichiometry and equilibrium constant. The availability of molecular-sieve media with different selective porosities ensures that very little restriction is imposed on the size of solute amenable to study. Furthermore, access to a diverse array of assay procedures for monitoring the column eluate endows analytical exclusion chromatography with far greater flexibility than other techniques from the viewpoint of solute concentration range that can be examined. In addition to its widely recognized prowess as a means of solute separation and purification, exclusion chromatography thus also possesses considerable potential for investigating the functional roles of the purified solutes. (C) 2003 Elsevier Science B.V. All rights reserved.
Resumo:
Fatty acids inhibit insulin-mediated glucose metabolism in skeletal muscle, an effect largely attributed to defects in insulin-mediated glucose transport. Insulin-resistant mice transgenic for the overexpression of lipoprotein lipase (LPL) in skeletal muscle were used to examine the molecular mechanism(s) in more detail. Using DNA gene chip array technology, and confirmation by RT-PCR and Western analysis, increases in the yeast Sec1p homolog Munc18c mRNA and protein were found in the gastrocnemius muscle of transgenic mice, but not other tissues. Munc18c has been previously demonstrated to impair insulin-mediated glucose transport in mammalian cells in vitro. Of interest, stably transfected C2C12 cells overexpressing LPL not only demonstrated increases in Munc18c mRNA and protein but also in transcription rates of the Munc18c gene. jlr To confirm the relevance of fatty acid metabolism and insulin resistance to the expression of Munc18c in vivo, a 2-fold increase in Munc18c protein was demonstrated in mice fed a high-fat diet for 4 weeks. Together, these data are the first to implicate in vivo increases in Munc18c as a potential contributing mechanism to fatty acid-induced insulin resistance.
Resumo:
Venomous animals have evolved a vast array of peptide toxins for prey capture and defence. These peptides are directed against a wide variety of pharmacological targets, making them an invaluable source of ligands for studying the properties of these targets in different experimental paradigms. A number of these peptides have been used in vivo for proof-of-concept studies, with several having undergone preclinical or clinical development for the treatment of pain, diabetes, multiple sclerosis and cardiovascular diseases. Here we survey the pharmacology of venom peptides and assess their therapeutic prospects.
Resumo:
Subtractive imaging in confocal fluorescence light microscopy is based on the subtraction of a suitably weighted widefield image from a confocal image. An approximation to a widefield image can be obtained by detection with an opened confocal pinhole. The subtraction of images enhances the resolution in-plane as well as along the optic axis. Due to the linearity of the approach, the effect of subtractive imaging in Fourier-space corresponds to a reduction of low spatial frequency contributions leading to a relative enhancement of the high frequencies. Along the direction of the optic axis this also results in an improved sectioning. Image processing can achieve a similar effect. However, a 3D volume dataset must be acquired and processed, yielding a result essentially identical to subtractive imaging but superior in signal-to-noise ratio. The latter can be increased further with the technique of weighted averaging in Fourier-space. A comparison of 2D and 3D experimental data analysed with subtractive imaging, the equivalent Fourier-space processing of the confocal data only, and Fourier-space weighted averaging is presented. (C) 2003 Elsevier Ltd. All rights reserved.
Resumo:
Este estudo analisa os processos de circulação e apropriação das representações sobre os saberes da educação escolarizada difundidos pela Revista de Educação do Espírito Santo, entre os anos de 1934 e 1937. Como referencial teórico baseamo- nos em Chartier (1990) acerca do conceito de representação, em Balandier (1982) em relação ao conceito de encenação de poder instituído que assume visibilidade quando circula na Revista, concedendo publicização aos feitos políticos realizados por dado grupo social, e em Julia (2001), junto ao conceito de cultura escolar. A partir desse arcabouço teórico, empreendemos metodologia de pesquisa a partir da análise histórica da fonte, dialogando, para tanto, com diferentes documentos e registros que configuram uma série de dados que constituem nossa fonte. Trata-se da análise das representações travadas no debate sobre a formação, divulgação e apropriação do conjunto de práticas e saberes pedagógicos dirigido aos professores, por parte de um grupo de intelectuais locais que se apresentava como portador do projeto de modernização do Espírito Santo inserido no contexto nacional. A Revista de Educação/ES tinha entre seus principais objetivos o de (in)formar os professores, ou seja, enquadrar suas práticas às novas demandas educacionais. Deste modo, a Revista esteve atrelada a um projeto educacional em que os intelectuais corroboravam a ampla circulação de um conjunto de representações sobre a modernidade, utilizando a Revista como suporte, visto que, desde as capas, são expostos “monumentos de modernização”, como os prédios escolares e todo um complexo arranjo de artefatos simbólicos, traduzidos muitas vezes em festas e rituais escolares que evocavam “um novo tempo para a Educação do Estado”, ou seja, fazendo da educação escolarizada um espetáculo.
Resumo:
O crescimento populacional empurra a produção agrícola em direção ao uso intensivo dos agrotóxicos que aumentam a produtividade. Porém, seu uso incorreto pode resultar em grave problema para as estações de tratamento da água e impactar negativamente na saúde pública. Segundo estudos em escala laboratorial, o tratamento convencional, um dos mais utilizados no Brasil, apresenta remoção insignificante do 2,4-D. A adsorção em carvão ativado tem se demonstrado como tecnologia eficiente na remoção de diversos contaminantes, dentre eles os agrotóxicos. Assim, foi avaliada a remoção dos herbicidas 2,4-D e 2,4,5-T e metabólito 2,4-DCP, utilizando o tratamento convencional e a adsorção em coluna de carvão ativado granular em instalação piloto. O carvão ativado granular empregado foi o derivado da casca de coco. A concentração dos herbicidas foi analisada por cromatografia líquida de alta eficiência com detector por arranjo de diodos e extração em fase sólida. A associação do tratamento convencional com a adsorção em carvão ativado granular apresentou elevada remoção do 2,4-D (99%) atingindo concentrações finais abaixo do limite da Portaria MS n° 2914/2011. O tratamento convencional, no entanto, também apresentou remoção do 2,4-D (35 a 59%), sendo o maior percentual obtido na decantação (30 a 52%), indicando que houve interação entre a matéria orgânica natural e o 2,4-D, contribuindo para sua remoção nessa etapa. O 2,4-DCP e 2,4,5-T apresentaram concentrações abaixo do limite de detecção.
Resumo:
Trata a presente pesquisa sobre o estudo da evolução da área da paisagem que compõe o município de Linhares (ES), nos anos de 1985 e 2013/2014, que constitui o maior município do Estado do Espírito Santo. Foi realizada, por meio de processamento digital de imagens de satélites LANDSAT 5 e 8, a classificação de uso e ocupação da terra da área em estudo. Além disso usou-se as imagens do satélite RapdEye para acurácia da classificação digital das imagens. A partir dos resultados levantados de uso e ocupação foram definidas as matrizes da paisagem para 1985 e 2013/2014, bem como avaliadas as manchas que compõem a matriz. Foram aplicadas as métricas da paisagem utilizando a ferramenta de estatística Fragstats, possibilitando o cálculo dos Índices de Paisagem afim de avaliar a evolução qualitativa e quantitativa da paisagem do município de Linhares.
Resumo:
O objeto de estudo dessa pesquisa é a política de segurança pública brasileira visando compreender o seu percurso ideológico e político no contexto de retomada e da consolidação da democracia no Brasil, após 21 anos de ditadura militar. Considerando o contexto no qual se verifica a existência de disputa política em torno da concepção de segurança pública, o objetivo geral deste trabalho é compreender a matriz estruturante da política de segurança pública no Brasil contemporâneo. Seu intuito visa responder à pergunta inicial e condutora do interesse que estrutura este trabalho, aqui apresentada nos seguintes termos: a política de segurança pública no Brasil após o restabelecimento das eleições diretas para a Presidência da República está em vias de transição, tendendo a assumir caráter democrático ou a força da tradição autoritária na cultura política brasileira tem-se garantido a sua continuidade neste campo da intervenção estatal? Ancoramos a nossa reflexão nas categorias teóricas de dominação, coerção e consenso no pensamento clássico de Hobbes, Marx, Weber e Gramsci, extraindo deles os elementos que nos auxiliam no entendimento da política de segurança pública brasileira. Para o estudo dessa política foi fundamental operarmos uma profunda revisão bibliográfica, especialmente para entender como a manutenção da ordem foi se desenhando no contexto brasileiro e como historicamente tem prevalecido um modelo de segurança pública marcado pelo autoritarismo. Entretanto, a partir da redemocratização brasileira há a emergência de outro paradigma para a política de segurança pública, a segurança cidadã, propondo, entre outras coisas, a reforma das instituições de segurança pública e a formação em direitos humanos nas instituições policiais. Para a análise do paradigma emergente de segurança, buscamos apoio no Programa Nacional dos Direitos Humanos e no Plano Nacional de Segurança Pública, documentos federais que representam a construção de uma nova intencionalidade para a segurança pública no Brasil. Finalmente, reconhecemos que, embora haja significativas reformas na segurança pública, tal política, diante da prevalência de um paradigma de segurança tradicional com fortes componentes autoritários, se encontra entre a segurança cidadã e a continuidade autoritária.
Resumo:
A ossificação da cóclea, decorrente principalmente de meningite, impede a inserção completa do implante coclear convencional. Os implantes com 2 feixes de eletrodos mais curtos do que o convencional foram desenvolvidos especialmente para cócleas ossificadas. Porém, durante essa cirurgia há um grande risco de lesão da artéria carótida interna (ACI). Portanto, a medida da profundidade das cocleostomias para inserir os dois feixes de eletrodos aumentaria a segurança desse procedimento. OBJETIVOS: 1) Obter as distâncias entre as cocleostomias e a ACI em ossos temporais de cadáver; 2) Confeccionar instrumento que possa ser usado na cirurgia de implante coclear com 2 feixes de eletrodos. FORMA DE ESTUDO: Experimental prospectivo. MATERIAL E MÉTODO: Em 21 ossos de cadáveres foi realizada: 1) mastoidectomia cavidade aberta; 2) cocleostomias nos giros basal e médio da cóclea; 3) identificação da ACI; 4) medida da distância entre as cocleostomias e a artéria. RESULTADOS: A medida média ± desvio padrão obtida para o túnel superior foi 8,2 ± 1,1mm e para o túnel inferior foi 8,1± 1,3mm. A menor distância encontrada foi 6,5mm para o túnel superior e 6,0mm para o túnel inferior. CONCLUSÃO: Apesar dos parâmetros calculados concluímos que a melhor medida para ser considerada na confecção do instrumento cirúrgico serão as mínimas medidas obtidas em cada um dos giros cocleares, pois é a maneira mais segura para evitar a lesão da ACI, que pode ser fatal.
Resumo:
Management systems standards (MSSs) have developed in an unprecedented manner in the last few years. These MSS cover a wide array of different disciplines, aims and activities of organisations. Also, organisations are populated with an enormous diversity of independent management systems (MSs). An integrated management system (IMS) tends to integrate some or all components of the business. Maximising their integration in one coherent and efficient MS is increasingly a strategic priority and constitutes an opportunity for businesses to be more competitive and consequently, promote its sustainable success. Those organisations that are quicker and more efficient in their integration and continuous improvement will have a competitive advantage in obtaining sustainable value in our global and competitive business world. Several scholars have proposed various theoretical approaches regarding the integration of management sub-systems, leading to the conclusion that there is no common practice for all organisations as they encompass different characteristics. One other author shows that several tangible and intangible gains for organisations, as well as to their internal and external stakeholders, are achieved with the integration of the individual standardised MSs. The purpose of this work was to conceive a model, Flexible, Integrator and Lean for IMSs, according to ISO 9001 for quality; ISO 14001 for environment and OHSAS 18001 for occupational health and safety (IMS–QES), that can be adapted and progressively assimilate other MSs, such as, SA 8000/ISO 26000 for social accountability, ISO 31000 for risk management and ISO/IEC 27001 for information security management, among others. The IMS–QES model was designed in the real environment of an industrial Portuguese small and medium enterprise, that over the years has been adopting, gradually, in whole or in part, individual MSSs. The developed model is based on a preliminary investigation conducted through a questionnaire. The strategy and research methods have taken into consideration the case study. Among the main findings of the survey we highlight: the creation of added value for the business through the elimination of several organisational wastes; the integrated management of the sustainability components; the elimination of conflicts between independent MS; dialogue with the main stakeholders and commitment to their ongoing satisfaction and increased contribution to the company’s competitiveness; and greater valorisation and motivation of employees as a result of the expansion of their skill base, actions and responsibilities, with their consequent empowerment. A set of key performance indicators (KPIs) constitute the support, in a perspective of business excellence, to the follow up of the organisation’s progress towards the vision and achievement of the defined objectives in the context of each component of the IMS model. The conceived model had many phases and the one presented in this work is the last required for the integration of quality, environment, safety and others individual standardised MSs. Globally, the investigation results, by themselves, justified and prioritised the conception of an IMS–QES model, to be implemented at the company where the investigation was conducted, but also a generic model of an IMS, which may be more flexible, integrator and lean as possible, potentiating the efficiency, added value both in the present and, fundamentally, for future.
Resumo:
In MIMO systems the antenna array configuration in the BS and MS has a large influence on the available channel capacity. In this paper, we first introduce a new Frequency Selective (FS) MIMO framework for macro-cells in a realistic urban environment. The MIMO channel is built over a previously developed directional channel model, which considers the terrain and clutter information in the cluster, line-of-sight and link loss calculations. Next, MIMO configuration characteristics are investigated in order to maximize capacity, mainly the number of antennas, inter-antenna spacing and SNR impact. Channel and capacity simulation results are presented for the city of Lisbon, Portugal, using different antenna configurations. Two power allocations schemes are considered, uniform distribution and FS spatial water-filling. The results suggest optimized MIMO configurations, considering the antenna array size limitations, specially at the MS side.
Resumo:
Lossless compression algorithms of the Lempel-Ziv (LZ) family are widely used nowadays. Regarding time and memory requirements, LZ encoding is much more demanding than decoding. In order to speed up the encoding process, efficient data structures, like suffix trees, have been used. In this paper, we explore the use of suffix arrays to hold the dictionary of the LZ encoder, and propose an algorithm to search over it. We show that the resulting encoder attains roughly the same compression ratios as those based on suffix trees. However, the amount of memory required by the suffix array is fixed, and much lower than the variable amount of memory used by encoders based on suffix trees (which depends on the text to encode). We conclude that suffix arrays, when compared to suffix trees in terms of the trade-off among time, memory, and compression ratio, may be preferable in scenarios (e.g., embedded systems) where memory is at a premium and high speed is not critical.
Resumo:
O presente trabalho consiste na implementação em hardware de unidades funcionais dedicadas e optimizadas, para a realização das operações de codificação e descodificação, definidas na norma de codificação com perda Joint Photographic Experts Group (JPEG), ITU-T T.81 ISO/IEC 10918-1. Realiza-se um estudo sobre esta norma de forma a caracterizar os seus principais blocos funcionais. A finalidade deste estudo foca-se na pesquisa e na proposta de optimizações, de forma a minimizar o hardware necessário para a realização de cada bloco, de modo a que o sistema realizado obtenha taxas de compressão elevadas, minimizando a distorção obtida. A redução de hardware de cada sistema, codificador e descodificador, é conseguida à custa da manipulação das equações dos blocos Forward Discrete Cosine Transform (FDCT) e Quantificação (Q) e dos blocos Forward Discrete Cosine Transform (IDCT) e Quantificação Inversa (IQ). Com as conclusões retiradas do estudo e através da análise de estruturas conhecidas, descreveu-se cada bloco em Very-High-Speed Integrated Circuits (VHSIC) Hardware Description Language (VHDL) e fez-se a sua síntese em Field Programmable Gate Array (FPGA). Cada sistema implementado recorre à execução de cada bloco em paralelo de forma a optimizar a codificação/descodificação. Assim, para o sistema codificador, será realizada a operação da FDCT e Quantificação sobre duas matrizes diferentes e em simultâneo. O mesmo sucede para o sistema descodificador, composto pelos blocos Quantificação Inversa e IDCT. A validação de cada bloco sintetizado é executada com recurso a vectores de teste obtidos através do estudo efectuado. Após a integração de cada bloco, verificou-se que, para imagens greyscale de referência com resolução de 256 linhas por 256 colunas, é necessário 820,5 μs para a codificação de uma imagem e 830,5 μs para a descodificação da mesma. Considerando uma frequência de trabalho de 100 MHz, processam-se aproximadamente 1200 imagens por segundo.