86 resultados para redundância
Macrofauna Edáfica e Atributos Físicos e Químicos em Sistemas de Uso do Solo no Planalto Catarinense
Resumo:
RESUMO O uso do solo pode alterar processos como decomposição da matéria orgânica, ciclagem de nutrientes e agregação das partículas e, com isso, influenciar a ocorrência da macrofauna. Objetivou-se com este estudo relacionar os sistemas de uso do solo e os efeitos deles sobre a distribuição de grupos da macrofauna do solo, bem como a relação desses com os atributos físicos e químicos do solo. Os sistemas de uso do solo avaliados foram: floresta nativa, reflorestamento de eucalipto, pastagem, integração lavoura-pecuária e lavoura com sistema plantio direto. As amostras foram coletadas em uma grade de amostragem de 3 × 3, totalizando nove pontos, distanciados entre si em 30 m, no inverno e verão, em três municípios do Planalto Sul-catarinense, considerados réplicas verdadeiras. As avaliações foram de atributos físicos e químicos do solo e da abundância e diversidade da macrofauna, coletada pelo método Tropical Soil Biology and Fertility (TSBF). Os organismos do solo são pertencentes a 16 grupos taxonômicos, com 4.702 indivíduos m-2 no inverno e 7.438 indivíduos m-2 no verão. Houve interação entre época e sistemas de uso do solo, com flutuação populacional dos organismos dependente do uso e com relação aos atributos físicos e químicos do solo, evidenciada pela análise de redundância, que apresentou alta correlação entre variáveis ambientais e fauna do solo. As mudanças na composição da macrofauna do solo foram observadas nos seus sistemas de uso, que tiveram maior intervenção antrópica. Floresta nativa, reflorestamento de eucalipto e pastagem são mais estáveis em termos de biodiversidade da macrofauna do solo, quando comparados com áreas agrícolas com plantio direto e integração lavoura-pecuária.
Resumo:
Na sociedade da cultura digital, um novo imperativo categórico impõe-se: ser significa ser midiática e eletronicamente percebido. Em conformidade com a lógica dessa nova ontologia, também o produtivismo acadêmico metamorfoseia-se numa espécie de produtivismo midiático e performático, na medida em que os artigos e seus respectivos autores se transformam em logotipos de sucesso quando são mais visualizados no ambiente virtual do que outros. Dado esse cenário e tendo como mediações pesquisas anteriores e revisão bibliográfica, objetiva-se, neste artigo, investigar o modo como a expressão "publique ou pereça" se converte em "publique, apareça ou pereça". Conclui-se que se faz cada vez mais necessário engendrar novas políticas de produção acadêmica, de tal maneira que seus autores reflitam criticamente sobre os conceitos de produtivismo, plágio, autoplágio e redundância no contexto da cultura digital.
Resumo:
A coleção de germoplasma de arroz da Embrapa consiste aproximadamente de 10.000 acessos. O objetivo desse trabalho foi estabelecer a Coleção Nuclear (CN) dessa coleção utilizando as informações e dados disponíveis sobre seus acessos. A estratégia CN foi introduzida no manejo de recursos genéticos vegetais com o principal objetivo de ampliar e sistematizar o uso desses recursos. Uma CN deve ser selecionada procurando reter a variabilidade genética existente na coleção inteira (CI) com um mínimo de redundância. Os acessos da coleção de arroz foram classificados em três estratos: a) variedades tradicionais do Brasil (VT); b) linhagens/cultivares melhoradas do Brasil (LCM); e c) linhagens/cultivares introduzidas (LCI). As variedades tradicionais foram ainda classificadas segundo o sistema de cultivo (terras altas, várzeas e facultativo). Os três estratos foram representados na Coleção Nuclear, mas ênfase maior foi dada às variedades tradicionais, que constituíram 308 acessos. Os acessos foram alocados para cada sistema de cultivo, proporcionalmente ao produto do logarítmo do número de variedades tradicionais pelo índice de Shannon (medida de diversidade) de cada um deles. A seleção dos acessos foi feita com o auxilio do Sistema de Informação Geográfica (SIG). A CN brasileira de arroz está formada por 550 acessos.
Resumo:
[cat] Utilitzem un conjunt de mètriques del paisatge per estudiar l'evolució a llarg termini seguida en una típica zona costanera del Mediterrani des de 1850 fins a 2005, que mostren una greu deterioració del medi ambient entre 1950 i 2005. Les principals forces motores d'aquesta degradació del paisatge han estat el creixement urbà experimentat a les antigues zones agrícoles situades a les planes litorals, juntament amb l'abandonament i la reforestació dels vessants dels pujols interceptats per àrees residencials de baixa densitat, carreteres i altres infraestructures lineals. Duem a terme una anàlisi estadística de redundància (RDA) amb la finalitat d'identificar els que considerem com alguns agents rectors socioeconòmics i polítics d'última instància d'aquests impactes ambientals. Els resultats confirmen les nostres hipòtesis interpretatives, que són que: 1) els canvis en les cobertes i usos del sòl determinen canvis en les propietats dels paisatge, tant estructurals com funcionals; 2) aquests canvis no es produeixen per atzar, sinó que estan relacionats amb factors geogràfics i forces socioeconòmiques i polítiques.
Resumo:
[cat] Utilitzem un conjunt de mètriques del paisatge per estudiar l'evolució a llarg termini seguida en una típica zona costanera del Mediterrani des de 1850 fins a 2005, que mostren una greu deterioració del medi ambient entre 1950 i 2005. Les principals forces motores d'aquesta degradació del paisatge han estat el creixement urbà experimentat a les antigues zones agrícoles situades a les planes litorals, juntament amb l'abandonament i la reforestació dels vessants dels pujols interceptats per àrees residencials de baixa densitat, carreteres i altres infraestructures lineals. Duem a terme una anàlisi estadística de redundància (RDA) amb la finalitat d'identificar els que considerem com alguns agents rectors socioeconòmics i polítics d'última instància d'aquests impactes ambientals. Els resultats confirmen les nostres hipòtesis interpretatives, que són que: 1) els canvis en les cobertes i usos del sòl determinen canvis en les propietats dels paisatge, tant estructurals com funcionals; 2) aquests canvis no es produeixen per atzar, sinó que estan relacionats amb factors geogràfics i forces socioeconòmiques i polítiques.
Resumo:
Erros humanos são uma importante fonte de falhas em todos os passos do planejamento e do tratamento radioterapêutico. Com o objetivo de reduzir este grau de incerteza, várias organizações especializadas recomendam minuciosos programas de garantia da qualidade. No Brasil, programas deste tipo vêm tendo sua exigência intensificada, e a maioria dos serviços de radioterapia vem se orientando neste sentido, tanto em relação aos equipamentos de radiação e dosimetria, quanto em relação à verificação dos cálculos de dose em pacientes e das revisões das fichas de planejamento. Como uma contribuição a este esforço de qualidade, apresentam-se algumas recomendações para se evitar falhas de tratamento devidas a erros na dose de radiação recebida pelo paciente, como redundância nas verificações dos cálculos feitos manualmente ou por computador, e, também, a verificação da dose acumulada para cada paciente sob tratamento, semanalmente, além de se evitar a possibilidade de acesso a qualquer sistema de segurança do equipamento ao pessoal técnico treinado para apenas o operar. Além disso, deve-se considerar a possibilidade de se empregar um sistema computadorizado de verificação e registro do tratamento, dessa maneira prevenindo-se erros durante a aplicação diária devidos à seleção indevida dos diferentes parâmetros do tratamento. Reportam-se quatro incidentes radioativos recentes ocorridos no mundo, com injúrias em pacientes, e algumas ocorrências de erros grandes de dose.
Resumo:
OBJETIVO: Integração dos Sistemas de Informação em Radiologia (RIS - "Radiology Information System") e de Arquivamento e Comunicação de Imagens (PACS - "Picture Archiving and Communication System") no Serviço de Radiodiagnóstico do Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo, para possibilitar a consulta remota de laudos e imagens associadas. MATERIAIS E MÉTODOS: A integração RIS/PACS implementada é feita em tempo real, no momento da consulta, utilizando tecnologias "web" e técnicas de programação para "intranet/internet". RESULTADOS: A aplicação "web" permite a consulta pela "intranet" do hospital dos laudos de exames e imagens associadas através de nome, sobrenome, número de registro hospitalar dos pacientes ou por modalidade, dentro de um determinado período. O visualizador possibilita que o usuário navegue pelas imagens, podendo realizar algumas funções básicas como "zoom", controle de brilho e contraste e visualização de imagens lado a lado. CONCLUSÃO: A integração RIS/PACS diminui o risco de inconsistências, através da redução do número de interfaces entre bases de dados com grande redundância de informação, proporcionando um ambiente de trabalho rápido e seguro para consulta de laudos radiológicos e visualização de imagens associadas.
Resumo:
En aquest article parlarem d'un jeroglífic inscrit als laterals de la llinda de Sant Andreu de la Barroca, una petita església perduda en un indret recòndit de la Vall del Llémena, a la Garrotxa. A propòsit d'aquest petit enigma ludolingüístic, plantejarem(i finalment resoldrem) un problema de naturalesa combinatòria que el lector interessat pot provar de resoldre com a exercici. També fem un breu repàs de la història del desxiframent '’escriptures de civilitzacions antigues. Aprofitem l'avinentesa per introduir els conceptes d'entropia i redundància del llenguatge, que ens ajudaran a entendre per què, tard o d'hora, qualsevolescriptura antiga finalment acaba essent desxifrada quan es té una conjectura raonable sobre quina és la llengua que transcriu. Finalment, definim el concepte d'esquema de compartició de secrets, un problema de criptografia moderna en el qual un conjunt de persones gestiona petits fragments d'informació compartida, i que es resol aplicant de manera brillant una idea que prové del món de l'àlgebra lineal més elemental
Resumo:
Actualment un típic embedded system (ex. telèfon mòbil) requereix alta qualitat per portar a terme tasques com codificar/descodificar a temps real; han de consumir poc energia per funcionar hores o dies utilitzant bateries lleugeres; han de ser el suficientment flexibles per integrar múltiples aplicacions i estàndards en un sol aparell; han de ser dissenyats i verificats en un període de temps curt tot i l’augment de la complexitat. Els dissenyadors lluiten contra aquestes adversitats, que demanen noves innovacions en arquitectures i metodologies de disseny. Coarse-grained reconfigurable architectures (CGRAs) estan emergent com a candidats potencials per superar totes aquestes dificultats. Diferents tipus d’arquitectures han estat presentades en els últims anys. L’alta granularitat redueix molt el retard, l’àrea, el consum i el temps de configuració comparant amb les FPGAs. D’altra banda, en comparació amb els tradicionals processadors coarse-grained programables, els alts recursos computacionals els permet d’assolir un alt nivell de paral•lelisme i eficiència. No obstant, els CGRAs existents no estant sent aplicats principalment per les grans dificultats en la programació per arquitectures complexes. ADRES és una nova CGRA dissenyada per I’Interuniversity Micro-Electronics Center (IMEC). Combina un processador very-long instruction word (VLIW) i un coarse-grained array per tenir dues opcions diferents en un mateix dispositiu físic. Entre els seus avantatges destaquen l’alta qualitat, poca redundància en les comunicacions i la facilitat de programació. Finalment ADRES és un patró enlloc d’una arquitectura concreta. Amb l’ajuda del compilador DRESC (Dynamically Reconfigurable Embedded System Compile), és possible trobar millors arquitectures o arquitectures específiques segons l’aplicació. Aquest treball presenta la implementació d’un codificador MPEG-4 per l’ADRES. Mostra l’evolució del codi per obtenir una bona implementació per una arquitectura donada. També es presenten les característiques principals d’ADRES i el seu compilador (DRESC). Els objectius són de reduir al màxim el nombre de cicles (temps) per implementar el codificador de MPEG-4 i veure les diferents dificultats de treballar en l’entorn ADRES. Els resultats mostren que els cícles es redueixen en un 67% comparant el codi inicial i final en el mode VLIW i un 84% comparant el codi inicial en VLIW i el final en mode CGA.
Resumo:
Da identificação funcional da primeira aquaporina de plantas, em 1993, aos dias de hoje, uma grande quantidade de informações sobre a estrutura, a localização e a função dos diferentes membros desta família multigênica de proteínas de membrana foi disponibilizada pela comunidade científica. Inicialmente consideradas como "simples canais de água", as aquaporinas se mostraram capazes de transportar gases e pequenos solutos neutros, como glicerol, uréia e silício, revolucionando o conceito de transporte transmembrana. Devido à redundância dos genes de aquaporinas e à sua distribuição em todos os órgãos e tecidos vegetais, essas proteínas têm sido consideradas essenciais na manutenção de funções vitais, como absorção de água e nutrientes em raízes, germinação de sementes, fotossíntese, transpiração e reprodução. O presente trabalho faz uma revisão sobre a caracterização funcional e molecular das aquaporinas e sua importância no desenvolvimento da planta e na resposta a estresses ambientais. Apesar dos avanços nas pesquisas com aquaporinas de plantas, existem poucos estudos com espécies nativas de regiões tropicais havendo, portanto, vasto campo de pesquisa a ser explorado, tendo em vista as diferenças na disponibilidade de água, a ocorrência de estresses ambientais diversos nos biomas tropicais e os mecanismos empregados pelas plantas dessas regiões para se adaptar à grande variedade de condições ambientais.
Resumo:
Els mètodes de detecció, diagnosi i aïllament de fallades (Fault Detection and Isolation - FDI) basats en la redundància analítica (és a dir, la comparació del comportament actual del procés amb l’esperat, obtingut mitjançant un model matemàtic del mateix), són àmpliament utilitzats per al diagnòstic de sistemes quan el model matemàtic està disponible. S’ha implementat un algoritme per implementar aquesta redundància analítica a partir del model de la plana conegut com a Anàlisi Estructural
Resumo:
Este trabalho busca a implementação da replicação de objetos através da linguagem Java e de seu sistema de invocação remota de métodos (Remote Method Invocation - RMI). A partir deste sistema, define-se uma classe de replicação - a máquina de replicação – onde a implementação de grupos de objetos é estruturada de acordo com a arquitetura cliente/servidor, sendo o cliente o representante (a interface) de um grupo de objetos e os servidores representam os demais componentes do grupo. A classe de replicação atende a uma necessidade importante dos sistemas distribuídos - o desenvolvimento de aplicações tolerantes a falhas. Fundamentalmente, a tolerância a falhas é obtida por redundância e, no caso de mecanismos de tolerância a falhas por software, esta redundância significa basicamente replicação de dados, processos ou objetos. A tolerância a falhas para tal tipo de sistema é importante para garantir a transparência do mesmo, visto que, assim como um sistema distribuído pode auxiliar muito o usuário pelas facilidades oferecidas, o não cumprimento de suas atividades de acordo com o esperado pode, em algumas situações, causar-lhe transtornos e erros irrecuperáveis nas aplicações. Finalmente, como principal contribuição, este trabalho descreve e implementa a solução completa para a construção de uma biblioteca de classes que oferece a replicação de forma totalmente transparente para o usuário.
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.
Resumo:
O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação de vídeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador de vídeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador de vídeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.
Resumo:
Algoritmos ótimos na extração de componentes principais com aprendizado não-supervisionado em redes neurais de múltiplos neurônios de saída são não-locais, ou seja, as modificações em uma dada sinapse entre dois neurônios dependem também da atividade de outros neurônios. Esta rede ótima extrairá as principais componentes dos dados e submetidos à sua primeira camada. As principais componentes são as projeções destes vetores nos autovalores máximos da matriz de correlação Gij = (eiej), onde a média (-) é sobre a distribuição de e. Existem fortes evidências indicando que sinapses biológicas só se modificam via regras locais, como por exemplo a regra de Hebb. Mas se aplicarmos regras locais numa rede com múltiplas saídas, todos os neurônios da saída serão equivalentes e darão respostas redundantes. A rede será bastante ineficiente. Um modo de contornar este problema é através da restrição dos campos receptivos dos neurônios de saída. Se cada neurônio acessar diferentes partes dos estímulos de entrada, a redundância diminui significativamente. Em contrapartida, ao mesmo tempo que a redundância diminui, também diminui a informação contida em cada neurônio; assim, devemos balancear os dois efeitos otimizando o campo receptivo. O valor ótimo, em geral, depende da natureza dos estímulos, sua estatística, e também do ruído intrínseco à rede. Objetivamos com este trabalho determinar a estrutura ótima de campos receptivos com aprendizado não-supervisionado para uma rede neural de uma camada em diversas condições medindo seu desempenho a partir de técnicas de reconstrução.