951 resultados para Circuito equivalente


Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo construir um referencial teórico que auxilie no entendimento de como a Agroenergia poderá impactar o mercado de terras no Brasil. Posteriormente, analisar os reflexos desta nova conjuntura no coeficiente de elasticidade de uso da terra, para a cultura da cana-de-açúcar, no Estado de São Paulo, após a introdução dos veículos flex-fuel no mercado brasileiro. Os aspectos relacionados ao mercado de terras, suas definições e características de uso, têm sido objeto de estudo de muitos pensadores e economistas, desde o final do século XIX. Motivado por esta afirmação, procurou-se realizar uma revisão de literatura para entender as diferentes linhas do pensamento econômico em relação às principais variáveis que compõem a formação de preço e a dinâmica do mercado de terras. Segundo a teoria neoclássica, o valor da terra está intrinsecamente associado à sua capacidade de produção. Aliado a esta característica, também é fundamental entender os atributos da terra como ativo real, seja na expectativa de ganhos de capital ou reserva de valor. Com o intuito de contribuir para esta discussão, foi proposto um fluxograma, que identificou como as variáveis deveriam se correlacionar e impactar na formação do preço das terras agrícolas. É possível afirmar que, no curto prazo, a Agroenergia impactará o valor das terras agrícolas, via preço das commodities, características de ativo real, especialmente na aposta de ganhos de capital e devido ao aumento das políticas governamentais relacionados à produção de biocombustíveis. Em relação ao coeficiente de elasticidade da área de cana-de-açúcar, em São Paulo, em relação a expectativa de preço da tonelada equivalente de ATR, para o açúcar e o etanol, observou-se que a cultura de cana-de-açúcar se tornou mais sensível às variações no preço da tonelada de ATR, expandindo a área cultivada com uma menor variação na expectativa de preço, após a introdução dos veículos flex-fuel no mercado nacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Flores das espécies Sambucus nigra, de origem européia, e Sambucus australis, nativa da América do Sul (Caprifoliaceae), denominadas sabugueiro e sabugueirodo- brasil, respectivamente, são utilizadas popularmente sob forma de infusão, como antiinflamatórias, laxativas e para condições febris resultantes de afecções do trato respiratório. Estudos prévios para S. nigra indicam compostos fenólicos como principais constituintes químicos, sendo estes relacionados às principais atividades biológicas avaliadas. Objetivando comparar esta espécie com Sambucus australis, foram realizadas análises botânicas macro e microscópicas das flores, identificando as principais diferenças entre as espécies, tais como o número de lóculos no ovário e presença de idioblastos cristalíferos em algumas estruturas, e observando os possíveis contaminantes (pedicelos). Também foram determinados os parâmetros farmacopéicos: cinzas totais e perda por dessecação. Após a análise química, foi escolhido o flavonóide rutina como marcador das espécies, para realizar análises quantitativas nas 31 amostras adquiridas e / ou coletadas, utilizando método de CLAE previamente validado. Soluções hidroetanólicas apresentaram maior capacidade de extração do produto alvo. Os limites mínimos de rutina observados para ambas as espécies foram de aproximadamente 0,65%. Também foram quantificados, por método espectrofotométrico, os flavonóides totais expressos em quercetina, sendo 0,93% e 1,46% os teores mínimos determinados para S.nigra e S. australis, respectivamente. O estudo da estabilidade acelerada (50°C ± 90% U.R.), avaliando a degradação dos constituintes químicos presentes permitiu sugerir a cinética de degradação de segunda ordem para da rutina nas duas espécies. Comparações de atividades biológicas das espécies foram realizadas pelos ensaios das atividades antiinflamatória (inibição do edema em pata de rato induzido por carragenina) e antioxidante (DPPH). Os resultados para o primeiro ensaio demonstraram ação equivalente em ambas as espécies para extratos hidroetanólicos a 80% (86% de inibição) e aquosos (81%), com atividade semelhante ao padrão indometacina (~83%); para a atividade antioxidante os extratos hidroetanólicos a 80% foram mais ativos (CE50 = 16 μg/ml) que os aquosos (CE50 = 27 μg/ml) em S. australis, e ambos extratos, superiores ao 28 extrato padronizado Gingko biloba (CE50 = 40 μg/ml) e aos extratos de S. nigra (CE50= 50 μg/ml – hidroetanólico e CE50= 32 μg/ml – aquoso).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo trata sobre memórias que são produzidas tendo imagens como evocadores. Procura abordar as múltiplas relações que travamos com as imagens, interações que constituem nosso olhar, que produzem nossas identidades, que se inscrevem em nossas memórias. Para o desenvolvimento da investigação, foi escolhida uma imagem em particular e procurou-se acompanhar o seu circuito e sua inscrição em memórias individuais e coletivas, através da análise de histórias de vida de sujeitos que interagiram com a imagem em diferentes tempos e contextos. Trata-se de Il Quarto Stato, de Pellizza da Volpedo, obra dada a público inicialmente na Itália em 1901 e de ampla circulação no Brasil entre o final da década de 1970 e início dos anos 80, no contexto de ascensão dos movimentos sociais, através de reproduções veiculadas em diversas materialidades. A pesquisa está inscrita nos campos da História da Educação e da História Cultural, utilizando-se, embora não exclusivamente, as construções teóricas de Roger Chartier para pensar as maneiras através das quais uma imagem adquire significados de acordo com o suporte em que é apresentada e o ato que a apreende. Para a descrição do circuito de Il Quarto Stato foi utilizada uma diversidade de materiais impressos, como jornais, revistas, cartazes, livros, manuais escolares, além de objetos audiovisuais, como filmes e documentários. As memórias produzidas a partir de Il Quarto Stato, tomado como evocador, foram narradas por dezenove entrevistados em quarenta e cinco entrevistas e analisadas a partir dos pressupostos metodológicos da história oral, ressaltando-se a complexidade da relação construída através da interação entre as subjetividades do entrevistador e do entrevistado. O estudo procura enfatizar a força das imagens como privilegiados evocadores de memórias. Também destaca o caráter heterogêneo das lembranças que se produzem mediadas por Il Quarto Stato, entre as quais, memórias políticas, memórias de família e memórias de trabalho foram as mais expressivas. A pesquisa trata, ainda, do modo como os narradores, através de suas memórias, procuram produzir-se a si mesmos, tentando construir passados e identidades com os quais consigam conviver no presente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diretorio TesteAs recentes mudanças de estrutura no sistema elétrico (geração, transmissão, distribuição e comercialização de energia) têm motivado o uso da geração distribuída e, em particular, pequenos produtores independentes conectados ao sistemas de distribuição e subtransmissão. Sendo recente, ainda há muitas lacunas quanto ao entendimento do impacto desta nova topologia na estabilidade e outros índices de desempenho do sistema. O presente trabalho está focado na conexão dos produtores independentes aos sistemas de distribuição e subtransmissão e visa contribuir quanto ao estudo teórico-prático deste problema, com ênfase nos aspectos de modelagem dos componentes do sistema. Este estudo faz parte do projeto de pesquisa “Impacto de Produtores Independentes e Autoprodutores Conectados aos sistemas de distribuição e subtransmissão", desenvolvido pela UFRGS com financiamento da CEEE. Como as unidades de geração distribuída são conectadas às redes de distribuição e transmissão, a distância entre estes geradores e as cargas é menor comparativamente às usinas de grande porte. Existe ainda a questão dos produtores independentes serem de potências menores e, portanto, mais suscetíveis às variações de carga da rede em que estão ligados. Devido a estes e outros fatores, uma melhor análise dos modelos estáticos e dinâmicos dos diversos componentes do sistema de potência dentro desta nova topologia se faz necessária. Um dos aspectos considerados neste trabalho, foi o estudo da influência da resistência da linha na análise da geração distribuída nas linhas de distribuição. Esta foi uma das contribuições deste trabalho e foi realizada por meio de simulações considerando vários modelos de geradores e cargas. Outra contribuição foi a construção do sistema consistindo de um protótipo de um produtor independente conectado a rede de distribuição, composto de um gerador de 100kVA conectado à rede elétrica, contendo cargas resistivas e indutivas, podendo serem ligadas/desligadas, emulando condições de operação similares às reais. A construção do protótipo também envolveu um sistema para simulação, um sistema supervisório para operação e realização de ensaios, e os algoritmos necessários para tal. Este sistema permite a simulação dinâmica de modelos de sistemas elétricos de potência em diversos cenários e a verificação experimental do comportamento dos grupos geradores em diversas condições de operação, incluindo a análise de desempenho estático, ensaios de curto circuito e as variações de despacho ativo e reativo de potência. Obtendo com isso uma melhor identificação e quantificação do impacto dos produtores independentes e autoprodutores na análise de sistemas elétricos de potência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho pesquisa o fenômeno da transferência simultânea de calor e umidade em solos insaturados que envolvem dutos enterrados. Estes dutos e o solo envolvente compõem o chamado sistema trocador-armazenador de calor no solo, que é muitas vezes utilizado como fonte complementar de aquecimento em estufas solares agrícolas. O funcionamento do sistema trocador-armazenador de calor é baseado na energia armazenada no solo durante os horários de máxima insolação, sendo que durante a noite parte desta energia é recuperada. Durante o dia o ar quente do meio interno da estufa solar é bombeado para dentro do feixe de tubos enterrados, que devolvem o ar mais frio na outra extremidade. Por outro lado, durante a noite o ar mais frio do meio interno da estufa é bombeado para dentro dos dutos, os quais efetuam troca térmica com o solo envolvente, que neste horário possui a temperatura mais elevada do sistema. O objetivo geral deste trabalho é resolver o problema transiente periódico e tridimensional da transferência simultânea de calor e umidade em solos não-saturados, que compõem o sistema trocador-armazenador de calor, utilizando a simulação numérica. Como objetivos secundários têm-se: o melhoramento do sistema de troca térmica, a quantificação da parcela de calor transportado pela difusão da umidade no solo e a análise dos campos de temperatura e de conteúdo de umidade, sendo que a análise dos campos de umidade permite verificar se existe formação de frentes de secagem significativas na vizinhança dos dutos durante os sucessivos períodos de aquecimento e resfriamento a que o sistema é submetido. Na resolução do problema em questão é empregado o modelo clássico de Philip e De Vries para a transferência simultânea de calor e massa em meios porosos insaturados Neste modelo, as equações de conservação de energia e massa obtidas trazem explicitamente as influências combinadas dos gradientes de temperatura e de conteúdo de umidade nos processos de transporte de calor e umidade. O sistema de equações diferenciais governantes do problema em questão é resolvido numericamente utilizando o Método dos Volumes Finitos e na discretização destas equações é usada uma integração temporal totalmente implícita. Todas as propriedades difusivas e termofísicas empregadas são consideradas variáveis com a temperatura e o conteúdo de umidade. Os dutos de seção transversal circular do sistema trocadorarmazenador de calor no solo, são modelados como dutos de seção transversal quadrada de área equivalente para que coordenadas cartesianas possam ser utilizadas nos modelos analisados. Neste trabalho são simulados quatro modelos computacionais associados ao sistema trocador-armazenador de calor no solo. Estes modelos são compostos por: um duto isolado, um duto com convecção, dois dutos isolados e dois dutos com convecção. A variação da temperatura do ar na entrada do(s) escoamento(s), assim como a temperatura do meio ambiente, para os modelos com convecção, é dada por uma senóide com uma amplitude de 14 ºC. No modelo de um duto isolado, são realizadas simulações utilizando várias combinações dos parâmetros do modelo em questão e os resultados, assim obtidos, são comparados com aqueles encontrados na literatura Visando melhorar o sistema de troca térmica dos modelos computacionais investigados, são selecionados valores e intervalos de valores recomendados para os parâmetros do modelo de um duto isolado. Para este modelo, com um diâmetro de 0,1 m, são escolhidos valores (ou intervalos de valores) recomendados: de 4 m/s para a velocidade do escoamento interno dentro do duto, de 0,25 para o conteúdo de umidade do solo, de 5 até 20 metros para o comprimento do duto e de 0,20 até 0,30 m para a distância entre centros do dutos. As simulações dos quatro modelos computacionais realizadas utilizando as várias combinações dos valores recomendados para os parâmetros destes modelos, mostrou que não há diferença significativa entre os valores de calor volumétrico armazenado no solo empregando a resolução acoplada das equações de energia e de massa e a resolução da equação da temperatura. Mesmo para os modelos de um e de dois dutos com convecção a diferença percentual encontrada foi insignificante. Finalmente, são apresentados e analisados os campos de temperatura e de conteúdo de umidade para os quatro modelos computacionais avaliados. Os perfis de temperatura e de conteúdo de umidade em diferentes horários mostraram que, durante o dia, o solo absorve calor dos escoamentos internos de ar e, uma vez que, junto à superfície dos dutos tem-se regiões de maior temperatura, há, conseqüentemente, uma migração da umidade nestas regiões. Durante a noite, ocorre o contrário, o solo fornece calor aos escoamentos dentro dos dutos, e, desta forma, as regiões próximas aos dutos apresentam níveis de conteúdo de umidade superiores ao inicial. Ainda, os perfis de conteúdo de umidade para todas as situações analisadas mostraram que, não há formação de frentes de secagem significativas nas proximidades dos dutos que compõem os quatro modelos computacionais avaliados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os prestadores de serviços de saúde e, para este estudo, principalmente o médico, cuja atuação interfere diretamente tanto nos resultados da terapêutica instituída, como também na determinação dos custos dos diversos sistemas de saúde, têm a remuneração profissional como prioridade na agenda dos diversos participantes do setor, quer seja no Sistema Único de Saúde, quer principalmente no setor de saúde suplementar. Devido ao ritmo inflacionário do setor e às exigências estabelecidas pela regulamentação dos planos de saúde, os valores de remuneração dos prestadores de serviços têm crescimento menor que os índices inflacionários gerais. Os modelos de remuneração existentes, de forma isolada, não suprem as expectativas de todos os recursos credenciados, e, mesmo em um único sistema de saúde, os diferentes mecanismos de pagamento podem combinar-se, não sendo obrigatória a existência de somente um método de remuneração para cada sistema, pois mesmo na remuneração do médico, por esta remuneração não atender às expectativas das diversas especialidades, poderá levar a um desequilíbrio entre oferta e demanda de profissionais de certas áreas da Medicina. O objetivo deste trabalho é elencar, dentre os diversos modelos de pagamento, os pressupostos básicos para a remuneração do médico-cirurgião, levando-se em consideração os recursos empregados no tratamento, bem como o risco inerente de cada paciente tratado, tentando traduzir tais pontos em uma fórmula de cálculo padrão e comparar este novo valor com os valores atuais de remuneração. O modelo de remuneração deve fomentar a eficiência do tratamento instituído e a equidade do pagamento, além de ser de fácil implantação e compreensão pelos players do setor, bem como ter neutralidade financeira entre o principal e o agente, mantendo a qualidade e a acessibilidade aos serviços, a fim de que os médicos sejam incentivados a promover um tratamento eficiente aos beneficiários. Deve ser baseado no tratamento de doenças em si e não na realização de procedimentos, bem como estar atrelado a índices de desempenho e ao risco assumido pelo profissional. Enfim, o trabalho médico deve ser remunerado de forma diretamente proporcional à quantidade de horas trabalhadas, por profissionais que possuam equivalente nível de graduação e qualificação, e ao risco inerente a cada paciente tratado. A fórmula encontrada leva em consideração não somente a idade do paciente a ser tratado, bem como os riscos inerentes ao tratamento deste paciente, e tem como base de remuneração a doença a ser tratada, e não os procedimentos que serão necessários, ou indicados pelos médicos para tratamento desses pacientes. Desta forma, a valorização do trabalho médico cresce com o aumento do risco de tratar o paciente, quer seja pelo risco inerente à própria idade do paciente, quer seja pelo risco inerente ao procedimento anestésico, quer seja pelo risco cardíaco, havendo, portanto, uma melhor proporcionalidade entre a remuneração hospitalar dos pacientes com mais gravidade, em que são utilizados, ou colocados à disposição, mais recursos, com a remuneração crescente, também neste caso, dos profissionais que estariam tratando tais pacientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A idéia de circuito, no mundo contemporâneo, está associada ao processo da comunicação mediada e à sua complexidade. Com o objetivo de verificar qual o papel dos circuitos comunicativos na formação de redes e na construção da cidadania no ciberespaço, procuramos mostrar como se caracterizam os circuitos, a partir do estudo realizado em weblogs voltados à discussão crítica de temas relacionados à realidade social e política brasileira. Como instâncias mediadoras entre o imaginário e a construção social da realidade, os circuitos comunicativos se desenvolvem e geram novos circuitos emergentes, interferindo na sua própria organização e na circulação das informações. Nos blogs, as narrativas são construídas acionando os três momentos presentes na dinâmica do circuito (produção, difusão e uso/aceitação de informações). Assim, numa relação dialógica entre subjetividade e objetivação, as narrativas formam tramas de sentidos, responsáveis pelos intercâmbios das significações e pela mobilização dos cidadãos no ciberespaço. Cidadania esta relacionada às capacidades cognitivas e aos recursos simbólicos, necessários aos indivíduos para coordenarem suas ações num mundo marcado por incertezas e crises de sentido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente pesquisa teve como objetivo verificar como a metodologia de gerenciamento de projetos, preconizada pelo Project Management Institute – PMI poderia contribuir para a modernização da metodologia de planejamento das operações de guerra do Exército Brasileiro. Para tanto, desenvolveu-se um estudo comparativo entre os processos dos grupos de iniciação e de planejamento definidos pelo PMI no seu Guia do Conhecimento em Gerenciamento de Projetos – PMBOK e o processo de planejamento de operações de guerra do Exército Brasileiro denominado Estudo de Situação. O trabalho foi desenvolvido com base em pesquisa bibliográfica e documental que contemplou renomados autores como Kerzner, Cleland, Vargas, Lima, Maximiano, Valeriano, Prado e Xavier, além dos manuais doutrinários do Exército Brasileiro pertinentes ao tema abordado e o próprio PMBOK. Contextualizando o trabalho foi feita a equiparação de uma operação militar de guerra a um projeto civil, e a caracterização do Estudo de Situação como um processo de planejamento e tomada de decisão equivalente ao conjunto de processos dos grupos de iniciação e de planejamento do gerenciamento de projetos. No estudo realizado verificou-se que as áreas de Custos, de Recursos Humanos e de Aquisições, em função das peculiaridades que envolvem uma operação de guerra são tratadas de forma tão diferenciadas do gerenciamento de projetos que não poderiam ser incluídas no estudo. Além disso, pôde-se constatar que o processo de planejamento militar é executado com uma grande parcela de intuição decorrente da aplicação de conhecimento tácito por parte dos seus executantes, o que não ocorre no gerenciamento de projetos onde o uso de um grande número de ferramentas de base lógica e matemática dá ao processo de planejamento dos projetos um maior grau de imparcialidade e precisão. Verificou-se também que o processo de planejamento militar produz um grande número de documentos gráficos que permitem uma “visão gráfica” de várias áreas ou aspectos do problema que, por sua vez, facilitam o uso da intuição na tomada de decisão. Enfim, depois de identificados os processos de gerenciamento de projetos que interessavam ao estudo e as peculiaridades da metodologia de planejamento em uso no Exército Brasileiro, chegou-se a conclusão, como se havia suposto, que a metodologia de gerenciamento de projetos efetivamente possui recursos que podem contribuir para a modernização do processo de planejamento de operações de guerra do Exército Brasileiro denominado Estudo de Situação. Esses recursos estão relacionados na conclusão do trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O propósito deste trabalho é examinar possíveis ganhos de bem-estar provenientes de arranjos comerciais entre Brasil e China sob a ótica de um modelo de equilíbrio geral computável, o chamado “modelo GTAP” (sigla para Global Trade Analysis Project). Com base em uma descrição extensiva das estruturas econômicas e comerciais dos países e das Vantagens Comparativas de cada um deles, é possível simular acordos preferenciais de comércio e analisar os resultados de bem-estar por meio da medida de Variação Equivalente. Outro aspecto referente ao comércio sino-brasileiro que pode ser avaliado pela medida de bem-estar é o desalinhamento cambial dos dois países e as consequências deste para as transações comerciais entre ambos. Utilizando o mesmo ferramental anteriormente citado, o trabalho busca avaliar o impacto de tal desalinhamento no bem-estar dos países, uma vez que o câmbio seja corrigido via ajuste tarifário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho experimental foi desenvolvido em uma propriedade de produção leiteira no município de Camargo, na região fisiográfica denominada de Planalto Médio do RS, com o objetivo de estudar e quantificar o efeito da substituição do componente protéico (farelo de soja) da ração, comumente fornecida aos animais, por pastejo controlado de trevo branco (Trifolium repens L.) em animais mantidos em pastagens de azevém (Lolium multiflorum L.), na performance produtiva, comportamento e qualidade do leite de vacas holandesas. Para tal, foram utilizados dois grupos de animais agrupados de forma homogênea após estratificação por produção, período de lactação e peso corporal, em um delineamento experimental completamente casualizado em blocos. Os dois grupos eram mantidos em pastagens de azevém, por um determinado período de tempo durante o dia (aproximadamente 5 horas). Um grupo recebia diariamente 3 kg de suplemento energético constituído de farelo de milho, farelo de trigo, casca de soja e sal mineral (subtraída de farelo de soja) e tinha acesso controlado à pastagem de trevo branco (aproximadamente 2,5 horas), denominado tratamento TB; outro recebia a mesma quantidade de suplemento, adicionada de quantidade de proteína equivalente ao consumo diário no tratamento anterior via trevo, na forma de farelo de soja, denominado tratamento FS. As medições eram realizadas em avaliações quinzenais, procedendo-se controles leiteiros individuais, medidas de perímetro torácico, coletas de amostras de sangue e leite dos animais e registro de atividades dos animais em pastejo. Os resultados demonstraram semelhanças significativas entre os dois tratamentos, para a maioria das variáveis estudadas, com exceção do teor de proteína do leite que foi maior para o tratamento TB, e os valores de teor de lactose, tempo de pastejo e freqüência de bocados maiores para o tratamento FS. Estes resultados indicam que a utilização do trevo branco, como fonte protéica para os animais, foi tecnicamente viável e eficiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é entender mais sobre o papel da liberalização sobre a desigualdade salarial, mais precisamente, sobre a desigualdade residual dos salários. Usando a abertura comercial brasileira, a extensa redução tarifária que ocorreu entre 1987 e 1995, é investigado empiricamente se os diferentes níveis de exposição ao comércio entre os estados contribuíram para os diferentes movimentos da desigualdade. Os resultados indicam que estados mais expostos à liberalização comercial experimentaram um aumento relativo da desigualdade residual dos salários ou, de forma equivalente, uma menor redução. Estes resultados enriquecem a discussão dos efeitos da abertura comercial sobre a desigualdade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao contrário do que seria esperado em uma previsão teórica simples, diversos trabalhos empíricos têm verificado que um aumento das transferências intergovernamentais gera um gasto público maior do que uma elevação equivalente na renda dos indivíduos. Uma das hipóteses para este fenômeno, conhecido com o flypaper effect, é de que a burocracia se apropria das transferências por meio de salários, o que é condizente com o pressuposto de que os burocratas estariam interessados em maximizar seu próprio orçamento, e se aproveitariam da assimetria de informação e poder em relação ao eleitorado. Este trabalho tem o objetivo de investigar se tal pressuposto se comprova empiricamente para os municípios brasileiros, verificando a relação entre as transferências incondicionais e o diferencial de salários entre as esferas pública e privada. Para tanto, utilizamos um painel de municípios que cobre o período de 2002 a 2011 e um modelo econométrico de variável instrumental. Para medir o diferencial de salário, foi usada a Decomposição de Oaxaca, que separa o efeito das características individuais daquele que seria gerado pela apropriação. Os resultados apontam para a ocorrência de apropriação, considerando não só o setor público e privado formal como um todo, mas também seus subsetores.