832 resultados para filtro passivo stripline passa-banda, ricetrasmissione wireless UWB, parametri S
Resumo:
Desenvolve uma análise sobre os vários regimes previdenciários no Brasil, os quais têm apresentado desequilíbrios crescentes nos últimos anos. Define os problemas do regime adotado no Brasil como sendo também estruturais e não apenas gerenciais, concluindo assim sobre a necessidade de sua privatização. A partir de parâmetros gerais sobre um novo regime de previdência social para o Brasil, mede qual seria o custo de transição. Propõe também. as melhores formas de financiamento da transição, de maneira a obter ganhos de eficiência.
Resumo:
Apresenta o cenário do setor de telecomunicações no final da década de 90 e suas principais tendências. Explicita a arquitetura básica dos sistemas ópticos submarinos, detalhando a infra-estrutura disponível no Brasil. Aponta as razões que levaram ao acirramento da competição e à degradação de valor das empresas prestando serviços banda larga internacional utilizando sistemas ópticos submarinos. Apresenta a estratégia das principais empresas atuando no Brasil, suas conseqüências e reveses. Analisa o setor segundo o modelo de Porter. Aponta alternativas para a criação de valor utilizando o conceito de "coopetição".
Resumo:
O terceiro setor vem atraindo atenções crescentes da sociedade, das empresas e do governo. Toda semana deparamo-nos com reportagens sobre aquele setor ou sobre o trabalho de suas organizações. O tema responsabilidade social das empresas está na moda. O governo Brasileiro tem procurado, através de legislação e parcerias, normatizar e aproveitar a energia do setor. Vimos surgir, nos últimos anos, uma profusão de cursos, acadêmicos e gerenciais, destinados à “profissionalização” das ONGs e entidades similares. O objetivo do presente estudo é entender um desses aspectos administrativos, o da estratégia, aplicado ao terceiro setor. Para tal, foi feita uma análise macro do setor, uma descrição de seus principais “players” e foram analisadas as características básicas e distintivas deste setor em relação ao setor produtivo, para se descrever o ambiente de estudo. Foi escolhida para estudo de caso uma organização de grande visibilidade do terceiro setor e procurou-se descrever sua história, suas características, seus fatos e seu discurso, para ser possível uma interpretação de sua linha estratégica e de seus fatores de sucesso. Os resultados da pesquisa mostram que a estratégia da organização estudada é definida pela visão de seu líder e fundador, e apoiada em características do projeto original da organização, um grupo de percussão que se tornou uma banda. Também se constatou que seu sucesso pode ser atribuído às suas várias “eficiências”, bastante diferente da lógica de eficiência das empresas privadas. Também foi feita a consideração dos cuidados para utilização, nas organizações do terceiro setor, dos modelos e técnicas administrativas oriundas do conhecimento desenvolvido originalmente para as empresas privadas. O propósito da presente pesquisa é contribuir para o acúmulo de conhecimento acadêmico na área de estratégia organizacional, especialmente estratégia em organizações do terceiro setor, e para as práticas de gestão de suas organizações.
Resumo:
O objetivo deste trabalho é responder a questão: até que ponto a acumulação de dívida externa é compatível com a capacidade de pagamento do Brasil? Fazendo uma simulação do mesmo modelo macroeconômico utilizado por Blanchard em 1983, com alterações na função custo de instalação do capital e nos demais parâmetros utilizados, e verificando também de que forma possíveis mudanças no cenário interno e externo que impliquem em alterações nos parâmetros do modelo, como taxa de juros, taxa de depreciação do capital e participação do capital na produção, alteram os resultados encontrados.
Resumo:
O presente estudo analisa a relação entre facção e sistema eleitoral no Uruguai. Toma-se a reforma constitucional de 1996 como paradigma que busca a eliminação das facções pela modificação do sistema eleitoral. Mostra-se que nem todas as facções no Uruguai decorrem, necessariamente, do sistema eleitoral. A origem dos principais partidos políticos é discutida e com ela se analisa a base social de cada um. O crescimento eleitoral da esquerda, dentro de um sistema eleitoral concebido para garantir a continuidade dos partidos tradicionais, é apresentado com o ponto de partida da reforma. Uma comparação entre os dois sistemas eleitorais – o antigo e o novo – leva a conclusão que os partidos tradicionais, por não conseguirem resolver problemas de coordenação no pólo conservador do sistema de partidos, acabam por operar uma reforma que garanta mais representação proporcional frente uma oposição crescente, que tende a ser maioria. Com a teoria dos jogos, os incentivos e a lógica para a formação de coligações de facções são aportados ao estudo demonstrando que as mesmas atuam de forma cooperativa para suplantar estratégias, que individualmente conferem menores ganhos. Mecanismos clássicos de mensuração de número efetivo de partidos (NEP) apontam a quantidade de facções relevantes no sistema. Conclui-se que as facções são agentes relevantes do sistema e que a reforma do sistema eleitoral agiu de forma diversa sobre as facções dos três maiores partidos Uruguaios, não eliminando o fenômeno faccionista.
Resumo:
A popularização das tecnologias de acesso à Internet por “banda larga” suportam a crescente proliferação de aplicações do tipo “par-a-par” (peer-to-peer), onde o usuário doméstico, tipicamente consumidor de informação, passa também a atuar como provedor. De forma simultânea, há uma popularização crescente dos jogos em rede, especialmente dos “jogos maciçamente multijogador” (MMG ou massively multiplayer game) onde milhares de jogadores interagem, em tempo real, em mundos virtuais de estado persistente. Os MMGs disponíveis atualmente, como EverQuest e Ultima Online, são implementados como sistemas centralizados, que realizam toda a simulação do jogo no “lado servidor”. Este modelo propicia controle de acesso ao jogo pelo servidor, além de ser muito resistente a jogadores trapaceiros. Porém, a abordagem cliente-servidor não é suficientemente escalável, especialmente para pequenas empresas ou projetos de pesquisa que não podem pagar os altos custos de processamento e comunicação dos servidores de MMGs centralizados. Este trabalho propõe o FreeMMG, um modelo híbrido, cliente-servidor e par-a-par, de suporte a jogos maciçamente multijogador de estratégia em tempo real (MMORTS ou massively multiplayer online real-time strategy). O servidor FreeMMG é escalável pois delega a maior parte da tarefa de simulação do jogo para uma rede par-apar, formada pelos clientes. É demonstrado que o FreeMMG é resistente a certos tipos de trapaças, pois cada segmento da simulação distribuída é replicado em vários clientes. Como protótipo do modelo, foi implementado o jogo FreeMMGWizards, que foi utilizado para gerar testes de escalabilidade com até 300 clientes simulados e conectados simultaneamente no mesmo servidor Os resultados de escalabilidade obtidos são promissores, pois mostram que o tráfego gerado em uma rede FreeMMG, entre servidor e clientes, é significativamente menor se comparado com uma alternativa puramente cliente-servidor, especialmente se for considerado o suporte a jogos maciçamente multijogador de estratégia em tempo real.
Resumo:
With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.
Resumo:
Este trabalho se propõe a testar a validade da hipótese da paridade câmbio-juro para o caso brasileiro e, posteriormente, a investigar a principal explicação apontada pela literatura para a falência da UIP, qual seja: a existência de um prêmio de risco cambial variante ao longo do tempo. A clássica abordagem das regressões de Fama, aplicadas para o período de livre flutuação cambial, sugere falência da hipótese em questão quando considerados contratos de NDF de doze meses sobre o real, identificando viés nos contratos futuros como estimadores da taxa de câmbio – não foi possível obter a mesma conclusão ao se trabalhar com contratos futuros de dólar de um mês negociados na BM&F. Feitas as regressões de Fama, replica-se ao caso brasileiro metodologia implementada por Clarida et. al. (2009) para os países desenvolvidos, na tentativa de capturar eventual relação entre a volatilidade e o excesso de retorno de uma estratégia de carry trade com o real. Em linha com os resultados obtidos pela experiência internacional, detecta-se correlação negativa entre a volatilidade e o excesso de retorno de tal estratégia. A partir de tal conclusão, revisitam-se as regressões de Fama para subperíodos, conforme a volatilidade. Períodos de maior volatilidade foram caracterizados por um incremento do coeficiente da regressão de Fama, novamente em um resultado alinhado àquele obtido por Clarida et. al. (2009). Esgotado o assunto circunscrito às regressões de Fama, passa-se à estimativa da série de prêmio de risco cambial propriamente dita, por meio da metodologia de Filtro de Kalman imposta à série de NDF de doze meses, a qual detectou um prêmio de risco cambial com média positiva na amostra considerada – em linha com a intuição -, mas com medidas de dispersão bastante elevadas. O estudo segue numa tentativa de modelar o prêmio de risco cambial através de um instrumental da família GARCH-M, sendo, entretanto, incapaz de prover boas estimativas para o comportamento da variável sob interesse. Inicia-se um novo capítulo com o intuito de introduzir microfundamentação ao prêmio de risco cambial, trazendo ao caso brasileiro método desenvolvido por Frankel (1982). A aderência da modelagem também foi baixa. Para terminar, apresenta-se investigação preliminar sobre a relação entre o prêmio de risco cambial e a presença de eventos considerados raros na série de PTAX, seguindo intuição levantada por Rietz (1988) e expandida por Barro (2005). A moeda brasileira carrega caráter leptocúrtico superior às demais componentes da amostra, indicando que, de fato, o prêmio de risco cambial exigido para se estar na moeda doméstica pode estar relacionado à recorrência de eventos supostamente raros.
Resumo:
Busca-se como objetivo geral, através da estimação de uma equação de demanda por moeda de longo prazo para o Brasil, período 1980-2001, testar a sua estabilidade, o que implica analisar a evolução dos coeficientes ao longo do tempo, bem como mensurar o desempenho acerca do grau de previsibilidade de demanda futura por encaixes reais, comparando sua eficiência no prognóstico com aquelas que se obteriam utilizando técnicas de estimação Mínimos Quadrados Ordinários (MQO) e Mínimos Quadrados Ordinários Recursivos (MQOR), ambas de caráter não adaptativo. Além disso, como resultado da análise percuciente das trajetórias dos parâmetros, a política monetária exercida no período é recuperada. Os resultados rejeitam a hipótese nula de estabilidade da demanda de moeda, encontrando-se que os parâmetros apresentam flutuações importantes não ilustradas pelo procedimento MQO, tendo se destacado o período 1986-1992 como o mais instável. Como era de se esperar, nos testes de capacidade de previsão, a estimação por meio do Filtro de Kalman supera as demais técnicas, evidenciando a ocorrência de mudanças nos regimes de política.
Resumo:
Com a crise do modelo de produção fordista e o advento da última revolução industrial, mudaram a base técnica da produção e a organização do trabalho. Atualmente são outros os requerimentos que compõem o perfil do trabalhador. Há um privilegiamento da capacidade de abstração, do trabalho em equipe, do esprit de corps. A ênfase na preparação profissional passou a ser na formação geral. A pesar de alguns autores falarem de convergência de interesses com a classe trabalhadora, a ótica dessa formação continua sendo a do capital: não chega a questionar realmente a divisão entre trabalho manual e intelectual, por não estar inserida em projeto de mudança das relações sociais de exclusão e de alienação. Os trabalhadores, mergulhados no mundo da necessidade, da "preocupação", formulam representações sobre o trabalho, a educação e a preparação profissional baseando-se, sobretudo, no complexo fenomênico. Apesar de seus núcleos de bom senso, portanto, não alcançam uma compreensão concreta do real. Por isso, muitas vezes, buscam uma qualificação profissional que, no mínimo, a médio prazo, não servirá a seus interesses como cidadãos-trabalhadores. Na ótica do trabalho, é necessário pensar-se a formação escolar profissional com sólida base científica, com vistas à aquisição, por parte do trabalhador, de instrumental analítico, para a leitura do mundo e para a compreensão de sua inserção na produção e na trama de relações sociais.
Resumo:
Ambientes voltados para o embelezamento corporal, tais como salões de beleza e institutos de depilação são frequentemente palco de uma inusitada relação entre cliente e profissional que é a tomada por parte da cliente da profissional como sua confidente. O presente trabalho propõe uma reflexão sobre esta relação interclasses, sobre as fronteiras sociais, em um instituto de depilação expressa. A principal questão discutida é a forma como a prestadora de serviço lida com as diferenças socioeconômicas e a ordem hierárquica existente entre ela e sua cliente. Foram realizadas observações e sete entrevistas em profundidade com depiladoras em um instituto de depilação expressa localizado na cidade do Rio de Janeiro. São expostos comportamentos observados, onde a relação de intimidade e entrega por parte da cliente vem a ser apenas um deles, e como as diferenças existentes são naturalizadas.
Resumo:
O telefone celular teve uma grande evolução nos últimos anos, o que antes era utilizado exclusivamente para transmissão de voz, hoje tem características avançadíssimas incluindo várias evoluções tecnológicas. Dentro deste aspecto, a inovação que o LTE (Long Term Evolution) vem demonstrando em suas características realmente se destacam em relação as tecnologias que a antecederam e representa grande evolução se comparada com as outras. Foi desenvolvida no âmbito do projeto 3GPP e (3rd Generation Partners Project) promovido pelo Instituto Europeu de Normalização na área de Telecomunicações ETSI (European Telecommunications Standard Institute). As operadoras que demonstram interesse em disponibilizar esta tecnologia buscam introduzir a flexibilidade do LTE para ir ao encontro dos objetivos de suas redes existentes, espectro e negócios para banda larga móvel e serviços multimídia. O LTE promete taxas de download de 326,4Mbps, taxas de upload de 86,4Mbps, RTT ( ROUND TRIP TIME ) menos de 10 mile segundos e raio das células podendo atingir até 100km. O sistema 4G (LTE) é um sistema integrado completamente baseado em IP, que é resultado de tecnologias conectadas por fios e sem fios disponibilizando um custo acessível, atendendo as exigências de uma rede de comunicação (Wireless), serviços de transferência de mensagens multimídias, conversa com vídeo, televisão móvel de alta definição, serviços mínimos como voz e dados entre outras vantagens. Desta forma, este estudo tem por objetivo analisar quais são as oportunidades e os desafios no mercado de telefonia móvel de Telecomunicações ao implantar o sistema de tecnologia LTE demonstrando o benefício dos fabricantes e operadoras no sentido econômico e tecnológico.
Resumo:
A G6PD é expressa em todos os tecidos, onde catalisa a primeira etapa da via das pentoses-fosfato. O NADPH produzido pela ação da G6PD serve como doador de elétrons na biossíntese redutora. Pelo fato de os glóbulos vermelhos não terem mitocôndria, a via das pentoses-fosfato é a única fonte de NADPH e essencial para sua proteção contra o stress oxidativo. A deficiência da G6PD é classificada como anemia hemolítica hereditária ligada ao cromossomo X, associada a manifestações clínicas heterogêneas. O gene da G6PD possui cerca de 140 variantes moleculares já descritas, muitas dessas associadas à enzimopatia. Considerando-se a alta freqüência populacional da deficiência de G6PD, a constituição da população do Rio Grande do Sul e as dificuldades diagnósticas desta deficiência, este trabalho teve como objetivo caracterizar os aspectos laboratoriais do diagnóstico da deficiência de G6PD em nosso meio. Para a quantificação da atividade da G6PD, foi utilizado o método enzimáticocolorimétrico com normalização da hemoglobina (kit intercientífica) e para as análises moleculares foram investigadas as mutações 202, 376 e 563 por PCR/RFLP. O presente estudo revelou uma prevalência combinada de 7,9% das duas formas de deficiência de G6PD (completa e parcial) no Rio Grande do Sul, com alta prevalência de pacientes parcialmente deficientes e sem correlação com origem étnica. Usando técnicas bioquímicas e moleculares, foi caracterizada a deficiência de G6PD em amostras de Porto Alegre como sendo principalmente devida às mutações G202A e A376G, representando a variante G6PD A-, confirmando uma distribuição homogênea do padrão G6PD A- no Brasil. Os resultados apresentados aqui demonstraram que as condições de estocagem (temperatura principalmente) desempenham um papel fundamental na atividade da G6PD, especialmente nas coletas em papel filtro. Na avaliação da acurácia do método enzimático de medida da atividade da G6PD as sensibilidades e especificidades calculadas para os valores de cut-off estabelecido em uma população normal foram: para 2,9 U/gHb ( 11,4% e 100%), para 8 U/g Hb (77,1% e 94,7%) e para 11,5 U/g hb (97,1% e 76,3%). Estima-se que a deficiência de ambas as formas combinadas de G6PD seja de aproximadamente 8% numa amostra do RS. A partir de uma probabilidade pré-teste de 8,0%, após a realização do ensaio enzimático, a probabilidade pós-teste de uma pessoa ser deficiente de G6PD com nível enzimático inferior a 8 U/g Hb passa a ser 55,9%. Ao passo que para níveis superiores a 11,5 U/gHb esta probabilidade de deficiência diminui para 0,37%. Pode-se concluir que o método empregado (kit Intercientífica) foi adequado para avaliar a atividade enzimática de G6PD em amostras de sangue total. É um método capaz de detectar a deficiência de G6PD, demonstrando de forma satisfatória o grau de deficiência em indivíduos que possuem mutações que causam deficiência enzimática menos severa, inclusive mulheres heterozigotas. A análise molecular pode identificar o tipo de variante mas não pode indicar o risco real para as mulheres portadoras, que é diretamente estimado pelo nível de atividade enzimática.
Resumo:
O paradigma do P50 é uma técnica eletrofisiológica útil na investigação da neurobiologia básica subjacente aos defeitos de processamento sensorial que caracterizam algumas doenças mentais, mais tradicionalmente associados à esquizofrenia. Nessa tese replica-se e amplia-se o estudo do filtro sensorial P50 em algumas condições neurológicas e psiquiátricas. Foram replicados os achados de perda de supressão na esquizofrenia, na doença de Parkinson e no transtorno de estresse pós-traumático (avaliando pioneiramente vítimas de violência urbana). O filtro sensorial P50 em populações com transtorno de pânico, com transtorno obsessivo-compulsivo e na doença de Machado-Joseph, uma ataxia cerebelar, foi avaliado pela primeira vez. Em todas estas patologias documentou-se uma perda da supressão do P50. Também se investigou os efeitos da modulação do filtro sensorial por cafeína (a substância psicoativa mais consumida no mundo todo, um antagonista não-seletivo dos receptores de adenosina do tipo A1 e A2A), administrada por via oral a 24 voluntários saudáveis em diferentes doses (100, 200 e 400 mg e placebo). As doses de 200mg e 400 mg reduziram a supressão do P50. O efeito da cafeína foi independente do gênero e do uso habitual de cafeína. Usuários (n=15) mostraram valores basais diferentes quando comparados aos não usuários (n=9), com amplitudes S2 menores. Os resultados obtidos com a teofilina, num estudo prévio, e com a cafeína foram reanalizados, mostrando uma perda transitória de supressão do P50 mais pronunciada à direita, sugerindo uma alteração no padrão de lateralização do filtro sensorial P50 mediada pelo uso de metil-xantinas. Estes achados reforçam a participação da adenosina na modulação do filtro sensorial P50 e indicam que a ingestão de cafeína deva ser controlada neste tipo de estudo. Dessa forma, demonstra-se que uma supressão do P50 alterada é um achado pouco específico. Uma vez que a supressão do P50 pode ser alterada por uma situação habitual como o uso de bebidas que contém cafeína, é possível que a perda da supressão não seja necessáriariamente ruim, mesmo que ela esteja potencialmente associada a uma vulnerabilidade maior para doenças neuropsiquiátricas.