985 resultados para Alta presión
Resumo:
O tema central deste trabalho aborda as relações entre os diferentes grupos rurais do município de Cruz Alta, antes, durante e depois de ocorrer profundas transformações no sistema produtivo. É abordado o papel da escola no contexto de reestruturação da economia agrícola e no seu significado para os diferentes grupos. Pretendo mais precisamente neste trabalho, analisar como no meio rural de Cruz Alta, Rio Grande do Sul, em processo acelerado de inovações tecnológicas, capitalização e modernização da estrutura produtiva, a população se compõe, se diferencia e se relaciona e quais as espectativas dos diferentes grupos em relação à escola. Parto do pressuposto que o sistema produtivo determina as formas de atuação dos grupos na estrutura social, mais precisamente, numa organização capitalista dependente. O problema em foco, implica no estudo do meio agrário em momentos históricos distintos. Procura-se inicialmente fornecer uma visão de como se estruturava a sociedade agrária em seus diferentes grupos, desde a ocupação do Estado até o início do processo de inovações tecnológicas no meio rural. A partir daí, passa-se a abordar o avanço do capitalismo no campo em seus diferentes aspectos. A adoção de um modelo técnico na agricultura traz profundas consequências em todas as camadas da população. Dá-se então uma nova conformação na estrutura agrária e nas relações sociais. Os conflitos e tensões dai gerados, bem como as percepções pelos diferentes grupos de sua situação e de seu desempenho constitue a parte central deste estudo. Dentro deste contexto, a escola é situada, isto é: como a reestruturação no meio rural repercute no sistema escolar e quais os valores e espectativas dos direrentes grupos em relação à escola.
Resumo:
Esta investigação visa o melhor entendimento do fenômeno do crowding em lojas, dentro do contexto do mercado brasileiro, procurando identificar como as respostas dos consumidores variam entre os de renda baixa e renda alta, e buscando fatores que possam melhor explicar essas diferenças. Para atender esses objetivos, adotou-se uma metodologia experimental para testar como o aumento da densidade humana afeta diferentemente as respostas dos consumidores de alta e baixa renda. Como moderadoras da relação entre densidade humana e as respostas de consumidores, utilizaram-se as variáveis renda (alta e baixa) e familiaridade (alta e baixa). Três experimentos de desenhos fatoriais permitiram o teste das hipóteses propostas, por meio de análises multivariadas: ANOVAs, ANCOVAs e regressões lineares. Os estudos demonstraram que renda efetivamente modera as respostas dos consumidores, pois existe substancial diferença entre os consumidores de alta e baixa renda para situações de alta densidade humana em lojas. Foram verificadas as seguintes respostas dos consumidores com menor renda em situações de alta densidade humana: atitude mais positiva e maior nível de satisfação do que os de alta renda; percepção de maior valor hedônico em lojas mais cheias de gente versus os de maior renda. Os resultados contrariam a maioria dos achados de estudos realizados nos Estados Unidos nas últimas décadas. Enquanto a maioria desses estudos indica uma resposta negativa à densidade humana, os resultados desta pesquisa evidenciaram que existem respostas mais positivas para o segmento econômico de consumidores de baixa renda. Constatou-se também o efeito moderador do controle informacional (familiaridade) na relação entre densidade humana e as respostas dos consumidores, e o efeito mediador da percepção de valor hedônico na relação entre densidade e satisfação. Os achados oferecem uma contribuição teórica para enriquecer o entendimento do fenômeno de crowding e ressaltam a importância de se considerar a diversidade do contexto socioeconômico para se garantir o desenvolvimento de generalizações que corretamente reflitam as várias realidades do mercado. Do ponto de vista gerencial, o estudo reforça a necessidade de o varejo desenvolver uma maior distinção em ambientes de loja para melhor satisfazer as diferentes preferências dos diversos segmentos de mercado.
Resumo:
Esta pesquisa de natureza qualitativa teve como objetivo contribuir para o entendimento do processo de construção da identidade gerencial dos gestores de empresas norte americana, bem como as possíveis implicações da cultura organizacional na construção dessa identidade. Para tanto, adotou-se a técnica história de vida para entrevistar dois executivos da alta administração, de dois seguimentos distintos. Na mesma faixa etária, porem de diferente gênero. Questões como formação profissional; processo de aprendizagem; competências, funções, habilidades e papéis gerenciais; além de identidade, foi investigado junto aos sujeitos de pesquisa, por meio de entrevista semi-estruturada e observação assistemática. Os dados foram analisados por intermédio da análise de conteúdo, que consiste em identificar possíveis relações entre os fenômenos que se fizerem presentes. Os resultados do estudo apontaram que a construção da identidade gerencial dos gestores da alta gerencia, vem da cultura organizacional e da adaptação do individuo. Após muita determinação, curiosidade, dedicação, força de vontade, responsabilidade, confiança, e sacrifícios, conquistam o lugar mais alto. A carga horária é elevada, mas parece detalhe, sentem-se realizados profissionalmente. Não pensam em mudar de empresa, mesmo para ganhar mais.
Resumo:
A incipiente alta nas expectativas de inflação futura combinada com a busca do governo por juros nominais mais baixos e o maior intervencionismo via medidas convencionais e não convencionais na gestão da política econômica, pode ter deteriorado a percepção dos agentes de mercado quanto à credibilidade da Autoridade Monetária, mesmo que indicadores tradicionais de credibilidade ainda não mostrem isso. Este trabalho intui que a resposta de ativos à divulgação de dados macroeconômicos apresenta informações sobre a percepção do mercado da credibilidade do Banco Central, utilizando, então, uma base de dados de alta frequência para medir as respostas dos ativos e empregando o teste econométrico quasi-local level (QLL), busca avaliar se houve alguma instabilidade nos coeficientes de respostas que indique uma variação na percepção ao longo do tempo. A série de dados analisada compreende o período de 2006 a 2011 e o trabalho conclui que não houve variação nos coeficientes e, portanto, se houve alguma mudança positiva ou negativa na percepção de credibilidade, esta não pode ser inferida pelo método proposto.
Resumo:
Controvérsias existem sobre os benefícios da hemodiálise de alto fluxo e alta eficiência em relação a hemodiálise convencional. Este estudo compara, através de parâmetros clínicos, laboratoriais, avaliação do sistema nervoso periférico e autônomo, os pacientes em hemodiálise convencional(HDC) e, após, em hemodiálise de alto fluxo e alta eficiência(HDAF), usando os mesmos parâmetros da cinética da uréia, por um período de tempo de 4-8 meses em cada modalidade de tratamento hemodialitico. O sistema nervoso periférico foi avaliado através da miografia e da neurografia de membros superiores e inferiores. O estudo da variabilidade da freqüência cardíaca, através de seis índices no domínio do tempo, foi usado para avaliar o sistema nervoso autônomo nestes pacientes. Não houve diferença quanto às manifestações intradialíticas nos dois tipos de hemodiálise e nem alteração dos níveis tensionais no período de acompanhamento. Na avaliação laboratorial, verificou-se diferença estatisticamente significativa entre a HDC e HDAF nos seguintes parâmetros: creatinina(9,6mg/dl±2,3x10,9mg/dl±2,0;p<0,01),reserva alcalina (16,5mEq/l±2,5x18,2mEq/l±2,7; p<0,05), ácido úrico(6,3mg/dl±1,3x7,1mg/dl±1,64;p<0,01), fósforo(6,4mg/dl±1,3x7,2mg/dl ±1,4;p<0,01) e albumina(4,1mg/ml±0,5x3,8mg/ml±0,27;p<0,01). Observou-se melhora significativa da velocidade de condução sensitiva do nervo ulnar na HDAF(40,72m/s±5,11x48,01m/s±7,7;p<0,05). Houve redução significativa da variabilidade da freqüência cardíaca nos pacientes urêmicos em hemodiálise, comparativamente ao grupo de indivíduos normais. Concluiu-se que não houve diferença significativa nos parâmetros clínicos entre os dois tipos de hemodiálise. Observou-se redução significativa da albumina na HDAF, bem como aumento significativo da creatinina, reserva alcalina, fósforo e ácido úrico. Houve melhora significativa da velocidade de condução sensitiva do nervo ulnar nos pacientes em HDAF. Os pacientes em hemodiálise apresentam deterioração significativa do Sistema Nervoso Autônomo comparativamente ao grupo controle.
Resumo:
O presente trabalho discute o tema dos dirigentes públicos, atores recentemente debatidos pela literatura como um grupo específico que atua orientado a resultados e à criação de valor público. Em geral, são escassos os estudos que discutem os dirigentes públicos empiricamente; assim, mostraremos os papéis que desempenham argumentando que são atores fundamentais para a formulação e implementação das políticas públicas na medida em que são capazes de dialogar tanto com a esfera política como com a da gestão. Para isso, analisaremos o caso Chileno, experiência bastante consolidada que reconhece o dirigente público como ator distinto dos demais, regido por regras específicas de recrutamento, seleção, nomeação e gestão segundo acordos de resultados. Apresentaremos uma análise dos dirigentes chilenos baseada em uma perspectiva histórica tanto sobre o surgimento e consolidação do Sistema de Alta Direção Pública como em relação às tensões e complementaridades entre tecnocratas e políticos que marcaram os governos chilenos no período que compreende desde a redemocratização até os dias atuais. Mostraremos que este Sistema nasce no contexto de um acordo político entre governo e oposição em busca da modernização e profissionalização do Estado e que as dimensões da política e da gestão são pilares centrais do modelo, presentes em todas as suas esferas, tais como seu desenho institucional e regras de gestão de pessoas e do desempenho.
Resumo:
Este trabalho visa a disponibilização de um ambiente de alto desempenho, do tipo cluster de computadores, com alta exatidão, obtida através da utilização da biblioteca C–XSC. A alta exatidão na solução de um problema é obtida através da realização de cálculos intermediários sem arredondamentos como se fossem em precisão infinita. Ao final do cálculo, o resultado deve ser representado na máquina. O resultado exato real e o resultado representado diferem apenas por um único arredondamento. Esses cálculos em alta exatidão devem estar disponíveis para algumas operações aritméticas básicas, em especial as que possibilitam a realização de somatório e de produto escalar. Com isso, deseja-se utilizar o alto desempenho através de um ambiente de cluster onde se tem vários nodos executando tarefas ou cálculos. A comunicação será realizada por troca de mensagens usando a biblioteca de comunicação MPI. Para se obter a alta exatidão neste tipo de ambiente, extensões ou adaptações nos programas paralelos tiveram que ser disponibilizadas para garantir que a qualidade do resultado final realizado em um cluster, onde vários nodos colaboram para o resultado final do cálculo, mantivesse a mesma qualidade do resultado que é obtido em uma única máquina (ou nodo) de um ambiente de alta exatidão. Para validar o ambiente proposto foram realizados testes básicos abordando o cálculo do produto escalar, a multiplicação entre matrizes, a implementação de solvers intervalares para matrizes densas e bandas e a implementação de alguns métodos numéricos para a resolução de sistemas de equações lineares com a característica da alta exatidão. Destes testes foram realizadas análises e comparações a respeito do desempenho e da exatidão obtidos com e sem o uso da biblioteca C–XSC, tanto em programas seqüenciais como em programas paralelos. Com a conseqüente implementação dessas rotinas e métodos será aberto um vasto campo de pesquisa no que se refere ao estudo de aplicações reais de grande porte que necessitem durante a sua resolução (ou em parte dela) da realização de operações aritméticas com uma exatidão melhor do que a obtida usualmente pelas ferramentas computacionais tradicionais.
Resumo:
O projeto do trem de alta velocidade que fará o transporte de passageiros entre as duas maiores metrópoles do país é um dos principais investimentos do Plano de Aceleração do Crescimento (PAC). Depois do insucesso apresentado no primeiro processo de licitação, devido à falta de proposta de investidores privados, o Governo Federal decidiu alterar a sua participação no plano de investimentos, adicionalmente, nesta segunda tentativa, prevista para ocorrer em setembro de 2013, o Governo informou que reduzirá o valor mínimo da outorga a ser pago pelo concessionário vencedor em 3,2%, o que aumentará o investimento do Estado em cerca de R$ 900 milhões. O setor público busca através das medidas destacadas, aumentar a atratividade do projeto e divulgou que poderá aumentar a sua participação acionária no projeto, de 45% das cotas da SPE que controlará o TAV para cerca de 80%. O presente estudo discute a concessão de uma garantia de demanda mínima de passageiros, os resultados obtidos através da metodologia de opções reais indicam que elas podem gerar um aumento do VPL de 22,2% e um custo para os cofres públicos de apenas 2,86% do total investido no projeto.
Resumo:
O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação de vídeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador de vídeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador de vídeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.
Resumo:
Vários estudos têm sugerido que seres vivos podem ser suscetíveis aos campos eletromagnéticos (CEMs). Os supostos efeitos dos Campos Eletromagnéticos de Ultra Alta Freqüência (CEMUAFs) em sistemas biológicos são pouco conhecidos. Os relatos de um possível efeito biológico dependente da alteração de estados de oxidação entre pares de radicais sugerem um mecanismo de transdução orgânica para os campos. Outros trabalhos obtiveram alterações na sinalização celular e defesas antioxidantes após a exposição CEMUAFs e, tais alterações, poderiam ser um agente causador de doenças como, por exemplo, a leucemia infantil, esta já correlacionada com a exposição aos CEMs. Desta forma o objetivo deste estudo foi investigar se o CEMUAF (834 MHz) poderia interferir com o balanço oxidativo de planárias e ratos, assim como, estudar a participação de enzimas responsáveis pela hidrólise de nucleotídeos, enzimas estas reconhecidas por serem influenciadas pela ação de radicais livres. As planárias foram expostas por 1, 3 e 6 dias (8 h/dia). Após a exposição foi feito um homogenato de todo o corpo de cada animal. Foi encontrado um aumento na atividade da superóxido desmutase (SOD) e um decréscimo na atividade da catalase (CAT) e na defesa antioxidante não-enzimática (TRAP) após 6 dias de exposição. Adicionalmente, houve um aumento na freqüência de micronúcleos (MN) após 3 e 6 dias de exposição. Não houve alteração nos parâmetros de dano oxidativo a lipídios (TBARS) e proteínas (Carbonil) em nenhum dos tempos de exposição. Estes resultados sugerem um aumento nos níveis de radicais livres e de danos aos ácidos nucléicos. Estudos posteriores deverão determinar se estes efeitos apresentam ou não associações do tipo causa e efeito. Foram utilizados três modelos com ratos. No primeiro modelo, animais com idades de 30, 80 e 210 dias foram expostos por 6 dias (7:30 h/dia). Não foram encontradas mudanças nos parâmetros de TRAP, TBARS e Carbonil em nenhuma das idades expostas ao CEMUAF. Estes resultados sugerem que os tempos de exposição utilizados não foram suficientes para causar alguma mudança perceptível nos parâmetros de estresse oxidativo. No segundo modelo, utilizou-se o sangue e fígado dos neonatos expostos ao CEMUAF ainda no útero de suas mães durante todo o seu desenvolvimento embrionário (8:30 h/dia). Não foram encontradas mudanças em nenhum parâmetro oxidativo. Foi encontrado um aumento na freqüência de MN nas hemácias, sugerindo um efeito genotóxico da irradiação do celular afetando o tecido hematopoiético dos fetos. No terceiro modelo, utilizou-se o sangue de ratos adultos (180 dias) expostos por 12 dias (8:30 h/dia). Os níveis da hidrólise de ATP e ADP estavam aumentados no grupo irradiado. Nenhum efeito foi observado nas atividades da SOD e da CAT, sugerindo nenhuma participação de radicais livres nestes resultados. Ainda são necessários muitíssimos estudos para determinar quais os mecanismos transdutores dos CEMUAFs em sistemas biológicos e de que forma esta interação ocorre, porém estes resultados sugerem: (a) um papel para os radicais livres sobre, pelo menos, alguns dos efeitos atribuídos aos CEMUAFs e (b) que os organismos em fase de formação podem ser mais sensíveis aos campos. Por fim, sugerimos que sistemas biológicos podem sofrer a ação da irradiação com uma quantidade de energia muito menor do que a esperada para promover algum efeito no metabolismo.
Resumo:
Apresenta o histórico da radioterapia desde o surgimento dos raios-X até os dias atuais, no contexto das ações e controle de combate ao câncer. Estuda a atual situação dos serviços de radioterapia do pais, com destaque para os municipios de São Paulo e Rio de Janeiro, sob a ótica da Economia da Saúde. A análise foi centrada nos recursos materiais, recursos humanos, recursos financeiros e qualidade assegurada em radioterapia, comparados a paises desenvolvidos e em desenvolvimento.
Resumo:
Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.
Resumo:
O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.