1000 resultados para Nível aplicação
Resumo:
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
Resumo:
O principal objetivo, deste estudo é analisar as informações geradas pelos Métodos Legal e Integral de reconhecimento dos efeitos inflacionários nas Demonstrações Contábeis, evidenciando os aspectos qualitativo e quantitativo da informação contábil para fins de avaliação econômico-financeira e patrimonial das companhias abertas do Brasil. A pesquisa foi desenvolvida em uma amostra composta de 87 ( oitenta sete) Demonstrações Contábeis, com o tamanho calculado estatisticamente para atender aos aspectos de aleatoriedade e representatividade. Representando, assim, o universo de 664 (seiscentos sessenta quatro) companhias abertas inscritas na CVM - Comissão de Valores Mobiliários em 31.12.87. Esta pesquisa se diferencia das demais pelo tipo de amostra e universo estudados, uma vez que a aplicação da Contabilidade a Nível Geral de Preços pelas companhias abertas do Brasil é recente. Este método torna as informações contábeis mais realistas e potencialmente capazes de representar a real performance das empresas.
Resumo:
Neste trabalho abordamos a unitização como uma reinterpretação de cartel, partindo do modelo clássico de Green e Porter. A incerteza geológica é representada por um componente estocástico no custo marginal. Caracterizamos o contrato ótimo e, a partir da estática comparativa, avaliamos a eficiência e a viabilidade da cooperação. O preço e o grau da externalidade afetam positivamente o nível de eficiência do contrato ótimo. Mas enquanto preços elevados viabilizam os acordos, o grau de externalidade elevado pode conduzir a equilíbrios ineficientes ou mesmo inviabilizar a produção. O mesmo resultado ocorre com os custos fixos. Adicionalmente, quanto maior for o número de firmas envolvidas no acordo, menor será a chance de existir um contrato mais eficiente que a regra da captura.
Resumo:
A evapotranspiração (ET) abrange todos os processos que envolvem a mudança de fase líquida ou sólida para vapor de água. Globalmente, suas principais componentes são a evaporação nos oceanos, corpos d’água e solo e a transpiração pela cobertura vegetal. O conhecimento da ET da superfície terrestre para a atmosfera é muito importante para a resolução de inúmeras questões relacionadas aos recursos hídricos. Dentre essas questões, destacam-se planejamento de bacias hidrográficas e, em especial, o manejo da irrigação. Esse tipo de informação é igualmente relevante para estudos climáticos uma vez que, por meio da ET, ocorre redistribuição de umidade e calor da superfície para a atmosfera.As metodologias convencionais de estimativa da ET, em geral, apresentam muitas incertezas. Essas incertezas aumentam muito quando o interesse é o comportamento espacial da mesma. A única tecnologia que permite acessar esse tipo de informação, de forma eficiente e econômica, é o sensoriamento remoto. Por meio de dados derivados de imagens de satélite é possível calcular o balanço de energia de uma região e acessar as reais taxas de ET. A literatura internacional apresenta alguns modelos para estimar a ET por meio de sensoriamento remoto. A verificação dessas estimativas é feita por medidas dos termos do balanço de energia realizadas por sensores colocados em torres meteorológicas. Esse tipo de informação, no entanto, é de alto custo e de difícil aquisição. Após revisão de literatura, foram escolhidos os algoritmos SEBAL (Surface Energy Balance Algorithm for Land) e SSEBI (Simplified Surface Energy Balance Index). O primeiro foi adotado por ser um dos mais utilizados e o segundo pela sua simplicidade.Dessa maneira, a partir de 44 imagens de satélite, praticamente livres de cobertura de nuvens, do sensor AVHRR (Advanced Very High Resolution Radiometer), a bordo do satélite NOAA-14, e dados climatológicos de algumas estações, foram geradas séries de coberturas de ET real para o Estado do Rio Grande do Sul em nível diário, durante o ano de 1998. Para efeito de simplificação, na análise dos resultados foram escolhidas algumas áreas representativas das principais classes de cobertura do Estado: área cultivada, campo, área urbana, banhado, lagoa e floresta. Os resultados demonstraram que, para o SEBAL, asperdas médias anuais (mm ano-1) ocorrem, em ordem decrescente nas classes banhado (827), lagoa (732), floresta (686), área cultivada (458), campo (453) e área urbana (276). Para o S-SEBI, esta ordem é a seguinte: floresta (918), banhado (870), lagoa (669), área cultivada (425), campo (403) e área urbana (363). Ficou evidente que as classes com as menores influências antrópicas apresentaram as maiores taxas de ET. Outra observação feita é que, em média, as estimativas do S-SEBI superestimam a ET em relação ao SEBAL, na porção leste do Estado, e o oposto na porção oeste. Foi verificado, ainda, um eixo de decréscimo da ET na primeira metade do ano da porção noroeste para sudeste, e posterior crescimento na segunda metade do ano, em sentido oposto.As verificações foram feitas de forma indireta por meio de um balanço hídrico anual simplificado em algumas bacias hidrográficas do Estado, por meio de valores de ET real para a cultura do milho em algumas localidades do Estado e medidas de evaporação de tanque do tipo Classe A. Em geral, os resultados foram considerados coerentes, o que confere à metodologia utilizada um grande potencial de uso, uma vez que possibilita acessar a distribuição espacial da ET.
Resumo:
A motivação principal deste trabalho foi analisar aspectos relevantes no processo de tomada de decisão em empresas de manufatura brasileiras sobre o sistema a ser adotado na função de gerenciamento da produção, basicamente seu planejamento, programação e controle. Os objetivos de maximização da eficiência de operação da fábrica, minimização dos custos de fabricação e maximização do nível de serviço aos clientes, visados pelas empresas, são normalmente conflitantes. No desenvolvimento deste projeto procurou-se, dentro do contexto atual do uso dos sistemas de administração da produção nos principais centros produtivos mundiais como os E.U.A. e o Japão, vislumbrar um sistema que pudesse harmonizar os objetivos propostos, de acordo com a realidade brasileira, de instabilidade econômica.
Resumo:
E ste trabalho relata uma experiência de inserção do ensino da teoria da Relatividade Especial com alunos do terceiro ano do ensino médio. A aplicação do projeto em sala de aula foi parte integrante das atividades curriculares normais dos alunos, em duas escolas, uma localizada no município de São Jerônimo-RS, Colégio Cenecista Carlos Maximiliano, e outra localizada no município de Triunfo-RS, Escola Técnica Municipal Farroupilha. Foi elaborado um texto para os alunos, contendo a base histórica e conceitual do tema, além de um manual de auxílio aos professores. O texto dos alunos contempla os principais fatos históricos, desde Aristóteles até as conclusões de Albert Einstein, que levaram à construção da Relatividade Especial em 1905. São tratados os conceitos de simultaneidade, dilatação temporal, contração do comprimento, adição de velocidades e energia relativística. A experiência é avaliada, principalmente através de um questionário respondido pelos alunos, antes e após a aplicação do projeto. Também foi feita uma análise de alguns livros de Física do ensino médio, sobre o tratamento dado à teoria da Relatividade Especial. O trabalho foi embasado na teoria de desenvolvimento humano histórico-cultural de Vygotsky e na teoria de aprendizagem significativa de Ausubel e Novak. Acreditamos ter mostrado que é possível incluir o tratamento regular da teoria da Relatividade Especial em escolas de nível médio, contemplando assim os Parâmetros Curriculares Nacionais que apontam para uma ênfase à Física contemporânea.
Resumo:
Esta dissertação aborda a implementação de um protótipo de aplicação multimídia referente à Ilha Rei George (61º 50’ S, 57º 30’ W e 62º 15’ S, 59º 00' W), Antártica. Nessa ilha o Brasil mantém sua única estação polar, onde realiza parte das pesquisas do Programa Antártico Brasileiro (PROANTAR). O presente trabalho visa reduzir a carência por materiais didáticos em língua portuguesa sobre as regiões polares e aborda aspectos gerais da biota, geografia física (geologia, climatologia e oceanografia) e geografia humana (história de ocupação, turismo, pesquisa e impactos gerados pela presença humana). O público alvo são pessoas com nível de instrução de ensino médio incompleto ou níveis mais avançados. O conteúdo é apresentado de forma a cativar a atenção do usuário, sem exageros estéticos. A fim de obter material para subsidiar o projeto, foram realizados registros por meio de fotografias, gravações em vídeo e entrevistas durante os trabalhos de campo na ilha, realizados no verão de 2004. Além dos registros em campo, são apresentados materiais didáticos tais como textos, ilustrações e animações em 3D. Parte do material gerado está disponível para utilização posterior em outros projetos O ambiente de desenvolvimento utilizado para a aplicação foi o Macromedia Director, para Apple Macintosh. O produto do projeto é um protótipo que pode ser distribuído em mídia removível, CD-ROM (Compact Disk Read Only Memory) ou DVD-ROM (Digital Versatile Disc Read Only Memory) e é encontrado como um encarte no final desta dissertação. A informação compilada e reunida na aplicação permite ao público acesso a dados atualizados sobre o ambiente antártico de forma simples, didática e interativa. O trabalho esclarece as relações entre a Antártica e o mundo, principalmente no que faz referência à ilha Rei George, buscando a valorização das regiões polares.
Resumo:
O presente trabalho investigou o valor de uma floresta nativa no bioma Mata Atlântica. Para isso, utilizou-se da metodologia de custo de reposição. Além disso, buscou-se explicitar os principais fatores determinantes desse valor, bem como seus impactos. Foram formuladas quatro hipóteses de pesquisa, a saber, i) o nível de degradação da área não influencia o custo total de reposição da floresta nativa; ii) relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa; iii) a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa; e iv) a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Para chegar aos resultados foram realizados testes simples de diferença de médias para as variáveis qualitativas. Os resultados encontrados foram de que pode-se rejeitar a hipótese de que relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa. No entanto, não se rejeitam as hipóteses de que a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa e de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Após essa primeira aproximação, é realizada uma série de regressões, utilizando o modelo clássico de mínimos quadrados ordinários (MQO). Fez-se uma análise de sensibilidade dos resultados obtidos. O levantamento de dados foi obtido por meio da realização de uma pesquisa (questionário) a uma série de entidades do setor. Foram testadas as quatro hipóteses. De acordo com os testes realizados, pode-se dizer que a hipótese 2 sobre o impacto de um relevo mais acidentado das áreas a serem restauradas no custo total de reposição da floresta nativa se mostrou não significativa em todos os modelos. No entanto, a hipótese 1 do impacto do nível de degradação sobre o valor do projeto foi rejeitada em todos os modelos. A hipótese 3 do impacto da localização da área em relação ao centro urbano sobre o valor do projeto foi rejeitada em dois modelos e a hipótese 4 de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa foi rejeitada em um modelo. Chegou-se ao resultado de R$22 mil/hectare para o custo de reposição de uma floresta nativa do bioma Mata Atlântica. Esse tipo de estudo foi contextualizado no desenvolvimento feito pela economia ambiental ao longo do tempo, ressaltando suas principais características. Nas conclusões destaca-se os principais pontos do trabalho e são discutidas uma série de implicações teóricas e gerenciais do presente estudo, bem como apresentadas sugestões para novos estudos nessa área.
Resumo:
A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.
Resumo:
Este trabalho teve como objetivo mensurar, através da metodologia de opções reais, o valor de opções e do método de pagamento definidos no contrato de aquisição de uma companhia.
Resumo:
Nos últimos anos o governo brasileiro tem adotado a postura de incentivo a projetos de infraestrutura, sendo as concessões rodoviárias um dos principais mecanismos. Muito se discute sobre a melhor forma de remuneração das concessionárias, sem que, ao mesmo tempo, os usuários não tenham um custo elevado e possam usufruir de bons serviçoes prestados.Essa discussão passa, principalmente, por uma análise de risco de tráfego, que hoje é inteiramente alocado as cconcessionárias. A metodologia utilizada nos últimos leilões segue uma exigência de Taxa Interna de Retorno ( TIR ) máxima, pelo Poder Concedente ( ANTT ), em termos reais e um prazo de concessão fixo. A partir de custos e investimentos estimados em determinada concessão, a ANTT define uma tarifa-teto a ser cobrada pela concessionária aos usuários através da TIR máxima exigida no projeto. Esta TIR é calculada com base no custo médio ponderado de capital ( WACC ) de empresas do setor, que tem ações negociadas na BM&F Bovespa, utilizando-se apenas dados domésticos. Neste trabalho é proposto um modelo alternativo, baseado no menor valor presente das receitas ( LPVR - Least Present Value of Revenues ). Neste modelo observamos que o risco de tráfego é bem menor para a concessionária, pois a concessão só se expira quando determinado nível de receitas exigido pela concessionária é atingido. Ou seja, para tal, é necessário um modelo de prazo flexível. Neste mecanismo, entretanto, com menor risco de tráfego, o upside e o downside, em termos de retorno, são menores em comparação com o modelo vigente. Utilizando este modelo, o Poder Concedente pode também definir um vencedor para o leilão ( a concessionária que ofertar o menor valor presente das receitas ) e também se utilizar da proposta de simulação de tráfegos para a definição de um prazo máximo para a concessão, em caso de implementação do mecanismo proposto.
Resumo:
A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.
Resumo:
Este estudo identificou a relação da aglomeração de firmas de uma mesma atividade econômica na taxa de crescimento do emprego local. Dados das firmas industriais do Estado de São Paulo constantes da Relação Anual de Informações Sociais [RAIS] nos anos de 1996 a 2005 foram coletados. Foram analisadas 263.020 observações de nível de emprego de 26.231 combinações de município-CNAE e 296 diferentes atividades. Os critérios de Puga (2003) e Suzigan, Furtado, Garcia, Sampaio (2003) foram usados para identificar as aglomerações. Uma análise de curva de crescimento, usando-se um modelo multinível, foi desenvolvida no software Hierarchical Linear Models [HLM]. Os resultados evidenciam que existe uma relação positiva entre aglomeração de firmas de uma mesma atividade econômica e o crescimento de emprego. Considerando as externalidades previstas pelo fato de as empresas estarem localizadas em uma mesma região, pode-se sugerir que, em termos comparativos, firmas de uma mesma atividade econômica, localizadas em aglomeração, podem, perceber crescimento maior que suas concorrentes localizadas fora de um aglomerado. Este resultado é relevante, tanto para a empresa individual, como para o estabelecimento de políticas públicas que apóiam o desenvolvimento regional, no nível do município. As evidências confirmam estudos anteriores de caso, permitindo dar mais robustez à teoria
Resumo:
A intervenção vocacional aparece,inevitavelmente, associada ao trabalho do psicólogo escolar, constituindo uma referência importante da sua actividade profissional. Ainda que esta forma de intervenção se realize, diversas vezes, em grupo deve contemplar a individualidade e as características de grupos específicos. Com a realização deste trabalho pretendemos apresentar o programa de orientação vocacional “Para lá do 9º ano!” e reflectir sobre a sua aplicação, no 3º período do ano lectivo, junto de um grupo de alunos a frequentar o 9º ano de escolaridade numa Escola EB2,3. Este grupo é constituído por 14 alunos, que num estudo anterior, realizado quando frequentavam o 6º ano de escolaridade, foram sinalizados como alunos mais capazes, tomando critérios de avaliação ao nível da criatividade (TPCT), da cognição (BPR-5/6), da inteligência geral (TIG-1) e do rendimento académico (notas escolares). Seguimos uma abordagem mais qualitativa ao analisarmos as suas expectativas e crenças face ao desenvolvimento escolar e profissional, e ao caracterizarmos as suas preferências e o processo de tomado de decisão. A generalidade destes alunos pretende ingressar no Ensino Superior, optando por inscrever-se no Ensino Secundário em Cursos Científico-Humanísticos, mais precisamente em Ciências e Tecnologias. Terminamos, numa perspectiva de desenvolvimento de carreira, com algumas reflexões em relação ao percurso educativo destes alunos e da organização do sistema educativo.
Resumo:
Nos Jogos Desportivos Colectivos o estudo do jogo, a partir da observação das condutas dos jogadores e das equipas, vem permitindo um aumento do conhecimento sobre os mesmos, sendo um contributo importante tanto para a aprendizagem como para o aumento da eficácia das acções desportivas. O presente trabalho utilizou a Metodologia Observacional e análise sequencial para a caracterização do nível de eficácia no Mini-Voleibol, entendido como o resultado que se obtém através do desempenho. Pretendeu-se, efectuando uma análise centrada no jogo: (1) detectar relações de associação e dependência sequenciais entre unidades de conduta; (2) tipificar as acções que se associam a um desempenho eficaz, ao nível da formação inicial no Voleibol; (3) pesquisar indicadores, para determinar o objectivo dos exercícios a desenvolver no treino, dando maior ênfase, aos procedimentos táctico-técnicos que a análise demonstre mais débeis no jogo. A amostra do estudo foi constituída pela totalidade dos rallies observados em oito jogos das equipas femininas participantes no Encontro Nacional de Mini-Voleibol referente à época 2005-2006. Efectuou-se a análise descritiva e sequencial dos dados, utilizando a técnica das transições ou retardos de uma forma prospectiva e retrospectiva. Os resultados do presente estudo permitiram concluir: (1) a organização colectiva das acções no jogo (4x4) revela fraca eficácia ofensiva, havendo pouca progressão da bola para a rede. Em 35.7% dos comportamentos a bola é reenviada ao 2º toque para o campo adversário. Em 64.3% dos desempenhos, a construção do ataque é organizada, utilizando os três toques; (2) no serviço efectuado por cima é significativa a probabilidade de ocorrer erro na recepção efectuada em manchete, enquanto o serviço efectuado por baixo inibe a ocorrência de erro na recepção em manchete; (3) o passe em suspensão é o mais utilizado, com 47.2 % no total dos recursos de ataque observados ao 3º toque, nos rallies registados; (4) é significativa a probabilidade da conduta ataque com êxito ser antecedida pela distribuição em passe continuado e precedida pela defesa em manchete com erro; (5) o erro na defesa tem uma probabilidade significativa de ser precedida de distribuição em passe e ataque com êxito. (6) As acções de jogo no Mini-Voleibol feminino (4x4), nos rallies observados, concentram-se maioritariamente nos ⅔ do campo, mais próximos da rede (85 %).