965 resultados para Tempo Livre
Resumo:
Pode-se observar uma considerável dispersão entre os preços que diferentes bancos comerciais no Brasil cobram por um mesmo pacote homogêneo de serviços— dispersão esta que é sustentada ao longo do tempo. Em uma tentativa de replicar esta observação empírica, foi desenvolvido um simples modelo que lança mão do arcabouço da literatura de custos de procura (search costs) e que baseia-se também na lealdade por parte dos consumidores. Em seguida, dados de preços referentes ao setor bancário brasileiro são aplicados ao modelo desenvolvido e alguns exercícios empíricos são então realizados. Esses exercícios permitem que: (i) os custos de procura incorridos pelos consumidores sejam estimados, ao fixar-se os valores dos demais parâmetros e (ii) as correspondentes perdas de peso-morto que surgem como consequência dos custos de procura incorridos pelos consumidores sejam também estimadas. Quando apenas 80% da população é livre para buscar por bancos que cobrem menores tarifas, à taxa de juros mensal de 0,5%, o valor estimado do custo de procura médio incorrido pelos consumidores chega a 1805,80 BRL, sendo a correspondente perda de peso-morto média na ordem de 233,71 BRL por consumidor.
Resumo:
A relação com a teoria das cordas renovou o interesse nas teorias quânticas de campo formuladas num espaço-tempo não-comutativo. O principal aspecto dessas teorias é o assim chamado "mecanismo UV/IR", segundo o qual divergências ultravioletas são parcialmente convertidas em infravermelhas. Para certos modelos, estas singularidades infravermelhas originadas do mecanismo UV/IR podem inviabilizar a solução perturbativa da teoria de campos. A questão principal, portanto, é encontrar teorias que sejam consistentes quando formuladas num espaço-tempo não-comutativo, sendo os modelos supersimétricos particularmente promissores neste sentido. Neste trabalho, examinamos as teorias de calibre supersimétricas Abelianas (NCSQED) e não-Abelianas com grupo de calibre U(N) (NCSYM) formuladas num espaço-tempo não-comutativo de quatro dimensões. Emambos os casos, calculamos as funções de vértice utilizando o formalismo covariante de supercampos que é tornado completamente operacional. Consideramos tanto as teorias N = 1 quanto as com supersimetria estendida. Mostramos rigorosamente que, a um laço da teoria de perturbações, estes modelos são livres de singularidades infravermelhas UV/IR não-integráveis. Para a função de dois pontos da NCSQED esta afirmação vale em qualquer calibre, ao passo que, para a função de três pontos, as singularidades infravermelhas UV/IR perigosas se anulam num calibre particular. Já para a NCSYM, demonstramos que as correções quânticas às funções de vértice de dois e três pontos não apresentam os efeitos indesejáveis do mecanismo UV/IR graças a certas relações envolvendo traços dos geradores do grupo de calibre que, surpreendentemente, são satisfeitas apenas na representação fundamental do grupoU (N). Como esperado, a função de dois pontos é também finita na teoria N = 4.
Resumo:
O pó de aciaria elétrica (PAE) é um resíduo sólido gerado na coleta do material particulado no processo de fabricação do aço em forno elétrico a arco. A classificação segundo norma NBR 10004 para o mesmo é classe I – Perigoso, porque apresenta metais pesados (chumbo e cádmio) em sua constituição, que lixiviam em água excedendo os limites máximos estabelecidos por esta norma. Os elementos ferro e zinco são os constituintes majoritários presentes no PAE. O conhecimento da forma como estes elementos estão combinados é de suma importância antes do estudo de novas tecnologias para processamento do resíduo. Este trabalho teve como objetivos principais caracterizar química, física, estrutural e morfologicamente o PAE e avaliar a influência do tempo na redução carbotérmica deste resíduo. Na etapa de caracterização do PAE as seguintes técnicas foram utilizadas: análise granulométrica, análise química, microscopia eletrônica de varredura (MEV), análise por dispersão de energia (EDS), análise digitalizada de mapeamento de raios-x, difração de raios-x (DRX) e espectroscopia Mössbauer. Os experimentos de redução foram realizados em forno mufla na temperatura de 1050°C, em três tempos de redução: 15, 30 e 60 minutos. O agente redutor utilizado foi um carvão gaúcho, proveniente da mina de Faxinal, beneficiado e contendo 17% de cinza. A quantidade de carbono utilizada nos experimentos foi de 50% em excesso em relação a quantidade estequiométrica. O grau de metalização do ferro das amostras reduzidas foi avaliado via técnicas de análise química via-úmida e espectroscopia Mössbauer. O grau de remoção do zinco nas amostras reduzidas foi avaliado via técnica de análise química por Espectrometria de Emissão Atômica por Plasma – ICP. Através da etapa de caracterização verificou-se que o ferro e o zinco são os elementos majoritários presentes no PAE, e estão combinados na forma dos seguintes óxidos: Fe3O4, ZnFe2O4, FeCr2O4, Ca0,15Fe2,85O4 e ZnO. Nos ensaios de redução verificou-se que inicialmente ocorre a redução dos óxidos de ferro. O máximo grau de metalização obtido no tempo de 60 minutos foi em torno de 50%. A análise estatística mostrou que objetivando maximizar a variável de resposta (grau de metalização) e garantir economia o tempo de 15 minutos se mostrou o mais adequado. Para as fases com zinco, verificou-se que após a decomposição da ZnFe2O4 e tempos maiores de redução teve início a redução da ZnO. Com 60 minutos na temperatura de 1050°C o grau de remoção do zinco foi de 95%.
Resumo:
Este trabalho, realizado num hospital, apresenta a prática de Grupo com pais de bebês internados em Centro de Tratamento Intensivo. Tal prática visa basicamente o atendimento aos pais no sentida de lhes oferecer as condições necesárias para a manutenção e preservação do vínculo afetivo bebê-pais, e consequentemente aceitação deste bebê doente, tanto durante o período de internação como também após sua alta. Visa, portanto, revelar a importância de um suporte emocional aos pais de tais bebês, sem o que, acredita-se, dificilmente ais pais teriam condições de superar a situação de crise emocional por que passam diante ao nascimento de um filho doente ou que adoece logo ao nascer. o trabalho com os Grupos realiza-se uma vez por s~ mana. tendo a duração de 1DJla hora. A coordenação destes grupos é feita em co~terap:ta por UltlJllédico peaiatra e um psicõl~ go. Baseia-se na livre expressão dos participantes. e tanto o médico quanto o psicólogo. oferecem informações sobre o estado de saúde do bebê ao mesmo tempo em que buscam compreen -der na fala dos pais os aspectos emocionais nela subentendi -dos. .' Essencialmente, tornaram-se temas centrais deste trabalho os que dizem respeito a ligação afetiva dos pais com o bebê, aos sentimentos de culpa pela doença do mesmo e os relativos i preocupação dos pais com o desenvolvimento futuro de seu filho. Os referidos temas foram denominados com os seguintes títulos: Vínculos e Separações, Sentimentos de Culpa e O Espaço da Criança, e neles foram abordados os aspectos teóricos de cada questão, visando uma melhor compreensão das ansiedades dos pais e na esperança de fornecer suporte emocional aos mesmos, a fim de que possam melhor amparar seus filhos.
Resumo:
Alta disponibilidade (muitas vezes referenciada como HA, de High Availability) é uma característica de sistemas computacionais que são projetados para evitar ao máximo as interrupções, planejadas ou não, na prestação de serviços. Em alta disponibilidade, o ideal é haver poucas falhas e, mesmo quando estas acontecerem, que o seu tempo médio de reparo (ou MTTR, de Mean Time To Repair) seja tão pequeno quanto possível. Sistemas operacionais têm um papel importante em alta disponibilidade, sendo preferível o uso daqueles que possuam sistemas de arquivos seguros e relativamente independentes de ações por agentes humanos para a recuperação. Uma das abordagens para auxiliar a obter-se uma alta disponibilidade em sistemas de arquivos é a do tipo journaling, ou meta-data logging. Existe uma série de sistemas de arquivos para o sistema operacional Linux baseando-se nela, tais como ext3, JFS, ReiserFS e XFS. Este trabalho tem por objetivo propor uma metodologia de validação experimental para avaliar a eficiência do mecanismo para recuperação de sistemas de arquivos baseados em journaling, na ocorrência de falhas. Para isso, a técnica de validação empregada é a da injeção de falhas e o sistema sob teste é uma implementação do XFS. Foram utilizados os recursos de depuração do sistema operacional Linux (que permitem a utilização de métodos para interceptação e manipulação de chamadas de sistema) para a implementação de um injetor de falhas específico para sistemas de arquivos baseados em journaling, o qual foi chamado de FIJI (Fault Injector for Journaling fIlesystems). Manipular os parâmetros de chamadas de sistema (ou system calls) através do FIJI equivale a alterar as requisições feitas ao sistema operacional. A eficiência do mecanismo de journaling é medida injetando-se falhas e medindose o MTTR e a cobertura de falhas. Basicamente, o que procura-se fazer através do injetor de falhas FIJI é ignorar os logs do journaling e manipular uma quantidade de informações diferente daquela que foi solicitada originalmente.
Resumo:
O poli (ácido L-láctico) (PLLA) é um material de grande interesse na área científica, por ser um polímero biodegradável e bioabsorvível, e pela sua grande utilização na área biomédica. Este estudo teve como objetivo a síntese de PLA através de policondensação direta e em meio supercrítico (scCO2) e sua caracterização. As duas rotas buscam um processo limpo de síntese dos polímeros, livre de solvente orgânico. Além disso, procurou-se reduzir os custos de obtenção utilizando matéria-prima nacional (ácido láctico P.A. comercial). As reações de polimerização de PLLA realizada por policondensação e em scCO2 foram feitas em dois estágios. No primeiro estágio da síntese, para ambos os processos, o pré-polímero do ácido láctico foi obtido através de uma reação simples de condensação, com retirada de água, sob atmosfera inerte de N2 e 160ºC. Na segunda etapa, para a reação de policondensação, o polímero PLLA, foi obtido a partir do pré-polímero em uma temperatura de 140ºC e sob pressão reduzida por o tempo desejado (100h, 200h e 350h). As reações em meio scCO2 foram realizadas em um reator de aço inoxidável de 100 mL equipado com uma barra de agitação magnética, sob pressão de CO2 (80atm) e a 90ºC por 4 horas. Em ambas as reações de polimerização foram usadas complexos de estanho como catalisador. No início deste trabalho foram realizadas algumas reações utilizando o D, L-ácido láctico em scCO2. Também foi realizada a síntese do lactide e a polimerização deste por abertura de anel. Para efeito comparativo, também foi realizada a polimerização do lactide comercial. Os polímeros obtidos foram caracterizados por espectroscopia de Ressonância Magnética Nuclear de Próton (1HRMN), por espectroscopia de infravermelho (IV), por cromatografia de permeação em gel (GPC), por calorimetria exploratória de varredura (DSC) e pela técnica de análise termogravimétrica (TGA) A reação de policondensação revelou ser uma rota sintética excelente na obtenção de polímeros de PLA com peso molecular variados. A formação dos polímeros a partir do monômero de ácido láctico foi confirmada pelo desaparecimento da banda de OH em 3500 cm-1 no espectro de infravermelho. O espectro de 1H-RMN de ambos os polímeros, mostrou um sinal atribuído ao hidrogênio do grupo CH3 em 1,52 ppm e um sinal atribuído aos hidrogênios do grupo do CH em 5,16 ppm, que estão de acordo com a literatura. Os polímeros obtidos possuem potencial para uso clínico como materiais de implante.
Resumo:
Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.
Resumo:
Esta Dissertação, a partir da linha de pesquisa dos Estudos Culturais em Educação e das contribuições dos Estudos desenvolvidos por Michel Foucault, procura discutir e problematizar as práticas escolares e o disciplinamento dos corpos no interior de uma Escola Municipal de Educação Infantil. Nessa perspectiva, tal empreendimento analítico, à medida que considera os indivíduos escolares (crianças e adultos) sendo engendrados pela ação do poder disciplinar, possibilita a tematização das práticas escolares e sua produtividade enquanto instâncias disciplinares, exercitando (na medida do possível) a compreensão das relações de poder, dos movimentos de resistência e da pluralidade dos sujeitos que (re)significam o espaço escolar. A prática escolar da seleção de alunos/as e organização das turmas, composta por entrevistas e testes de desenho é entendida como uma prática de exame, cujo intuito principal é o de conhecer a criança (escolar) no detalhe para, assim, melhor governá-la. Desse modo, a referida prática enquanto tecnologia disciplinar implicada na normalização dos indivíduos registra, distribui, classifica, categoriza e introduz os mesmos em um sistema de objetivação que localiza, singulariza e visualiza cada um em suas características. As práticas escolares do cotidiano são consideradas, na pesquisa, os momentos (diários) de alimentação (o horário destinado às refeições), os momentos de descanso (o horário após o almoço em que as crianças devem dormir) e os momentos de brincadeira “livre”. Desse modo, tais práticas, por serem realizadas diariamente, passam a ser vistas de forma “natural”, como parte (fundamental) do cotidiano escolar, sendo que, muitas vezes, o uso que é feito da normatização do tempo e do espaço em tais momentos estão voltados para “homogeneização” das condutas a partir de uma lógica disciplinar que (entre outros aspectos) se baseia em valores entendidos como “universais” e “necessários”, inscrevendo em cada corpo uma dada forma de se ver, de se narrar, de se expressar, de se relacionar consigo e com os outros, designando uma posição de sujeito que é atribuída como própria. A prática escolar dos rituais comemorativos é entendida, na pesquisa, como o conjunto de festas que fazem parte do calendário escolar e são realizadas na instituição. Tais comemorações têm ocorrência mensal, relacionam-se (diretamente) com as propostas desenvolvidas em sala de aula, realizam-se com a participação de todas as turmas da escola e funcionam através de um conjunto de procedimentos peculiares que se repetem a cada evento. Durante a realização de tais rituais, (principalmente) as crianças são vistas e vigiadas, no intuito de que se tornem disciplinadas, sem precisar mais da figura do soberano ou do pastor para se determinarem, controlarem e justificarem suas escolhas, ações e intenções. Nesse sentido, é relevante mencionar, também, que elas passam a se constituir como disciplinadas ou não, a partir das relações que são estabelecidas com os indivíduos envolvidos em tal prática escolar (professoras, educadoras, funcionárias, equipe diretiva, etc.), agindo sobre si mesmas, submetendo-se ou resistindo às estratégias disciplinares que atuam em tal contexto. Sendo assim, ao apresentar e discutir tais práticas escolares no decorrer da Dissertação, não estão sendo apontadas alternativas de mudança para as propostas que vêm sendo desenvolvidas na Escola de Educação Infantil (pesquisada), mas considerações que possibilitem refletir, discutir e “desestabilizar” o que tem sido considerado, muitas vezes, de forma “natural” e indelével ao âmbito institucional. Dessa forma, talvez seja possível compreender (ao menos minimamente) as lógicas que disciplinam e constituem professores/as, alunos/as, pais/mães, enquanto sujeitos (envolvidos) em redes de relações de poder.
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
A Doença de Marek é uma enfermidade linfoproliferativa das aves, causada por um alfaherpesvírus e caracterizada pela infiltração de células em nervos periféricos, gônadas, íris, vísceras, músculos e pele. Desde 1970, vacinas atenuadas têm sido utilizadas como ferramenta principal no controle da doença. Esse trabalho descreve a implantação da Reação em Cadeia da Polimerase em Tempo Real (qPCR) para a titulação de vacinas contra o vírus da doença de Marek do sorotipo 3, herpesvírus dos perus (HVT). A qPCR foi comparada com a técnica tradicional de titulação, baseada no cultivo celular de fibroblastos de embrião de galinha. Foram avaliadas três vacinas vivas (congeladas, cepa FC126) provenientes de distintos fabricantes. A técnica molecular apresentou alta correlação entre os valores de threshold cycle (CT) e respectivas diluições das vacinas (R2 = 0,99), indicando que, dentro desta faixa linear testada (102 a 104 PFU/dose), a qPCR foi capaz de quantificar as vacinas disponíveis no mercado. A reprodutibilidade da titulação em cultivo celular e qPCR foi avaliada pela realização dos testes em três dias distintos a partir de ampolas de um mesmo lote da vacina. Os títulos obtidos por ambos os métodos demonstraram alta reprodutibilidade e coerência com o fornecido pelo fabricante. Caracterizou-se também a proporção de vírus livres e associados às células, onde foi observado que, pelo menos, 90% dos vírus encontravamse na forma associada. Este trabalho indicou que a qPCR é reprodutível, rápida e menos trabalhosa do que a titulação em cultivo celular tradicionalmente utilizada.
Resumo:
A presente pesquisa aborda os movimentos desencadeados na instituição escolar com a chegada dos ambientes informatizados nas escolas da rede municipal de Porto Alegre, tendo como interface de investigação as categorias de tempo e de espaço. Problematizo a relação escolarizaçãotecnologia no contexto de um cenário social que emerge na hegemonia tecnológica digital das redes de informação e comunicação, para que se tornem evidentes as configurações de tempo e de espaço forjadas no palco de uma proposta de organização da escola pública municipal que, ao reorganizar tempo e espaço escolares, marca a saída do modelo da escola seriada e a entrada da escola por ciclos de formação e autoriza uma forma de escolarização que coloca de forma oficial a materialidade e os saberes da informática educativa na rede de ensino municipal de Porto Alegre. Sob a lógica de uma perspectiva de investigação histórica e cultural, desnaturaliza-se a inserção da informática no tempo e no espaço ao considerá-la como não-imune aos efeitos do contemporâneo fenômeno de compressão do tempo e do espaço. Percorrendo as diferentes experiências espaço-temporais e as configurações assumidas pela sociedade ocidental, ganham visibilidade formas de escolarização que, num processo histórico, conquistaram legitimidade e produziram a escola pública, gratuita, obrigatória, tecnológica e ajustada às transformações e exigências de um cenário social regido por uma imensa acumulação de espetáculos. Continuidades e descontinuidades marcam a inserção das tecnologias de informação e de comunicação na maquinaria escolar, e o disciplinamento cognitivo e comportamental conquista novos dispositivos. Em um corpus de análise em que se entrelaçam documentos, entrevistas, observações e o complexo e ambivalente fenômeno implementado pela permanente revolução das redes digitais de comunicação e de informação, é que a inserção do saber e da materialidade da Informática na Educação no tempo e no espaço escolares passa a ser tematizada. Como um jogo de cara e coroa que, ao revelar sua face de veneno, tornando mais eficiente o controle individual e coletivo, faz, também, girar a moeda, para que o potencial participativo, socializante e emancipador da rede mundial de computadores aponte para a face do próprio remédio. A partir dessa faceta condicionante e nãodeterminista da relação escolarização-tecnologia, tempos e espaços para colonizar são problematizados a fim de fazer emergir, na mesma intensidade, tempos e espaços para fruir, para deixar espraiar a sensibilidade e a interação humanas, para potencializar o aprendizado e a aquisição dos saberes.
Resumo:
O presente trabalho tem o objetivo de explicar a evolução ao longo do tempo dos prêmios pagos por títulos de dívida de empresas não conversíveis em ações entre os anos 2005 e 2012. São utilizadas variáveis específicas das empresas emissoras, como índices de alavancagem, rating da emissão e volume emitido, além de variáveis de sentimento econômico como índices de ações, taxa de juros, índices de inflação e crescimento e taxas pagas por empresas no exterior. Os resultados econométricos indicam que, diferente de estudos feitos em mercados desenvolvidos, as variáveis de taxa de juros não possuem grande relevância na determinação da variação do spread de crédito no Brasil entre 2005 e 2012. No pós-crise de 2008, porém, taxas de juros se mostram relevantes, indicando um possível amadurecimento do mercado brasileiro na direção dos mercados desenvolvidos. Índices de ações e nível de spread de crédito no mercado internacional apresentaram coeficientes estatisticamente relevantes na evolução dos prêmios no mercado brasileiro. Além disso, o mercado parece ser influenciado por tendência, uma vez que alterações de spread em períodos anteriores ajudam a explicar mudanças no período atual.
Resumo:
Dentre as premissas do modelo de Black-Scholes, amplamente utilizado para o apreçamento de opções, assume-se que é possível realizar a replicação do payoff da opção através do rebalanceamento contínuo de uma carteira contendo o ativo objeto e o ativo livre de risco, ao longo da vida da opção. Não somente o rebalanceamento em tempo contínuo não é possível, como mesmo que o fosse, em um mercado com custos de transação, rebalanceamentos da estratégia replicante com intervalos de tempo muito baixos teriam o payoff da estratégia replicante comprometido pelos altos custos totais de transação envolvidos. Este trabalho procura comparar metodologias de delta-hedge, tomando como base uma call européia vendida em um mercado com custos de transação. Para comparar as diferentes estratégias, este estudo será dividido em duas partes: na primeira, serão escolhidas três ações do mercado brasileiro, e usando simulações de Monte Carlo para cada ação, avaliamos diferentes modelos de delta-hedge a partir do erro de replicação do portfolio global e dentro de um contexto de média × variância, considerando-se custos de transação. Em um segundo momento, para o mesmo grupo de ações, testamos os resultados práticos dos modelos, usando dados de mercado.