947 resultados para Teorema Fundamental do Cálculo
Resumo:
O objetivo deste trabalho é propor um projeto com o intuito de levar o aluno de ensino fundamental da rede pública ao conhecimento e à reflexão acerca de um determinado período social e político da historia brasileira, conhecido como a ditadura militar da década de 1960, através da obra do artista popular Waldomiro de Deus. Para tanto, propõe-se a utilização da Abordagem Triangular (AT) para o ensino da arte, que consiste em uma metodologia baseada em três eixos principais: a contextualização da obra, a sua apreciação e a prática. A contextualização da obra de arte no projeto é para o aluno entender a época na qual foi criada, e estabelecer as relações sociais e culturais de forma integrada. A apreciação da obra é a leitura crítica das imagens, que ajudará ao aluno a formar seus próprios conceitos sobre os trabalhos artísticos a partir daí analisados. A prática refere-se ao trabalho no ateliê, a criação visual, a utilização dos materiais para composição dos trabalhos. Estes trabalhos serão elaborados a partir do estudo da obra do artista, não sendo uma cópia, e o aluno terá a liberdade para se expressar dentro de sua realidade. Este projeto pretende trazer para os seus beneficiários a discussão da arte e o seu papel no ensino fundamental. Compartilhar com as crianças um cotidiano educativo proposto por este projeto é envolver linguagens artísticas diferentes, como prática de dinâmicas entre professores e alunos, no processo de desenvolvimento e criação da arte e na apropriação de valores éticos. Espera-se ao final do projeto que os alunos conheçam a obra do artista Waldomiro de Deus, a temática que envolveu e a sua importância para o conhecimento desse período histórico do país.
Resumo:
Esta pesquisa foi realizada tendo como base a crença que, estudando os discursos de professoras e professores, entenderia os fenômenos que povoam os seus cotidianos, entendendo, também, neste universo, os profissionais, seu trabalho e profissionalidade na escola. Assim, realizei um estudo de caso, portanto, de natureza qualitativa, com recursos da Análise do Discurso, analisando os discursos de professoras dos anos iniciais do Ensino Fundamental, da Região Fronteira Noroeste, do Estado do Rio Grande do Sul, acerca de trabalho, profissionalidade e escola. Das entrevistas com vinte e duas professoras, foram extraídas e analisadas, com base nos estudos teóricos, as categorias mais evidenciadas. Este esforço de compreensão visou a um entendimento deste fenômeno, interagindo o mais possível com as interlocutoras, interpretando os sentidos, as contradições e como revelam discursivamente seu trabalho e sua profissionalidade. Após as análises, reuni, novamente, o grupo de interlocutoras, para refletir sobre as interpretações produzidas. Deste modo, a pesquisa teve este caráter: contribuir no processo de reflexão sobre o trabalho da professora e sua professoralidade, no espaço-tempo da escola. Os resultados da pesquisa evidenciaram a necessidade da reflexão e da interação na escola, com o intuito de serem ampliadas as condições para a constituição da professoralidade. Evidenciou-se também uma carência de maior reflexão sobre o ser professora e, paralelamente, a necessidade de um maior aprofundamento, por parte das interlocutoras, quanto às suas condições de trabalhadoras no que se refere ao social, às relações de gênero e ao trabalho, dimensionando uma professoralidade capaz de lhe orientar em seu cotidiano profissional. Como as entrevistadas demonstraram certa fragilidade em abordar questões relativas à sua profissionalidade e ao seu trabalho, que, em suma, são organizadores de toda a sua razão de ser como professoras, apresentei alternativas de reconstituição da profissionalidade e sua evolução para um estágio de professoralidade, no espaçotempo da escola.
Resumo:
O controle de robôs móveis não holonômicos apresenta como principal desafio o fato de estes sistemas não serem estabilizáveis em um ponto através de uma realimentação de estados suave e invariante no tempo, conforme o Teorema de Brockett. Para contornar este resultado, técnicas clássicas utilizam leis de controle variante no tempo ou não suaves (descontínuas). Entretanto, estas técnicas não prevêem durante o cálculo da lei de controle restrições nas variáveis do sistema e assim, muitas vezes, geram entradas de controle que são incompatíveis com uma implementação real. Neste trabalho são desenvolvidos algoritmos de controle preditivo baseado em modelo (MPC) para o controle de robôs móveis não holonômicos dotados de rodas. No MPC, restrições nas variáveis de estado e de controle podem ser consideradas durante o cálculo da lei de controle de uma forma bastante direta. Além disso, o MPC gera implicitamente uma lei de controle que respeita as condições de Brockett. Como o modelo do robô é não linear, é necessário um algoritmo de MPC não linear (NMPC). Dois objetivos são estudados: (1) estabilização em um ponto e (2) rastreamento de trajetória. Através de extensivos resultados de simulação, é mostrada a eficácia da técnica. Referente ao primeiro problema, é feita uma análise comparativa com algumas leis clássicas de controle de robôs móveis, mostrando que o MPC aplicado aqui apresenta uma melhor performance com relação às trajetórias de estado e de controle. No problema de rastreamento de trajetória, é desenvolvida uma técnica linear, alternativa ao NMPC, utilizando linearizações sucessivas ao longo da trajetória de referência, a fim de diminuir o esforço computacional necessário para o problema de otimização. Para os dois problemas, análises referentes ao esforço computacional são desenvolvidas com o intuito de mostrar a viabilidade das técnicas de MCP apresentadas aqui em uma implementação real.
Resumo:
O reconhecimento pela Ciência de que os animais são seres sencientes e conscientes propiciou o surgimento das teorias morais que chamamos de direito animal, bem como o desenvolvimento de alternativas técnicas ao uso de animais, sobretudo na educação. Neste cenário, estudantes de biomédicas se recusam à realização de experimentação animal, baseados no direito à objeção de consciência protegido pela Constituição da República Federativa Brasileira de 1988, que, contudo, tem sido negado pelos tribunais. Este trabalho tem por objetivo, através do estudo de casos, apresentar que as premissas e os fundamentos em que se apoiam os tribunais para negar a objeção de consciência são questionáveis do ponto de vista jurídico, tendo em vista o sentido da objeção de consciência e hermenêutico, pela aplicação do princípio da força normativa da constituição e do princípio da proporcionalidade.
Resumo:
A presente dissertação oferece o relato de um programa desenvolvido para crianças de idades entre sete e dez anos, às quais foi oferecida a oportunidade de aprender Física através de atividades experimentais do tipo mão-na-massa (hands-on) como parte de um ensino baseado em pesquisa (inquiry-based). Este programa foi desenvolvido na Escola Panamericana de Porto Alegre, além de ter incluído, em 2003, uma série de oficinas de Física com uma turma de quarta série do Colégio Bom Conselho, também de Porto Alegre. O referencial teórico que dá suporte a esse trabalho é o Construtivismo, com destaque aos estágios de desenvolvimento de Piaget, a importância da interação social de Vygotsky e os Campos Conceituais de Vergnaud. Os resultados colhidos ao longo desse período de quatro anos mostram, além do entusiasmo da maioria das crianças, um claro desenvolvimento em suas capacidades de observar fenômenos, propor teorias baseadas em suas observações e analisar criticamente essas teorias à luz de novas situações e novos dados observados. Também tem sido observada uma atitude continuamente mais independente por parte dessas crianças, que passaram a tomar a iniciativa de desenvolver projetos de pesquisa, construir modelos e propor testes experimentais às suas próprias teorias. Também são discutidas opções para o desenvolvimento de programas semelhantes em outras escolas.
Resumo:
Introdução A pneumonia hospitalar é a principal causa de morte dentre as infecções hospitalares. A prevalência de pneumonia hospitalar em Unidades de Tratamento Intensivo (UTI) varia de 10 a 65%, com taxas de mortalidade que podem variar de 24 a 76%. A pneumonia associada à ventilação mecânica (PAV) é um determinante de mortalidade independente em pacientes submetidos à ventilação mecânica. A adequação do tratamento empírico precoce parece ser fundamental no prognóstico. Os critérios atualmente estabelecidos para avaliar adequação do tratamento empírico utilizam parâmetros clínicos, escores de gravidade e, principalmente, a sensibilidade do germe causador da infecção aos antibióticos administrados. Estes resultados balizam a necessidade de possíveis modificações no esquema antimicrobiano. A possibilidade de utilizar a Procalcitonina (PCT), a Proteína-C Reativa (CRP) e o escore SOFA (Avaliação de Falência de Órgãos Relacionada a Sepse), como indicadores de resposta do paciente, comparando seu status no dia do início do tratamento antimicrobiano (D0) com a evolução destes indicadores no quarto dia de tratamento (D4) abre a possibilidade de comparar o paciente com ele próprio, independente da exuberância da expressão da resposta inflamatória que ele possa desenvolver. Os resultados desta cinética entre D0 e D4 podem ser preditivos de gravidade de infecção, de eficiência antimicrobiana, e possivelmente de sobrevivência ou mortalidade hospitalar nos pacientes com suspeita de PAV. Objetivos Determinar e comparar o valor prognóstico de sobrevivência da cinética da PCT, da CRP, dos escores clínicos CPIS (Escore Clínico de Infecção Pulmonar) e SOFA, e do APACHE II (Avaliação da Fisiologia Aguda e da Saúde Crônica) na PAV entre o diagnóstico e o quarto dia de tratamento, quando a adequação do tratamento é avaliada. Pacientes e Métodos Realizamos um estudo de coorte prospectivo observacional que avaliou 75 pacientes internados no Centro de Tratamento Intensivo clínico-cirúrgico de adultos do Hospital de Clínicas de Porto Alegre que desenvolveram PAV no período de outubro de 2003 a agosto de 2005. Os pacientes com suspeita clínica de PAV que se adequaram aos critérios de inclusão e exclusão do estudo foram os candidatos a participar. Os familiares ou representantes dos pacientes receberam esclarecimentos por escrito acerca dos exames a serem realizados, bem como dos objetivos gerais da pesquisa. Os que aceitaram participar do estudo assinaram o termo de Consentimento Informado. O projeto foi aprovado pelo Comitê de Ética em Pesquisa do Hospital de Clínicas de Porto Alegre. No dia do diagnóstico de PAV foram coletados aspirado traqueal quantitativo, hemoculturas e sangue para a realização de dosagens de PCT, CRP, hemograma, plaquetas, creatinina, bilirrubinas, gasometria arterial e radiografia de tórax, com o objetivo de calcular o CPIS e o escore SOFA. No terceiro dia de tratamento foram novamente coletados aspirados traqueais quantitativos e os demais exames para o cálculo do CPIS. No quarto dia foi coletado sangue para dosagens de PCT, CRP e para os demais exames necessários para o cálculo do SOFA. Os pacientes foram acompanhados por 28 dias após o diagnóstico de PAV, quando foram considerados sobreviventes. Todos os pacientes que morreram antes do vigésimo oitavo dia foram considerados não-sobreviventes. Resultados Os níveis de PCT foram mais baixos nos sobreviventes em D0 (p=0.003) e em D4 (p=0.001). Os níveis de CRP não foram diferentes em sobreviventes e nãosobreviventes em D0 (p=0.77) e em D4 (p=0.14). O CPIS não pode diferenciar sobreviventes de não-sobrevientes em D0 (p=0.32) e em D3 (p=0.45). ΔCPIS decrescente não foi correlacionado a sobrevivência (p=0.59), o mesmo ocorrendo com CPIS <6 em D3 (p=0.79). Pacientes que morreram antes de D4 não puderam ter sua cinética calculada e foram considerados casos perdidos. Variáveis incluídas no modelo de regressão logística univariável para sobrevivência foram idade, APACHE II, ΔSOFA decrescente, ΔPCT decrescente e ΔCRP decrescente. Sobrevivência foi diretamente correlacionada a ΔPCT decrescente com RC = 5.67 (1.78;18.03) p = 0.003, ΔCRP com RC = 3.78 (1.24;11.50) p = 0.02, ΔSOFA decrescente com RC = 3.08 (1.02;9.26) p = 0.05 e escore APACHE II com RC = 0.92 (0.86;0.99) p = 0.02. O modelo de regressão logística multivariável para sobrevivência incluiu todas as variáveis participantes da análise univariável. Somente ΔPCT decrescente com RC = 4.43 (1.08;18.18) p = 0.04 e ΔCRP com RC = 7.40 (1.58;34.73) p = 0.01 permaneceram significativos. A avaliação da cinética dos marcadores inflamatórios e a associação com sobrevida no estudo mostraram que: - Em 95,1% dos sobreviventes houve queda dos níveis de PCT ou de CRP. - Em 61% dos sobreviventes ambos os níveis de PCT e de CRP caíram. Apenas 4,9% dos sobreviventes tiveram níveis de PCT e CRP crescentes. Com relação aos não-sobreviventes, 78.9% tiveram pelo menos um dos dois marcadores ou ambos com níveis crescentes. Conclusão As cinéticas da PCT e da CRP, obtidas pelas dosagens de seus níveis no dia do diagnóstico e no 4º dia de tratamento, podem predizer sobrevivência em pacientes com PAV. A queda dos níveis de pelo menos um destes marcadores ou de ambos indica maior chance de sobrevivência.
Resumo:
Essa dissertação possui como objetivo traçar, uma nova metodologia de classificação de patogenicidade da Escherichia.coli,.através de um índice no qual, além do número de animais mortos, também foi considerado o tempo de morte e a capacidade da cepa causar lesão compatível à colibacilose em pintos de 1 dia. Para gerar esse critério, foram utilizadas 300 amostras de E.coli oriundas de lotes com lesão de celulite, cama desses mesmos aviários e amostras de quadros respiratórios. Através desse experimento foi possível observar que as amostras de E.coli originadas das camas dos aviários, apresentavam índice de patogenicidade significativamente menor do que aquelas isoladas das lesões cutâneas e de quadros respiratórios.Também foi associado às cepas de E.coli a capacidade de causar lesões de: pericardite, perihepatite, aerossaculite, peritonite e celulite. Dentre as lesões citadas somente a celulite foi considerada de apresentação significativamente mais freqüente em comparação às outras.
Resumo:
A energia elétrica é fundamental para o desenvolvimento de qualquer país e o Brasil atravessa atualmente uma crise energética devido ao baixo nível de seus reservatórios, então diversos temas sobre o sistema elétrico brasileiro vêm à tona a fim de dar mais confiabilidade e evitar futuros racionamentos, permitindo assim que a escassez de energia não seja um impeditivo para o crescimento econômico do país. O presente estudo calcula o potencial de redução de demanda por energia elétrica no estado do Rio de Janeiro através do modelo de preço variável, que consiste em ter tarifas distintas para o horário de ponta e fora de ponta. Este é um entre diversos programas de eficiência energética existentes no mundo atualmente. Para tal cálculo as principais premissas são a projeção de demanda máxima coincidente, o número de consumidores por classe e a elasticidade preço da demanda por energia elétrica. A partir dai são sugeridos três cenários de penetração de AMI (Advanced Metering infrastructure), e três cenários de variação de preço, chegando assim a nove resultados possíveis.
Resumo:
O produto potencial é uma variável não-observável e, por isso, de difícil mensuração. O objetivo deste trabalho é contribuir para a discussão sobre a estimação da taxa de crescimento do produto potencial brasileiro através de uma revisão teórica e metodológica das estimativas da variável para a economia brasileira. Após uma análise sintética sobre os principais conceitos relacionados ao tema e sobre os métodos de estimação mais utilizados na literatura nacional, optou-se por utilizar seis tipos de mensurações distintas. As principais conclusões do trabalho foram: primeiramente, as estimativas de Produto Interno Bruto (PIB) potencial são bastante sensíveis à metodologia utilizada; em segundo lugar, baseado em dados trimestrais da economia brasileira, foi possível verificar que a taxa de crescimento do produto potencial brasileiro caiu nos últimos anos e que esta se encontra em uma banda entre 1,63% e 2,72%.
Resumo:
Este trabalho apresenta as principais aplicações de técnicas de gestão de riscos ao estudo de interrupções em cadeias de fornecimento, tendo como motivação o caso do fornecimento de energia elétrica, assunto de extrema relevância para o Brasil. Neste sentido, o cálculo do “custo do déficit” ou perda de produção dada uma falha no fornecimento de energia elétrica (parâmetro utilizado em todo o planejamento do setor elétrico brasileiro), foi escolhido como fator relevante a ser analisado. As principais metodologias existentes para a apuração desse parâmetro são apresentadas fazendo uma comparação com aquela atualmente em uso no Brasil. Adicionalmente, apresentamos uma proposta de implementação para as metodologias alternativas, utilizadas no exterior, e baseadas no conceito de VOLL (“Value of Lost Load”) - medida do valor da escassez de energia para empresas ou consumidores individuais e fundamental para o desenho de programas de gerenciamento de demanda.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Em resposta à crise financeira de 2008, em 2010 o Comitê de Basileia em Supervisão Bancária (Basel Committee on Banking Supervision - BCBS) emitiu a metodologia do cálculo do indicador de Risco de Liquidez de curto prazo (Liquidity Coverage Ratio - LCR) que é um dos componentes do conjunto de normas conhecido como Basileia III. Esse índice mede se cada conglomerado possui um estoque de ativos financeiros líquidos de alta qualidade de forma a suportar uma crise severa por 30 dias. Esse trabalho calculou o índice de liquidez de curto prazo dos dez maiores bancos brasileiros em ativos totais nos últimos cinco anos, seguindo as diretrizes do documento acima mencionado e do Banco Central do Brasil. A finalidade desse estudo foi verificar se houve uma melhora na liquidez dos grandes bancos após a divulgação da metodologia de cálculo do LCR, uma vez que a partir de 2015 é esperado pelo Banco Central do Brasil que os bancos possuam pelo menos 60% de ativos líquidos para suportar uma crise de 30 dias. A análise foi conduzida utilizando dados contábeis oriundos tanto do banco de dados do Banco Central do Brasil quanto das publicações individuais de cada instituição. Essa análise permitiu avaliar que os principais bancos do sistema financeiro brasileiro já estão preparados para atender aos requisitos internacionais e que não serão necessárias grandes alterações na estrutura do balanço das instituições analisadas, evitando a migração seus ativos de empréstimos, aplicações em certificados de depósitos interbancários e títulos privados para títulos de alta qualidade e liquidez.