966 resultados para ESCALAMIENTO PARALELO
Resumo:
Comparada à área de formação em administração em saúde, a área acadêmica de pesquisa de gestão em saúde não goza do mesmo nível de reconhecimento. Além disso, ela tem superposições com diversas outras áreas científicas adjacentes. Evidências mostram também que não há uma definição clara e consensual sobre o escopo e características distintivas desta área. O objetivo da presente tese foi averiguar se existe uma concepção implícita compartilhada, sobre a pesquisa na área, entre estudiosos de organizações de saúde e elaborar uma definição consensual fundamental de estudos em administração em saúde. Com base no referencial teórico sobre campos científicos e utilizando identificação de vocábulos distintivos/construção consensual – técnica já aplicada em outros campos –, realizou-se um levantamento entre estudiosos de organizações de saúde a fim de captar elementos conceituais característicos dos estudos da área, as suas principais diferenciações, principalmente em relação à área de administração, e derivar um consenso implícito. Em paralelo, foi realizada também análise temática a fim de aumentar a validade dos achados. Em um segundo levantamento, com autores-chave, autoridades científicas e editores de periódicos de campos adjacentes, buscou-se extrair suas opiniões sobre uma definição explícita da área, suas características distintivas e demarcações com estas respectivas áreas. A partir da análise dos dados dos levantamentos foi possível constatar a existência de um consenso latente, foi possível elaborar uma definição tentativa sobre estudos em administração em saúde e foi possível constatar que vários dos elementos presentes nesta definição também estavam presentes nas respostas de estudiosos de áreas selecionadas. O estudo pode contribuir para o desenvolvimento e fortalecimento da administração em saúde como área de pesquisa e ensino.
Resumo:
Nos dias de hoje existe uma grande demanda e pressão na seleção e definição de prioridades das alternativas de investimento para alavancar o crescimento de longo prazo das empresas. Em paralelo a este cenário, o ambiente global está cada vez mais incerto, o que implica que as escolhas realizadas por estas empresas devem se adaptar aos novos desejos do mercado e, principalmente, devem manter o direcionamento de crescimento almejado pelas mesmas. Neste contexto conturbado, as ferramentas tradicionais utilizadas para a tomada de decisão, para selecionar e definir as prioridades são as análises econômico-financeira representadas pelo Valor Presente Líquido, a Taxa Interna de Retorno e o Payback. Apesar de estes itens serem métodos robustos e consistentes na avaliação de projetos de investimentos, eles focam apenas em um aspecto (o financeiro), e as empresas, atualmente, estão envolvidas em ambientes que precisam de uma abordagem mais ampla, contemplando outras visões e dimensões não presentes nos estudos financeiros. Ou seja, quando se faz uma análise de carteira de projetos alinhada ao planejamento estratégico, é necessário realizar uma abordagem multicritério envolvendo indicadores quantitativos e qualitativos e disponibilizando aos tomadores de decisão uma informação completa e padronizada de todos os projetos, uma vez que estas iniciativas não possuem características homogêneas, pois cada uma apresenta sua respectiva particularidade e, principalmente, está em diferentes estágios de maturidade. Aliado a estes pontos, é perceptível que o processo de seleção e priorização de projetos necessita de uma sistematização que garanta a esta decisão e a este Portfólio uma maior estabilidade e fidedignidade das informações. Neste trabalho, portanto, foi elaborada uma análise multivariada, mais especificamente, a utilização de sistemas de apoio à tomada de decisão. Foram escolhidos outros critérios além do econômico-financeiro, para suportar a seleção e priorização de projetos no atendimento dos objetivos estratégicos da organização e de seus stakeholders.
Resumo:
A constituição, através do correio, de um sistema de produção e circulação da arte, paralelo e independente ao sistema cultural vigente nas décadas de 60, 70 e 80, ampliou o lugar ocupado pela arte na sociedade, permitindo aos participantes discutir a natureza da arte e seu entrelaçamento ao cotidiano. Todo lugar é possível: a rede de arte postal, anos 70 e 80, trata da construção de um conceito para rede de arte por correspondência, partindo de exemplos que revelam o seu funcionamento. As heranças, as assimilações e os precursores deste processo artístico, iniciado durante os anos 60, são abordados.
Resumo:
Esta tese de Doutorado é dedicada ao estudo de instabilidade financeira e dinâmica em Teoria Monet ária. E demonstrado que corridas banc árias são eliminadas sem custos no modelo padrão de teoria banc ária quando a popula ção não é pequena. É proposta uma extensão em que incerteza agregada é mais severa e o custo da estabilidade financeira é relevante. Finalmente, estabelece-se otimalidade de transições na distribui ção de moeda em economias em que oportunidades de trocas são escassas e heterogêneas. Em particular, otimalidade da inflação depende dos incentivos dinâmicos proporcionados por tais transi ções. O capí tulo 1 estabelece o resultado de estabilidade sem custos para economias grandes ao estudar os efeitos do tamanho populacional na an álise de corridas banc árias de Peck & Shell. No capí tulo 2, otimalidade de dinâmica é estudada no modelo de monet ário de Kiyotaki & Wright quando a sociedade é capaz de implementar uma polí tica inflacion ária. Apesar de adotar a abordagem de desenho de mecanismos, este capí tulo faz um paralelo com a an álise de Sargent & Wallace (1981) ao destacar efeitos de incentivos dinâmicos sobre a interação entre as polí ticas monet ária e fiscal. O cap ítulo 3 retoma o tema de estabilidade fi nanceira ao quanti car os custos envolvidos no desenho ótimo de um setor bancário à prova de corridas e ao propor uma estrutura informacional alternativa que possibilita bancos insolventes. A primeira an álise mostra que o esquema de estabilidade ótima exibe altas taxas de juros de longo prazo e a segunda que monitoramento imperfeito pode levar a corridas bancárias com insolvência.
Resumo:
O objetivo desse trabalho é realizar um paralelo entre literatura e regulação no âmbito do Ensino do Direito no Brasil. Para isso, em um primeiro momento, realizou-se um levantamento da literatura brasileira e norte-americana mais relevante para o propósito do trabalho. Ficou claro pela análise realizada que, em um contexto pós regime militar, é inaugurada a discussão acerca da função social dos cursos de Direito e da profissão de bacharel. Esta questão passa a fazer parte dos debates acerca de quais deveriam ser os objetivos de um curso de Direito. Seguindo a questão dos objetivos do curso, há uma nova preocupação que vem surgindo ao longo dos anos a respeito de métodos de ensino participativos. A estagnação por qual passou o discurso político brasileiro na época do regime militar, incluindo aquele que ocorria no espaço universitário, preservou por muitos anos o método tradicional da aula expositiva como única alternativa no ensino jurídico. Com a retomada do espaço universitário como centro de produção de ideias a discussão metodológica começa a mostrar-se como algo de relevante ao desenvolvimento do Ensino Jurídico. Por fim, a avaliação também ganha uma nova perspectiva nesse contexto e o modelo tradicional sofre alguns questionamentos. Em um segundo momento, analisaram-se alguns Pareceres MEC selecionados de acordo com sua relevância para o curso de Direito e a Resolução MEC n. 9/2004. Ressalta-se principalmente a discussão diferenciando os currículos mínimos e as diretrizes curriculares nacionais. Dentro disso, é central perceber e as responsabilidades das Instituições de Ensino Superiores (IES) em cada um desses modelos regulatórios. Por fim, a última parte confronta literatura e regulação. Essa sessão do trabalho mostra que os Pareceres MEC tocam em grande parte daquilo que é discutido pela literatura. Contudo, falham algumas vezes na missão de passar essas preocupações para o texto da Resolução MEC n. 9/2004. Por causa dessa falha, abriu-se uma porta para que a discussão acerca das responsabilidades políticas das IES que foi é tão rica na literatura e nos Pareceres MEC sofra risco de esvaziamento na prática, uma vez que não há indicações regulatórias suficientes a esse respeito.
Resumo:
O objetivo principal desta investigação é evidenciar uma possibilidade metodológica, de caráter didático-pedagógico, tendo por base a Epistemologia Genética, que possa atender às necessidades de inclusão digital de comunidades educacionais rurais. A pesquisa foi feita presencialmente e virtualmente, através do curso de extensão Oficinas Virtuais de Aprendizagem, para o qual foi usado o ROODA Rede Cooperativa de Aprendizagem como ambiente virtual de apoio. Fizeram parte da pesquisa, alunos e professores de duas escolas rurais de Ensino Fundamental do município de Candelária - RS. A coleta de dados foi feita através de questionário, conversa informal, ficha de observação, bem como foram considerados, para análise, os registros e interações feitos no ambiente virtual e o produto das atividades desenvolvidas durante o curso. Desta intervenção, é possível concluir que a metodologia didático-pedagógica Oficinas Virtuais de Aprendizagem permite promover a inclusão digital docente e discente. Este processo ocorre paralelo à gênese de um novo modelo de escola, cujo tempo e o espaço pedagógico estejam de acordo com as possibilidades da tecnologia digital. A concepção teórica deste modelo está focada na perspectiva de quem aprende.
Resumo:
Esta dissertação está ancorada na Epistemologia Genética de Jean Piaget, no conteúdo do desenvolvimento moral, revelando a difusão desta teoria e conteúdo moral na prática escolar. Discute sobre a existência de um espaço para a construção da autonomia cognitiva e sócio-moral em duas turmas de alunos finalistas do Ensino Fundamental. O foco do trabalho é a busca da confirmação do discurso do Projeto Político Pedagógico da Escola no desenvolvimento da autonomia, cidadania e responsabilidade crítica do aluno e na sua relação com a prática em sala da aula, mediada pela ação docente. Enfatiza o conceito de autonomia que o professor traz e trabalha, e os espaços que julga disponibilizar para tal desenvolvimento em aula. Faz uma busca na História da Educação sobre a gênese da preocupação de atender ao objetivo de desenvolvimento da autonomia dos alunos. A metodologia inclui a revisão dos Projetos Políticos Pedagógicos das escolas, a realização de entrevistas com professores ativos e aposentados e de observação das turmas. As entrevistas com os dois grupos de professores são colocadas em paralelo, tal recurso busca observar uma preocupação persistente com tal objetivo escolar. As escolas selecionadas são as que contribuíram no panorama estadual de ensino como sendo referências de estudo dos docentes e consideração à Epistemologia Genética. Como resultado final tem-se que o comprometimento do professor com a autonomia, mesmo sendo um objetivo a ser alcançado na formação do aluno é variável. Quando o professor disponibiliza espaços para a autonomia do aluno nem sempre reconhece a ação pedagógica despendida como facilitadora de tal objetivo. O conceito de autonomia do professor e a forma como vê tal conduta dos alunos é variável, oscilando entre a individuação da ação e o compromisso com a cooperação e interação social. As escolas revelam uma perda de espaço para a discussão e construção de uma autonomia docente que repercute na construção da autonomia dos alunos. Os objetivos de autonomia previstos no Projeto Político Pedagógico não são considerados pelo professor, esse projeto da escola não parece servir como referência para o desenvolvimento de atividades que aprimorem da conduta moral de autonomia nos alunos.
Resumo:
A presente pesquisa foi conduzida na forma de um estudo de caso de duas instituições culturais no contexto francês e brasileiro. O Centro Pompidou é um projeto presidencial de museu financiado pelo Estado, com a missão de tornar a arte moderna em todas as suas expressões acessíveis ao público em geral. O Sesc Pompeia é um centro multidisciplinar de cultura e esporte - financiado pelo dinheiro dos impostos e administrado pela Federação do Comércio . O Sesc Pompéia é dedicado à oferta de educação informal através do cultivo da mente e do corpo. O estudo examina se as teorias de dependência de recursos e de poder podem ser utilizadas para conceituar a relação que o Centro Pompidou e do Sesc Pompéia tem com seus stakeholders financeiros. Mais especificamente, será discutido em que medida o grau de dependência influencia a estratégia de gestão das instituições. O objetivo é de responder a pergunta seguinte: quais são as estratégias que as instituições adotam para reduzir sua dependência com relação a seus principais stakeholders financeiros? Finalmente algumas implicações práticas de gestão serão elaboradas a partir do paralelo entre as estratégias das duas instituições.
Resumo:
Nos anos 80, a América Latina, uma das regiões menos desenvolvidas do mundo, enfrentou um período de mudanças econômicas e políticas significativas que levaram essa região a um lugar de destaque no mercado mundial. Por conseguinte, a América Latina foi objeto de diversos estudos, que, por sua vez, foram compilados nesta revisão de literatura, a fim de que se possam identificar quais os avanços foram feitos no âmbito da Gestão e Negócios Internacionais. Como base, tomou-se a metodologia aplicada por Meyer e Peng (2005), fazendo um paralelo entre três importantes teorias da área (Teoria de Baseada em Recursos, Teoria Baseada no Custo das Transações e Teoria Institucional) e alguns assuntos-chave de extrema relevância ao entendimento do tema (Construindo Vantagens Competitivas, Liberalização Econômica versus Regulação Governamental e Internacionalização) Ao final, delimitamos as contribuições da América Latina ao estudo da Gestão e Negócios Internacionais, fazendo algumas sugestões para futuros pesquisas nesse âmbito.
Resumo:
Apos uma década de rápido crescimento econômico na primeira década do século 21, Brasil e Turquia foram considerados duas das economias emergentes mais dinâmicas e promissoras. No entanto, vários sinais de dificuldades econômicas e tensões políticas reapareceram recentemente e simultaneamente nos dois países. Acreditamos que esses sinais e a sua simultaneidade podem ser entendidos melhor com um olhar retrospectivo sobre a história econômica dos dois países, que revela ser surpreendentemente paralela. Numa primeira parte, empreendemos uma comparação abrangente da história econômica brasileira e turca para mostrar as numerosas similaridades entre os desafios de política econômica que os dois países enfrentaram, assim como entre as respostas que eles lhes deram desde a virada da Grande Depressão até a primeira década do século 21. Essas escolhas de política econômica comuns dão forma a uma trajetória de desenvolvimento notavelmente análoga, caracterizada primeiro pela adoção do modelo de industrialização por substituição das importações (ISI) no contexto da recessão mundial dos anos 1930; depois pela intensificação e crise final desse modelo nos anos 1980; e finalmente por duas décadas de estabilização e transição para um modelo econômico mais liberal. Numa segunda parte, o desenvolvimento das instituições econômicas e políticas, assim como da economia política subjacente nos dois países, são analisados comparativamente a fim de prover alguns elementos de explicação do paralelo observado na primeira parte. Sustentamos que o marco institucional estabelecido nos dois países durante esse período também têm varias características fundamentais em comum e contribui a explicar as escolhas de política econômica e as performances econômicas comparáveis, detalhadas na primeira parte. Este estudo aborda elementos do contexto histórico úteis para compreender a situação econômica e política atual nos dois países. Potencialmente também constitui uma tentativa de considerar as economias emergentes numa perspectiva histórica e comparativa mais ampla para entender melhor as suas fraquezas institucionais e adotar um olhar mais equilibrado sobre seu potencial econômico.
Resumo:
A qualidade SAE 1141 alia boas conformabilidade e usinabilidade em um mesmo aço – esta qualidade possui adição de teores de enxofre da ordem de 0,08 – 0,13% em peso. É largamente empregada no segmento de forjarias na confecção de componentes com relativa complexidade e exigência mecânica, tais como garfos e ponteiras para a indústria automotiva. Devido a esse fato, é imprescindível que a matéria-prima para a conformação destes componentes atenda às exigências impostas pelos esforços aplicados aos mesmos e, dado às solicitações que sofrem, apresente um desempenho satisfatório em sua forma final, principalmente no tocante à sanidade interna, visto que defeitos dessa natureza são extremamente deletérios à performance dos componentes conformados. Em função disso, o principal objetivo desta investigação é avaliar as causas potencialmente geradoras de defeitos denominados trincas internas centrais, as quais afetam fortemente a sanidade interna da matéria-prima, além de reduzir a sua incidência em barras de aço da qualidade SAE 1141. Para tanto, são apresentadas considerações sobre a avaliação destes defeitos, analisando-se as possíveis causas geradoras das trincas, as quais são caracterizadas sob o enfoque de bibliografia adequada. Através da realização de ensaios no lingotamento contínuo (LC) envolvendo a utilização do agitador eletromagnético final (FEMS), elaboração de curvas de ductilidade pelo emprego do simulador físico Gleeble para os materiais nas condições tarugo e barra laminada, experiências na laminação envolvendo análises de amostras após cada diferente grau de redução ou passe conferido ao material pelo processo e variação das taxas de resfriamento pós-processamento, busca-se reduzir as ocorrências destes defeitos, diminuindo conseqüentemente sucateamento e custos e melhorando o desempenho do material frente às expectativas dos componentes em serviço. A metodologia empregada para a detecção dos defeitos nas barras laminadas foi a submissão das mesmas ao ultra-som. Várias amostras tiveram os seus defeitos detectados através desse ensaio, os quais foram analisados e caracterizados previamente ao início da investigação das causas geradoras, balizando assim a tomada de decisão em relação aos experimentos a serem realizados. Os dados práticos foram obtidos na Gerdau Aços Especiais Piratini, onde a análise de defeitos internos gerados a partir do processo produtivo é um procedimento rotineiro. A interpretação dos resultados, bem como testes laboratoriais adicionais foram realizados na própria usina e no IAS – Instituto Argentino de Siderurgia. Em paralelo, realizou-se uma revisão na literatura aberta dos principais fundamentos e conceitos metalúrgicos referentes a trincas internas e causas de geração das mesmas, tais como, influência do FEMS na solidificação e na condição de segregação nos tarugos de LC, elementos de liga com caráter fragilizante e/ou deletério (por exemplo, hidrogênio, carbono, enxofre e manganês), influência das transformações de fase – velocidade de resfriamento pós-processamento e influência dos elementos de liga – na formação dos defeitos, entre outros. Os resultados obtidos permitiram concluir que a principal causa da geração das trincas internas do tipo centrais em barras laminadas está associada a uma combinação de variáveis. As transformações de fase, somadas a presença de altos teores de hidrogênio no aço – fato este de grande importância na geração dos defeitos detectado somente ao longo da realização do trabalho – fragilizam localmente o núcleo das barras, gerando trincas. Estas, por sua vez, têm a sua propagação facilitada através de cadeias ou redes de sulfeto de manganês, por vezes devido à alta incidência das mesmas nos aços da qualidade SAE 1141. Além disso, pode-se constatar que a geração dos defeitos é potencializada para barras de diâmetros superiores a 75,00 mm. Em barras de diâmetros menores, as falhas estão igualmente presentes e apresentam morfologia similar aos defeitos encontrados nas barras de maior diâmetro, porém, em escala não significativa, não sendo assim abordadas neste trabalho. Pode-se constatar ainda, que a redução da incidência dos defeitos do tipo trincas internas centrais em barras laminadas de diâmetros superiores a 75,00 mm – e conseqüente sucateamento – foi da ordem de mais de 95% desde o início do trabalho, reduzindo-se assim o sucateamento desta qualidade para níveis da ordem de, aproximadamente, 1,0%.
Resumo:
Esta tese é composta por três ensaios sobre a gestão educacional no Brasil. Os dois primeiros abordam o processo de municipalização do ensino fundamental, destacando suas características e consequências. O terceiro ensaio discute a composição de um indicador de qualidade educacional que melhor reflita a gestão escolar. No primeiro ensaio procuramos entender, separadamente para cada um dos ciclos do ensino fundamental, como o processo de municipalização ocorreu, a partir da decomposição do aumento na proporção de crianças matriculadas em escolas municipais, e quais foram seus efeitos a partir de uma análise descritiva dos dados. No período de 1996 a 2011 foram adicionados à matrícula municipal mais de 2,5 milhões de alunos de 1a a 4a série e mais de 3,0 milhões de alunos de 5a a 8a série, em paralelo à diminuição de 3,67 milhões de matrículas do primeiro ciclo no total e ao aumento de apenas 894 mil matrículas do segundo ciclo. Os resultados da decomposição indicam que para o primeiro ciclo do ensino fundamental os novos alunos matriculados em escolas municipais foram absorvidos em função do aumento no tamanho médio das escolas municipais já existentes; enquanto para o segundo ciclo, os resultados sugerem que a criação de escolas é um forte componente explicativo do aumento na matrícula municipal. Como consequências, temos indícios de que as escolas que transferiram sua gestão apresentaram melhora considerável dos indicadores escolares. Ainda, observamos que a opção pela municipalização pode ter ocorrido naquelas escolas com condições de infraestrutura e insumos escolares mais precárias. Por fim, observamos uma mudança no perfil dos alunos da 4a série do ensino fundamental em função da descentralização administrativa caracterizada por piora das características socioeconômicas médias dos alunos nas escolas transferidas após a mudança de gestão. No segundo ensaio avaliamos econométricamente esses possíveis impactos do processo de municipalização do ensino fundamental sobre o desempenho escolar medido em taxa de aprovação, taxa de abandono, taxa de distorção idade-série e notas em exames de proficiência. Esta análise é feita através da metodologia de diferenças em diferêncas com intensidade de tempo. Analisamos ainda, se os ganhos do processo de descentralização foram diferenciados pelo nível socioeconômico das regiões, a partir da estimação de impactos heterogêneos nas variáveis explicativas. Por fim, avaliamos como o programa de accountability do governo brasileiro, a divulgação do IDEB (Índice de Desenvolvimento da Educação Básica), afetou o desempenho dos alunos em paralelo ao processo de municipalização do ensino fundamental. Os resultados estimados indicam que a relação entre a administração municipal e o desempenho escolar é positiva e crescente com o tempo de exposição ao tratamento. Ainda, que ocorreu redução da desigualdade dos indicadores educacionais - taxa de aprovação, taxa de abandono e taxa de distorção idade-série - em função da descentralização administrativa entre as escolas do primeiro ciclo do ensino fundamental. Por outro lado, o processo de descentralização da gestão escolar levou a aumento da desigualdade nos resultados educacionais medidos por exames de proficiência entre os alunos da 4a e da 8a séries do ensino fundamental. Por fim, observamos que na maioria dos casos analisados, a descentralização administrativa associada ao programa de accountability gerou melhores resultados em termos de desempenho escolar do que quando aplicada de forma isolada, corroborando os resultados encontrados na literatura internacional. No terceiro e último ensaio propomos a criação de um indicador que reflita a qualidade da escola associada aos fatores escolares e que evite dois problemas encontrados em estudos anteriores: indicadores de proficiência em nível que refletem mais o background familiar do aluno do que a qualidade da escola; e estimações de valor adicionado muito sensíveis a erros de mensuração. Assim, os indicadores são obtidos através de um modelo estrutural em que se modela a variável latente de qualidade da escola de modo a corrigir o potencial viés dos estudos anteriores. Utilizamos dados brasileiros para aplicações desses indicadores e revisitamos os fatores de família, escola e gestão para saber quais elementos têm maiores impactos sobre os resultados de educação como proficiência. Os resultados mostram que o ordenamento das escolas pelos indicadores de qualidade difere do ordenamento obtido pelos indicadores com a proficiência em nível e é menos instável do que o ordenamento obtido a partir dos indicadores de valor adicionado puro.
Resumo:
Em modelos em que a distribuição espacial da população não é con- siderada, isto é, quando se supõe que haja uma homogeneidade espacial, e se estuda a evolução temporal do sistema, há uma única variável independente: o tempo. Caso a população seja constituída de duas espécies, do tipo parasitóide-hospedeiro, e a variável independente tempo for considerada discreta, teremos um sistema de equações a diferenças, como por exemplo o modelo de Nicholson-Bailey cujas soluções são apresentadas neste trabalho. Populações espacialmente distribuídas, em um espaço de natureza discreta, juntamente com a dinâmica vital em tempo discreto, têm o seu comportamento estudado através de redes de mapas acoplados. Após estudar o modelo de Hassell (dinâmica vital de Nicholson-Bailey com movimentação por difusão) e o modelo planta-herbívoro com movimentação por taxia, deduzimos e simulamos um modelo incluindo movimentação por taxia, difusão e convecção. É também apresentado neste trabalho, um paralelo entre estes modelos de redes de mapas acoplados e aqueles com as equações diferenciais correspondentes.
Resumo:
No Brasil, assim como em outros países que recebem abundantes quantidades de radiação solar durante todo o ano, há um grande potencial para os sistemas que usam a tecnologia fotovoltaica para promover o bombeamento de água. Entretanto, a escolha dos conjuntos de motores e bombas mais adequados para cada situação passa pela análise do desempenho dos sistemas de bombeamento. Portanto, devem ser analisadas tanto as melhores configurações de geradores fotovoltaicos destinados a operar os conjuntos formados pelos motores e bombas, quanto às eficiências das bombas e da conversão fotovoltaica. Nesse trabalho são apresentadas medidas e comparações do desempenho de dois sistemas de bombeamento diretamente acoplados a geradores fotovoltaicos. Para tanto, foi construída uma bancada destinada a realizar uma série de experimentos. Um dos sistemas usou uma bomba centrífuga acoplada a um gerador fotovoltaico formado por três módulos fotovoltaicos. O outro, utilizou uma bomba volumétrica de diafragma acoplada a um único módulo fotovoltaico. Os experimentos foram conduzidos em duas etapas distintas. A primeira foi feita com os motores acoplados a uma fonte de potência em corrente contínua e serviu para a determinação das curvas de desempenho de cada uma das bombas, das curvas dos sistemas, assim como das curvas de corrente (I) e de tensão (V) de cada um dos motores que acionavam as bombas. A segunda foi realizada com os sistemas acoplados diretamente aos geradores fotovoltaicos. A determinação da configuração dos geradores fotovoltaicos destinados a acionar os diferentes sistemas de bombeamento em análise nesse trabalho foi feita por meio da sobreposição das curvas de corrente e tensão dos motores e dos módulos fotovoltaicos. A parte experimental, estando os sistemas acoplados aos geradores, constou de medidas realizadas em intervalos de tempo de cinco segundos, para cada bomba e em várias alturas, das seguintes variáveis: temperatura ambiente, irradiância, temperatura dos módulos, corrente e tensão do motor, rotação do motor, temperatura da água, diferencial de pressão entre entrada e saída da bomba e vazão. As diversas alturas foram simuladas por meio da abertura e/ou fechamento de uma válvula de controle de vazão colocada na extremidade tubulação de descarga, operada manualmente. Os procedimentos adotados nessa dissertação permitiram caracterizar os sistemas de bombeamento propostos, assim como determinar quais os arranjos mais adequados para operar cada sistema. Verificou-se que o melhor arranjo para operar o conjunto motor e bomba centrífuga foi aquele formado por três módulos fotovoltaicos ligados em paralelo, enquanto que a melhor opção para operar o conjunto motor e bomba de diafragma foi com somente um módulo fotovoltaico. De posse dos dados medidos foi possível determinar as eficiências: instantâneas, máximas instantâneas e diárias da conversão fotovoltaica assim como dos conjuntos motores e bombas, em diferentes alturas. Relativamente à conversão fotovoltaica, verificou-se que o conjunto motor e bomba centrífuga operou com eficiência instantânea máxima de 5,74% e eficiência diária de 4,70%, enquanto que o conjunto motor e bomba volumétrica de diafragma operou com eficiência instantânea máxima de 7,66% e eficiência diária de 5,82%. Relativamente à eficiência dos conjuntos motores e bombas, verificou-se que o conjunto motor e bomba centrífuga operou com eficiência instantânea máxima de 19,19% e eficiência diária de 16,79%, enquanto que o conjunto motor e bomba volumétrica de diafragma operou com eficiência instantânea máxima de 38,88% e eficiência diária de 34,30%. Verificou-se ainda que a altura foi determinante na eficiência do conjunto motor e bomba centrífuga e pouco influenciou na eficiência do conjunto motor e bomba de diafragma. Além dessas, outras considerações sobre o comportamento dos sistemas de bombeamento ao longo de um dia também foram ser registrados, tais como: limiares de irradiância para início e final de vazão, correntes de pico ou de arranque dos motores e correntes de início de vazão ou escoamento.
Resumo:
A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.