17 resultados para Garantía implícita

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os Sistemas de Informação Geográfica (SIG) são construídos, especificamente, para armazenar, analisar e manipular dados geográficos, ou seja, dados que representam objetos e fenômenos do mundo real, cuja localização em relação à superfície da Terra seja considerada. A interoperabilidade desses sistemas, que constitui-se na capacidade de compartilhar e trocar informações e processos entre ambientes computacionais heterogêneos, se faz necessária, pois, devido ao elevado custo de aquisição dos dados geográficos, as comunidades de informação precisam compartilhar dados de fontes existentes, sem a necessidade de fazer conversões. Porém, pela complexidade e incompatibilidades de representação, de estrutura e de semântica das informações geográficas, a maioria dos softwares de SIG, hoje, não são interoperáveis. Existe também, além do problema da não interoperabilidade, uma crescente preocupação com relação à qualidade e à integridade espacial dos dados geográficos. Contudo, alguns modelos conceituais de dados geográficos e os softwares de SIG não oferecem, ainda, os meios adequados para representar e garantir a integridade espacial das informações. As restrições de integridade definidas durante a fase de projeto conceitual, normalmente, são implementadas durante o projeto físico, seja de forma implícita ou explícita, podendo ser incorporadas diretamente no modelo de implementação do SIG, de forma que o usuário da aplicação apenas mencione a regra e o sistema a implemente e a garanta automaticamente.Este trabalho de pesquisa propõe uma extensão ao Modelo Abstrato OpenGIS, modelo este que deve ser um padrão de interoperabilidade de software para SIG. A extensão proposta incorpora ao mesmo um subconjunto de tipos de restrição espacial, buscando com isso oferecer melhor suporte às regras da realidade geográfica expressáveis na modelagem conceitual do sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo objetivou investigar o funcionamento da memória implícita e explícita em deficientes mentais por Síndrome de Down (SD) comparados com indivíduos deficientes mentais de outras etiologias (DM) e crianças de desenvolvimento típico de mesma idade mental (DT). Foram administrados testes de procedimento viso-espacial e pré-ativação para avaliar memória implícita e testes de memória episódica explícita para material verbal e viso-espacial a 12 sujeitos SD, 12 DM e 12 DT. Considerando o sistema de múltiplas memórias, procurou-se investigar quais estariam preservadas ou falhas nos três grupos. Os resultados demonstraram diferenças nítidas entre os grupos. Percebeu-se uma defasagem significativa de memória implícita na SD, um melhor desempenho de memória implícita nos DM e de memória explícita nas crianças DT. Estes resultados revelam um grande prejuízo implícito na SD, mas também defasagem explícita, reforçando a necessidade de estimulação precoce a esta população. Implicações para o trabalho pedagógico serão discutidas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trata-se de um estudo descritivo do tipo exploratório que utilizou uma abordagem combinada quantitativa e qualitativa para caracterizar as famílias de crianças em situação de violência intrafamiliar, atendidas pela “Equipe de Proteção às Crianças Vítimas de Maus-tratos e Violência Sexual”, no Hospital de Clínicas de Porto Alegre (HCPA), no ano de 1999. A coleta de dados foi realizada por um roteiro estruturado elaborado pela pesquisadora, constituído de quatro dimensões pré-estabelecidos – sócioeconômica, estrutura e funcionamento familiar, situação atual do abuso do contexto familiar e história pregressa da família – preenchido através dos prontuários e protocolos das crianças atendidas no HCPA. Os dados quantificáveis foram analisados com auxílio da estatística descritiva, e os qualitativos pelo método de análise de conteúdo, segundo Bardin (2000). Assim formaram sete categorias: organização familiar, relacionamento familiar, percepção dos adultos sobre a criança vítima de violência, justificativas de utilização da violência, ações maternas frente à violência, motivos da procura do serviço de saúde e a trajetória da família na instituição hospitalar. A maioria das famílias pesquisadas possuíam precária inserção sócioeconômica com baixo nível de escolaridade, desempregadas, inseridas no mercado formal e/ou informal. Eram predominantes da região central de Porto Alegre, demonstrando uma diversidade de arranjos e fragilidade nas relações familiares, com confusão de papéis e disputa de autoridade. Algumas famílias registraram ausência da figura paterna Características importantes constatadas entre os adultos: progenitores adolescentes, jovens, vivendo responsabilidade de adulto, o elevado padrão do uso abusivo de drogas, presença de aleitamento materno e gravidez não desejada. Houve um predomínio de negligência em relação a outras formas de violência praticadas, sendo que o ato violento foi cometido de forma intencional, mas o agressor não apresentava justificativa para o fato. A mãe configurou-se como a maior agressora e, simultaneamente, a principal cuidadora da criança. Nesse estudo, a criança mais atingida foi a do sexo masculino, raça branca, evidenciando lesão e apresentando longo período de convivência com o agressor que sempre era alguém muito próximo a ela. As famílias envolvidas procuraram atendimento de forma espontânea, mas a queixa de violência estava implícita. A pesquisa permitiu contextualizar a violência como social e histórica, presente em larga escala na sociedade brasileira uma sociedade desigual na qual se pratica violência dentro da família contra a criança, legitimando uma forma de poder estruturante nas relações sociais e na interação com fatores individuais econômicos e culturais. Assim, verificou-se a fundamental importância da atuação do enfermeiro no enfrentamento da problemática questão da violência intrafamiliar contra a criança.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de uma emergência por pacientes com problemas médicos eletivos contribui para a demanda excessiva e impede de acesso a pacientes com emergência verdadeira. O presente estudo se propôs: (1) investigar as características do usuário da emergência em relação a aspectos demográficos, local de moradia e tempo que apresenta os sintomas que o levaram a consultar; (2) identificar as diferenças da demanda entre o final de semana e durante a semana; (3) investigar a prevalência de saúde mental, alcoolismo, doença coronariana e hipertensão; (4) avaliar como é a utilização e o acesso a serviços de saúde para pacientes que referem ter um médico definido em comparação com quem refere não ter; (5) avaliar a satisfação dos pacientes com o atendimento na emergência e (6) verificar se o atendimento através de um médico definido ou em serviço de atenção primária em saúde diminui o afluxo de casos não urgentes aos serviços de emergência. Foi realizado um estudo transversal na Emergência do Hospital N.S. da Conceição de Porto Alegre (RS) no período de 6 de janeiro a 25 de junho de 1996, tendo sido incluídos 20 dias escolhidos entre o meio-dia de sábado e o meio-dia de domingo, para caracterizar a demanda do final de semana, e o meio-dia de segunda-feira e meio-dia de terça-feira, para a dos outros dias. Fizeram parte da amostra 553 pacientes selecionados através de amostragem aleatória sistemática, com uma taxa de resposta de 88%. A coleta de dados consistiu de questionário de 156 questões aplicado aos pacientes. O registro e análise dos dados foram realizados utilizando-se os programas Epi-Info, EGRET e SPSS. As análises incluíram tabulações simples para determinação de prevalência das condições investigadas e regressão logística para avaliar o efeito conjunto das variáveis independentes sobre cada uma das variáveis dependentes. A população que freqüenta a emergência do HNSC é composta de jovens, predominantemente do sexo feminino, mora em Porto Alegre (especialmente, no bairro Sarandi) e na Grande Porto Alegre (especialmente, Alvorada), desloca-se preferencialmente de ônibus até o serviço de emergência, vem acompanhada, na maioria das vezes, de algum familiar, e a maioria decide consultar por iniciativa própria ou por indicação de algum familiar. Os homens internam com maior freqüência. Os serviços de atenção primária representaram 23% do atendimento habitual dos pacientes. As consultas foram definidas pelos emergencistas como de emergência em 15% dos casos, de urgência em 46%, e programáveis em 39% poderiam ser programadas. A prevalência de hipertensão foi 19%; de angina, 13%; de alcoolismo, 16%; de problema psiquiátrico menor, 32% entre os homens e 51% entre as mulheres (p< 0,0001). Como desfecho da consulta, 73% dos pacientes foram encaminhados para o domicílio ou para um serviço especializado, 10% foram para sala de observação e para apenas 5% foi indicada a internação. A maioria dos pacientes referiram estar satisfeitos com o atendimento. Os que consultaram no final de semana apresentaram, em média, um tempo menor de sintomas até decidir consultar, um menor tempo de deslocamento até o serviço de emergência, maior satisfação, média de idade maior, maior proporção de moradores de Porto Alegre e foram levados de carro até a emergência mais do que aqueles que consultaram durante a semana. O modelo de regressão logística identificou as variáveis independentes determinantes de ter um médico definido: consulta habitual em atenção primária em saúde (RC=3,22 IC95%=2,04-5,09), consulta definida como emergência ou urgência (RC=2,46 IC95%=1,55-3,92) e afastamento do trabalho (RC=1,59 IC95%= 1,03-2,45). Este resultado demonstra que o paciente que habitualmente consulta em serviços de atenção primária tem mais probabilidade para ter a continuidade no atendimento. A consulta ser de emergência ou de urgência apresentou associação significativa com as seguintes variáveis independentes, após ser colocada num modelo de regressão logística: pacientes internados ou em observação (RC=5,80 IC95%=3,33-10,17), costume de consultar com o mesmo médico (RC=2,98 IC95%=1,84-4,80) e ida de carro até a emergência (RC=2,67 IC95%=1,75-4,05). A variável hábito de consultar em serviço de atenção primária deixou de ficar estatisticamente significativa ao ser colocada no modelo de regressão logística. Este resultado revela que pacientes com médico definido têm três vezes mais chances de consultar por um problema de emergência no serviço de emergência do que aqueles que não têm um médico definido. Assim, uma estratégia para reduzir a ocorrência de consultas não urgentes em serviços de emergência é o paciente ter tal vínculo. No entanto, aqueles pacientes que referiram o posto de saúde como local onde habitualmente consultam não evitam, necessariamente, a utilização de um serviço de emergência por motivo considerado como programável. É necessário otimizar o atendimento de pacientes com problemas não urgentes que chegam à emergência através de estratégias no nível de atenção primária – especialmente possibilitando o atendimento médico continuado -, onde uma abordagem integral com ênfase na prevenção garanta um atendimento de melhor qualidade e custo menor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é servir de roteiro na aplicação da Resolução nº 2.829, de 30 de março de 2001, do Conselho Monetário Nacional, que definiu a política de investimentos dos recursos das EFPC’s. O texto divide-se em dois tópicos: O primeiro descreve um quadro resumido da situação atual da previdência complementar fechada no Brasil. O segundo demonstra um sistema integrado de gestão de investimentos que garanta maior segurança, fidegnidade e transparência, bem como ser um instrumento de planejamento estratégico dos investimentos das entidades fechadas de previdência complementar – EFPC’s

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As discrepâncias nos resultados de análises de materiais informados tanto pelo produtor quanto pelo consumidor são um problema comum na maioria das indústrias. Os contratos comerciais na indústria mineral normalmente penalizam o produtor quando uma determinada caraterística do minério exceder os limites estabelecidos. As diferenças nos resultados de análise são devidas a muitas formas de erro. Contratos rígidos impõem ao minerador o emprego de um rigoroso programa de controle de qualidade e nestas situações a amostragem possui um papel fundamental. Esta tese tem por objetivo propor um novo protocolo de amostragem e preparação de amostras que garanta a representatividade desejada pelas partes, produtor e consumidor. O estudo inicia fazendo-se uma abordagem qualitativa da amostragem, sendo enfocados os conceitos de representatividade e amostragem probabilística. É feita uma apresentação dos tipos de erros existentes em um protocolo amostral e são apresentados exemplos de problemas que ocorrem devido à falta de cuidado no dimensionamento e operação de amostradores e durante o processo de preparação da amostra. A seguir, é efetuada uma abordagem quantitativa da amostragem onde é apresentado o equacionamento matemático da teoria da amostragem de Gy. Tendo em vista as diferenças de resultados que usualmente ocorrem entre laboratórios é introduzida uma metodolo gia para a verificação da equidade destas determinações através do estudo de alguns casos. A definição do novo protocolo de amostragem foi baseada na teoria da amostragem de Gy. Para tanto, foi realizado o estudo de quatro casos com a finalidade de confirmar os princípios mais importantes da teoria da amostragem Nos ensaios foram realizadas a medição do erro total da amostragem em pilha e a verificação da existência de significância estatística deste erro em relação à disposição do carvão no depósito, foi realizada a verificação da significância do erro total na amostragem mecânica probabilística, a verificação das etapas mais críticas do processo de preparação de amostras, a determinação do erro de integração dos vários tipos de carvões testados e foi verificada a aplicabilidade da análise variográfica para a determinação do erro de integração. Os resultados encontrados mostraram a validade dos conceitos empregados pela teoria da amostragem e indicaram a impropriedade das normas brasileiras de amostragem e preparação de carvão, NBR 8291 e 8292, para garantir a representatividade da caracterização de um determinado lote de carvão. É proposto um novo protocolo de amostragem de carvão mineral, o qual leva em consideração a variabilidade das partículas componentes do lote e as formas de amostragem e preparação da amostra. Conclui-se que é possível dimensionar um sistema de controle de qualidade do carvão que seja capaz de estimar a precisão desejada e que garanta a representatividade do resultado acordada entre as partes. Por fim, é sugerida a modificação das normas brasileiras existentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tendo por objetivos identificar e analisar a perspectiva das lideranças formais sobre as condições para a gestão da criatividade frente às novas configurações produtivas nas empresas da Região Metropolitana de Curitiba, este estudo apresenta primeiramente um breve histórico do processo de industrialização no Brasil. Dá-se enfoque às mudanças ocorridas a partir da introdução dos métodos japoneses de prod ução, aqui vistos como responsáveis pelas novas configurações produtivas. Ao delimitar o tema, pontua-se bases conceituais dessa gestão, e destaca-se processos gerenciais relacionados à criatividade. Em seguida, a revisão das bases conceituais sóciointeracionistas para que o processo criativo ocorra nas organizações, é discutido. Relaciona-se esse processo ao reconhecimento do perfil das pessoas que criam; ao papel do ambiente organizacional; ao papel dos líderes em ambientes de estímulo à criatividade, e à relevância da criatividade nessas organizações. Os primeiros resultados, coletados junto aos profissionais de Recursos Humanos do Paraná, deu-se através de pesquisa exploratória. Eles contribuíram para a construção do instrumento de pesquisa tipo Survey, composto por 65 assertivas. A tarefa do referido instrumento foi avaliar a auto-percepção desses líderes no manejo de equipes e projetos institucionais das empresas, relacionando-os à gestão da criatividade - explícita ou implícita - utilizando a escala Likert de 05 pontos. Após o pré-teste, 189 líderes formais, provenientes de 34 empresas (12 do setor da indústria da transformação, 04 do setor comercial e 18 do setor de serviços) foram submetidos à avaliação. No quarto capítulo, apresenta-se os resultados da pesquisa e propõe inter-relações entre as variáveis. Esses resultados mostram que: o estabelecimento de cultura da criatividade nas organizações necessita de líderes preparados para tal; o potencial criativo deve ser otimizado em novos projetos, em novos desafios, e em rotinas sustentadoras do cotidiano; os líderes devem identificar funcionários que melhor se ajustam a cada uma dessas necessidades, já que são pressupostos para manter a competitividade; os líderes também necessitam rever os aspectos físicos e funcionais da empresa, o estilo de gestão, e as formas de relacionamento entre eles e demais empregados. Significativas diferenças entre as visões, masculina e feminina, sobre os aspectos que envolvem a gestão da criatividade, foram evidenciadas. Para os líderes pesquisados, a criatividade exerce papel fundamental nos negócios e é aplicada em todas as áreas, inclusive no campo da estratégia. No final, aponta-se estratégias, contextualizadas e reconsideradas frente às novas realidades, para as discussões acerca do perfil dos líderes para a gestão da criatividade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de torres metálicas treliçadas vem, nos últimos anos, se intensificando em todo o Brasil. Este aumento é resultado do salto tecnológico pelo qual o país passou no início da década de 90, onde a necessidade de ampliação dos sistemas de telecomunicações, principalmente, da telefonia celular, se tornou imprescindível para o seu crescimento tecnológico. Em função disso, vários são os projetos de torres metálicas treliçadas que tem sido contratados pelas diversas empresas de telefonia celular, espalhadas por todo país. No Brasil, onde, pelas benesses da natureza, não há registros de terremotos significativos, e devido ao baixo peso deste tipo de estrutura, a força do vento é o carregamento determinante para a elaboração do projeto estrutural de torres metálicas treliçadas. Sendo assim, se faz necessário perguntar: será que estes projetos estão atendendo às recomendações da norma de vento (NBR 6123/88)? Quais são os riscos aos quais as populações estão sujeitas com a edificação de torres cada vez mais próximas de suas casas? Neste trabalho, tomando como exemplo o projeto de uma torre metálica treliçada que colapsou no ano de 2000 na cidade de Porto Alegre-RS, foram feitas investigações numéricas no sentido de avaliar a integridade estrutural daquela torre ante os carregamentos devidos aos ventos locais, onde se concluiu que a carga de vento implícita no dimensionamento foi bem abaixo daquela calculada pelos padrões da norma brasileira Uma investigação experimental em dois modelos seccionais, um em latão e outro em madeira, construídos a partir de dois trechos da torre estudada, foi realizada a fim de analisar parâmetros aerodinâmicos como coeficientes de arrasto, ângulo de incidência do vento sobre a torre, índice de área exposta e fator de proteção. Os modelos foram construídos na oficina Paulo Francisco Bueno - LAC/UFRGS e ensaiados no Túnel de Vento Prof. Joaquim Blessmann do Laboratório de Aerodinâmica das Construções da Universidade Federal do Rio Grande do Sul – LAC/UFRGS. Neste trabalho são apresentados os resultados destes experimentos, bem como uma comparação destes resultados com informações até então disponíveis na literatura técnica, além de uma contribuição técnica ao capítulo 9 da NBR 6123/88.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A automatização dos serviços bancários no cotidiano das instituições financeiras é fundamental para a captação e manutenção de clientes, bem como para a redução de custos. O cliente, por sua vez, demanda por qualidade, a qual está diretamente relacionada à rapidez e à segurança de suas transações financeiras. O atendimento das necessidades destas instituições e a satisfação dos clientes pode ser obtido através do direcionamento da automatização para o auto-atendimento. Para tanto, é imprescindível a existência de uma estrutura de manutenção eficiente que garanta a total disponibilidade dos equipamentos. Este trabalho apresenta a aplicação do Desdobramento da Função Qualidade – QFD, uma ferramenta de planejamento e desenvolvimento da qualidade, em uma organização que opera no setor de assistência técnica no mercado de automação bancária, com a finalidade de orientar a execução dos serviços para a qualidade, conforme as necessidades e desejos de seus clientes, através de um planejamento integrado da qualidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo preliminar descreve uma proposta de correção de erros nas produções escritas de doze (12) alunos de nível básico de língua inglesa da Universidade de Caxias do Sul (UCS). O objetivo é investigar a relevância da reescrita como estratégia de conscientização, de acordo com a Hipótese do Noticing de Schmidt (1990), buscando promover a correção gramatical e o aprimoramento da produção textual. Nesse contexto, a correção passa a ser uma aliada e não inimiga do aprendiz. O feedback corretivo fornecido através do uso de uma Tabela de Marcação, a conscientização dos erros através da reescrita e o envolvimento dos aprendizes no processo de auto-análise de seus textos revelaram-se condições facilitadoras na busca das formas corretas e na prevenção do erro. A análise dos dados demonstrou uma possível ruptura com a previsibilidade implícita na Hipótese do Noticing, que propõe que prestar atenção a determinados aspectos lingüísticos possibilita sua melhor assimilação e a não recorrência de erros. Os trabalhos evidenciaram uma melhoria progressiva na qualidade da produção escrita apesar do aumento do número de erros, possivelmente devido a uma desinibição por parte dos aprendizes em escrever e a sua opção em assumir riscos na produção de estruturas lingüísticas mais complexas, o que não inviabiliza a proposta da reescrita como estratégia de conscientização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação estuda a cidade colonial ibero-americana, a partir de seu traçado, de sua configuração espacial e como produto da milenar tradição urbana do ocidente, em suas variáveis erudita e popular. Foram analisadas as circunstâncias políticas, econômicas e socioculturais que condicionaram os três séculos do período colonial na Ibero-américa e que influenciaram, de um ou de outro modo, o arranjo espacial das cidades. O trabalho identifica os elementos da arquitetura grega, romana, medieval cristã, muçulmana, renascentista, pré-colombiana e barroca que foram naturalmente selecionados, sintetizados e re-elaborados em sua implementação na cidade ibero-americana. Uma tipologia de malhas urbanas é proposta e, a partir da observação e redesenho de plantas urbanas do período colonial, o trabalho analisa e classifica 21 assentamentos produzidos pela colonização espanhola e portuguesa A análise mostra que a cidade colonial ibero-americana constitui de fato um tipo especifico dentro da categoria maior de cidade tradicional, anterior ao movimento moderno. Por ser uma cidade nova, tem implícita na sua gênese a atividade de planejamento. O traçado em malha é o instrumento regulador essencial. Em seu processo de adaptação às determinantes locais, na busca de uma ordem espacial, o traçado em malha passa por diferentes graus de deformação geométrica, o que condiciona a forma e o posicionamento das partes, ou seja, dos elementos da arquitetura urbana - a praça, a rua, o quarteirão, os edifícios singulares e a estrutura predial de tipos recorrentes de edificação -, gerando assim grande diversidade e riqueza de situações espaciais. O trabalho compara as cidades coloniais espanhola e a portuguesa e consta o predomínio das similaridades pelo fato de terem a malha como denominador comum. As diferenças mais relevantes ficam por conta das implantações, das adaptações ao contexto e de outras circunstâncias específicas, não constituindo fator determinante serem elas espanholas ou portuguesas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho é parte integrante de um projeto multidisciplinar cujo objetivo é construir uma ferramenta computacional capaz de simular a operação de uma Usina Termoelétrica tratando, especificamente, da câmara de reação (local da caldeira onde se desenvolve a queima do combustível). Foi desenvolvido um modelo matemático dinâmico, pseudo-homogêneo, unidimensional e, com propriedades físicas variáveis, com o objetivo de descrever a conversão do calor gerado pela combust em energia térmica, que está baseado em balanços de massa e energia. Este modelo foi implementado no simulador gPROMS e seus parâmetros foram estimados utilizando o módulo gEST deste software (método da máxima verossimilhança), com base em dados de operação da Usina e dados cinéticos de literatura. Para a simulação dinâmica da câmara de reação foi utilizado um método de integração implícita de passos múltiplos com ordem e passo variáveis. A câmara de combustão foi dividida em três zonas, sendo realizados, em cada zona, os balanços de massa e energia, adotando-se a hipótese de mistura perfeita. O modelo desenvolvido prevê o perfil de temperatura ao longo da câmara, as correntes de saída e a composição dos gases de combustão em cada zona; incluindo uma previsão aproximada da concentração dos poluentes formados, principalmente monóxido de nitrogênio e dióxido de enxofre. Os resultados apresentados mostraram que o modelo prediz satisfatoriamente a composição do gás de combustão na saída da câmara de reação e que a divisão da câmara em diferentes zonas de combustão é apropriada para avaliar a geração e o aproveitamento energético na caldeira.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das vertentes de negociação de opções é a negociação orientada à volatilidade, aquela que tem como foco principal a volatilidade do ativo objeto, na qual são realizadas operações de compra e venda de opções conforme a volatilidade estiver sub ou sobre-avaliada pelo mercado. Este trabalho procura testar no mercado de opções brasileiro, através de uma simulação de negociação de opções sobre taxa de câmbio, os possíveis benefícios da utilização de um modelo de negociação orientado à volatilidade, empregando diferentes estratégias para obtenção de lucro. As volatilidades foram estimadas através de um modelo de precificação de opções (volatilidade implícita) e um modelo GARCH (1,1). As simulações foram realizadas no período de 1º de julho de 1997 a 1º de julho de 2002, com base nas cotações médias e cotações dos últimos negócios das opções de compra sobre taxa de câmbio de reais por dólar comercial, negociadas na BM&F. Os resultados apontam a possibilidade de obtenção de lucros ao utilizar uma estratégia de negociação orientada à volatilidade, tanto com a simulação empregando a volatilidade extraída do modelo GARCH (1,1) quanto com a simulação utilizando a volatilidade implícita. Comparando os resultados obtidos com as diferentes simulações e estratégias, conclui-se que a simulação com a estratégia de negociação com uso das estimativas de volatilidade GARCH (1,1) obteve os melhores resultados.