69 resultados para Análise de componente principal
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Resumo:
Apresentamos a análise de diagramas cor-magnitude (CMDs) profundos para 5 aglomerados ricos da Grande Nuvem de Magalhães (LMC). Os dados fazem parte do projeto HST G07307, entitulado "Formação e Evolução de Aglomerados Estelares Ricos da LMC", e foram obtidos através do HST/WFPC2 nos filtros F555W (~ V) e F814W (~ I), alcançando V555~25. A amostra de aglomerados é composta por NGC 1805 e NGC 1818, os mais jovens (r < 100 Myr), NGC 1831e NGC 1868,de idades intermediárias (400 < r < 1000Myr), e Hodge 14, o mais velho (r > 1200Myr). Discutimos e apresentamos um método de correção dos CMDs para incompleteza da amostra e contaminação por estrelas de campo. O uso eficiente das informações contidas nos CMDs foi feito por meio de comparações entre os CMDs observados e CMDs modelados. O processo de modelamento de CMDs gera uma Seqüência Principal (MS) sintética, que utiliza como entrada do modelo a informação sobre idade (r), metalicidade (Z), Função de Massa do Presente (PDMF), fração de binárias não resolvidas, distância e extinção da luz. As incertezas fotométricas foram empiricamente determinadas a partir dos dados e incorporadas no modelamento. Técnicas estatísticas de comparação entre CMDs em 1D e 2D são apresentadas e aplicadas como métodos objetivos capazes de determinar a compatibilidade entre modelo e observação. Modelando os CMDs da região central dos aglomerados podemos inferir a metalicidade (Z), o módulo de distância intrínseco ((V - Mv)o) e o avermelhamento (E(B-V)) para cada aglomerado. Também determinamos as idades para os 3 aglomerados mais velhos de nossa amostra. Continuação) Através da comparação em 2D os valores encontrados foram os seguintes: para NGC 1805, Z = 0.007:1+-0.003, (V - Mv)o = 18.50:1+- 0.10, E(B - V) = 0.03:1+-0.01; para NGC 1818,Z = 0.005:1+-0.002, (V - Mv)o = 18.50:1+-0.15, E(B - V)~0.00; para NGC 1831, Z = 0.012:1+-0.002, log(r /yr) = 8.70 :I+-0.05, (V - Mv)o = 18.70:1+- 0.05, E(B - V)~ 0.00; para NGC 1868, Z = 0.008:1+-0.002,log(r/yr) =8.95:1+-0.05, (V - Mv)o = 18.70:1+- 0.05, E(B - V) ~0.00; para Hodge 14, Z = 0.008+-0.004, log(r/yr) = 9.23+-0.10, (V - Mv)o = 18.50+-0.15, E(B - V) = 0.02+- 0.02. Estes valores estão de acordo, dentro das incertezas, com os valores obtidos através da análise de linhas fiduciais (lD), o que agrega confiabilidade a estas determinações. Através da análise de CMDs em regiões concêntricas determinamos a dependência espacial da inclinação da PDMF (a) nos aglomerados mais ricos. Para tanto empregamos duas abordagens distintas para a determinação de a: 1) método tradicional em 1D via conversão direta de V555em massa; 2) método em 2D via modelmento de CMDs. Independente do método de análise, todos os aglomerados analisados demonstram claramente o efeito de segregação em massa. Além disso, NGC 1818, NGC 1831 e NGC 1868 apresentam uma possível perda seletiva de estrelas de baixa massa nas suas regiões mais externas.
Resumo:
Técnicas experimentais de óptica não-linear resolvidas no tempo são capazes, em diversas situações, de fornecer mais informações sobre a dinâmica e estrutura molecular do que técnicas sem nenhuma resolução temporal. Nesta tese investigou-se três sistemas com técnicas espectroscópicas resolvidas no tempo, utilizando pulsos ultra-curtos de um sistema LASER amplificado, baseado em cristal de Ti:Safira, e de amplificadores ópticos paramétricos. Para este estudo foram implementadas e analisadas quatro diferentes técnicas espectroscópicas resolvidas no tempo: Espalhamento Raman anti-Stokes Coerente (CARS), Espalhamento hiper-Rayleigh Resolvido no Tempo (TRHRS), Bombeio-Prova e Bombeio- Depleção-Prova. O três sistemas investigados apresentam um grau crescente de complexidade nas suas dinâmicas e interações com o meio. O primeiro dos sistemas estudados foi a dinâmica da molécula de H2 no regime de impacto, na presença de moléculas e átomos perturbadores (N2 e He). Foi possível determinar, pela primeira vez, coeficientes de alargamento para o ramo Q devido à colisões entre H2+H2 utilizando a técnica de CARS resolvido temporalmente, bem como novos coeficientes para o deslocamento das linhas. O emprego da mesma técnica em sistemas binários lançou mais luz sobre a possibilidade de existir alguma não-homogeneidade em tais tipos de colisões. O segundo experimento investigou a dinâmica de relaxação orientacional da acetonitrila em solução utilizando a nova técnica de TRHRS; esta foi desenvolvida e testada com sucesso pela primeira vez neste trabalho. Um modelamento teórico mostra que dentro do modelo de Debye para a difusão rotacional, tempos associados ao terceiro momento do tempo de difusão (τ3) e ao primeiro momento (τ1) devem ser observados. Os resultados experimentais para a acetonitrila apresentam um decaimento consistente com este modelo (τ3~850 fs), concordando também com valores derivados de resultados experimentais e teóricos obtidos por outros métodos. Além disso, também foi observado experimentalmente uma segunda componente mais rápida (~50 fs), que não pôde ser explicada dentro do modelo de difusão rotacional livre. Esta componente foi atribuída a efeitos reorientacionais coletivos em conjunto com efeitos de superposição temporal de pulsos. A interpretação do sinal desta nova técnica foi testada com sucesso realizando o experimento em tetracloreto de carbono.O terceiro sistema investigado foi a dinâmica de relaxação de energia intramolecular de carotenóides. A principal questão, da vii existência ou não de estados eletrônicos adicionais, foi abordada utilizando uma modificação da técnica de Bombeio e Prova, denominada de Bombeio-Depleção-Prova. A técnica de Bombeio-Depleção-Prova foi pela primeira vez utilizada em carotenóides, possibilitando observar dinâmicas nunca vistas por qualquer outra técnica experimental. Dentro da resolução temporal dos experimentos realizados, a presença de novos estados eletrônicos em carotenóides livres em solução é descartada. Além disso, uma nova ferramenta de análise de dados foi desenvolvida. A análise de alvos espectrais baseada em um algoritmo evolutivo trouxe mais argumentos para o modelo clássico de três níveis. A dinâmica de carotenóides livres em solução foi comparada com sua dinâmica quando inseridos no complexo fotossintético de coleta de luz (LH2) da bactéria púrpura, utilizando para isso a técnica de Bombeio e Prova. Os resultados obtidos mostram um sistema de níveis de energia mais complexo do que quando o carotenóide está livre em solução. Esta modificação devido ao ambiente é possivelmente gerada pela quebra de simetria do carotenóide quando inserido no complexo LH2, possibilitando o cruzamento entre sistemas (singlete-triplete).
Resumo:
Este trabalho pretendeu minimizar a incerteza na tomada de decisões para projetos mais sustentáveis de intervenção em assentamentos precários. Para sua realização foi utilizada a estratégia de estudo de caso, optando-se pela escolha de um único estudo, na ilha Grande dos Marinheiros, aliada ao uso do método baseado em dados (Grounded Theory), como método para organização das informações coletadas. O estudo utilizou esta metodologia de análise sistêmica, que permitiu verificar as interinfluências entre os diversos aspectos apresentados pelo sítio (aspectos ecológicos do meio ambiente, aliados ao processo antrópico de alteração do habitat). Isto resulta na definição de categorias e subcategorias e seus cruzamentos, através de um sistema de matrizes, levou a constatação da categoria central. Assim, o abastecimento de água foi considerado como o tópico que deveria ser priorizado no processo de tomada de decisões. O sistema de cruzamento sistêmico também permitiu a criação de uma linha mestra (eixo principal) a ser utilizada na definição de futuros projetos de intervenção urbanohabitacional, que mostrou as dificuldades no abastecimento de água e as conseqüências advindas de sua estruturação. Ao final do trabalho, constataram-se as seguintes contribuições: não se recomenda a estruturação do transporte viário, o uso de energia eólica, hidroelétrica ou biomassa e estruturação de redes de distribuição de água entre continente e ilhas. Por outro lado, o estudo salienta as seguintes oportunidades: o saneamento deficitário possibilita a introdução de alternativas diferenciadas, como a utilização de banheiros secos e geração de biogás. As facilidades de obtenção das águas de chuva e a possibilidade real de melhora das águas superficiais devem ser opções preferenciais no abastecimento de água e a estruturação de um sistema de transporte fluvial (coletivo e individual) entre ilhas e continente.
Resumo:
Este trabalho consiste de um estudo de caso que tem por objetivo principal, avaliar o processo de implementação de um Sistema de Informações integrado em uma Instituição de Ensino Superior, entidade privada, com base no modelo proposto por Walton(1993).No referencial teórico analisaram-se os conceitos de dados, informação,conhecimento, a informação como recurso estratégico nas organizações, os Sistemas de Informação com o uso da Tecnologia da Informação, apresentando seus tipos, evolução, objetivos e, algumas formas de implementação preconizada na literatura. O instrumento de pesquisa adotado foi a entrevista, estruturada com a utilização de um questionário elaborado a partir dos objetivos do estudo e do modelo de Walton (1993). A análise dos dados coletados foi feita através da aderência das respostas com os preceitos do modelo, o que possibilitou constatar sua contribuição para a identificação dos elementos críticos de um processo de implementação de Sistema de Informações integrado, através das fases inter-relacionadas de criação do contexto favorável, desenho, instalação e uso do sistema, com a contribuição das ações da administração em promoverem os atributos-chave essenciais de alinhamento das estratégias de negócio, de organização e de tecnologia, comprometimento e domínio por parte de todos os envolvidos.
Resumo:
Sistemas Gerenciadores de Workflow (SGWf) têm atraído muita atenção nos últimos anos, por serem baseados em um modelo simples que permite definir, executar e monitorar a execução de processos. Mas este esquema é um tanto quanto rígido e inflexível, apresentando alguns problemas quando da necessidade de sua utilização no controle de processos com características cooperativas, em que o comportamento humano deve ser levado em conta. Este tipo de processo deve apresentar uma certa flexibilidade de forma a possibilitar a troca de resultados entre tarefas, acabando com a dependência fim-início existente entre tarefas seqüenciais nos SGWfs tradicionais. A fim de possibilitar este tipo de comportamento, surge a antecipação de tarefas, que tem por objetivo oferecer meios de flexibilizar o fluxo de controle e o fluxo de dados para permitir que tarefas possam ser disparadas antes mesmo da conclusão de suas antecessoras. A antecipação implica no aumento da cooperação entre tarefas e em melhor desempenho com relação ao tempo de execução dos processos. O aumento na cooperação está relacionado diretamente à troca de resultados, permitindo que duas ou mais tarefas trabalhem sobre instâncias de um determinado dado que ainda está sendo produzido. O melhor desempenho deve-se ao paralelismo (parcial) criado entre tarefas que deveriam executar de maneira estritamente seqüencial, devido ao disparo das tarefas antes do previsto. Este trabalho então, apresenta um estudo das abordagens de flexibilização de SGWfs, visando encontrar maneiras de prover antecipação de tarefas. O principal objetivo do trabalho é verificar a melhoria de desempenho em termos de tempo de execução dos processos que se pode obter utilizando a antecipação de tarefas Para tal, foi desenvolvido um simulador que suporta a antecipação de tarefas e foram conduzidas simulações, que mostraram os ganhos e alguns padrões de comportamento da utilização da antecipação de tarefas. Para possibilitar o uso da antecipação em processos reais foram realizadas alterações na ferramenta de definição de processos Amaya Workflow e na máquina de workflow do projeto CEMT.
Resumo:
Este trabalho apresenta discussão sobre análise do custo físico do trabalho em professoras de ginásticas sistematizadas em academias. Seus objetivos se determinaram em relatar o custo físico do trabalho de professoras de ginástica, sua percepção subjetiva de esforço durante a aula e mensurar o nível de dor sentido em vários segmentos com o uso da escala de Corlett. A fim de atingir esses objetivos, determinou-se estudo de literatura abrangendo os conceitos de carga de trabalho, custo físico, fadiga muscular e mental e rotas energéticas. As aulas de ginástica analisadas para facilidade de estudo foram divididas em três momentos: 0 ao 21 minuto, do 22 minuto ao 40 e do 41 ao 60 minuto, obedecendo a metodologia empregada na maioria das aulas, aquecimento, parte principal e relaxamento. Para determinar o custo físico de trabalho foi utilizada a classificação proposta por Apud (1987), a carga de trabalho foi estabelecido com o auxílio de equação específica, utilizando-se os valores de freqüência cardíaca de repouso, freqüência cardíaca de trabalho e idade, a escala subjetiva de esforço foi medida pela escala de Borg. A escala de Corlett, que se constitui em uma escala contínua para cada segmento do corpo com duas ancoras, foi utilizada para medir o nível de dor. A análise dos resultados apresentou um elevado custo físico do trabalho, nas três partes da aula e uma elevada carga de trabalho, esse resultado foi encontrado em todos os professores, classificando seu trabalho como extremamente pesado. O maior nível de dor apontado pelos professores esta nos membros inferiores (joelho, coxa, perna e tornozelo) seguidos por queixas de desconforto das regiões de ombros.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
A formação interna da estrutura de uma peça fundida deve determinar as características mecânicas dessa peça, quando em serviço. Dessa forma, torna-se fundamental conhecer e parametrizar os elementos que influem na formação da estrutura do componente sólido, para o desenvolvimento adequado de sistemas de solidificação que permitam conduzir a melhoria da qualidade de uma peça no processo de solidificação. Modelos numéricos podem ser empregados para a determinação da formação estrutural, entretanto estes devem ser aferidos adequadamente para garantir sua aplicabilidade. No trabalho em questão, desenvolveu-se uma metodologia que permitiu a aferição de um modelo numérico para a previsão das condições de resfriamento de ligas de alumínio. Elaborou-se um conjunto de coquilhas e moldes que permitiram o acoplamento e verificação da estrutura formada na solidificação em diferentes situações de resfriamento, observando principalmente a direção de extração de calor e a taxa de resfriamento associada. O modelo numérico aplicado respondeu coerentemente aos resultados obtidos permitindo a previsão da estrutura solidificada pela observação dos resultados de evolução das isotermas solidus e liquidus no interior dos sistemas.
Resumo:
Esta dissertação apresenta um levantamento da incidência de acidentes do trabalho nas atividades de construção, manutenção e instalação de redes de telecomunicações no Rio Grande do Sul. Os dados foram obtidos a partir da análise das CATs (Comunicação de Acidente do Trabalho), referentes aos anos de 2001 e 2002. São analisados o perfil dos trabalhadores, o tipo de atividade da empresa, a distribuição temporal dos acidentes, as partes do corpo atingidas, a natureza e a causa dos acidentes e das lesões. Os principais agentes causadores dos acidentes do trabalho, foram às escadas, os veículos e o esforço físico; a principal situação geradora de lesão foi o impacto de pessoa contra objeto; os tipos de lesões mais encontradas foram as contusões, fraturas e distensões; as partes do corpo atingidas foram os membros superiores, inferiores e dorso; os acidentes ocorreram em maior número nas primeiras horas trabalhadas, com os solteiros e o tipo de gravidade das lesões determinadas pelo maior número de afastamento com mais de 15 dias. Com os resultados obtidos, pretende-se subsidiar ações preventivas nestas atividades, pois com base nas principais causas de acidentes do trabalho é possível adotar medidas para reduzir o número e a gravidade dos acidentes.
Resumo:
Esta dissertação teve como objetivo geral ampliar o conhecimento sobre a ecologia vegetal das matas de Restinga arenosa em substratos bem drenados no Rio Grande do Sul. Para tanto, foram realizados o estudo florístico e fitossociológico do componente arbóreo de cinco capões de Restinga e a verificação de padrões de interações mutualísticas entre aves frugívoras e as árvores, além do estudo do componente de regeneração e suas relações com o estrato arbóreo adulto. Para a amostragem da vegetação, foi usado o método de parcelas, incluindo-se todas as árvores com DAP ≥ 5cm, totalizando uma área de 1,02ha. Com estes dados, foram estimados os parâmetros usuais em fitossociologia. Em um dos capões, foi realizado também o levantamento florístico e fitossociológico das plântulas (0,05 ≤ altura < 1m) e juvenis (altura ≥ 1m, DAP < 5cm), avaliando-se as relações com o estrato arbóreo adulto, o potencial e a taxa de regeneração natural para cada espécie. Para o estudo dos mutualismos, foram feitas observações visuais e capturas de aves durante um ano. Foram estimadas a conectância do sistema mutualístico e o índice de importância das espécies. Também foi feita a rede de interações do sistema e feita a análise da variação destas interações ao longo das estações do ano. A composição florística resultou em uma riqueza total de 20 famílias e 29 espécies para os cinco capões. A densidade total arbórea teve uma média máxima de 1207 ind/ha e mínima de 747 ind/ha. Sebastiania serrata apresentou o maior valor de importância e Myrtaceae foi a família mais representada. A diversidade específica foi baixa, variando de 1,08 a 2,38 (nats). No sistema mutualístico, registraram-se 29 espécies interagindo (aves e plantas), com uma conectância de 23,9%. Turdus amaurochalinus e T. rufiventris interagiram com a maioria das espécies arbóreas e tiveram o maior índice de importância, sendo caracterizadas como as principais dispersoras em potencial. Ocotea pulchella e Myrsine spp. foram registradas com maior número de eventos de consumo de frutos, no entanto, Ficus organesis interagiu com mais espécies frugívoras, além de ter a maior importância na dieta das aves. Houve variações no número eventos de frugivoria ao longo das estações, bem como no número de espécies frugívoras e de espécies arbóreas consumidas. O componente de regeneração apresentou riqueza específica e diversidade semelhantes às do estrato arbóreo adulto, refletindo uma similaridade florística maior que 70%. A maioria das espécies (73,7%) apresentou taxa de regeneração negativa, revelando o padrão de 'J' invertido. Os resultados indicam a existência de diferenças na composição e estrutura arbórea entre os capões de Restinga, além de uma boa capacidade de regeneração para a maioria das espécies vegetais estudadas. Os dados revelam também um sistema dispersão generalista, no qual poucas espécies de aves interagem com muitas espécies arbóreas e vice-versa.
Resumo:
A seqüência evaporítica Aptiana da Bacia de Santos constitui-se num dos maiores depósitos salíferos antigos conhecidos no mundo, tanto em área como em espessura. Esta última chega a atingir 2.500 m em alguns locais com baixa deformação. Devido à intensa halocinese ocorrida a partir do Albiano, sua estratificação deposicional ficou preservada em poucos locais. O Platô de São Paulo, feição fisiográfica que se estende até as águas profundas da Bacia de Santos, teve papel importante na preservação do acamadamento original. Dois poços e traços de uma seção sísmica, localizados nesta área, foram utilizados para o estudo cicloestratigráfico do pacote evaporítico. A correlação dos dois poços, a partir de seus perfis geofísicos, permitiu a identificação de um ciclo evaporítico principal com grande continuidade lateral e de espessura variável. Este ciclo deposicional foi classificado como do tipo brining upward/downward, e caracteriza-se pela precipitação rítmica de anidrita, halita, sais complexos, halita e, novamente, anidrita, no final de um ciclo e início do seguinte. Esta ordem de deposição foi interpretada como função da variação da espessura da lâmina de água e da concentração da salmoura. A análise cicloestratigráfica dos perfis geofísicos dos dois poços (raios gama, velocidade e densidade) e dos dois traços sísmicos resultou na correlação do principal ciclo identificado com o ciclo orbital de Milankovich de precessão longa, com 22 ka. Um outro ciclo secundário, com maior espessura, foi interpretado como resultado de variações climáticas em função do ciclo de obliqüidade, com um período de 39 ka. As taxas de deposição de cada ciclo são bastante variáveis em função da quantidade de cada tipo de evaporito. Através das análises cicloestratigráficas e do estudo das proporções em que cada sal ocorre, chegou-se a uma taxa de deposição da halita entre 10 e 11,5 m/ka, e de 0,61 a 0,64 m/ka para a anidrita. Esta diferença entre as taxas de deposição da halita e da anidrita explica a grande variação de espessura do ciclo principal, especialmente entre o depocentro e a borda da bacia. A menor concentração da salmoura nas proximidades da borda justifica uma menor espessura do ciclo e uma proporção bem maior de anidrita, quando se compara com uma deposição próxima ao depocentro. A cicloestratigrafia aplicada aos traços sísmicos apresentou resultados similares aos encontrados nos dois poços. A grande variação das propriedades físicas entre os diferentes tipos de evaporitos, especialmente entre a anidrita e os sais complexos, permite a intercalação de refletores com grande amplitude e continuidade. Foram contabilizados 22 ciclos nos dois traços analisados, os quais somados com o nível superior não analisado, mais rico em anidrita, totalizam 573 ka para a idade da seqüência evaporítica. Este resultado, mais os encontrados nos dois poços, permite uma previsão de tempo para a deposição de toda a seqüência entre 400 e 600 ka. Como um modelo mais provável para a deposição de toda a seqüência evaporítica, defende-se, neste trabalho, a hipótese de uma bacia profunda com lâmina de água também profunda. Os ciclos teriam se depositados a partir de mudanças de concentração da salmoura originadas pela variação de uma lâmina de água de cerca de 1000 m, na deposição da anidrita, para menos de 200 na deposição dos sais complexos, na parte mais profunda da bacia. Corroboram para este modelo, a grande continuidade, do depocentro até as bordas, das camadas de cada ciclo, a declividade, mesmo que bastante baixa, da bacia e a impossibilidade de valores de taxas de subsidência similares aos de deposição do ciclo evaporítico.
Resumo:
A correta utilização do espaço físico de uma fábrica é fator importante para o seu bom funcionamento, já que estabelece a sua organização fundamental, bem como os padrões de fluxo de materiais e informações, com efeitos que se farão presentes no longo prazo. A fim de sistematizar um adequado planejamento de layout, métodos para planejamento do macro-espaço, como o SLP (Systematic Layout Planning – Planejamento Sistemático de Layout), podem auxiliar no desenvolvimento de alternativas de layout. Contudo, devido à geração de soluções sub-ótimas com benefícios e desvantagens diferentes, o processo decisório da melhor alternativa de layout torna-se crítico para garantir a eficiência e flexibilidade de empresas frente aos diferentes cenários de mercado. O objetivo principal desta dissertação é a utilização de ferramentas de apoio à decisão multicritério em sistemáticas de planejamento de layout. A metodologia de análise multicritério proposta foi colocada em prática na seleção de alternativas de layout em uma empresa do ramo automotivo, que necessita ampliar seu parque fabril de modo a possibilitar a incorporação de novos equipamentos e otimização do fluxo de materiais. Nove alternativas de macro-layout diferentes foram geradas sendo avaliada a melhor alternativa geral em relação a sete critérios de avaliação.
Resumo:
o conhecimento da distribuição espacial e temporal da disponibilidade hídrica estabelece diretrizes para a implementação de políticas de planejamento e execução para o uso racional desse recurso. O Rio Grande do Sul tem a agricultura como principal atividade econômica, sendo extremamente influenciada pela disponibilidade hídrica para as culturas. Na metade sul do Estado, são registrados os menores índices pluviométricos,fazendo com que seja freqüente a ocorrência de deficiência hídrica. O objetivo deste trabalho foi analisar o índice hídrico (ETR/ETo) decendial na metade sul do Estado, para verificar o risco de ocorrência de deficiência hídrica decendial. Para tanto, foram obtidos dados meteorológicos diários de nove localidades, bem distribuídas nas cinco regiões ecoclimáticas(Campanha, DepressãoCentral, Grandes Lagoas, Litoral e Serra do Sudeste) da metade sul do Estado, do período 1961-90. Foram realizados balanços hídricos decendiais, pelo método de Thornthwaite-Mather, com capacidade de armazenamentode água no solo de 50, 75,100 e 125mm.A partir daí, foi obtido o índice hídrico decendial para verificar o risco de ocorrência de deficiência hídrica.O período de dez dias foi adotado para fazer um detalhamento temporal do risco climático.Com a análise dos resultados, ficou constatado que a região da Campanha é a que tem maior probabilidade de ocorrência de deficiência hídrica decendial, principalmenteno período compreendido entre o 2° decêndio de dezembro e o 2° de janeiro. Essas deficiências são minimizadas em anos de EI Nino. Tambémfoi analisada a tendência temporal do índice hídrico e da precipitação pluvial decendiais e não foi constatado incremento ou diminuição dessas variáveis, durante o período 1961-90.
Resumo:
Durante a evolução da comunicação, diversos fatores contribuíram para melhorar a qualidade dos sistemas computacionais (Hardware e Software) em um ambiente industrial, onde o fator desempenho é um dos pontos importantes a ser considerado em um projeto de automação industrial. Nos últimos vinte anos, surgiram diversas propostas de padronização de protocolos para automação industrial e aplicações de tempo real, cada qual com características e tempos de resposta diferentes. Um estudo detalhado sobre as características técnicas de controle de tempo é de extrema importância, visto que esses sistemas, muitas vezes são implementados em situações de missão crítica, nas quais o tempo de resposta é um fator crucial para a aplicação. Nesta dissertação, apresentamos as etapas de evolução das técnicas de controle de acesso ao barramento, culminando inicialmente com o surgimento da proposta do protocolo FIELDBUS e em seguida com a proposta alemã, o PROFIBUS. O principal objetivo deste trabalho é propor um modelo analítico para a realização de avaliação de desempenho em uma rede PROFIBUS. O trabalho apresenta uma descrição das características funcionais do protocolo, bem como uma descrição detalhada dos tempos de controle utilizado pelo protocolo para controle e supervisão da rede. Uma descrição dos experimentos e o cruzamento dos dados obtidos na simulação com os dados obtidos através do modelo analítico demonstram a razão pela qual os modelos analíticos é uma ferramenta de extrema importância devido a sua agilidade em estimar o desempenho de uma rede PROFIBUS. Palavras-chave: Avaliação de desempenho, automação industrial, redes de campo, protocolos.