154 resultados para sistema de análise
Resumo:
O tema central deste trabalho é o Planejamento, Programação e Controle da Produção na indústria, com o auxílio de uma ferramenta computacional, do tipo Finite Capacity Schedule (FCS). No Brasil, essa categoria de software é denominada, genericamente, por Sistemas de Planejamento Fino de Produção ou de Capacidade Finita. Alinhado com as tendências mundiais e a vantagem de menores investimentos em hardware, o sistema escolhido é compatível com a operação em microcomputadores. Na primeira parte do trabalho, o assunto é tratado de forma geral, quando se pretende caraterizar amplamente o problema da programação da produção, as dificuldades na sua execução, as soluções existentes e suas limitações. A segunda parte do trabalho discute, detalhadamente, os métodos tradicionais de planejamento de materiais e capacidade. A revisão bibliográfica se encerra com uma apresentação dos sistemas FCS e sua classificação. A terceira parte trata da descrição, ensaios e avaliação da programação gerada por um software de Planejamento Fino de Produção determinístico, baseado na lógica de simulação computacional com regras de decisão. Embora a avaliação esteja limitada ao software utilizado, a análise ainda vai procurar identificar as diferenças fundamentais entre os resultados da programação de Capacidade Finita e a convencional, representada pelos sistemas da categoria MRPII ou Planejamento dos Recursos de Manufatura (Manufacturing Resources Planning). As lógicas dos sistemas MRPII e de Capacidade Finita são discutidas na revisão bibliográfica, enquanto que, para o software empregado no trabalho, ainda há um capítulo específico tratando da sua descrição, fundamentos, software house, hardware necessário e outras informações relevantes. Os ensaios serão implementados com o objetivo de analisar o sistema FCS como ferramenta de planejamento e de programação de produção. No caso, uma fração de um processo produtivo será modelada no sistema, através do qual serão gerados planos de produção que serão confrontados com a programação usual e com o comportamento real dos recursos envolvidos. Os ensaios serão realizados numa das unidades pertencentes a uma empresa transnacional de grande porte, que atua no ramo de pneumáticos. Por último, são apresentadas as conclusões gerais, recomendações na aplicação do sistema estudado e sugestões para futuras pesquisas relacionadas com o assunto.
Resumo:
Esta Dissertação tem como objetivo analisar o Papel do Sistema Financeiro no Desenvolvimento Econômico Regional, no período de 1991 a 2000. No primeiro capítulo se procura caracterizar, de forma geral, o sistema financeiro e, de forma específica, a firma bancária, onde se confrontam a visão convencional e a visão pós-keynesiana, os modelos de financiamento do desenvolvimento econômico e seu papel nesse processo. É analisada, também, a experiência histórica e o modelo de alguns países. No segundo capítulo é abordada a evolução histórica do Sistema Financeiro Nacional, e a forma de como atuam os bancos públicos e privados, em nível nacional e regional. Neste mesmo capítulo, também se procura destacar o papel do sistema financeiro no processo do desenvolvimento econômico e justificar a manutenção das instituições financeiras públicas, para desempenhar a função de agente financiador do crédito, especialmente nas regiões menos desenvolvidas. No terceiro capítulo, é feita uma análise dos agregados monetários correspondente ao volume de depósitos e de crédito, em nível regional, no período de 1991 a 2000, enfatizando a distribuição dos recursos, entre bancos públicos e privados nas cinco regiões brasileiras. Procurou-se, também, comparar essas duas variáveis em relação ao PIB regional. Por fim, na conclusão, sugere-se a criação de mecanismos alternativos de financiamento, como o fomento e os incentivos fiscais.
Resumo:
Este trabalho tem por objetivo avaliar as manifestações patológicas decorrentes de insucesso na impermeabilização de laje de cobertura plana horizontal que ocorrem em função da forma como a etapa de projeto é desenvolvida. A metodologia consistiu em proceder pesquisa de campo com o propósito de avaliar a formação técnica dos profissionais que atuam nesta área específica da construção civil. A estratégia adotada foi a de, inicialmente, com o auxílio do Ministério de Educação e Cultura, cadastrar as Faculdades de Engenharia Civil e Arquitetura das principais Universidades Públicas e Privadas brasileiras. Posteriormente foi feita investigação dentre as empresas construtoras da Região da Grande Porto Alegre que, amiúde, contratam prestadoras de serviços de impermeabilização para execução de suas obras, e empresas prestadoras de serviços sediadas na mesma região, procurando identificar quais seus procedimentos em relação à NBR 9575/98 - "Projeto de Impermeabilização". A aplicação dos conhecimentos obtidos da revisão bibliográfica, e posterior sistematização dos conceitos e das recomendações ditadas pela Norma supra referida, tornou possível, através da realização de trabalho de campo, constatar casos de desconhecimento e não observância daquelas diretrizes e, fruto desta desatenção, a contribuição para o surgimento de patologias de impermeabilização. Por último, foi produzido um software (CD-ROM) com o propósito de ensinar de forma didática, através de informações audiovisuais, as técnicas de aplicação e a identificação dos componentes do sistema de impermeabilização, orientando na escolha das alternativas mais adequadas, de acordo com as normas vigentes.
Resumo:
A característica de autogestão existente em uma cooperativa faz com que o processo administrativo e gerencial seja diferenciado das demais organizações. Mas, independentemente dessas características, informações são necessárias em qualquer um dos níveis decisórios desse tipo de organização. Sendo assim, o presente trabalho tem como objetivo pesquisar a influência do sistema de informações existente na Cooperativa Regional Tritícola Santiaguense Ltda, em seu processo decisório, e, também, descrever a estrutura de poder e o sistema de informações existente, verificando como este se articula com a estrutura do poder, visando à tomada de decisão. Para isso, foi feita uma análise do ambiente da organização em estudo, uma revisão de literatura, englobando os aspectos referentes ao cooperativismo, à gestão em cooperativas, aos sistemas de informações, à tecnologia da informação e à tomada de decisão. A pesquisa aplicada para a obtenção dos dados analisados foi de natureza exploratória e descritiva, configurando-se como um estudo de caso. A coleta dos dados para a obtenção das evidências que definiram o resultado da pesquisa foi feita através de entrevistas, documentação, observações diretas e observação participante. Os resultados obtidos demonstram que, apesar de a cooperativa possuir uma estrutura adequada ao tipo de atividade, precisa, ainda, melhorar alguns aspectos referentes à obtenção das informações bem como ao seu uso. Os gestores dessa organização possuem deficiências para compreender e analisar as informações disponíveis no Sistema de Informações, o que dificulta a análise das mesmas. Fica, neste trabalho, a constatação de que a cooperativa deve possuir recursos gerenciais baseados em informações, permitindo que sua administração seja feita de forma a mantê-la competitiva no mercado onde atua. Uma cooperativa tem, efetivamente, características diferenciadas, mas não pode deixar de utilizar, de forma eficiente, informações que irão dar subsídios para a tomada de decisão e conseqüente gerenciamento e manutenção do negócio. Para isso, precisa prover-se de recursos, tanto materiais, como humanos, baseados nos modelos científicos existentes e confirmados pelos autores que fundamentam esta pesquisa.
Resumo:
Este trabalho apresenta o estudo de um sistema hidrodinâmico encontrada em muitas situações dentro da mecânica dos fluidos: o Vórtice Ferradura. Esta estrutura possui características bastante complexas e seu comportamento ainda é pouco compreendido e explicado. Assim, o escoamento ao redor do cilindro circular, em leito fixo, foi investigado experimentalmente, com o propósito de tentar caracterizar o comportamento hidrodinâmico do Vórtice Ferradura através da visualização de escoamento e medições de pressão. Para o trabalho, um cilindro foi montado. As visualizações do Vórtice foram feitas através de uma janela de visualização na seção de testes do canal. A filmagem foi feita através de uma câmera de vídeo VHS, de uso doméstico, e injeção de corante. As medições de pressão foram feitas através do emprego de transdutores de pressão, e divididas em dois grupos: (i) medições de pressão feitas no leito do canal, na linha de simetria, na região de escoamento próxima ao Vórtice; (ii) medições de pressão do escoamento na superfície do cilindro. As imagens, assim como os dados de transdutor, foram transportados para o meio digital para posterior manipulação e análise. Os resultados confirmam algumas descrições fornecidas pela literatura, bem como, também levantam algumas considerações sobre o assunto: as imagens permitiram a visualização das etapas de formação do Vórtice, descrever modificações em seu diâmetro ao longo dos ensaios, reconhecer a variabilidade espacial de sua posição e detectar a presença de um vórtice secundário. Os dados de transdutor descreveram o campo de pressões no leito do canal, modificado pela presença do cilindro e, ao redor da superfície do mesmo, bem como, o comportamento das flutuações de pressão, correlações, autocorrelações e espectros das flutuações de pressão dos transdutores, para estas situações.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
Este trabalho consiste de um estudo de caso que tem por objetivo principal, avaliar o processo de implementação de um Sistema de Informações integrado em uma Instituição de Ensino Superior, entidade privada, com base no modelo proposto por Walton(1993).No referencial teórico analisaram-se os conceitos de dados, informação,conhecimento, a informação como recurso estratégico nas organizações, os Sistemas de Informação com o uso da Tecnologia da Informação, apresentando seus tipos, evolução, objetivos e, algumas formas de implementação preconizada na literatura. O instrumento de pesquisa adotado foi a entrevista, estruturada com a utilização de um questionário elaborado a partir dos objetivos do estudo e do modelo de Walton (1993). A análise dos dados coletados foi feita através da aderência das respostas com os preceitos do modelo, o que possibilitou constatar sua contribuição para a identificação dos elementos críticos de um processo de implementação de Sistema de Informações integrado, através das fases inter-relacionadas de criação do contexto favorável, desenho, instalação e uso do sistema, com a contribuição das ações da administração em promoverem os atributos-chave essenciais de alinhamento das estratégias de negócio, de organização e de tecnologia, comprometimento e domínio por parte de todos os envolvidos.
Resumo:
Introdução: Os tumores do Sistema Nervoso Central (SNC) constituem um grupo heterogêneo de neoplasias e representam o tumor sólido mais comum na infância e adolescência (DEANGELIS 2001). A tumorigênese é um processo de múltiplas etapas envolvendo alterações genéticas que levam a transformação progressiva de células normais para a formação de derivados altamente malignos (HANAHAN 2000). O receptor do fator de crescimento epidermal (EGFR) é um receptor transmembrana que atua num sistema de sinalização fundamental para a fisiologia normal da célula e na manutenção do estado tumorigênico (JORISSEM 2003). O EGFR e seus ligantes estão envolvidos em mais de 70% de todas as neoplasias (YARDEN 2001). Em vários tipos de tumores, incluindo os tumores cerebrais, o EGFR é expresso aproximadamente 100 vezes mais do que o número normal de receptores encontrados na superfície de células normais. A hiperexpressão do EGFR e do ErbB2, tem sido associada com neoplasias que apresentam um comportamento clínico mais agressivo (ALROY 1997). Objetivos: Analisar a expressão do gene do EGFR em tumores primários do SNC. Material e Método: Análise de 18 amostras de tumores primários do SNC em crianças de 01 a 14 anos de idade utilizando uma técnica semi-quantitativa de RT-PCR. A coleta das amostras foi feita no período de 2002 a 2004. Resultados: A amostra foi composta por: um astrocitoma grau I, três astrocitomas grau III, três astrocitomas grau IV, três carcinomas de plexo coróide, 1 craniofaringeoma, três ependimomas, um tumor neuroectodérmico primitivo e três meduloblastomas. 33% da amostra apresentou hiperexpressão de EGFR. Ao analisar-se os resultados de expressão do EGFR nas amostras de astrocitomas verificou-se um aumento na expressão do EGFR para os tumores de grau IV, com exceção de uma amostra que apresentou um índice baixo de 0.13 RNAm. Para as demais amostras de astrocitoma grau 3 a expressão do EGFR foi baixa e os pacientes apresentaram sobrevida com doença, uma vez que não foi possível realizar ressecção cirúrgica total. Conclusão:Ainda que este estudo forneça dados de uma população bastante heterogênea é possível evidenciar diferenças nítidas de expressão do EGFR entre as diversas histologias que compreendem os tumores pediátrico do SNC. Tais resultados sugerem um importante papel do EGFR nos tumores cerebrais da infância e encorajam a continuidade de investigações que elucidem a real aplicabilidade deste fator de crescimento como marcador prognóstico e alvo terapêutico.
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.
Resumo:
As pesquisas sobre governança no sistema financeiro contribuem significativamente para a análise dos diversos elementos que influenciam a performance nesse setor. No entanto, estudos empíricos nessa área ainda são limitados. Um dos motivos é a complexidade inerente à noção de governança na área pública. Da mesma forma que os sistemas complexos, a governança pode ser descrita como um sistema que abrange um grande número de entidades interdependentes entre si, com diferentes graus de relacionamentos. Neste trabalho de pesquisa, o significado de governança regulamentar do SFN se insere nesse escopo de entendimento, isto é, a governança como um fenômeno que resulta das diversas interações existentes entre os atores que influenciam ou são influenciados pelas atividades de regulação do setor financeiro. Em função das especificidades dos sistemas complexos, desenvolve-se e implementa-se um modelo baseado em agentes para a análise da governança regulamentar do SFN mediante experimentos de simulação. Os modelos baseados em agentes possibilitam explicitar aspectos relativos às interações e comportamentos dos agentes (nível micro), ou seja, os comportamentos não-lineares do sistema, que são difíceis de serem capturados com outros formalismos matemáticos. O modelo baseado em agentes é integrado a um modelo econométrico que tem como função caracterizar o ambiente macro-econômico. O ambiente micro é modelado por intermédio de agentes computacionais, com o uso da arquitetura BDI (do inglês, beliefs-desires-intentions). Esses agentes interagem entre si e com o ambiente, possuem crenças sobre o meio onde atuam e desejos que querem satisfazer, levando-os a formar intenções para agir. O comportamento dos agentes foi modelado utilizando-se lógica difusa (fuzzy logic), com o uso de regras construídas por intermédio de pesquisa de análise de conteúdo, a partir de informações coletadas em notícias de jornais, e entrevistas semiestruturadas com especialistasda área financeira. Os resultados dos experimentos demonstram o potencial da simulação dos modelos baseados em agentes para a realização de estudos de ambientes complexos de governança regulamentar.
Resumo:
O objetivo deste estudo foi investigar o processo de corrosão no aço embutido nos concretos com relação a/agl 0,40; a/agl 0,50 e a/agl 0,70, com substituição parcial do cimento por 30% de cinza da casca de arroz (CCA), 25% ou 50% de cinza volante (CV), expresso por massa de cimento, obtendo-se concretos convencionais com resistência mecânica variando entre 17 e 51 MPa, aos 28 dias de idade. O processo de corrosão foi induzido pelos íons cloreto, por exposição aos ciclos de imersão em solução com 3,5% NaCl e secagem ao ar, durante um longo período de exposição (5 anos). Foram apresentados os resultados obtidos das propriedades físicas (resistência mecânica à compressão axial, índice de vazios e absorção de água) e propriedades elétricas (queda ôhmica, resistência e capacitância do concreto e interfacial). Foram discutidas as técnicas eletroquímicas usadas para avaliar o processo de corrosão, tais como o monitoramento do potencial de corrosão (Ecorr), resistência de polarização (Rp), espectroscopia de impedância eletroquímica (EIS) e curvas de polarização. A técnica de interrupção de corrente foi usada para obter-se informações sobre a queda ôhmica no sistema. No presente estudo foram utilizados diferentes métodos de determinação da velocidade de corrosão (icorr), tais como Rp e EIS. Ambas as técnicas foram relativamente adequadas para a determinação do valor da icorr, quando o aço se encontrava no estado de corrosão ativa. O valor da icorr obtida pela extrapolação das retas de Tafel (retas tangentes às curvas de polarização) tendeu ser mais baixo. Observou-se que a técnica de Rp é relativamente simples, rápida e quantitativa, mas requer a determinação da compensação da queda ôhmica no sistema, o qual pode variar com o tempo de exposição, conteúdo de umidade, teor de íons cloreto e com o grau de hidratação. A técnica EIS pode fornecer informações precisas sobre a icorr, processo de difusão envolvido, heterogeneidade ou porosidade da matriz e interfaces do concreto. Todavia, pode criar um espectro de difícil interpretação, além de consumir muito tempo para a aquisição dos resultados. A dificuldade na técnica EIS ficou também relacionada com a obtenção direta da resistência de transferência de carga (Rt) no diagrama de Nyquist. A evolução do processo de corrosão pode ser mais bem avaliada pelo acompanhamento da diminuição da inclinação da curva log |Z| x log ƒ no diagrama de Bode, sendo esta diretamente proporcional à Rt. Para a análise dos dados de impedância, um circuito equivalente foi proposto, auxiliando na interpretação física do processo de corrosão acontecendo no sistema aço-concreto sem pozolana. Os resultados obtidos também demonstraram que os concretos com mais baixa relação a/agl estudada e com pozolana (30% CCA, 25% CV ou 50% CV, por massa de cimento) foram mais eficientes no controle da iniciação do processo de corrosão, induzida por íons cloreto, quando monitorado pela medida do Ecorr.
Resumo:
Trata-se de uma pesquisa avaliativa, que tem como objetivo a análise do Registro Nacional de Preços - RNP, para compras de medicamentos e insumos médicohospitalares do Ministério da Saúde. Esse sistema permite a utilização via eletrônica pelos gestores estaduais e municipais. O período avaliado compreende os anos de 2001 e 2002. Como fonte, foi utilizado um modelo lógico para avaliação de programas de saúde do Center for Disease Control and Prevention – dos Estados Unidos da América. Uma base de dados foi especialmente elaborada a partir dos processos de licitação do RNP e dos registros de aquisição medicamentos disponíveis no Departamento de Programas Estratégicos do Ministério da Saúde. Os eixos principais da avaliação foram os tempos dos trâmites burocráticos dos processos; as aquisições realizadas pelos gestores municipais, estaduais e federais através do sistema; os recursos financeiros envolvidos nas compras e disponibilizados pelo estado para a atenção básica e a viabilidade econômica dos preços obtidos nos medicamentos registrados em comparação com as fontes disponíveis no mercado. Os resultados evidenciaram morosidade no processo administrativo com prejuízo à disponibilidade dos produtos no sistema em tempo ideal e baixa adesão na utilização do RNP para aquisição de medicamentos, evidenciando-se a desarticulação do gestor federal, estadual e municipal. A movimentação financeira de estados e municípios foi baixa se comparada com os recursos circulantes no período provenientes do Incentivo à Assistência Farmacêutica – IAFB e outros. Os preços unitários de um grupo de medicamentos obtidos através do RNP comparados com: os preços dos laboratórios estatais; outras licitações dos gestores estaduais e municipais; fornecedores privados e valores da prestação de contas municipais dos recursos do IAFB, mostraram-se muito competitivos reforçando a viabilidade financeira do programa. Contraditoriamente, o RNP apresenta deficiências e algumas falhas de base como lentidão, burocracia, baixa adesão, pouca publicidade, associada a excelências como a tecnologia, pois todo o sistema é informatizado e possui recursos financeiros disponíveis na área estatal com preços competitivos em todos os segmentos do mercado.
Resumo:
Durante a análise sísmica de estruturas complexas, o modelo matemático empregado deveria incluir não só as distribuicões irregulares de massas e de rigidezes senão também à natureza tridimensional da ecitação sísmica. Na prática, o elevado número de graus de liberdade involucrado limita este tipo de análise à disponibilidade de grandes computadoras. Este trabalho apresenta um procedimento simplificado, para avaliar a amplificação do movimento sísmico em camadas de solos. Sua aplicação permitiria estabelecer critérios a partir dos quais avalia-se a necessidade de utilizar modelos de interação solo-estrutura mais complexos que os utilizados habitualmente. O procedimento proposto possui as seguientes características : A- Movimento rígido da rocha definido em termos de três componentes ortagonais. Direção de propagação vertical. B- A ecuação constitutiva do solo inclui as características de não linearidade, plasticidade, dependência da história da carga, dissipação de energia e variação de volume. C- O perfil de solos é dicretizado mediante um sistema de massas concentradas. Utiliza-se uma formulação incremental das equações de movimento com integração directa no domínio do tempo. As propriedades pseudo-elásticas do solo são avaliadas em cada intervalo de integração, em função do estado de tensões resultante da acção simultânea das três componentes da excitação. O correcto funcionamento do procedimento proposto é verificado mediante análises unidimensionais (excitação horizontal) incluindo estudos comparativos com as soluções apresentadas por diversos autores. Similarmente apresentam-se análises tridimensionais (acção simultânea das três componentes da excitação considerando registros sísmicos reais. Analisa-se a influência que possui a dimensão da análise (uma análise tridimensional frente a três análises unidimensionais) na resposta de camadas de solos submetidos a diferentes níveis de exçitação; isto é, a limitação do Princípio de Superposisão de Efeitos.
Resumo:
Neste trabalho propõe-se um sistema para medição de torque em dispositivos girantes, que utiliza extensômetros de resistência elétrica colados nos próprios elementos constituintes do arranjo mecânico sob análise. Um conjunto de circuitos eletrônicos foi especialmente desenvolvido para o sensoreamento das pequenas deformações que ocorrem nos disposotivos girantes. O sistema opera sem contato eletro-mecânico entre a parte estacionária e a parte girante. Para tanto desenvolveu-se também uma metodologia de projeto e construção de transformadores rotativos que são utilizados para transferência da energia que alimenta os circuitos eletrônicos solidários ao elemento mecânico instrumentado. Também foi necessário utilizar um transmissor em freqüência modulada do sinal elétrico proporcional ao torque medido. Uma análise comparativa, dos resultados obtidos entre os sistemas existentes e aqueles alcançados com a técnica proposta neste trabalho, demonstra sua aplicabilidade em diversas situações práticas.