72 resultados para Funcionamento anormal
Resumo:
O presente trabalho tem como objetivo analisar os esforços em estruturas tridimensionais de edificios altos, quando submetidos a carregamentos horizontais e verticais. A estrutura é idealizada como um conjunto de pilares, paredes e vigas podendo ser dispostos de uma maneira assimétrica no plano da laje e variarem suas propriedades geométricas ao longo da altura. A análise é feita pelo método dos deslocamentos. Admite-se que as lajes em cada nível dos pavimentos tenham o funcionamento de diafragma rígido. São utilizados elementos de barra para representação das vigas e pilares. Para a determinação dos esforços em paredes resistentes são apresentados vários elementos obtidos pela analogia de pórticos. Tais elementos são incorporados ao programa possuindo uma formulação bem simples.
Resumo:
O objetivo deste estudo foi avaliar a utilidade da oftalmoscopia direta realizada por não-oftalmologistas em 400 pacientes hipertensos não diabéticos. Em um estudo transversal, analisou-se a associação entre exame fundoscópico, categorizado em normal e anormal e de acordo com uma classificação de Keith, Wagener e Barker (KW) modificada, com pressão arterial, duração da hipertensão e anormalidades eletrocardiográficas. Associações entre pressão arterial e anormalidades eletrocardiográficas também foram realizadas. As anormalidades de fundo-de-olho foram mais freqüentes em pacientes com pressão arterial diastólica maior que 105 mmHg (P = 0,001), pressão sistólica maior que 180 mmHg (P < 0,001) e com duração da hipertensão maior que 3 anos (P = 0.003). Também houve maior freqüência de anormalidades à fundoscopia em pacientes com estágios mais graves de hipertensão segundo a classificação do V Joint National Committee (V-JNC). Não houve associação entre gravidade da hipertensão e as classes KW 1 e KW 2: 34,5% dos pacientes classificados como KW 1 tinham pressão diastólica acima de 105 mmHg, contra somente 25,3% daqueles classificados como KW 2. Esta categoria também foi mais freqüente em todos os estágios de hipertensão segundo o V-JNC. As anormalidades da classe 3 de KW foram pouco freqüentes, ocorrendo em somente 2,5% dos pacientes da coorte. Em um modelo de regressão logística, o estreitamento arteriolar difuso foi associado com maior pressão diastólica (P = 0,002) e maior idade (P < 0,001). Anormalidades de cruzamentos arteriovenosos foram associados com maior pressão sangüínea sistólica (P = 0,003) e duração da hipertensão maior do que 3 anos (P = 0,024). O valor preditivo positivo de qualquer anormalidade fundoscópica estimar a gravidade da hipertensão foi de 75,20% e o valor preditivo negativo, 41,75%. Observou-se maior proporção de eletrocardiograma anormal (qualquer anormalidade) e de sobrecarga ventricular esquerda em pacientes com pressão diastólica maior que 105 mmHg (P = 0,039 e P = 0,032 respectivamente) e com sistólica maior que 180 mmHg (P = 0,034 e P = 0,001 respectivamente). Anormalidades entre oftalmoscopia e eletrocardiograma não mostraramse associadas. Os resultados deste estudo demostraram que, apesar das anormalidades fundoscópicas terem sido mais freqüentes em hipertensos mais graves, o exame de fundode- olho não proporcionou uma idéia acurada da gravidade da hipertensão na maioria dos pacientes examinados por internistas e cardiologistas e, que a classificação de Keith, Wagener e Barker teve uma aplicação limitada. A observação de um cruzamento arteriovenoso alterado sugere que a pressão sistólica seja elevada. A presença de estreitamento arteriolar difuso é mais freqüente em pacientes mais velhos e naqueles com pressão diastólica elevada.
Resumo:
Compreender o comportamento de compra das organizações é um importante desafio, tanto para os meios acadêmicos quanto empresariais, não apenas pela abrangência e complexidade do tema, mas também pelos volumes de negócios envolvidos entre empresas. Com o intuito de contribuir com o aprofundamento dos conhecimentos atinentes ao assunto, o presente estudo objetivou descrever as variáveis organizacionais referentes ao comportamento de compra das grandes empresas industriais associadas à Federação das Indústrias do Estado do Rio Grande do Sul. Foram pesquisadas 82 organizações com mais de 500 funcionários e analisados seus comportamentos relativos à compra de itens considerados "A" de estoque e utilizados diretamente em seus processos produtivos. Buscou-se verificar a utilização da tecnologia como forma de otimização de processos, o nível de prúfissionalização dos funcionários dos departamentos, a fonnalização e centralização empregadas nas atividades de compras, as principais políticas, regras e procedimentos da área, a participação da mesma em decisões consideradas de alto nível relativas a fontes de suprimentos e a predominância de atividades estratégicas ou operacionais no funcionamento dos setores de compras. Visou-se também identificar a existência de associações entre tais aspectos e o tamanho das empresas. Verificou-se que as empresas preocupam-se com o investimento em recursos para os setores de compras, através do oferecimento de treinamentos a seus funcionários e da disponibilização de tecnologias para a otimização de rotinas. Constatou-se também que as organizações são, em geral, bastante formalizadas e centralizadas, e que o comprador dispõe de pouca autonomia. Com relação às políticas relativas a fontes de fornecimento, observou-se que a maioria das empresas pratica a terceirização de seus processos produtivos e possui relacionamentos mais estreitos com seus fornecedores, sem entretanto, limitar-se a uma base local de suprimento, pois reconhecem e adquirem insumos de acordo com as alternativas globais. Identificou-se ainda a prevalência de atividades operacionais em relação às estratégicas no funcionamento dos setores de aquisição pesquisados. Com relação ao tamanho das organizações, foi possível constatar que as maiores tendem a oferecer mais treinamentos a seus profissionais de compras, possuem mais recursos tecnológicos alocados a estes setores, mais comumente estabelecem relacionamentos de longo prazo com os fornecedores e importam componentes.
Resumo:
Neste trabalho apresentamos os resultados experimentais da medida do calor específico dos compostos Heusler da série Ni2TA1, onde T =Ti, Zr,Hf,V,Nb, Ta. Estas medidas foram feitas utilizando-se um calorímetro adiabático que atua na faixa de 1,84 K a 10,3 K e visaram o estudo da estrutura elêtrônica dos compostos em termos da densidade de estados eletrônicos à nível de Fermi, bem como da dinâmica da rede cristalina, com o uso dos modelos de Debye e de Einstein para o calor específico. Apresentamos, também, uma descrição do calorímetro, seu funcionamento e as alterações ocorridas em função deste trabalho.
Resumo:
A literatura sobre Teste de Software apresenta diversas estratégias e metodologias que definem critérios eficazes e automatizáveis para selecionar casos de teste capazes de detectar erros em softwares. Embora eficientes na descoberta de erros, as técnicas de seleção de casos de teste exigem que uma quantidade relativamente grande de testes seja realizada para satisfazer os seus critérios. Essa característica acarreta, em parte, um alto custo na atividade de teste, uma vez que, ao fim de cada teste deve-se verificar se o comportamento do software está ou não de acordo com os seus requisitos. Oráculo para teste de software é um mecanismo capaz de determinar se o resultado de um teste está ou não de acordo com os valores esperados. Freqüentemente, assume-se que o próprio projetista de teste é o responsável por esta tarefa. A automatização da atividade dos oráculos deu origem a oráculos automáticos, os quais são capazes de determinar o bom ou mau funcionamento do software a partir de uma fonte de informação confiável. Ao longo dos anos, a especificação formal vêm sendo largamente utilizada como fonte de informação para oráculos automáticos. Diversas estratégias vêm propondo geradores de oráculos baseados em especificações formais. Dentre as características marcantes dessas estratégias, cita-se aquelas que são aplicáveis a implementações derivadas a partir da estrutura da especificação e aquelas que geram oráculos a partir de técnicas específicas de seleção de casos. Essas características, entretanto, limitam a aplicação abrangente dos oráculos por restringi-los tanto a implementações derivadas diretamente de especificações como ao uso de técnicas específicas de seleção de casos de teste. Este trabalho apresenta um estudo sobre os geradores de oráculos para teste de software, identifica aspectos fundamentais que regem seu processo de construção e propõe uma estratégia que permite a geração de oráculos semi-automaticamente, mesmo para implementações não derivadas diretamente da estrutura da especificação. A estratégia proposta é, também, aplicável aos casos de teste derivados de qualquer técnica de seleção de casos de teste.
Resumo:
O Modelo Temporal de Versões (TVM Vesions Model) foi proposto com base na união de um modelo de versões com informações temporais. Esse modelo permite o armazenamento de alternativas de projeto, o armazenamento da história dos dados em evolução, bem cmoo a reconstrução do estado da base em qualquer data passada, sem o uso de operações complexas de backup e recovery. Para realizar consultas nesse modelo foi definida uma linguagem de consulta, a TVQL (Temporal Versioned Query Language). Além das consultas básicas realizadas pela linguagem padrão AQL, a TVQL permite novas consultas que retornam valores específicos das características de tempo e versões, estabelecendo um comportamento o mais homogêneo possível para elementos normais e temporais vesionados. O objetivo principal deste trabalho e possibilitar a realização de consultas TVQL em um banco de dados convencional. Nesse contexto, o mapeamento da TVQL é implementando através da tradução de todas as propriedades e funções definidas na TVQL para SQL. Para que isso seja possível é necessário queos dados também estejam nesse banco de dados. Então, faz-se necessário o mapeamento das classes da hierarquia do TVM, bem como das classes da aplciação, para o banco de dados. Adicionalmente, é implementado um protótipo de uma interface de consultas realizadas em TVQL, para testar o funcionamento tanto da TVL como do seu mapeamento.
Resumo:
O presente trabalho apresenta um estudo do método de divisão-e-conquista para solução dos auto-sistemas de matrizes tridiagonais simétricas. Inicialmente, explanamos a parte teórica, e posteriormente, por meio de exemplos numéricos mostramos seu funcionamento. Para a realização deste estudo, utilizou-se o software Maple como ferramenta auxiliar. Realizamos comparações e análises dos auto-sistemas encontrados com as rotinas DSTEDC e DSTEQR do LAPACK, que utilizam respectivamente o método de divisão-e-conquista e o método QR e também comparamos estes com os resultados encontrados por nós. Verificamos por meio de testes os tempos, que as rotinas citadas, dispendem na resolução de alguns auto-sistemas. Os resultados apresentados mostram que o método de Divisão-e-Conquista é competitivo com o método tradicional, QR, para o cálculo de autovalores e autovetores de matrizes tridiagonais simétricas.
Resumo:
Este estudo testou a existência do efeito clientela no cenário brasileiro, verificando se o preço das ações que pagaram dividendos durante os anos de 1996 a 1998 comportou-se conforme o modelo de Elton e Gruber (1970). Além disso, verificou a existência de alguma anormalidade no retomo das ações no primeiro dia ex-dividend. Em relação ao modelo de Elton e Gruber, dos 620 eventos analisados, em apenas quatro casos, o valor da ação no 10 dia após o pagamento do dividendo situou-se dentro do intervalo teórico esperado. Trinta por cento dos eventos apresentaram um resultado surpreendente, em que o preço da ação no primeiro dia ex-dividend foi maior do que na data em que a ação tinha direito de receber dividendos. Essas constatações contrariam as expectativas do modelo, e esse comportamento pode ser considerado irracional, já que se estaria pagando mais por uma ação sem direito a dividendos, do que quando esta tinha direito a recebê-lo. O cálculo dos retornos anormais evidenciou um retomo anormal médio positivo no primeiro dia exdividend de 5,2% para a amostra total e de 2,4% para a amostra sem outliers. Além disso, constataram-se retornos anormais significativos a 5% e 1% em outros dias da janela do evento, o que demonstra o comportamento anormal do mercado desses papéis nesse período. O retomo anormal cumulativo (CAR) apresentou um retomo residual de 5% no 50 dia ex-dividend para a amostra total e 2% após a exclusão dos outliers, o que significa que as empresas que distribuíram dividendos obtiveram um retomo anormal no preço de suas ações durante a janela do evento. Verificou-se, ainda, uma relação diretamente proporcional entre o yield da ação e os resultados anormais encontrados em ambas as hipóteses. Isso se deve à redução de incerteza e à minimização do risco do investidor. As empresas que optaram por pagar altos dividendos em valores absolutos e yields elevados para as suas ações apresentaram retornos anormais médios superiores aos demais. Enfim, os resultados encontrados não identificaram evidências de efeito clientela no mercado acionário brasileiro. Pode-se dizer que a formação de preços das ações que distribuem dividendos no Brasil está bem mais relacionada à minimização da incerteza do investidor do que influenciada pela interferência tributária nos mesmos.
Resumo:
Esta tese analisa o talk show de Jô Soares, tendo como suporte teórico-metodológico a teoria semiótica narrativa e discursiva desenvolvida por Greimas e seus colaboradores. A análise objetiva apreender a construção do talk show, evidenciando os componentes que o engendram como uma unidade textual singular e mostrar o funcionamento do programa, a partir do reconhecimento dos mecanismos discursivos de manipulação que são utilizados como estratégias persuasivas para produzir o efeito espetáculo de entretenimento distenso, com o intuido de seduzir seus destinatários. A tese está dividida em cinco capítulos. Destacamos os capítulos 4 e 5 destinados à análise. No capítulo 4, a análise examina a organização narrativa do espetáculo do Jô, mostrando o conjunto de elementos que o constituem e destacando as perfomances actanciais do sujeito do fazer, como herói da narrativa. Esse capítulo procura mostrar o que é o show, o que ele diz. No capítulo 5, a análise mostra a estrutura da comunicação, da intersubjetividade, própria do nível discursivo, identificando a dimensão argumentativo-persuasiva que revela o esquema da manipulação, as estratégias discursivo-persuasivas utilizadas pelo manipulador, para construir um espetáculo em conformidade com os efeitos pretendidos. Nesse nível de análise, procura-se mostrar como o show faz para produzir os efeitos almejados.
Resumo:
Esta dissertação trata da análise do discurso pedagógico do Movimento dos trabalhadores Rurais Sem Terra (MST). Metodologicamente, o texto está dividido em três partes. Na primeira parte, é apresentado o quadro conceitual da Escola Francesa de Análise de Discurso, a qual fundamenta a análise. A segunda parte do trabalho trata dos procedimentos metodológicos que sustentam e organizam a análise do corpus discursivo. A terceira parte examina o funcionamento do discurso pedagógico, particularmente, o funcionamento que faz desse discurso, um discurso diferente em relação ao discurso pedagógico dominante: a inserção do discurso-outro (o discurso pedagógico dominante, o discurso da Educação Popular e o discurso político do MST) no discurso de referência; o estabelecimento de redes de filiação de sentido com discursos marginalizados, “abafados” pelo discurso pedagógico dominante; a ruptura com o discurso pedagógico tradicional, através do funcionamento discursivo da determinação discursiva produzida por orações relativas, adjetivos, sintagmas preposicionais,os quais produzem um efeito de sobredeterminação discursiva a fim de produzir um efeito de reorientação/movimentação nos sentidos fixados/ cristalizados por esse discurso. E, finalmente, a produção do novo, no universo semântico pedagógico, construído pelo Discurso Pedagógico do MST.
Resumo:
O desenvolvimento e manutenção de software fazem parte de um processo intrinsecamente difícil e que consome tempo e custos, principalmente quando o sistema consiste de milhares de linhas de código. Por isso, sistemas de visualização de software objetivam prover mecanismos para construir representações visuais de informações sobre programas e sistemas, através das quais o programador pode analisar e compreender características de sua estrutura e funcionamento em um maior nível de abstração do que o código fonte. Assim, ferramentas visuais de software que suportam as tarefas de desenvolvimento, depuração, manutenção e reutilização tornam-se mais necessárias pelo fato de ajudarem a reduzir a complexidade inerente do processo de compreensão. Esse trabalho tem como objetivo principal o desenvolvimento de um visualizador que exiba as informações existentes nos programas de forma mais rápida e legível, evitando que o programador/analista tenha que percorrer as linhas de código. O texto inicialmente situa a área de visualização de informações, abordando a área de visualização de software, uma vez que a visualização de software é assim chamada por tratar da visualização de informações que são extraídas de programas. Em seguida, é apresentado um estudo de caso baseado no desenvolvimento dos sistemas da empresa Benfare Informática, no qual caracteriza-se a necessidade de ferramentas que auxiliem a compreensão de programas, com o objetivo de otimizar as operações de manutenção e desenvolvimento de programas. O restante do trabalho trata do sistema VisProgress que foi um protótipo desenvolvido como ferramenta de apoio para a equipe de desenvolvimento da empresa e como forma de avaliar o uso de técnicas de visualização em tal situação. A ferramenta desenvolvida é um visualizador de informações que percorre programas escritos em Progress, ferramenta de desenvolvimento utilizada pela empresa, e extrai as informações encontradas nos programas. A visualização é dividida em três partes. A primeira permite a visualização de informações textuais extraídas diretamente do código fonte dos programas que compõem os sistemas, a segunda faz a visualização de um grafo que representa a chamada de programas, e a terceira e última faz a visualização também de um grafo, porém representando o compartilhamento de variáveis entre os programas. A obtenção dos grafos foi construída em Delphi, porém a visualização gráfica é feita através da ferramenta Dotty, ferramenta específica para visualização de grafos. Após a descrição do protótipo implementado, são apresentados os resultados obtidos com a avaliação da ferramenta feita nas empresas Benfare Informática e Dzset Soluções e Sistemas para Computação.
Resumo:
O presente trabalho é dedicado à simulação numérica de sistemas térmicos de potência. O trabalho é iniciado com a modelagem de um ciclo Rankine, dedicado à produção de energia elétrica, para o qual foi elaborado um programa de simulação com a linguagem de programação MATLAB. A partir desse primeiro caso, são apresentados os modelos empregados para representar os diversos componentes que formam o circuito, como o gerador de vapor, a turbina, o condensador e a bomba. Além desses componentes, são introduzidas as equações que representam o escoamento do fluido de trabalho, no caso a água, permitindo assim o cálculo da perda de carga nas diferentes canalizações do circuito, sendo também acoplado o funcionamento da bomba. Essa alternativa pennite uma melhor avaliação do trabalho despendido para operar o sistema. A modelagem do ciclo deixa então de ser exclusivamente tennodinâmica, e passa a incluir aspectos de mecânica de fluidos. Outras variantes desse ciclo simples são também modelados e simulados, incluindo ciclos Rankine regenerativos e com irreversibilidades. As simulações são efetuadas admitindo-se parâmetros de operação, como, potência da turbina, temperatura do vapor d'água na entrada da turbina e pressão do vapor d'água na saída da turbina, com a variante de fixar-se o título do vapor d'água na saída da turbina.
Resumo:
Esta tese analisa a forma que orienta o funcionamento da atividade perceptiva. Neste sentido, é pressuposto básico desse trabalho, que a atividade perceptiva possui um modo de relacionar os dados fornecidos pela percepção, que funciona de modo diferente dos princípios descritos pela operatoriedade no nível hipotético-dedutivo. A justificativa desta afirmação é buscada na história do desenvolvimento do conceito de conhecimento, na definição dos aspectos permanentes e mutáveis para o conhecimento nas diferentes correntes epistemológicas e na análise do funcionamento dos centros sensório-motores na fisiologia humana. Os conceitos sobre as formas, que orientam a percepção e a razão foram desenvolvidas com base na Filosofia Crítica de Kant. As interpretações sobre as origens do conhecimento, propostos pelas diferentes correntes epistemológicas, são analisadas com base na teoria cognitiva de Jean Piaget. Esse trabalho propõe uma alternativa para a interpretação das deformações que os sujeitos realizam sobre os dados sensíveis e sobre as relações subjetivas que acontecem cotidianamente.
Resumo:
A medicina moderna vem apresentando sinais de uma crise similar àquela do paradigma sociocultural da modernidade. Diversos componentes dessa crise são descritos na literatura e identificados na análise das práticas profissionais, no cotidiano dos serviços. Essa crise da medicina moderna tem particular visibilidade quando analisada à luz dos princípios e diretrizes, do ideário e do modo de funcionamento do sistema público de saúde desenhado na Constituição Federal, o Sistema Único de Saúde (SUS). Nesse contexto, para identificar possibilidades emergentes à clínica e à pedagogia médicas buscou- se registrar e analisar, por meio de uma cartografia, idéias inovadoras, considerando a inovação como tensão, ruptura e transição do paradigma vigente, com reconfiguração de poderes e saberes. Esse conceito, formulado por Boaventura Santos (1997), já vem sendo utilizado para a análise de experiências revitalizadoras do ensinar e do aprender na universidade (Leite e cols., 1995). No que se refere à pesquisa que compõe esta Tese, foram analisados documentos da Associação Médica Brasileira e do Conselho Federal de Medicina, no que foi denominado de Território da Medicina, e as atas das reuniões do Conselho Estadual de Saúde do Rio Grande do Sul, no que foi denominado de Território do Conselho, bem como outros documentos e dados complementares. A cartografia dessas idéias e das marcas e cicatrizes produzidas no trânsito do cartógrafo pelos cenários da educação e da saúde mostrou a emergência de possibilidades inovadoras, agrupadas nos conceitos de clínica nômade e de pedagogia médica mestiça. As idéias emergentes relativas à clínica mostram seu exercício produzido a partir de combinações locais de conhecimentos de outras áreas e racionalidades, além daqueles utilizados nas práticas biomédicas, bem como a capacidade de escuta ao andar a vida individual e coletiva, capazes de fazer vingar mais saúde e a autonomia dos usuários dos serviços, quando operados a partir de um compromisso ético-estético-político. À pedagogia médica emergente é proposta a ruptura com suas visões antropológica, metodológica e teleológica configuradas pela modernidade, em favor de concepções mais abertas e heterogêneas, fomentadoras de protagonismo e de práticas mais democráticas nos serviços de saúde e na sociedade. No contexto da crise da medicina moderna, as idéias inovadoras mostraram contornos que tornam visível a transição paradigmática, composta pela fronteira sul do território oficial da medicina atual.
Resumo:
Sistemas de controle industriais precisam atender a requisitos temporais para garantir seu correto funcionamento, sendo por isto considerados sistemas tempo-real. Quando tais sistemas são distribuídos, tais como redes de sensores, atuadores e controladores interligados por barramentos de campo, a comunicação desempenha um papel importante no comportamento temporal. Este trabalho propõe uma ferramenta para validar o comportamento temporal da comunicação em um protocolo de barramento de campo, o Foundation Fieldbus. A proposta inclui a especificação de requisitos e a visualização da validação. Pretende-se auxiliar a compreensão do comportamento temporal e possibilitar a depuração de sistemas tempo-real distribuídos. O sistema desenvolvido encontra-se operacional e foi validado em diversos estudos de caso, os quais são descritos no presente trabalho.