91 resultados para Confiabilidade
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.
Resumo:
O ambiente de concorrência em que estão inseridas as empresas tem pressionado pela busca constante de novas ferramentas gerenciais. Os hospitais não estão alheios a este desafio e encontram-se em constante transformação ao encontro da excelência assistencial. A existência de um sistema de custos adequado, sendo um instrumento de informação acurado que auxilia na melhoria dos processos internos e nas tomadas de decisão como um todo, apresenta-se como elemento estratégico importante para a competitividade de um hospital. O propósito deste estudo de caso, realizado no primeiro semestre de 2002, foi o de desenvolver e validar um modelo de sistema de custos integrado aos protocolos médicos e rotinas assistenciais da Unidade de Terapia Intensiva (UTI) do Hospital Mãe de Deus de Porto Alegre - RS. O modelo foi matematicamente construído, embasado no método ABC (Actvity-Based Costing) para a alocação dos custos fixos e indiretos, e no método do Custo-Padrão real (corrente) para a alocação dos custos diretos, tendo como pressupostos o custeio dos diversos serviços e a conseqüente promoção de melhorias contínuas e auxílio ao processo decisório como vantagens competitivas nas negociações com fontes pagadoras. O desenvolvimento do modelo deu-se através do mapeamento de dez protocolos aprovados pela Comissão de Ética do hospital e representativos da assistência diversificada da UTI, seguido da alocação dos custos fixos e indiretos com mão-de-obra, depreciação, manutenção e gasoterapia, através do estabelecimento de direcionadores de tempo (mão-de-obra) e intensidade (demais custos), baseados no percentual de participação dos recursos ditados pelos protocolos. Os custos diretos com materiais e medicamentos foram alocados pela média do custo-padrão corrente. A coleta de dados primários, para o estabelecimento dos direcionadores de custos, foi realizada junto à equipe assistencial e utilizou-se medidas estatísticas de localização, dispersão e probabilidade para dar mais confiabilidade às análises. O modelo foi implementado computacionalmente, utilizando-se o software EXCEL da Microsoft. A validação foi dada pela comparação dos resultados entre o modelo desenvolvido e o demonstrativo contábil fornecido pela Controladoria do hospital. Concluiu-se que o modelo desenvolvido de sistema de custos integrado aos protocolos médicos atendeu os objetivos pretendidos, sendo um instrumento gerencial flexível e de fácil implementação, que deve ser utilizado pelo controller do hospital no auxílio ao processo decisório de gestores e da alta administração. Em adição, mostrou-se capaz de embasar tomadas de decisão no longo prazo em relação à capacidade instalada e oportunidades de redimensionamento de quadro de médicos plantonistas e enfermeiros.
Resumo:
A avaliação é um componente importante no processo de ensino/aprendizagem dentro do contexto escolar e seu resultado tem reflexos extra-classe, na medida em que aprovar ou reprovar tem significados pessoal e social fundamentais para o futuro do aluno. A avaliação escolar, atualmente questionada, tem na prova seu instrumento principal. Visando contribuir para a compreensão desse processo na escola, esta pesquisa foi desenvolvida com o objetivo de descrever provas elaboradas por professores de inglês do ensino fundamental bem como buscar, junto a eles, razões para o perfil descrito. O trabalho envolveu quatro professoras de inglês da 5ª à 8ª séries, de uma escola estadual de ensino fundamental, no interior do Rio Grande do Sul, no ano de 2004. A metodologia escolhida para desenvolver a investigação foi o estudo de caso por ser indicada para pesquisas que envolvam questões de "como" e "por que" (Yin, 2003). Constituíram dados da pesquisa 40 provas elaboradas pelas professoras; entrevistas semi-estruturadas com elas, a direção e os alunos, observações durante visitas à escola e de documentos da escola. As provas foram analisadas quanto ao conteúdo avaliado, às técnicas utilizadas e às qualidades de validade, confiabilidade e efeito retroativo. Para a descrição e análise das provas, foram tomados como base os trabalhos de Genesee e Upshur (1998), Bachman e Palmer (1996). Para a discussão das razões para a elaboração desse padrão de prova, a partir das entrevistas com as professoras, foram determinadas as seguintes categorias temáticas: o professor, o aluno, a importância do ensino de inglês e a avaliação. As conclusões indicam: a) quanto aos conteúdos avaliados, o foco das provas concentra-se predominantemente em itens gramaticais, no vocabulário e na estrutura da oração simples; b) quanto às técnicas, há o predomínio de técnicas de resposta limitada mais fáceis de elaborar e corrigir e que exigem pouco conhecimento lingüístico do professor; c) as provas apresentam grau médio de confiabilidade e validade e efeito retroativo negativo. A análise das entrevistas indica que as provas têm esse perfil porque as professoras mantêm visões tradicionais de avaliação, em conseqüência da falta de instrução sobre o assunto no curso de formação inicial, e porque apresentam deficiências significativas na competência lingüístico-comunicativa.
Resumo:
A presente pesquisa objetivou identificar as características das informações contábeis e a sua utilização para tomada de decisão organizacional de pequenas empresas, a partir das opiniões de contadores e proprietários de pequenas empresas. Constituiu-se em uma pesquisa de caráter exploratório e qualitativo, utilizando como abordagem metodológica entrevistas semi-estruturadas. Foram entrevistados 5 contadores responsáveis por empresas de serviços contábeis, estabelecidas nas cidades de Lajeado e Arroio do Meio, no Vale do Taquari, Rio Grande do Sul. Esses contadores indicaram 3 empresas clientes, levando em consideração o porte, com base no critério de faturamento. Nessas empresas clientes, foram entrevistados os respectivos empresários (proprietários), totalizando 15 empresários, além dos 5 contadores entrevistados. Com base no estudo, observou-se que os empresários vinculam a Contabilidade ao excesso de fiscalismo e à arrecadação de impostos. Isso decorre do fato de que muitos contadores, especialmente aqueles que têm escritórios de contabilidade e prestam serviços para as pequenas empresas, se especializam em aspectos fiscais, fornecendo dessa forma, informações aos seus clientes relativas a essa área. Portanto, dado o aspecto legal e fiscal das informações que os contadores fornecem aos empresários, esses não as têm utilizado, na maioria das vezes, para a tomada de decisão. Entretanto, o empresário, na maioria dos casos, não possui os conhecimentos contábeis suficientes e, por vezes, não consegue sequer avaliar a sua importância Por isso, caberia ao contador estreitar uma aproximação, participar e conhecer mais a vida empresarial de seus clientes e demonstrar com convicção a relevância da Contabilidade para uma adequada gestão empresarial. Além disso, para que as informações contábeis, não apenas as de caráter legal, fiscal e burocrático, tenham relevância para a gestão das pequenas empresas, sendo utilizadas para a tomada de decisão, devem elas respeitar as especificidades das pequenas empresas, serem apresentadas de forma simples e, principalmente, contextualizadas, para possibilitar a compreensão por parte dos empresários. Assim, a partir das opiniões de contadores e proprietários de pequenas empresas, e os resultados do estudo, temse que as características das informações contábeis para torná-las mais úteis aos proprietários das pequenas empresas devem estar pautadas na transparência, evidenciação, confiabilidade, relevância, direção (orientação), simplicidade e objetividade.
Resumo:
No Brasil, de forma geral, é elevado o custo do capital de terceiros para financiamento das atividades empresariais. Para a gestão financeira das corporações brasileiras, são cruciais o fortalecimento do capital próprio e a obtenção de melhores saldos no fluxo de caixa. Uma importante fonte de financiamento são os recursos gerados na própria empresa. Entre as várias opções para fortalecimento do capital próprio e para melhoria do fluxo de caixa, uma alternativa que pode ser viável, dependendo das variáveis às quais a empresa está submetida, é o uso dos juros sobre o capital próprio, previsto na Lei nº 9.249/1995 e alterações posteriores. Este trabalho tem como objetivo a proposição de um modelo para gestão financeira das empresas, considerando o impacto dos juros sobre o capital próprio na estrutura do capital e no fluxo de caixa da empresa. Objetiva também mensurar os efeitos do uso dos juros sobre o capital próprio no conjunto formado pela empresa e seus investidores. Efetuou-se um diagnóstico das principais variáveis que podem afetar a decisão das empresas de utilizar ou não os juros sobre o capital próprio para remunerar os investidores. Posteriormente, foi elaborado um modelo para avaliação do impacto dos juros sobre o capital próprio na estrutura de capital e no fluxo de caixa da empresa. O modelo foi aplicado em uma empresa hipotética. A aplicação do modelo proposto proporcionou à empresa melhoria na rapidez, qualidade, confiabilidade e flexibilidade das informações, e maior racionalização e transparência nos processos de gestão relacionados à decisão de uso dos juros sobre o capital próprio Os juros sobre o capital próprio são uma opção fiscal à disposição dos gestores da empresa para remunerar os investidores. O valor dos juros remuneratórios do capital deduzido o imposto de renda retido na fonte, pode ser imputado aos dividendos obrigatórios ou utilizado para aumento do capital da empresa. O modelo proposto gera informações a respeito do impacto que o uso da opção fiscal provoca na carga tributária, no capital próprio e no fluxo de caixa da empresa e dos respectivos acionistas. Outras informações do modelo são as possíveis alterações na remuneração, com base no lucro societário, propiciada a debenturistas, empregados, administradores, partes beneficiárias e acionistas. As informações produzidas pelo modelo têm natureza estratégica e permitem aos gestores da empresa tomar decisões com melhor fundamentação.
Resumo:
O atual ambiente competitivo, onde baixo custo, alta qualidade e um grau crescente de customização são exigências para a sobrevivência das empresas, tem influenciado as ações dos profissionais de manutenção com vistas ao aprimoramento das políticas de manutenção. Como resultado, tem-se na área de manutenção industrial, uma grande quantidade de métodos, software, modelos e ferramentas de gestão disponíveis. Dentre eles, dois métodos se destacam: o RCM (Reliability Centered Maintenance ou Manutenção Centrada em Confiabilidade), de origem norte-americana, e a TPM (Total Productive Maintenance ou Manutenção Produtiva Total), de origem japonesa. A TPM promove a integração total entre homem, máquina e empresa, onde a manutenção dos meios de produção passa a constituir uma responsabilidade de todos. A utilização da TPM contempla a implementação de pilares de sustentação, sendo um deles, a manutenção planejada. Entretanto, a TPM não especifica a estratégia a ser adotada pela manutenção planejada. O RCM é uma metodologia lógica de procedimentos que objetiva estabelecer uma manutenção preditiva e preventiva para alcançar, de maneira efetiva e eficiente, os níveis de segurança e confiabilidade requeridas para cada equipamento. Considerando um ambiente com a TPM já implementada, o objetivo deste trabalho é a melhoria do pilar Manutenção Planejada da TPM através da utilização do RCM para nortear as estratégias de manutenção em empresas industriais. A sistemática proposta é ilustrada através de um estudo de caso na indústria de conformação de metais.
Resumo:
O objetivo geral da tese foi desenvolver um modelo sistêmico de segurança do trabalho (também denominado 5C) com base nos fatores causais e contributivos aos acidentes do trabalho abordados na literatura, na análise macroergonômica do trabalho e no ponto de vista de quem os percebe (fator subjetivo). A revisão de literatura sobre Teorias e Modelos da Causa do Acidente e uma Modelagem para o Gerenciamento de Risco foi a base para a definição dos cinco fatores (5C) da primeira versão do Modelo Sistêmico de Segurança do Trabalho: carga de trabalho, confiabilidade, capacitação, custos e cultura de segurança. O referencial teórico sobre cada fator C, para a definição dos respectivos subfatores e para a concepção da estrutura do modelo que pressupõe hierarquia e permeabilidade entre os fatores 5C e fatores hipotéticos de distância e proximidade. A representação gráfica do modelo seguiu o tipo diagramático e configuração espiral. Os estudos de caso, cuja abordagem e procedimentos metodológicos tiveram como base o método de Análise Macroergonômica Trabalho (AMT) de Guimarães (1998; 2005), viabilizaram a submissão dos (sub)fatores 5C à realidade. Os estudos foram realizados no contexto de trabalho de operadores trens urbanos (Cenário I) e de eletricistas de redes aéreas desenergizadas do sistema de distribuição de energia elétrica (Cenário II), os quais possuem grau de risco três e periculosidade caracterizada por risco de contato ou de exposição a sistema elétrico de potência, permanente ou intermitente A avaliação do modelo seguiu aborgadem híbrida. A avaliação qualitativa consistiu na confrontação dos (sub)fatores 5C prescritos do modelo com os fatores descritos obtidos nos estudos de caso (Cenários I e II). Os resultados promoveram o estabelecimento dos parâmetros qualitativos dos subfatores 5C e, em decorrência, a confirmação dos (sub)fatores 5C do modelo. De outra parte, revelaram demandas de segurança não idênticas, o que era esperado, tendo em vista as características e peculiaridades de cada tarefa/sistema. A avaliação quantitativa foi realizada por meio de questionário elaborado a partir das informações geradas ao longo da pesquisa e testes estatísticos, aplicados sobre uma amostra da população do Cenário I. Os resultados indicaram que todos os (sub)fatores 5C impactam na segurança do trabalho em diferentes níveis (graus de importância) e que a intensidade de cada fator 5C para a ocorrência de acidentes varia em função do tipo de acidente. Verificou-se, também, a existência de correlações entre os fatores 5C, o que confirma a natureza sistêmica do modelo e, em decorrência, a estrutura hieráquica, o pressuposto de permeabilidade e os fatores hipotéticos de distância e proximidade. A versão final do Modelo Sistêmico de Segurançado Trabalho seguiu a primeira versão, acrescida pelos subfatores 5C, relações de constrangimento-resposta, quatro níveis (conceitual, estratégico, tático e operacional) e uma proposta de usabilidade segundo as perspectivas bottom-up e top-down. A validação do modelo implicará na sua aplicação em diferentes contextos de trabalho.
Resumo:
O presente estudo valida, para uso no Brasil, um instrumento desenvolvido por Hamme (2003) para a avaliação da competência emocional em grupos, conceituada como “a habilidade para desenvolver normas para administrar os processos emocionais no sentido de cultivar confiança, identidade grupal e eficácia grupal” (DRUSKAT e WOLFF, 2001b). O conhecimento é criado e expandido através de interações sociais, onde a administração eficaz das emoções é essencial para o desempenho do grupo. Em função da demanda contemporânea por novas formas de cooperação criativa e produtiva, aumenta também a necessidade de compreensão dos fatores que facilitam e dificultam o trabalho em equipe, justificando a validação de um questionário para avaliar competências emocionais grupais que possibilite focar intervenções, visando a alteração dos baixos desempenhos. Verificada uma confiabilidade interna satisfatória do instrumento, realizou-se uma survey com 191 respondentes de 34 grupos em organizações, localizadas em Porto Alegre e região metropolitana. Verificam-se carências nas competências Criação de recursos para trabalhar com a emoção, Confronto dos membros que rompem as normas e Compreensão organizacional; destacam-se positivamente Solução pró-ativa de problemas, Criação de relações externas e Criação de um ambiente afirmativo. Compreensão organizacional e Comportamento atencioso sobressaem-se nos EUA e não no Brasil, já Criação de relações externas, Criação de um ambiente afirmativo e Compreensão interpessoal, ao contrário, aparecem elevados no Brasil e não nos EUA. Ratificam-se cinco das seis dimensões iniciais, sendo que duas delas constituíram uma única. Comparam-se os grupos com maiores e menores escores. O instrumento validado poderá ser utilizado posteriormente e os dados aprofundados em estudos futuros, tais como sugerido nas considerações finais.
Resumo:
O presente trabalho tem como tema a qualidade de produtos e serviços bancários, sob a perspectiva dos clientes, e visa a identificar o grau de importância e o nível de satisfação com a qualidade dos produtos e serviços oferecidos pelo Banco do Brasil S/A aos clientes da "Carteira Empresas" da agência de Canela - RS. A avaliação do nível de satisfação e do grau de importância da qualidade dos produtos e serviços oferecidos aos clientes da "Carteira Empresas" do Banco do Brasil S/A tem sido realizada como um "exercício de imaginação" ou de feeling dos gerentes de agências. Com o presente trabalho, busca-se o emprego de método de pesquisa para a realização de tal avaliação. Para tanto, é realizada pesquisa bibliográfica sobre serviços, qualidade em serviços, satisfação dos clientes, valor do cliente, estratégia da lealdade CRM - Customer Relationship Management, gestão do relacionamento com os clientes, recuperação do serviço e pesquisa de marketing. Através de pesquisa qualitativa, são levantados os atributos da qualidade demandada dos produtos e serviços oferecidos. Logo após, é realizada pesquisa quantitativa na qual são identificados o grau de importância e o nível de satisfação atribuídos pelos clientes aos atributos da qualidade demandada levantados pela referida pesquisa. Para processamento e análise dos resultados são utilizadas técnicas estatistícas como método de análise descritiva, de análise de variância, de análise de regressão e o teste de confiabilidade do instrumento de pesquisa. Com base nos resultados encontrados é desenvolvido e apresentado, também um plano de melhorias.
Resumo:
Os registros de vazões líquidas obtidos das estações fluviométricas são válidos, unicamente, para o local de onde foram coletados ou muito próximo a ele. Na maioria das vezes, a região de influência deste não inclui o local de interesse para o desenvolvimento de projetos de recursos hídricos. Este inconveniente, geralmente, pode ser resolvido através do uso de métodos de regionalização hidrológica. Para determinar os coeficientes da equação de regionalização, o procedimento mais usado consiste em: i) estabelecer uma relação do tipo exponencial multivariada entre a variável dependente (vazão média de longo prazo ou média anual de cheia) e as covariáveis (variáveis climáticas e fisiográficas da bacia hidrográfica); ii) linearizar a equação anterior mediante a transformação logarítmica de ambos os membros; iii) utilizar modelos lineares de regressão para estimar os coeficientes, geralmente, o método dos mínimos quadrados ordinários; e iv) aplicar a transformação inversa para definir a equação. A aplicação deste procedimento implica assumir certas propriedades dos dados (assimetria positiva, registros da mesma extensão e que os mesmos possuem o mesmo período de início e fim, entre outros) que dificilmente podem ser atendidas, prejudicando a verificação das hipóteses nas quais estão baseados os métodos lineares de regressão e, em conseqüência, seu adequado uso, bem como a confiabilidade dos resultados obtidos. Esta pesquisa apresenta um aprimoramento dos métodos de regionalização de vazões geralmente empregados, incluindo-se técnicas que levam em consideração as limitações anteriores. Estas técnicas foram: i) uso da transformada de Box-Cox na linearização da equação exponencial multivariada; ii) determinação dos coeficientes da equação de regionalização usando mínimos quadrados ponderados; e iii) verificação se os resíduos da regressão estão correlacionados ou não. Para o desenvolvimento e verificação da metodologia proposta foram usados somente registros fluviométricos de Bacias Hidrográficas Brasileiras, que drenam suas águas para o Rio Grande do Sul e/ou que estejam localizadas dentro dele. Geograficamente, a área de estudo inclui a totalidade do estado do Rio Grande do Sul e parte de Santa Catarina. As equações de regionalização foram definidas usando dados de vazões médias de longo prazo e média de cheia, para tempo de retorno de 2,33 e 50 anos. Neste último caso, as freqüências foram estimadas através do método dos momentos-L.Comparando os resultados obtidos utilizando o modelo de regionalização hidrológica proposto neste trabalho (transformada de Box-Cox / mínimos quadrados ponderados) junto a seus similares gerados usando a metodologia convencional (transformada logarítmica / mínimos quadrados ordinários) e de modelos intermediários (transformada logarítmica / mínimos quadrados ponderados e transformada de Box-Cox / mínimos quadrados ordinários), os mesmos podem ser considerados satisfatórios, visto que em todas as simulações realizadas o modelo proposto forneceu melhores resultados que aqueles obtidos com os outros modelos, sendo utilizado como padrão de comparação: 1) a qualidade do ajuste, 2) o grau de verificação das hipóteses dos métodos lineares de regressão e 3) os erros na estimativa das descargas, em termos de vazão específica. Nas simulações realizadas usando os modelos intermediários, observou-se que: i) na regionalização de vazões médias, o ganho de considerar a heterogeneidade temporal dos dados é maior do que corrigir a assimetria dos mesmos; ii) quando são usadas séries de descargas máximas, ocorre o efeito contrário, visto que o ganho de corrigir a assimetria das séries é maior do que o efeito da heterogeneidade temporal dos dados. Com relação aos resíduos da regressão, contrariamente ao esperado, os mesmos não sugerem estar correlacionados; isto pode ser conseqüência de utilizar como variável dependente um único registro por estação (vazão média de longo prazo ou média anual de cheia).
Resumo:
Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.
Resumo:
Os critérios de outorga adotados nas legislações dos estados inseridos no semi-árido - a fim de regulamentar a vazão de referência a partir de açudes - tem se baseado simplesmente em volumes (vazões) associados a níveis de confiabilidade de atendimento à demanda, não estabelecendo políticas operacionais que tornem seus usos menos vulneráveis às falhas prolongadas e concentradas que são comuns à região. Este trabalho tem o objetivo de avaliar as vazões de referência segundo as políticas de operação (PO) padrão e volumes de alerta. A primeira é uma operação menos arrojada se comparada com a segunda. Isto decorre do fato que na primeira não há maiores preocupações com a vulnerabilidade nos períodos de falha. Já a política de operação baseada em volumes de alerta assegura que na pior situação um suprimento mínimo será realizado. Foi elaborado um modelo de simulação com sub-tarefas de operação de reservatório, operação de projetos hidroagrícolas, operação de atendimento às demandas, avaliação econômica dos déficits e fornecimento de indicadores para subsidiar as avaliações. Dentre os indicadores fornecidos pelo modelo destacam-se: confiabilidade mensal da demanda primária, confiabilidade mensal da demanda secundária, confiabilidade anual do sucesso da atividade agrícola, anuidade equivalente dos custos de falha na demanda primária, anuidade equivalente dos benefícios líquidos da agricultura, anuidade líquida equivalente e total evaporado. Diante da análise de tais indicadores chegou-se à conclusão de que a PO volumes de alerta apresentou resultados superiores à operação padrão. O fato de assegurar o suprimento durante os longos e concentrados períodos de falha gera uma economia que não é superada pelo incremento de água oferecido pela PO padrão.Constatou-se também que a PO padrão coloca todas as categorias de demanda sob o mesmo patamar de vulnerabilidade, enquanto que na PO volumes de alerta as cotas são oferecidas com garantias diferenciadas, sendo mais atraentes do ponto de vista do gerenciamento.
Resumo:
Apresentamos a análise de diagramas cor-magnitude (CMDs) profundos para 5 aglomerados ricos da Grande Nuvem de Magalhães (LMC). Os dados fazem parte do projeto HST G07307, entitulado "Formação e Evolução de Aglomerados Estelares Ricos da LMC", e foram obtidos através do HST/WFPC2 nos filtros F555W (~ V) e F814W (~ I), alcançando V555~25. A amostra de aglomerados é composta por NGC 1805 e NGC 1818, os mais jovens (r < 100 Myr), NGC 1831e NGC 1868,de idades intermediárias (400 < r < 1000Myr), e Hodge 14, o mais velho (r > 1200Myr). Discutimos e apresentamos um método de correção dos CMDs para incompleteza da amostra e contaminação por estrelas de campo. O uso eficiente das informações contidas nos CMDs foi feito por meio de comparações entre os CMDs observados e CMDs modelados. O processo de modelamento de CMDs gera uma Seqüência Principal (MS) sintética, que utiliza como entrada do modelo a informação sobre idade (r), metalicidade (Z), Função de Massa do Presente (PDMF), fração de binárias não resolvidas, distância e extinção da luz. As incertezas fotométricas foram empiricamente determinadas a partir dos dados e incorporadas no modelamento. Técnicas estatísticas de comparação entre CMDs em 1D e 2D são apresentadas e aplicadas como métodos objetivos capazes de determinar a compatibilidade entre modelo e observação. Modelando os CMDs da região central dos aglomerados podemos inferir a metalicidade (Z), o módulo de distância intrínseco ((V - Mv)o) e o avermelhamento (E(B-V)) para cada aglomerado. Também determinamos as idades para os 3 aglomerados mais velhos de nossa amostra. Continuação) Através da comparação em 2D os valores encontrados foram os seguintes: para NGC 1805, Z = 0.007:1+-0.003, (V - Mv)o = 18.50:1+- 0.10, E(B - V) = 0.03:1+-0.01; para NGC 1818,Z = 0.005:1+-0.002, (V - Mv)o = 18.50:1+-0.15, E(B - V)~0.00; para NGC 1831, Z = 0.012:1+-0.002, log(r /yr) = 8.70 :I+-0.05, (V - Mv)o = 18.70:1+- 0.05, E(B - V)~ 0.00; para NGC 1868, Z = 0.008:1+-0.002,log(r/yr) =8.95:1+-0.05, (V - Mv)o = 18.70:1+- 0.05, E(B - V) ~0.00; para Hodge 14, Z = 0.008+-0.004, log(r/yr) = 9.23+-0.10, (V - Mv)o = 18.50+-0.15, E(B - V) = 0.02+- 0.02. Estes valores estão de acordo, dentro das incertezas, com os valores obtidos através da análise de linhas fiduciais (lD), o que agrega confiabilidade a estas determinações. Através da análise de CMDs em regiões concêntricas determinamos a dependência espacial da inclinação da PDMF (a) nos aglomerados mais ricos. Para tanto empregamos duas abordagens distintas para a determinação de a: 1) método tradicional em 1D via conversão direta de V555em massa; 2) método em 2D via modelmento de CMDs. Independente do método de análise, todos os aglomerados analisados demonstram claramente o efeito de segregação em massa. Além disso, NGC 1818, NGC 1831 e NGC 1868 apresentam uma possível perda seletiva de estrelas de baixa massa nas suas regiões mais externas.
Desenvolvimento e implementação de uma interface de comunicação para controlador robótico industrial
Resumo:
O presente trabalho trata do desenvolvimento de um sistema para comunicação bidirecional entre um robô ABB IRB 1400, originalmente desprovido de uma interface de comunicação de dados, e um microcomputador PC padrão. Para a implementação utilizou-se a porta paralela do PC e uma Placa E/S Digital para sinais discretos disponível no controlador do robô. Devido à diferença de caracterìsticas elétricas entre as interfaces utilizadas, foi necessáio projetar um dispositivo que permitisse o ajuste dos niveis de tensão entre os sinais. Osistema foi elaborado visando sua utilização por programas desenvolvidos pelos usuários em ambiente Windows, sendo disponibilizadas rotinas para envio e recebimento de dados através de um protocolo próprio. Na plataforma PC as rotinas estão encapsuladas em um arquivo compilado no formato DDL (Dynamic Link Library). No controlador do robô as rotinas foram criadas em linguagem ABB RAPID. O programa desenvolvido pelo usuário é responsável por todo o processamento das informações, que são então enviadas através do sistema de comunicação a um outro programa específico sendo executado no controlador do robô, o qual interpreta os dados e ativa as tarefas correspondentes. Os resultados obtidos foram satisfatórios, sendo a velocidade de transmissão limitada pela velocidade da Placa E/S do robô. Utilizando-se uma placa ABB DSQC 223, atingiram taxas de transmissão da ordem de 12,5 bytes/s para envio e 6,1 bytes/s para o recbimento de informaçãoes a partir do PC. O sistema demonstrou ser uma alternativa viável para o controle do robô através de um microcomputador PC, apresentando boa confiabilidade, baixo custo e faciliadade de implementação.
Resumo:
Esta dissetação propõe um estudo da metodologia utilizada no Processo de Desenvolvimento de Produto (PDP) da Siemens Metering Ltda, uma empresa do ramo eletroeletrônico, aboradando o mesmo através de uma visão sistêmica, com o suporte de ferramentas de qulaidade, sendo o objetivo principal a utilização integrada das ferramentas QFD e FMEA no processo de desenvolvimento de produto tornando possível a prevenção de falhas, melhorando a eficiência do processo. Para o desenvolvimento do trabalho foram feitos estudos junto a áreas da empresa onde se identificou que o método atualmente empregado em 98% dos projetos desenvolvidos acarretava falhas no desenvolvimento e conseqüentes atrasos dos cronogramas dos problemas ocorridos, o faturamento previsto não era cumprido, ficando em média com 2% do faturamento total da empresa, quando a previsão era de 12% em média. O impacto financeiro de reduções de custo propostas e não implementadas geraram a empresa um montante de R$ 250.000,00/ano, de despesas que poderiam ter sido evitadas A proposta de melhoria constitiu em definir uma metodologia de desenvolvimento de produto com suporte de ferrramentas de qualidade, QFD e FMEA. A abordagem sistêmica do processo possibilitou a identificação dos pontos relevantes do projeto, de forma a atender os requisitos do cliente, bem como a definiçaõ de ações de prevenção em pontos importantes para o projeto. A combinação destas ações possibilita que o processo de desenvolvimento de produto seja mais confiável, quanto a prazos e também em relação ao desempenho do produto resultante. Para o desenvolvimento do trabalho, foram selecionados dois projetos em desenvolvimento pela atual metodologia, onde a proposta foi aplicada, de forma que, foi possível identificar os pontos que anteriormente não haviam sido identificados como relevantes para as etapas de desenvolvimento já concluídas. A aplicação do QFD possibilitou transformar a qualidade demandada em requisitos do produto e do processo. O FMEA, aplicado a um item de cada projeto, possibilitou a definição de ações preventivas que se implementadas com sucesso, minimizam a possibilidade de falha do produto acabado. Os resultados demonstram que a nova metodologia se aplicada na etapa inicial do processo de desenvolvimento de produto, permite um ganho de produtividade e de confiabilidade em relação aos resultados obtidos com o processo atual.