997 resultados para Modelo de avaliação binomial


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O mercado financeiro nacional vem experimentando mudanças significativas a partir da implantação do novo padrão monetário em 1994. Como conseqüência, os ganhos do sistema bancário, decorrentes do floating foram reduzidos, obrigando os bancos a expandirem suas carteiras de empréstimos que demandam esforços em medir e administrar o risco de crédito. Valendo-se de indicadores econômicofinanceiros e variáveis, o presente estudo visa avaliar a eficácia desses indicadores e variáveis utilizados por uma instituição financeira nacional no processo de concessão de crédito a empresas do setor industrial da região sul do Brasil. A metodologia do estudo propõe inicialmente uma análise estatística dos dados através da Análise da Regressão Logística, procedimentos – enter e stepwise. Concluído o teste de um modelo de previsão de insolvência empresarial, verifica-se quais são os indicadores e variáveis mais significativos e que proporcionam informações valiosas sobre a saúde financeira das empresas, revelando uma possível tendência ao desequilíbrio e a probabilidade à insolvência, levando-se em conta também como informação no gerenciamento do risco de crédito. O estudo mostrou que as variáveis que relacionam a liquidez seca e o saldo de tesouraria / necessidade de capital de giro apresentaram-se como os mais significativos dos sintomas de insolvência.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho analisa o sistema de avaliação do programa de qualidade de uma organização pública, mais especificamente a do Programa de Qualidade da Brigada Militar (PQBM), na visão dos seus próprios avaliadores, tendo a finalidade primordial de contribuir para o aperfeiçoamento do sistema avaliativo. O estudo baseia-se na teoria geral da administração, com ênfase na teoria clássica, na burocrática e na do desenvolvimento organizacional, aplicado às condições e contexto da organização Brigada Militar. Da totalidade dos 83 (oitenta e três) oficiais avaliadores participantes do processo avaliativo do PQBM, 72 (setenta e dois) responderam a um instrumento de levantamento de dados quantitativos, utilizando uma escala tipo Likert, com respostas intervalares de 0 a 4 (de discordo totalmente a concordo totalmente), e dados qualitativos, através de questões abertas. As questões abrangem variáveis de processo (aspectos organizacionais, relativos a método/conteúdo e relativos a recursos), assim como variáveis de resultado (aspectos relativos à estrutura, à atividade humana, à organização e ao meio-ambiente). Os resultados obtidos delineiam a percepção dos avaliadores quanto a mudanças e suas expectativas relativas ao processo avaliativo do PQBM e a capacidade da organização de absorver um novo modelo de gestão sistêmica. Demonstram, ainda, a distância entre o preconizado, quanto ao comportamento administrativo, e a realidade organizacional. Por fim, apresenta-se, através das análises das variáveis causais e das sugestões dos avaliadores, diversas ações para o desenvolvimento de uma gestão sistêmica da qualidade, e sugerem-se estudos mais aprofundados desses aspectos relativos a avaliação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coping é o processo cognitivo utilizado pelos indivíduos para lidar com situações de estresse e inclui esforços para administrar problemas no seu cotidiano. Este conceito também tem sido amplamente estudado por estar associado à saúde e à adaptabilidade social. Coping apresenta, portanto, fundamental importância para estudos de vulnerabilidade e resiliência, indicando a necessidade da elaboração de instrumentos fidedignos e válidos para sua avaliação em populações brasileiras. O presente estudo visou desenvolver instrumentos para avaliar coping e prover uma contribuição teórica para seu estudo a partir do modelo de Aproximação-Evitação. O resultado deste trabalho consistiu na adaptação do Questionário de Coping em Diferentes Situações (Kavsek & Seiffge-Krenke, 1996) para o português e na elaboração do Inventário Multidimensional de Coping. Achados complementares deste estudo mostraram a influência de traços de personalidade e depressão sobre respostas de coping, bem como a relação entre o tipo de estratégia de coping utilizado e bem-estar subjetivo

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A ultra-sonografia obstétrica é um método diagnóstico tradicionalmente utilizado na rotina do atendimento pré-natal, tendo sido estudados de forma ampla suas vantagens e limitações. O advento do diagnóstico intra-uterino de cardiopatias congênitas e de arritmias através da ecocardiografia fetal modificou completamente o prognóstico perinatal dessas afecções, por permitir planejar o adequado manejo cardiológico no período neonatal imediato e, em algumas situações, o tratamento e sua resolução in utero. Sendo muito elevada a prevalência de cardiopatias congênitas durante a vida fetal, sua detecção torna-se fundamental. Considerando a inviabilidade operacional de realizar rotineiramente ecocardiografia fetal em todas as gestações, levando-se em conta as condições locais do sistema de saúde, o encaminhamento para exame por especialista passa a ser otimizado com a possibilidade da suspeita de alterações estruturais ou funcionais do coração e do sistema circulatório durante o exame ultra-sonográfico obstétrico de rotina. Não são conhecidos, em nosso meio, dados que avaliem de forma sistemática a acurácia da ultra-sonografia obstétrica no que se refere à suspeita pré-natal de cardiopatias. A partir deste questionamento, este trabalho foi delineado com o objetivo de avaliar o papel da ultra-sonografia obstétrica de rotina na suspeita pré-natal de cardiopatias congênitas ou arritmias graves e os fatores envolvidos na sua efetividade. A amostra foi constituída de 77 neonatos ou lactentes internados no Instituto de Cardiologia do Rio Grande do Sul / Fundação Universitária de Cardiologia (IC/FUC) no período de maio a outubro de 2000, com diagnóstico pós-natal confirmado de cardiopatia estrutural ou arritmia grave, que tenham sido submetidos, durante a vida fetal, a pelo menos uma ultra-sonografia obstétrica após a 18a semana de gestação. Para a coleta de dados, foi utilizado um questionário padronizado, respondido pelos pais ou responsáveis, após consentimento informado. As variáveis categóricas foram comparadas pelo teste do qui-quadrado ou pelo teste de Fisher, com um alfa crítico de 0,05. Um modelo de regressão logística foi utilizado para determinar variáveis independentes eventualmente envolvidas na suspeita pré-natal de cardiopatia. Em 19 pacientes (24,7%), a ultra-sonografia obstétrica foi capaz de levantar suspeita de anormalidades estruturais ou de arritmias. Ao serem consideradas apenas as cardiopatias congênitas, esta prevalência foi de 19,2% (14/73). Em 73,7% destes, as cardiopatias suspeitadas eram acessíveis ao corte de 4-câmaras isolado. Observou-se que 26,3% das crianças com suspeita pré-natal de cardiopatia apresentaram arritmias durante o estudo ecográfico, enquanto apenas 3,4% dos pacientes sem suspeita pré-natal apresentaram alterações do ritmo (P=0,009). Constituiram-se em fatores comparativos significantes entre o grupo com suspeita pré-natal e o sem suspeita a paridade (P=0,029), o parto cesáreo (P=0,006), a internação em unidade de tratamento intensivo (P=0,046) e a escolaridade paterna (P=0,014). Não se mostraram significativos o número de gestações, a história de abortos prévios, o estado civil, o sexo dos pacientes, o tipo de serviço e a localidade em que foram realizados o pré-natal e a ultra-sonografia obstétrica, a indicação da ecografia, o número de ultra-sonografias realizadas, a renda familiar e a escolaridade materna. À análise multivariada, apenas a presença de alteração do ritmo cardíaco durante a ultra-sonografia obstétrica mostrou-se como variável independente associada à suspeita pré-natal de anormalidade cardíaca. Este trabalho demonstra que a ultra-sonografia obstétrica de rotina ainda tem sido subutilizada no rastreamento pré-natal de cardiopatias congênitas, levantando a suspeita de anormalidades estruturais em apenas um quinto dos casos. Considerando a importância prognóstica do diagnóstico intra-uterino de cardiopatias congênitas e arritmias graves, todos os esforços devem ser mobilizados no sentido de aumentar a eficácia da ecografia obstétrica de rotina para a suspeita de anormalidades cardíacas fetais. O treinamento dirigido dos ultra-sonografistas e a conscientização do meio obstétrico e da própria população são instrumentos para esta ação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese discute três temas: políticas públicas, gestão tecnológica, e setor automotivo. Tendo por objetivo abreviar o ciclo de absorção e desenvolvimento de tecnologia, um volume expressivo de recursos tem sido transferido do setor público para o setor privado através do que é denominado de Política Pública Indutora (PPI). Os governos pretendem, assim, atrair aquelas empresas tecnologicamente mais capacitadas, na expectativa de que transfiram para a localidade onde se instalam o conhecimento que detêm. No Brasil, um dos setores-alvo deste tipo de política tem sido o automotivo, circunstância observada em diferentes momentos da história. Efetivamente, o Regime Automotivo Brasileiro pretende não apenas acelerar o desenvolvimento do país, mas também promover uma significativa transferência de tecnologia. A análise das PPI, por ser de extrema importância, é bastante influenciada e dificultada quer por seus defensores, quer por seus destratores, que as veêm sob os aspectos de sucesso ou não; mas, não bastasse essa dificuldade, há também o elevado conteúdo ideológico que sustenta as argumentações, que faz com que a avaliação se perca num quadro inconclusivo. Afinal, estas iniciativas são benéficas ou não para o país e para as economias regionais? Finalmente, a eficácia, e portanto o acerto desta estratégia só pode ser avaliado expost facto, quando já comprometidos, quiçá irremediavelmente, os recursos públicos. Por essa razão, este estudo desenvolve uma análise ex-ante das políticas públicas do tipo indutoras, fazendo uso de um modelo compreensivo que permite uma análise longitudinal, captando assim, as mudanças no ambiente. Entre outras, procurou-se responder à seguinte questão: é possível, hoje, inferir quanto à contrib uição, se positiva ou negativa, que o Regime Automotivo Brasileiro e os seus desdobramentos estaduais trarão à capacidade tecnológica no entorno da empresa atraída? O problema e a questão de pesquisa foram abordados, predominantemente, sob um enfoque qualitativo, e o método escolhido foi o estudo de caso. Com o auxílio do modelo proposto foi analisada e avaliada a potencialidade de aumento na capacidade tecnológica induzida pela instalação da unidade montadora da General Motors do Brasil, em Gravataí, Rio Grande do Sul. Ao final conclui- se que os benefícios previstos pelo Regime Automotivo Brasileiro, no que diz respeito a capacitação tecnológica local, dificilmente serão atingidos pela instalação de novas empresas automotivas ou a modernização das existentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A gestão assistencial, cada vez mais, assume a responsabilidade integral do desempenho dos serviços e/ou unidades hospitalares, passando a responder não somente pelo desempenho assistencial como também pelo econômico. Em conseqüência, há maior compreensão do processo e dos recursos consumidos. Assim, os indicadores assistenciais (tempo médio de permanência, taxas de infecção, taxas de óbito) passam a ser as causas mais óbvias e verdadeiramente afins para explicar e revestir os valores econômicos. Todavia, ela necessita de um modelo administrativo que a norteie, possibilitando assim, um gerenciamento sistematizado, científico e qualificado, que atinja as metas traçadas, refletidas nos indicadores de resultado da qualidade assistencial e econômica. Este trabalho teve como objetivo desenvolver um modelo integrado ao Activity-Based Management (ABM) para melhor analisar a eficácia em Serviços de Emergência, buscando através do mapeamento dos processos e custeio das principais atividades, propor o gerenciamento dos Protocolos Clínicos e das Intervenções Terapêuticas - Therapeutic lntervention Scoring System (TISS) pelo método ABM. O desenvolvimento do modelo deu-se em duas etapas: I°) Identificação dos principais serviços prestados e mapeamento dos processos e principais atividades do Plantão Médico do Hospital Mãe de Deus, Porto Alegre -RS; 2°) Desdobramento da análise de Eficiência e Eficácia através de um sistema de informações, onde as entradas consideradas foram os processos, subprocessos e atividades mapeadas e custeadas pelo método Activity- Based Costing (ABe); os processadores foram os protocolos clínicos (ABM estratégico), as rotinas, o TISS e a estatística descritiva (ABM operacional); resultando na saída do sistema a análise da Eficácia (qualidade, tempo e custo) gerando relatórios da Eficácia Assistencial. Considerando-se que na saúde, mesmo contando com a utilização dos melhores recursos e tempos hábeis, existe a probabilidade de desfechos insatisfatórios, o modelo assumiu que para análise da qualidade, a avaliação está embasada num todo, onde se somam basicamente o tempo ideal preconizado para cada situação e a expectativa da utilização otimizada dos recursos (mão-de-obra, materiais, medicamentos, exames e equipamentos). Para análise dos tempos, considerou-se as evidências da obtenção de melhores resultados clínicos. Assim sendo, toda vez que os tempos forem além do preconizado pelos protocolos e rotinas, haverá ineficácia no processo, pois os objetivos assistenciais dos desfechos clínicos serão perturbados. E por fim, na análise dos custos, foram considerados ao mesmo tempo o meio e o fim da quantificação de ociosidade ou desperdício e da qualidade assistencial respectivamente. Fazer as coisas que devem ser feitas, com qualidade a custo menor, proporciona perspectivas de eficácia ao encontro dos objetivos da organização. Como resultados, pode-se constatar que os protocolos clínicos e as intervenções pelo TISS integrados ao ABM e com o uso da estatística descritiva, muito embora não sejam fórmulas rígidas a serem seguidas, mostraram indiscutivelmente a eficácia e a eficiência do processos assistencial, respeitadas as variabilidades de condutas e utilização de recursos explicáveis pela diversidade das doenças.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tendo em vista a importância das normas ambientais propostas no âmbito da série ISO 14000 e as mudanças nas relações comerciais internacionais que estas normas podem propiciar, esta dissertação se propõe a verificar alterações na natureza da competição no mercado global e, em especial, as expectativas de impacto nas indústrias integradas de papel e celulose do Rio Grande do Sul. Foi apresentada a estrutura da série ISO 14000 e feita uma avaliação de seus impactos nas atividades comerciais, de modo especial no comércio internacional. Foram também estudadas as relações entre tecnologia e meio ambiente, bem como levantados os principais aspectos tecnológicos envolvidos nas discussões ambientais do setor de papel e celulose. Foram analisados os casos das empresas Riocell e Votorantim Pedras Brancas, buscando os dados em fontes secundárias e, através de questionários, junto a especialistas internos às empresas e a uma especialista independente, avalições da realidade atual das empresas. As relações entre as normas e a indústria de papel e celulose foram consideradas usando o modelo de análise estrutural de indústrias proposto por Michel Porter, em seu livro Estratégia Competitiva. Para dar suporte à análise, foi montado um cenário de referência para o ano de 2005. Concluiu-se que a Riocell será bastante afetada por produzir uma commodity exposta à intensa competição internacional. A Votorantim Pedras Brancas, atuando no mercado nacional e produzindo papéis especiais para segmentos restritos, sofrerá um impacto bem menor, no período considerado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Testes de toxicidade crônica, analisando a inibição de crescimento algáceo após 96 horas, foram realizados a fim de conhecer a sensibilidade de Raphidocelis subcapitata (conhecida como Selenastrum capricornutum), ao sulfato de cobre (CuSO4.5H2O) e do sulfato de zinco (ZnSO4.7H2O). A inibição do crescimento algal seguiu uma tendência exponencial negativa em função do aumento de concentração das duas substâncias, sendo descrita através das seguintes equações: y = 6257208,7. e-5,581.Cu; y = 7003223,1. e- 5,452.Zn; onde y é o número de células de R. subcapitata após 96 horas de exposição a diferentes concentrações de sulfato de cobre e sulfato de zinco, respectivamente. Valores de CE(I)50 demonstraram maior sensibilidade de R. subcapitata ao sulfato de cobre (CE(I)50;96h=0,154 mg.L-1) quando comparada com sulfato de zinco (CE(I)50;96h=0,215 mg.L-1). A densidade algácea foi determinada através de contagem celular e por técnica espectrofotométrica. Foi obtida uma curva de calibração para estimativa de densidade algácea correlacionando valores de absorbância e número de células por contagem, em 684 nm. A curva foi determinada através de um modelo empírico: y = 7,2578.10-8 . x1,0219 (n=130; r2=0,9998); onde y é a medida de absorbância e x é o número de células. A análise de resíduos demonstrou que a equação pode ser utilizada até a densidades de 5.000.000 de células e valores de absorbância até 0,5.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem por objetivo determinar e avaliar a transmissibilidade da vibração no corpo humano além de desenvolver um modelo numérico de quatro graus de liberdade representativo do sistema banco e corpo humano. Para auxiliar no desenvolvimento deste trabalho foi realizado um resgate de pesquisas publicadas por pesquisadores anteriormente na área de modelamento numérico, além das medições e avaliações da transmissibilidade da vibração no corpo humano. Foram realizadas medições da transmissibilidade da vibração no corpo humano na posição sentado em um banco comumente utilizado para motoristas de ônibus urbanos. As medições foram realizadas ao longo do eixo z, de acordo com as recomendações das normas ISO 2631 (1974 e 1997), utilizando-se de acelerômetros uni-axiais, um computador com placa conversora analógica para digital (A/D), além de programas desenvolvidos na plataforma de programação gráfica HPVee para aquisição dos níveis de vibração e avaliação das transmissibilidades da vibração. A vibração vertical foi simultaneamente medida no corpo humano (direção z – ISO 2631). Para medir os níveis de vibração no assento, na pélvis, no ombro e na cabeça foram utilizados quatro micro-acelerômetros uni-axiais (Endveco Isotron 2250A/AM1-10) enquanto que no piso, foi utilizado um acelerômetro uni-axial da Brüel & Kjaer 4338. O grupo estudado nos experimentos era composto por cinco indivíduos, sendo três homens e duas mulheres. Avaliou-se a transmissibilidade entre o assento do banco e o piso, entre a pélvis o assento, entre o ombro e o assento e entre a cabeça e o assento. Os resultados indicaram que o sistema apresentou uma amplificação da transmissibilidade entre o assento e o piso em até 2,5 vezes, enquanto que, para as demais transmissibilidades (pélvis/assento, ombro/assento, cabeça/assento) houve uma atenuação gradual da transmissibilidade da vibração Um modelo linear de quatro graus de liberdade foi desenvolvido para representar o comportamento biodinâmico de indivíduos brasileiros submetidos à vibração forçada proveniente de sinais medidos em ônibus urbanos brasileiros. O modelo responde simultaneamente de acordo com os dados obtidos experimentalmente da transmissibilidade entre o assento e o piso e entre o ombro e o assento para uma faixa de freqüência de 4 até 40 Hz. Foi desenvolvida uma rotina no Maple 5.5 (anexo 10.4) a qual consiste em ajustar uma curva de transmissibilidade calculada com os limites estabelecidos dos parâmetros biomecânicos definidos nos ensaios biométricos e literatura às curvas de transmissibilidade obtidas experimentalmente. Os resultados indicaram que para a curva de transmissibilidade entre o assento e o ombro o erro foi de 37,78% enquanto que para as curvas de transmissibilidade entre o assento e o piso apresentaram um erro de 17,74 %. Apesar dos valores de erro percentual terem sido relativamente elevados, os valores de ambas as curvas de transmissibilidade numérica apresentaram resultados de ajuste muito próximos às curvas experimentais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A globalização eliminou, ao longo dos tempos, as fronteiras territoriais para os capitais financeiros e intelectuais e, conseqüentemente, tem exigido dos governos, empresas, administradores e investidores uma enorme variedade de informações para nortear investimentos potencialmente eficientes e geradores de riquezas capazes de atrair e mobilizar esses recursos. Empreendedores modernos, coadunados com essa nova realidade mundial, têm buscado nas teorias da administração financeira elementos importantes na análise de seus planos estratégicos e dos projetos de investimentos, buscando minimizar os riscos e maximizar os recursos financeiros disponíveis e suas estruturas físicas e materiais, além de conhecer e prever os desdobramentos de suas decisões sobre a perpetuidade de suas empresas. Esses novos visionários agregam valor econômico à empresa e aos investidores, pois suas decisões empresariais e de investimentos são tabuladas de forma a projetar seus empreendimentos no longo prazo, afastando, desde já, a insolvência das empresas como suporte sócio-econômico da dinâmica das nações. Os variados modelos desenvolvidos nos campos acadêmicos para as áreas de administração financeira, quer por desconhecimento, descaso dos administradores ou pela complexidade de alguns destes, ainda não foram disseminados para um grande contingente de empresas ao redor do planeta. Certos modelos possuem especificidades restritas ou se prestam a situações especiais. Alguns empreendedores ainda se utilizam dos resultados extraídos da contabilidade tradicional na definição de valor econômico de seus investimentos, de uma maneira geral, dando ênfase aos dados financeiros tradicionais originados na contabilidade Para corrigir está deficiência estrutural, os acadêmicos desenvolveram modelos que, acompanhados dos dados relatados pela contabilidade, da forma como se apresenta na atualidade, complementam e dão suporte aos envolvidos, objetivando a mensuração do valor econômico de seus empreendimentos e a eficiência de suas decisões. Dentre esses variados modelos, pode-se destacar o modelo de fluxo de caixa descontado (DFC), considerado uma ferramenta eficiente para a avaliação de investimentos ao capturar a agregação de valor do projeto no longo prazo e os riscos inseridos no mesmo, muitas vezes negligenciado pelos administradores. O modelo em questão, e os outros mais, serão, sumariamente, conceituados ao longo do presente estudo, buscando identificar as potencialidades de cada um e em que tipo de avaliação pode, ou deve, ser aplicado. Conclusivamente, serão aplicadas todas as premissas abstraídas do modelo DFC, recomendado por COPELAND, KOLLER e MURRIN (2002), ajustado às características da empresa, para conhecer o valor de mercado da Linck Agroindustrial Ltda.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho apresenta uma avaliação dos prováveis impactos do escalonamento dos horários das aulas noturnas em uma Universidade. Neste trabalho foi investigada, a preferência dos usuários quanto às possíveis alterações nos horários de entrada de aulas, e os impactos do escalonamento na rede viária no entorno do campus. O trabalho envolveu a construção de diversos cenários de alterações nos horários de início das aulas. Os cenários foram construídos visando atender as preferências da população universitária e reduzir a interferência do pico de chegada de alunos no sistema viário. A avaliação dos impactos destes cenários no tráfego foi realizada através de simulação, com a utilização do modelo TSIS/NETSIM. As análises foram baseadas em dois indicadores de desempenho: a velocidade média e o tempo de atraso médio na rede.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O custo unitário básico (CUB), foi criado em função da Lei n° 4.591 (BRASIL, 1964), que encarregou a Associação Brasileira de Normas Técnicas (ABNT), através do Banco Nacional de Habitação (BNH), de definir critérios e normas para cálculo de custos unitários de construção pelos Sindicatos das Indústrias da Construção Civil (SINDUSCON) nos Estados da Federação, para uso dos incorporadores imobiliários nas tratativas iniciais quando da viabilização junto ao Sistema Financeiro de Habitações. Com a publicação da Norma Brasileira NB 140 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1965), ficou definido a metodologia de cálculo dos CUB para projetos-padrão de prédios habitacionais. A finalidade destes CUB é auxiliar na avaliação dos custos de incorporações imobiliárias, antes do lançamento, quando os incorporadores não dispõem dos projetos completos. A metodologia de cálculo destes CUB sofreu uma única reformulação ao longo destes quase quarenta anos, quando da edição da NBR 12.721 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1992). Em 1999, recebeu anexo complementar, que não fez qualquer atualização na metodologia de cálculo dos CUB, apenas estendeu a apuração destes custos para edifícios comerciais, galpões industriais e casas populares Este trabalho realizou a verificação e validação do modelo de cálculo dos CUB para prédios habitacionais, fazendo comparações entre os valores apurados pela técnica recomendada na Norma e os obtidos diretamente nos orçamentos discriminados que deram origem à metodologia de cálculo dos CUB, utilizando preços unitários de insumos no período de janeiro de 1993 a dezembro de 2000. Ao final concluiu-se que o modelo de cálculo dos CUB necessita de uma profunda reformulação para readquirir a propriedade fundamental de sua caracterização que é a de substituir o cálculo dos custos com o uso do orçamento discriminado dos projetos-padrão.