131 resultados para Avaliação de ativos - Modelo (CAPM)
Resumo:
Este trabalho analisa o sistema de avaliação do programa de qualidade de uma organização pública, mais especificamente a do Programa de Qualidade da Brigada Militar (PQBM), na visão dos seus próprios avaliadores, tendo a finalidade primordial de contribuir para o aperfeiçoamento do sistema avaliativo. O estudo baseia-se na teoria geral da administração, com ênfase na teoria clássica, na burocrática e na do desenvolvimento organizacional, aplicado às condições e contexto da organização Brigada Militar. Da totalidade dos 83 (oitenta e três) oficiais avaliadores participantes do processo avaliativo do PQBM, 72 (setenta e dois) responderam a um instrumento de levantamento de dados quantitativos, utilizando uma escala tipo Likert, com respostas intervalares de 0 a 4 (de discordo totalmente a concordo totalmente), e dados qualitativos, através de questões abertas. As questões abrangem variáveis de processo (aspectos organizacionais, relativos a método/conteúdo e relativos a recursos), assim como variáveis de resultado (aspectos relativos à estrutura, à atividade humana, à organização e ao meio-ambiente). Os resultados obtidos delineiam a percepção dos avaliadores quanto a mudanças e suas expectativas relativas ao processo avaliativo do PQBM e a capacidade da organização de absorver um novo modelo de gestão sistêmica. Demonstram, ainda, a distância entre o preconizado, quanto ao comportamento administrativo, e a realidade organizacional. Por fim, apresenta-se, através das análises das variáveis causais e das sugestões dos avaliadores, diversas ações para o desenvolvimento de uma gestão sistêmica da qualidade, e sugerem-se estudos mais aprofundados desses aspectos relativos a avaliação.
Resumo:
Coping é o processo cognitivo utilizado pelos indivíduos para lidar com situações de estresse e inclui esforços para administrar problemas no seu cotidiano. Este conceito também tem sido amplamente estudado por estar associado à saúde e à adaptabilidade social. Coping apresenta, portanto, fundamental importância para estudos de vulnerabilidade e resiliência, indicando a necessidade da elaboração de instrumentos fidedignos e válidos para sua avaliação em populações brasileiras. O presente estudo visou desenvolver instrumentos para avaliar coping e prover uma contribuição teórica para seu estudo a partir do modelo de Aproximação-Evitação. O resultado deste trabalho consistiu na adaptação do Questionário de Coping em Diferentes Situações (Kavsek & Seiffge-Krenke, 1996) para o português e na elaboração do Inventário Multidimensional de Coping. Achados complementares deste estudo mostraram a influência de traços de personalidade e depressão sobre respostas de coping, bem como a relação entre o tipo de estratégia de coping utilizado e bem-estar subjetivo
Resumo:
A ultra-sonografia obstétrica é um método diagnóstico tradicionalmente utilizado na rotina do atendimento pré-natal, tendo sido estudados de forma ampla suas vantagens e limitações. O advento do diagnóstico intra-uterino de cardiopatias congênitas e de arritmias através da ecocardiografia fetal modificou completamente o prognóstico perinatal dessas afecções, por permitir planejar o adequado manejo cardiológico no período neonatal imediato e, em algumas situações, o tratamento e sua resolução in utero. Sendo muito elevada a prevalência de cardiopatias congênitas durante a vida fetal, sua detecção torna-se fundamental. Considerando a inviabilidade operacional de realizar rotineiramente ecocardiografia fetal em todas as gestações, levando-se em conta as condições locais do sistema de saúde, o encaminhamento para exame por especialista passa a ser otimizado com a possibilidade da suspeita de alterações estruturais ou funcionais do coração e do sistema circulatório durante o exame ultra-sonográfico obstétrico de rotina. Não são conhecidos, em nosso meio, dados que avaliem de forma sistemática a acurácia da ultra-sonografia obstétrica no que se refere à suspeita pré-natal de cardiopatias. A partir deste questionamento, este trabalho foi delineado com o objetivo de avaliar o papel da ultra-sonografia obstétrica de rotina na suspeita pré-natal de cardiopatias congênitas ou arritmias graves e os fatores envolvidos na sua efetividade. A amostra foi constituída de 77 neonatos ou lactentes internados no Instituto de Cardiologia do Rio Grande do Sul / Fundação Universitária de Cardiologia (IC/FUC) no período de maio a outubro de 2000, com diagnóstico pós-natal confirmado de cardiopatia estrutural ou arritmia grave, que tenham sido submetidos, durante a vida fetal, a pelo menos uma ultra-sonografia obstétrica após a 18a semana de gestação. Para a coleta de dados, foi utilizado um questionário padronizado, respondido pelos pais ou responsáveis, após consentimento informado. As variáveis categóricas foram comparadas pelo teste do qui-quadrado ou pelo teste de Fisher, com um alfa crítico de 0,05. Um modelo de regressão logística foi utilizado para determinar variáveis independentes eventualmente envolvidas na suspeita pré-natal de cardiopatia. Em 19 pacientes (24,7%), a ultra-sonografia obstétrica foi capaz de levantar suspeita de anormalidades estruturais ou de arritmias. Ao serem consideradas apenas as cardiopatias congênitas, esta prevalência foi de 19,2% (14/73). Em 73,7% destes, as cardiopatias suspeitadas eram acessíveis ao corte de 4-câmaras isolado. Observou-se que 26,3% das crianças com suspeita pré-natal de cardiopatia apresentaram arritmias durante o estudo ecográfico, enquanto apenas 3,4% dos pacientes sem suspeita pré-natal apresentaram alterações do ritmo (P=0,009). Constituiram-se em fatores comparativos significantes entre o grupo com suspeita pré-natal e o sem suspeita a paridade (P=0,029), o parto cesáreo (P=0,006), a internação em unidade de tratamento intensivo (P=0,046) e a escolaridade paterna (P=0,014). Não se mostraram significativos o número de gestações, a história de abortos prévios, o estado civil, o sexo dos pacientes, o tipo de serviço e a localidade em que foram realizados o pré-natal e a ultra-sonografia obstétrica, a indicação da ecografia, o número de ultra-sonografias realizadas, a renda familiar e a escolaridade materna. À análise multivariada, apenas a presença de alteração do ritmo cardíaco durante a ultra-sonografia obstétrica mostrou-se como variável independente associada à suspeita pré-natal de anormalidade cardíaca. Este trabalho demonstra que a ultra-sonografia obstétrica de rotina ainda tem sido subutilizada no rastreamento pré-natal de cardiopatias congênitas, levantando a suspeita de anormalidades estruturais em apenas um quinto dos casos. Considerando a importância prognóstica do diagnóstico intra-uterino de cardiopatias congênitas e arritmias graves, todos os esforços devem ser mobilizados no sentido de aumentar a eficácia da ecografia obstétrica de rotina para a suspeita de anormalidades cardíacas fetais. O treinamento dirigido dos ultra-sonografistas e a conscientização do meio obstétrico e da própria população são instrumentos para esta ação.
Resumo:
Esta tese discute três temas: políticas públicas, gestão tecnológica, e setor automotivo. Tendo por objetivo abreviar o ciclo de absorção e desenvolvimento de tecnologia, um volume expressivo de recursos tem sido transferido do setor público para o setor privado através do que é denominado de Política Pública Indutora (PPI). Os governos pretendem, assim, atrair aquelas empresas tecnologicamente mais capacitadas, na expectativa de que transfiram para a localidade onde se instalam o conhecimento que detêm. No Brasil, um dos setores-alvo deste tipo de política tem sido o automotivo, circunstância observada em diferentes momentos da história. Efetivamente, o Regime Automotivo Brasileiro pretende não apenas acelerar o desenvolvimento do país, mas também promover uma significativa transferência de tecnologia. A análise das PPI, por ser de extrema importância, é bastante influenciada e dificultada quer por seus defensores, quer por seus destratores, que as veêm sob os aspectos de sucesso ou não; mas, não bastasse essa dificuldade, há também o elevado conteúdo ideológico que sustenta as argumentações, que faz com que a avaliação se perca num quadro inconclusivo. Afinal, estas iniciativas são benéficas ou não para o país e para as economias regionais? Finalmente, a eficácia, e portanto o acerto desta estratégia só pode ser avaliado expost facto, quando já comprometidos, quiçá irremediavelmente, os recursos públicos. Por essa razão, este estudo desenvolve uma análise ex-ante das políticas públicas do tipo indutoras, fazendo uso de um modelo compreensivo que permite uma análise longitudinal, captando assim, as mudanças no ambiente. Entre outras, procurou-se responder à seguinte questão: é possível, hoje, inferir quanto à contrib uição, se positiva ou negativa, que o Regime Automotivo Brasileiro e os seus desdobramentos estaduais trarão à capacidade tecnológica no entorno da empresa atraída? O problema e a questão de pesquisa foram abordados, predominantemente, sob um enfoque qualitativo, e o método escolhido foi o estudo de caso. Com o auxílio do modelo proposto foi analisada e avaliada a potencialidade de aumento na capacidade tecnológica induzida pela instalação da unidade montadora da General Motors do Brasil, em Gravataí, Rio Grande do Sul. Ao final conclui- se que os benefícios previstos pelo Regime Automotivo Brasileiro, no que diz respeito a capacitação tecnológica local, dificilmente serão atingidos pela instalação de novas empresas automotivas ou a modernização das existentes.
Resumo:
Esta dissertação estuda os procedimentos de tomada de decisão de investimentos em ativos, utilizados pelas empresas industriais de médio e grande porte da região noroeste do Estado do Rio Grande do Sul, investigadas em termos de critérios de avaliação e a consideração de aspectos estratégicos na decisão de investimento. Trata-se de uma pesquisa exploratória, realizada em trinta empresas, que procurou investigar o comportamento das mesmas em matéria de critérios de decisão, consideração do risco, timing e ciclo econômico, incorporação de novas tecnologias e a avaliação do desempenho do investimento. A seguir, procede-se à análise comparativa de alguns resultados da presente pesquisa com a pesquisa de Saul (1990/1991), realizada nas grandes empresas industriais e prestadoras de serviços públicos básicos do país. Finalmente é apresentado o estudo de caso múltiplo, que teve como base a pesquisa survey realizada nas trinta empresas, das quais foram selecionadas três empresas uma do setor agropecuário e duas do setor metal-mecânica que mais se assemelham quanto às práticas de seleção e avaliação de investimentos constantes na teoria. Esse estudo teve por objetivo examinar os procedimentos adotados no processo de tomada de decisão, bem como a consideração de ativos intangíveis na decisão de investimento. Nas conclusões, geral e parcial, são apresentados os comportamentos das empresas investigadas e analisadas e suas diferenças com as recomendações constantes na teoria financeira, no que se refere a critérios de avaliação e decisão de investimento. Os resultados da pesquisa demonstraram uma aproximação das práticas empresariais com as descritas na teoria financeira, já que a maioria das empresas utiliza técnicas formais para avaliar, selecionar e controlar os seus projetos de investimentos; verificou-se que as empresas utilizam uma estimativa de rentabilidade para “todos” ou para a “maioria” de seus projetos. Através do estudo, a pesquisa confirmou que as empresas da região noroeste utilizam a taxa interna de retorno (TIR) como critério principal de rentabilidade na análise de investimento. Também, constatou-se que o payback , nas modalidades sem e com atualização é usado como critério secundário. Outro aspecto constatado na investigação mostra que a maioria das empresas avaliam o risco de maneira subjetiva, vindo a contrariar a teoria financeira pelo não uso dos métodos de mensuração existentes. No que se refere `a comparação dos resultados da presente pesquisa com os resultados da pesquisa de Saul (1990), evidenciou-se que as empresas da região noroeste diferem em alguns procedimentos, principalmente em termos de mensuração do risco, pois em 1990 às empresas utilizavam um método quantitativo para medir o risco, nos demais procedimentos são semelhantes aos utilizados pelas empresas nacionais. Assim, conclui-se, que a análise de investimento vem influenciando a maneira das empresas decidirem e agirem, mostrando que os empresários não estão explorando ao máximo as técnicas de análise de investimento oferecidas pela teoria financeira, embora as empresas busquem constantemente a modernização tecnológica, adaptando-as ao seu ambiente, de acordo com as necessidades que o mercado exige, oportunizando o crescimento e o desenvolvimento de seus negócios.
Resumo:
Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.
Resumo:
Uma definição confiável dos requisitos de um software depende diretamente da completa e correta compreensão sobre as necessidades do sistema e sua conseqüente representação de forma adequada ao processo de desenvolvimento. Uma proposta de modelagem de requisitos deve apresentar qualidades que colaborem para a compreensão mútua das necessidades entre os envolvidos no processo e que organizem os requisitos de forma a permitir o acompanhamento no desenvolvimento do software. O presente trabalho apresenta um modelo de estruturação de requisitos fundamentado em metodologias orientadas a objetivos com utilização de cenários e preceitos da Teoria da Atividade. O modelo tem sua argumentação nas premissas que cliente e usuários normalmente expressam suas necessidades através de objetivos almejados e que a ação humana deve ser analisada dentro de um contexto para que possa fazer sentido e ser compreendida. Inserido no contexto do Projeto FILM1, cujo objetivo é expandir o Método Fusion, agregando uma etapa de modelagem de requisitos, o trabalho estabeleceu a qualidade de usabilidade como motivadora da definição de um modelo de estruturação de requisitos. A usabilidade é uma qualidade que visa facilitar a utilização do modelo como uma ferramenta de representação dos requisitos de forma inteligível, atuando tanto na especificação dos requisitos como na validação dos mesmos entre os envolvidos. Os requisitos são estruturados segundo uma abordagem voltada aos clientes e usuários do sistema. O modelo definido tem por objetivo prover a construção gradual e incremental do entendimento compartilhado entre os envolvidos sobre os domínios do problema e da solução, na concepção e no desenvolvimento do software. Metodologias orientadas a objetivos, operacionalizadas através de cenários, conjugadas a princípios da atividade oferecem um suporte adequado a estruturação de requisitos provendo usabilidade ao modelo. A avaliação da aplicabilidade do modelo é realizada com a modelagem de requisitos em três estudos de casos. Em cada caso são aplicadas técnicas de elicitação no sentido da afinar a sintonia com a estrutura do modelo de requisitos. A concepção do modelo, embasada em conceitos da Teoria da Atividade, é bastante adequado às atividades de elicitação em uma abordagem voltada aos clientes e usuários.
Resumo:
A gestão assistencial, cada vez mais, assume a responsabilidade integral do desempenho dos serviços e/ou unidades hospitalares, passando a responder não somente pelo desempenho assistencial como também pelo econômico. Em conseqüência, há maior compreensão do processo e dos recursos consumidos. Assim, os indicadores assistenciais (tempo médio de permanência, taxas de infecção, taxas de óbito) passam a ser as causas mais óbvias e verdadeiramente afins para explicar e revestir os valores econômicos. Todavia, ela necessita de um modelo administrativo que a norteie, possibilitando assim, um gerenciamento sistematizado, científico e qualificado, que atinja as metas traçadas, refletidas nos indicadores de resultado da qualidade assistencial e econômica. Este trabalho teve como objetivo desenvolver um modelo integrado ao Activity-Based Management (ABM) para melhor analisar a eficácia em Serviços de Emergência, buscando através do mapeamento dos processos e custeio das principais atividades, propor o gerenciamento dos Protocolos Clínicos e das Intervenções Terapêuticas - Therapeutic lntervention Scoring System (TISS) pelo método ABM. O desenvolvimento do modelo deu-se em duas etapas: I°) Identificação dos principais serviços prestados e mapeamento dos processos e principais atividades do Plantão Médico do Hospital Mãe de Deus, Porto Alegre -RS; 2°) Desdobramento da análise de Eficiência e Eficácia através de um sistema de informações, onde as entradas consideradas foram os processos, subprocessos e atividades mapeadas e custeadas pelo método Activity- Based Costing (ABe); os processadores foram os protocolos clínicos (ABM estratégico), as rotinas, o TISS e a estatística descritiva (ABM operacional); resultando na saída do sistema a análise da Eficácia (qualidade, tempo e custo) gerando relatórios da Eficácia Assistencial. Considerando-se que na saúde, mesmo contando com a utilização dos melhores recursos e tempos hábeis, existe a probabilidade de desfechos insatisfatórios, o modelo assumiu que para análise da qualidade, a avaliação está embasada num todo, onde se somam basicamente o tempo ideal preconizado para cada situação e a expectativa da utilização otimizada dos recursos (mão-de-obra, materiais, medicamentos, exames e equipamentos). Para análise dos tempos, considerou-se as evidências da obtenção de melhores resultados clínicos. Assim sendo, toda vez que os tempos forem além do preconizado pelos protocolos e rotinas, haverá ineficácia no processo, pois os objetivos assistenciais dos desfechos clínicos serão perturbados. E por fim, na análise dos custos, foram considerados ao mesmo tempo o meio e o fim da quantificação de ociosidade ou desperdício e da qualidade assistencial respectivamente. Fazer as coisas que devem ser feitas, com qualidade a custo menor, proporciona perspectivas de eficácia ao encontro dos objetivos da organização. Como resultados, pode-se constatar que os protocolos clínicos e as intervenções pelo TISS integrados ao ABM e com o uso da estatística descritiva, muito embora não sejam fórmulas rígidas a serem seguidas, mostraram indiscutivelmente a eficácia e a eficiência do processos assistencial, respeitadas as variabilidades de condutas e utilização de recursos explicáveis pela diversidade das doenças.
Resumo:
Tendo em vista a importância das normas ambientais propostas no âmbito da série ISO 14000 e as mudanças nas relações comerciais internacionais que estas normas podem propiciar, esta dissertação se propõe a verificar alterações na natureza da competição no mercado global e, em especial, as expectativas de impacto nas indústrias integradas de papel e celulose do Rio Grande do Sul. Foi apresentada a estrutura da série ISO 14000 e feita uma avaliação de seus impactos nas atividades comerciais, de modo especial no comércio internacional. Foram também estudadas as relações entre tecnologia e meio ambiente, bem como levantados os principais aspectos tecnológicos envolvidos nas discussões ambientais do setor de papel e celulose. Foram analisados os casos das empresas Riocell e Votorantim Pedras Brancas, buscando os dados em fontes secundárias e, através de questionários, junto a especialistas internos às empresas e a uma especialista independente, avalições da realidade atual das empresas. As relações entre as normas e a indústria de papel e celulose foram consideradas usando o modelo de análise estrutural de indústrias proposto por Michel Porter, em seu livro Estratégia Competitiva. Para dar suporte à análise, foi montado um cenário de referência para o ano de 2005. Concluiu-se que a Riocell será bastante afetada por produzir uma commodity exposta à intensa competição internacional. A Votorantim Pedras Brancas, atuando no mercado nacional e produzindo papéis especiais para segmentos restritos, sofrerá um impacto bem menor, no período considerado.
Resumo:
Testes de toxicidade crônica, analisando a inibição de crescimento algáceo após 96 horas, foram realizados a fim de conhecer a sensibilidade de Raphidocelis subcapitata (conhecida como Selenastrum capricornutum), ao sulfato de cobre (CuSO4.5H2O) e do sulfato de zinco (ZnSO4.7H2O). A inibição do crescimento algal seguiu uma tendência exponencial negativa em função do aumento de concentração das duas substâncias, sendo descrita através das seguintes equações: y = 6257208,7. e-5,581.Cu; y = 7003223,1. e- 5,452.Zn; onde y é o número de células de R. subcapitata após 96 horas de exposição a diferentes concentrações de sulfato de cobre e sulfato de zinco, respectivamente. Valores de CE(I)50 demonstraram maior sensibilidade de R. subcapitata ao sulfato de cobre (CE(I)50;96h=0,154 mg.L-1) quando comparada com sulfato de zinco (CE(I)50;96h=0,215 mg.L-1). A densidade algácea foi determinada através de contagem celular e por técnica espectrofotométrica. Foi obtida uma curva de calibração para estimativa de densidade algácea correlacionando valores de absorbância e número de células por contagem, em 684 nm. A curva foi determinada através de um modelo empírico: y = 7,2578.10-8 . x1,0219 (n=130; r2=0,9998); onde y é a medida de absorbância e x é o número de células. A análise de resíduos demonstrou que a equação pode ser utilizada até a densidades de 5.000.000 de células e valores de absorbância até 0,5.
Resumo:
Este trabalho tem por objetivo determinar e avaliar a transmissibilidade da vibração no corpo humano além de desenvolver um modelo numérico de quatro graus de liberdade representativo do sistema banco e corpo humano. Para auxiliar no desenvolvimento deste trabalho foi realizado um resgate de pesquisas publicadas por pesquisadores anteriormente na área de modelamento numérico, além das medições e avaliações da transmissibilidade da vibração no corpo humano. Foram realizadas medições da transmissibilidade da vibração no corpo humano na posição sentado em um banco comumente utilizado para motoristas de ônibus urbanos. As medições foram realizadas ao longo do eixo z, de acordo com as recomendações das normas ISO 2631 (1974 e 1997), utilizando-se de acelerômetros uni-axiais, um computador com placa conversora analógica para digital (A/D), além de programas desenvolvidos na plataforma de programação gráfica HPVee para aquisição dos níveis de vibração e avaliação das transmissibilidades da vibração. A vibração vertical foi simultaneamente medida no corpo humano (direção z – ISO 2631). Para medir os níveis de vibração no assento, na pélvis, no ombro e na cabeça foram utilizados quatro micro-acelerômetros uni-axiais (Endveco Isotron 2250A/AM1-10) enquanto que no piso, foi utilizado um acelerômetro uni-axial da Brüel & Kjaer 4338. O grupo estudado nos experimentos era composto por cinco indivíduos, sendo três homens e duas mulheres. Avaliou-se a transmissibilidade entre o assento do banco e o piso, entre a pélvis o assento, entre o ombro e o assento e entre a cabeça e o assento. Os resultados indicaram que o sistema apresentou uma amplificação da transmissibilidade entre o assento e o piso em até 2,5 vezes, enquanto que, para as demais transmissibilidades (pélvis/assento, ombro/assento, cabeça/assento) houve uma atenuação gradual da transmissibilidade da vibração Um modelo linear de quatro graus de liberdade foi desenvolvido para representar o comportamento biodinâmico de indivíduos brasileiros submetidos à vibração forçada proveniente de sinais medidos em ônibus urbanos brasileiros. O modelo responde simultaneamente de acordo com os dados obtidos experimentalmente da transmissibilidade entre o assento e o piso e entre o ombro e o assento para uma faixa de freqüência de 4 até 40 Hz. Foi desenvolvida uma rotina no Maple 5.5 (anexo 10.4) a qual consiste em ajustar uma curva de transmissibilidade calculada com os limites estabelecidos dos parâmetros biomecânicos definidos nos ensaios biométricos e literatura às curvas de transmissibilidade obtidas experimentalmente. Os resultados indicaram que para a curva de transmissibilidade entre o assento e o ombro o erro foi de 37,78% enquanto que para as curvas de transmissibilidade entre o assento e o piso apresentaram um erro de 17,74 %. Apesar dos valores de erro percentual terem sido relativamente elevados, os valores de ambas as curvas de transmissibilidade numérica apresentaram resultados de ajuste muito próximos às curvas experimentais.
Resumo:
A globalização eliminou, ao longo dos tempos, as fronteiras territoriais para os capitais financeiros e intelectuais e, conseqüentemente, tem exigido dos governos, empresas, administradores e investidores uma enorme variedade de informações para nortear investimentos potencialmente eficientes e geradores de riquezas capazes de atrair e mobilizar esses recursos. Empreendedores modernos, coadunados com essa nova realidade mundial, têm buscado nas teorias da administração financeira elementos importantes na análise de seus planos estratégicos e dos projetos de investimentos, buscando minimizar os riscos e maximizar os recursos financeiros disponíveis e suas estruturas físicas e materiais, além de conhecer e prever os desdobramentos de suas decisões sobre a perpetuidade de suas empresas. Esses novos visionários agregam valor econômico à empresa e aos investidores, pois suas decisões empresariais e de investimentos são tabuladas de forma a projetar seus empreendimentos no longo prazo, afastando, desde já, a insolvência das empresas como suporte sócio-econômico da dinâmica das nações. Os variados modelos desenvolvidos nos campos acadêmicos para as áreas de administração financeira, quer por desconhecimento, descaso dos administradores ou pela complexidade de alguns destes, ainda não foram disseminados para um grande contingente de empresas ao redor do planeta. Certos modelos possuem especificidades restritas ou se prestam a situações especiais. Alguns empreendedores ainda se utilizam dos resultados extraídos da contabilidade tradicional na definição de valor econômico de seus investimentos, de uma maneira geral, dando ênfase aos dados financeiros tradicionais originados na contabilidade Para corrigir está deficiência estrutural, os acadêmicos desenvolveram modelos que, acompanhados dos dados relatados pela contabilidade, da forma como se apresenta na atualidade, complementam e dão suporte aos envolvidos, objetivando a mensuração do valor econômico de seus empreendimentos e a eficiência de suas decisões. Dentre esses variados modelos, pode-se destacar o modelo de fluxo de caixa descontado (DFC), considerado uma ferramenta eficiente para a avaliação de investimentos ao capturar a agregação de valor do projeto no longo prazo e os riscos inseridos no mesmo, muitas vezes negligenciado pelos administradores. O modelo em questão, e os outros mais, serão, sumariamente, conceituados ao longo do presente estudo, buscando identificar as potencialidades de cada um e em que tipo de avaliação pode, ou deve, ser aplicado. Conclusivamente, serão aplicadas todas as premissas abstraídas do modelo DFC, recomendado por COPELAND, KOLLER e MURRIN (2002), ajustado às características da empresa, para conhecer o valor de mercado da Linck Agroindustrial Ltda.
Resumo:
Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.
Resumo:
O trabalho apresenta uma avaliação dos prováveis impactos do escalonamento dos horários das aulas noturnas em uma Universidade. Neste trabalho foi investigada, a preferência dos usuários quanto às possíveis alterações nos horários de entrada de aulas, e os impactos do escalonamento na rede viária no entorno do campus. O trabalho envolveu a construção de diversos cenários de alterações nos horários de início das aulas. Os cenários foram construídos visando atender as preferências da população universitária e reduzir a interferência do pico de chegada de alunos no sistema viário. A avaliação dos impactos destes cenários no tráfego foi realizada através de simulação, com a utilização do modelo TSIS/NETSIM. As análises foram baseadas em dois indicadores de desempenho: a velocidade média e o tempo de atraso médio na rede.
Resumo:
O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.