70 resultados para Probabilidade Implícita

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo objetivou investigar o funcionamento da memória implícita e explícita em deficientes mentais por Síndrome de Down (SD) comparados com indivíduos deficientes mentais de outras etiologias (DM) e crianças de desenvolvimento típico de mesma idade mental (DT). Foram administrados testes de procedimento viso-espacial e pré-ativação para avaliar memória implícita e testes de memória episódica explícita para material verbal e viso-espacial a 12 sujeitos SD, 12 DM e 12 DT. Considerando o sistema de múltiplas memórias, procurou-se investigar quais estariam preservadas ou falhas nos três grupos. Os resultados demonstraram diferenças nítidas entre os grupos. Percebeu-se uma defasagem significativa de memória implícita na SD, um melhor desempenho de memória implícita nos DM e de memória explícita nas crianças DT. Estes resultados revelam um grande prejuízo implícito na SD, mas também defasagem explícita, reforçando a necessidade de estimulação precoce a esta população. Implicações para o trabalho pedagógico serão discutidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trata-se de um estudo descritivo do tipo exploratório que utilizou uma abordagem combinada quantitativa e qualitativa para caracterizar as famílias de crianças em situação de violência intrafamiliar, atendidas pela “Equipe de Proteção às Crianças Vítimas de Maus-tratos e Violência Sexual”, no Hospital de Clínicas de Porto Alegre (HCPA), no ano de 1999. A coleta de dados foi realizada por um roteiro estruturado elaborado pela pesquisadora, constituído de quatro dimensões pré-estabelecidos – sócioeconômica, estrutura e funcionamento familiar, situação atual do abuso do contexto familiar e história pregressa da família – preenchido através dos prontuários e protocolos das crianças atendidas no HCPA. Os dados quantificáveis foram analisados com auxílio da estatística descritiva, e os qualitativos pelo método de análise de conteúdo, segundo Bardin (2000). Assim formaram sete categorias: organização familiar, relacionamento familiar, percepção dos adultos sobre a criança vítima de violência, justificativas de utilização da violência, ações maternas frente à violência, motivos da procura do serviço de saúde e a trajetória da família na instituição hospitalar. A maioria das famílias pesquisadas possuíam precária inserção sócioeconômica com baixo nível de escolaridade, desempregadas, inseridas no mercado formal e/ou informal. Eram predominantes da região central de Porto Alegre, demonstrando uma diversidade de arranjos e fragilidade nas relações familiares, com confusão de papéis e disputa de autoridade. Algumas famílias registraram ausência da figura paterna Características importantes constatadas entre os adultos: progenitores adolescentes, jovens, vivendo responsabilidade de adulto, o elevado padrão do uso abusivo de drogas, presença de aleitamento materno e gravidez não desejada. Houve um predomínio de negligência em relação a outras formas de violência praticadas, sendo que o ato violento foi cometido de forma intencional, mas o agressor não apresentava justificativa para o fato. A mãe configurou-se como a maior agressora e, simultaneamente, a principal cuidadora da criança. Nesse estudo, a criança mais atingida foi a do sexo masculino, raça branca, evidenciando lesão e apresentando longo período de convivência com o agressor que sempre era alguém muito próximo a ela. As famílias envolvidas procuraram atendimento de forma espontânea, mas a queixa de violência estava implícita. A pesquisa permitiu contextualizar a violência como social e histórica, presente em larga escala na sociedade brasileira uma sociedade desigual na qual se pratica violência dentro da família contra a criança, legitimando uma forma de poder estruturante nas relações sociais e na interação com fatores individuais econômicos e culturais. Assim, verificou-se a fundamental importância da atuação do enfermeiro no enfrentamento da problemática questão da violência intrafamiliar contra a criança.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Sistemas de Informação Geográfica (SIG) são construídos, especificamente, para armazenar, analisar e manipular dados geográficos, ou seja, dados que representam objetos e fenômenos do mundo real, cuja localização em relação à superfície da Terra seja considerada. A interoperabilidade desses sistemas, que constitui-se na capacidade de compartilhar e trocar informações e processos entre ambientes computacionais heterogêneos, se faz necessária, pois, devido ao elevado custo de aquisição dos dados geográficos, as comunidades de informação precisam compartilhar dados de fontes existentes, sem a necessidade de fazer conversões. Porém, pela complexidade e incompatibilidades de representação, de estrutura e de semântica das informações geográficas, a maioria dos softwares de SIG, hoje, não são interoperáveis. Existe também, além do problema da não interoperabilidade, uma crescente preocupação com relação à qualidade e à integridade espacial dos dados geográficos. Contudo, alguns modelos conceituais de dados geográficos e os softwares de SIG não oferecem, ainda, os meios adequados para representar e garantir a integridade espacial das informações. As restrições de integridade definidas durante a fase de projeto conceitual, normalmente, são implementadas durante o projeto físico, seja de forma implícita ou explícita, podendo ser incorporadas diretamente no modelo de implementação do SIG, de forma que o usuário da aplicação apenas mencione a regra e o sistema a implemente e a garanta automaticamente.Este trabalho de pesquisa propõe uma extensão ao Modelo Abstrato OpenGIS, modelo este que deve ser um padrão de interoperabilidade de software para SIG. A extensão proposta incorpora ao mesmo um subconjunto de tipos de restrição espacial, buscando com isso oferecer melhor suporte às regras da realidade geográfica expressáveis na modelagem conceitual do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de uma metodologia para a avaliação de critérios de outorga do uso da água na bacia do rio Santa Maria. A escolha da bacia do rio Santa Maria se deve ao fato da existência de conflitos pelo uso da água, principalmente durante o verão, quando surge a demanda de água para o cultivo do arroz. A carência de dados hidrológicos, a existência de um grande número de pequenos reservatórios e a sazonalidade das demandas fazem da bacia do rio Santa Maria um caso interessante de ser estudado. É comentado o processo de evolução da outorga através das legislações, a situação atual em que se encontra a implementação deste instrumento, quais as tendências e fica estabelecida uma forma de comparação de diferentes critérios. A análise é feita de forma sistêmica (admitindo a bacia hidrográfica como unidade de planejamento) com o uso de modelos matemáticos de avaliação e gestão, particularmente modelos de simulação hidrológica, em conjunto com dados experimentais sobre o efeito de água no rendimento das culturas. A avaliação de diversos valores de outorga levando em consideração bases econômicas como custos de plantio, preços de mercado dos produtos e recorrência das falhas de atendimento associada à probabilidade de ocorrência de rendimentos líquidos não negativos revela um modelo de utilização otimizado dos recursos hídricos superficiais da bacia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os primeiros estudos sobre previsão de falência foram elaborados por volta da década de 30. Entretanto, o assunto só ganhou impulso a partir da utilização de técnicas estatísticas, ao longo dos anos 60. No Brasil, os primeiros trabalhos sobre o assunto datam dos anos 70. A esse respeito, vale destacar que a técnica estatística empregada em grande parte destes estudos foi a análise discriminante linear multivariada. Na tentativa de contribuir para o tema, este trabalho se propõs a testar um modelo de previsão de concordatas de empresas de capital aberto, a partir da modelagem desenvolvida por Cox (1972). Esse modelo se diferencia daqueles estimados a partir de técnicas logit, probit e análise discriminante na medida em que fornece não apenas a probabilidade de que um determinado evento ocorra no futuro, mas também uma estimativa do tempo até sua ocorrência. A análise dos resultados demonstrou que é possível identificar, antecipadamente, o risco de concordata de uma empresa de capital aberto. Nesse sentido, acredita -se que o modelo de Cox possa ser utilizado como auxiliar na previsão de concordatas de companhias abertas operando na Bolsa de Valores de São Paulo – Bovespa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma metodologia para a geração automática de ASICs, em VHDL, a partir da linguagem de entrada Java. Como linguagem de especificação adotou-se a Linguagem Java por esta possuir características desejáveis para especificação a nível de sistema, como: orientação a objetos, portabilidade e segurança. O sistema é especificamente projetado para suportar síntese de ASICs a partir dos modelos de computação Máquina de Estados Finita e Pipeline. Neste trabalho, adotou-se estes modelos de computação por serem mais usados em sistemas embarcados As principais características exploradas são a disponibilização da geração de ASICs para a ferramenta SASHIMI, o alto nível de abstração com que o projetista pode contar em seu projeto, as otimizações de escalonamento realizadas automaticamente, e o sistema ser capaz de abstrair diferentes modelos de computação para uma descrição em VHDL. Portanto, o ambiente permite a redução do tempo de projeto e, consequentemente, dos custos agregados, diminuindo a probabilidade de erros na elaboração do projeto, portabilidade e reuso de código – através da orientação a objetos de Java – podendo-se proteger os investimentos prévios em desenvolvimento de software. A validação desses conceitos foi realizada mediante estudos de casos, utilizando-se algumas aplicações e analisando os resultados obtidos com a geração dos ASICs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estado dos recursos hídricos da bacia do rio Gramame, localizada no litoral sul do Estado da Paraíba, tem se revelado insustentável, principalmente nesses últimos anos. Tanto a escassez quantitativa quanto a qualitativa inserem-se no contexto da bacia, tornando frreqüentes os conflitos entre os principais usuários de água (abastecimento urbano, indústrias e irrigantes). Em virtude disso, surge a necessidade de implementação de um sistema de outorga na bacia, para uma alocação eficiente das disponibidades hídricas. Neste trabalho, foram abordados os principais problemas para essa implementação: (a) a definição da vazão m[axima outorgável; e (iii) a intrtodução dos aspectos qualitativos da água. Par ao primeiro problema, foram estabelecidos e avaliados como passíveis de emprego na bacia os seguintes critérios de outorga: (a) vazão excedente; (b) garantia de suprimento; (c) vazão de referência com probabilidade de superação de 90% (Q90); (d) 2 vazões de referência Q90 para as estações seca e chuviosa e (e) 12 vazões de referência Q90 referentes a cada mês do ano. No tocante à qualidade da água no processo de outorga, foi verificada a sensibilidade do sistema hídrico e suas demandas à consideração dos poluentes lançados nos cursos dágua da bacia como demanda para diluição da concentração de Demanda Bioquímica de Oxigênio (DBO). ALém disso, foi abordado, de forma simplificada, o processo de autodepuração da DBO, através de coeficientes de depuração, visando avaliar a relevância das vazões liberadas para novoo usos nas seções à jusante dos deesejos de efluentes. Através da comparação dos parâmetros de desempenho (garantia volumétrica, garantia temporal, garantia crítica temporal, garantia volumétrica mensal mínima, resiliência e vulnerabilidade) obtidos da simulação de cada cenário da bacia, de ocorrência em curto prazo, foram avaliados os critérios de outorga e a introdução da qualidade da água. Priorizando o atendimento das demandas para abastecimento urbano, em ordem crescente de redução do suprimento das demandas existentes na bacia, os critérios de determinação da vazão máxima outorgável puderam ser ordenados como: vazão excendente, vazões de referência mensais, vazões de referência das estações seca e chuvosa, vazão de referência única e garantia de suprimento. Quanto à consideração das demandas para diluição de despejos, verificou-se que, de modo geral, estas poucos reduziram o suprimento das demandas já instaladas na bacia e também não foram significativas as vazões liberadas pela autodepuração a ponto de melhorar o atendimento das seções por ela afetadas. Entretanto, excetuando a demanda para diluição dos efluentes domésticos do município do Conde, foi verificada a inviabilidade de suprimento dos atuais lançamentos de efluentes na bacia, cujo percentual de atendimento não atingiu 50% do volume requerido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hipotetiza-se que haja sinergismo na associação de herbicidas inibidores do fotossistema II e da síntese de carotenóides, pelos seus mecanismos de ação específicos. Com o objetivo de demonstrar a existência de sinergismo na associação de herbicidas pertencentes a estes dois grupos foram conduzidos trabalhos em laboratório, casa-de-vegetação e a campo. Em laboratório avaliou-se a interação de metribuzin e clomazone através da estimativa do estresse oxidativo gerado pela associação, em plantas de girassol, com a determinação dos níveis de malondialdeído e extravasamento eletrolítico. Em casa-de-vegetação, plantas de girassol foram tratadas com os mesmos herbicidas e foram tomadas amostras para eletromicrografias que produziram visualização dos cloroplastos tratados e não tratados. Também foram aplicados tratamentos a fim de permitir a formação de curvas de resposta às doses dos mesmos herbicidas, com a representação das doses causadoras de 50% de efeito em isobologramas. Avaliou-se também o impacto da associação metribuzin e clomazone sobre as relações de interferência entre soja e girassol, pelo delineamento dialélico A campo foram conduzidos experimentos de controle de Bidens pilosa infestando a cultura da soja com os herbicidas metribuzin e clomazone. Para avaliar a seletividade das associações, conduziu-se experimentos com a cultura da soja, onde testou-se metribuzin e clomazone e com a cultura do milho, testando-se atrazine e isoxaflutole. Nos trabalhos com malondialdeído, extravasamento eletrolítico e eletromicrografias, obteve-se sinergismo valendo-se do método de Colby. No ensaio de curvas de resposta, a variável massa seca apresentou probabilidade de sinergismo de 0,90 em uma combinação. No dialélico, a associação dos produtos reduziu a tolerância da soja ao metribuzin e à sua associação com clomazone. No controle de B. pilosa, as variáveis percentual de cobertura e controle demonstraram sinergismo pelo método de Limpel. Na avaliação de seletividade, não se observou nenhum dano resultante da associação dos herbicidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de uma emergência por pacientes com problemas médicos eletivos contribui para a demanda excessiva e impede de acesso a pacientes com emergência verdadeira. O presente estudo se propôs: (1) investigar as características do usuário da emergência em relação a aspectos demográficos, local de moradia e tempo que apresenta os sintomas que o levaram a consultar; (2) identificar as diferenças da demanda entre o final de semana e durante a semana; (3) investigar a prevalência de saúde mental, alcoolismo, doença coronariana e hipertensão; (4) avaliar como é a utilização e o acesso a serviços de saúde para pacientes que referem ter um médico definido em comparação com quem refere não ter; (5) avaliar a satisfação dos pacientes com o atendimento na emergência e (6) verificar se o atendimento através de um médico definido ou em serviço de atenção primária em saúde diminui o afluxo de casos não urgentes aos serviços de emergência. Foi realizado um estudo transversal na Emergência do Hospital N.S. da Conceição de Porto Alegre (RS) no período de 6 de janeiro a 25 de junho de 1996, tendo sido incluídos 20 dias escolhidos entre o meio-dia de sábado e o meio-dia de domingo, para caracterizar a demanda do final de semana, e o meio-dia de segunda-feira e meio-dia de terça-feira, para a dos outros dias. Fizeram parte da amostra 553 pacientes selecionados através de amostragem aleatória sistemática, com uma taxa de resposta de 88%. A coleta de dados consistiu de questionário de 156 questões aplicado aos pacientes. O registro e análise dos dados foram realizados utilizando-se os programas Epi-Info, EGRET e SPSS. As análises incluíram tabulações simples para determinação de prevalência das condições investigadas e regressão logística para avaliar o efeito conjunto das variáveis independentes sobre cada uma das variáveis dependentes. A população que freqüenta a emergência do HNSC é composta de jovens, predominantemente do sexo feminino, mora em Porto Alegre (especialmente, no bairro Sarandi) e na Grande Porto Alegre (especialmente, Alvorada), desloca-se preferencialmente de ônibus até o serviço de emergência, vem acompanhada, na maioria das vezes, de algum familiar, e a maioria decide consultar por iniciativa própria ou por indicação de algum familiar. Os homens internam com maior freqüência. Os serviços de atenção primária representaram 23% do atendimento habitual dos pacientes. As consultas foram definidas pelos emergencistas como de emergência em 15% dos casos, de urgência em 46%, e programáveis em 39% poderiam ser programadas. A prevalência de hipertensão foi 19%; de angina, 13%; de alcoolismo, 16%; de problema psiquiátrico menor, 32% entre os homens e 51% entre as mulheres (p< 0,0001). Como desfecho da consulta, 73% dos pacientes foram encaminhados para o domicílio ou para um serviço especializado, 10% foram para sala de observação e para apenas 5% foi indicada a internação. A maioria dos pacientes referiram estar satisfeitos com o atendimento. Os que consultaram no final de semana apresentaram, em média, um tempo menor de sintomas até decidir consultar, um menor tempo de deslocamento até o serviço de emergência, maior satisfação, média de idade maior, maior proporção de moradores de Porto Alegre e foram levados de carro até a emergência mais do que aqueles que consultaram durante a semana. O modelo de regressão logística identificou as variáveis independentes determinantes de ter um médico definido: consulta habitual em atenção primária em saúde (RC=3,22 IC95%=2,04-5,09), consulta definida como emergência ou urgência (RC=2,46 IC95%=1,55-3,92) e afastamento do trabalho (RC=1,59 IC95%= 1,03-2,45). Este resultado demonstra que o paciente que habitualmente consulta em serviços de atenção primária tem mais probabilidade para ter a continuidade no atendimento. A consulta ser de emergência ou de urgência apresentou associação significativa com as seguintes variáveis independentes, após ser colocada num modelo de regressão logística: pacientes internados ou em observação (RC=5,80 IC95%=3,33-10,17), costume de consultar com o mesmo médico (RC=2,98 IC95%=1,84-4,80) e ida de carro até a emergência (RC=2,67 IC95%=1,75-4,05). A variável hábito de consultar em serviço de atenção primária deixou de ficar estatisticamente significativa ao ser colocada no modelo de regressão logística. Este resultado revela que pacientes com médico definido têm três vezes mais chances de consultar por um problema de emergência no serviço de emergência do que aqueles que não têm um médico definido. Assim, uma estratégia para reduzir a ocorrência de consultas não urgentes em serviços de emergência é o paciente ter tal vínculo. No entanto, aqueles pacientes que referiram o posto de saúde como local onde habitualmente consultam não evitam, necessariamente, a utilização de um serviço de emergência por motivo considerado como programável. É necessário otimizar o atendimento de pacientes com problemas não urgentes que chegam à emergência através de estratégias no nível de atenção primária – especialmente possibilitando o atendimento médico continuado -, onde uma abordagem integral com ênfase na prevenção garanta um atendimento de melhor qualidade e custo menor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Setor Metal-Mecânico da indústria de Caxias do Sul, a exemplo da indústria nacional, apresentou variações positivas de produtividade da mão-de-obra para todos os seus gêneros produtivos, no período 1995/2000. No entanto, as taxas de crescimento oscilaram significativamente entre os gêneros, indicando a existência de diferenças de desempenho entre eles. O desempenho das empresas depende da eficiência do emprego da tecnologia de produção e as diferenças podem estar associadas às mudanças organizacionais, decorrentes da reestruturação produtiva motivada pela abertura comercial, e levadas a cabo pela adoção de medidas que busquem a qualificação dos processos produtivos das empresas para aumentar a competitividade nos mercados interno e externo. Buscou-se, nesse estudo, mensurar a eficiência técnica do setor Metal- Mecânico de Caxias do Sul, analisando a evolução dos seus níveis, no período 1995/2000, e a capacidade das medidas de qualificação adotadas em aumentar a eficiência das empresas. Para tanto, utilizou-se a técnica da estimação da função de produção de fronteira, a partir da qual se estimaram os níveis de eficiência técnica dos gêneros produtivos do Setor. Além disso, avaliou-se a capacidade das medidas de qualificação em aumentar a probabilidade das empresas obterem eficiência, através da estimação de um modelo probit. Constatou-se que a eficiência técnica dos gêneros produtivos do Setor é alta e seus níveis se elevaram, significativamente, no período 1995/2000. Ao mesmo tempo, constatou-se que o treinamento de mão-de-obra, a busca de assessoria/consultoria externa, a exigência de certificação de qualidade para fornecedores e a importação de matérias-primas são medidas que aumentam a probabilidade das empresas do Setor se tornarem mais eficientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.