987 resultados para Modelo de Variância Mínima


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mundialmente, eventos relatados constituídos por incidentes e acidentes em radioterapia, tem aumentado ao longo dos últimos 25 anos e a maioria destes eventos são resultados de falha humana, além de terem ocorrido com maior frequência em centros sofisticados que utilizam alta tecnologia. Em radioterapia a Gestão da Qualidade necessita de uma abordagem prospectiva através de análise de risco. Esta abordagem é defendida por recentes publicações por ser atualmente uma urgência em virtude do expressivo número de acidentes ocorridos. Dada a complexidade do processo em radioterapia, a busca pela qualidade do tratamento de forma a garantir a segurança do paciente é um dos assuntos mais discutidos mundialmente. Embora apenas 14% dos centros de radioterapia no Brasil ofereçam tratamentos com a técnica de radiocirurgia intracranial (SRS), estudos relativos a qualidade do tratamento relacionada a segurança do paciente submetido à esta técnica, é de relevante importância, pois qualquer desvio da dose prescrita é considerado muito mais crítico que em outras modalidades de tratamento radioterápico, já que são utilizadas altas doses de radiação que em geral variam de 10 Gy a 40 Gy para lesões até 50 mm de diâmetro, que são aplicadas em uma única fração ou até cinco frações. Tendo em vista tais conhecimentos, o objetivo deste trabalho foi atender um novo paradigma de Gestão da Qualidade, através do desenvolvimento de um modelo de análise de risco e de um Índice de Qualidade para a SRS no Brasil, a partir da técnica de Mapa do Processo e FMEA utilizadas pelo TG 100/AAPM. O trabalho foi desenvolvido em três centros de radioterapia de referência em alta tecnologia, dois localizados no Rio de Janeiro e um em São Paulo. Um Mapa do Processo de SRS foi identificado em cada centro de radioterapia e em seguida foi aplicada a técnica FMEA para todos os subprocessos identificados no mapa. A partir dos valores de NPR obtidos pela FMEA foi realizado um ranqueamento dos modos de falha. Modos de falha com NPR ≥ 100 e S ≥ 7 foram escolhidos como prioridade para implementação de estratégias de segurança. A partir das pontuações do parâmetro S atribuídas na aplicação da FMEA foi criado o Índice de Severidade (IS) e um Índice de Qualidade (IQ) foi criado a partir de uma relação entre o NPR e o IS. O resultado deste estudo, indica que as estratégias de segurança sejam implementadas para os 10 primeiros modos de falha do ranking e uma reavaliação do processo deve ocorrer a cada 1 ano. É também indicado que o IQ obtenha uma melhora mínima de 9% após a reavaliação do processo. De forma geral, o estudo mostrou que a adoção da ferramenta FMEA juntamente com o IQ são de fato justificadas, por minimizar os riscos para o paciente, melhorando a qualidade do tratamento aprimorando a segurança, criando mecanismos que permitam a garantia de que a dose será entregue de forma precisa e exata, e consequentemente, aumentando as chances de cura ou do controle local com uma desejada qualidade de vida para estes pacientes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nas últimas décadas as instituições de ensino superior têm sido alvo de uma pressão crescente para aumentar a sua eficiência e a sua eficácia. Fatores como a diversificação da oferta formativa, a massificação, o aumento da internacionalização, entre outros, conduziram a uma maior monitorização das instituições e, por sua vez, geraram o desenvolvimento de novos sistemas de informação. A constante solicitação de informação, quer pelo Estado, quer pelo mercado constitui a base para a definição do objetivo desta investigação: construir um modelo integrado de medição e gestão de desempenho para as universidades públicas e testá-lo no universo português. Para a construção conceptual deste modelo foi realizada uma revisão da literatura baseada em diferentes contextos: organizacional, europeu e nacional. Este modelo foi depois aplicado às universidades públicas portuguesas recorrendo a dados disponibilizados por entidades públicas, tendo em conta a área de educação e formação (CNAEF). Uma análise descritiva aos dados constituiu uma contribuição desta investigação para a prática, no sentido de que permitiu fornecer um conjunto de recomendações às universidades e às entidades oficiais responsáveis pela recolha de dados a nível nacional, relativamente aos sistemas de informação e processos de recolha de dados. O modelo proposto constitui a contribuição teórica desta investigação, no sentido de que integra, no mesmo modelo, as diferentes dimensões de desempenho, a visão dos diferentes stakeholders, quer no contexto do ensino, quer no da investigação, quer no da própria gestão da universidade. A vertente analítica deste modelo, representada pelas diferentes relações entre os grupos de indicadores, foi testada recorrendo à técnica de análise de equações estruturais baseada na variância (nomeadamente Partial Least Squares) em quatro áreas CNAEF. Os resultados demonstraram que o comportamento em termos de medição e gestão de desempenho difere consoante a CNAEF, identificando um maior ajustamento às áreas hard e evidenciando que as áreas soft necessitam de indicadores mais ajustados às suas especificidades.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente tese reflete sobre os temas do desenvolvimento sustentável, da sustentabilidade corporativa, da responsabilidade social corporativa e das dimensões do Triple Bottom Line. O principal objetivo do nosso trabalho é contribuir para o conhecimento das relações que se estabelecem nas interseções entre a dimensão económica, social e ambiental da sustentabilidade corporativa, aqui designadas de relações híbridas. Neste sentido, desenvolveu-se um enquadramento teórico que fundamenta o modelo proposto, designado por Hybrid Bottom Line. De acordo com este enquadramento procurou-se conceber uma metodologia que permitisse analisar como é que estas relações de interseção entre economia-ambiente e economia-social se verificam e de que forma os seus resultados podem beneficiar a compreensão, avaliação e melhorias no entendimento da sustentabilidade corporativa, bem como possibilitar uma análise dirigida a fatores recombinantes específicos. Em complemento, foi desenvolvida uma proposta que permite posicionar o esforço desenvolvido pela empresa no âmbito da sustentabilidade e desta forma tipificar as suas ações. Nesta tese a abordagem empírica recaiu na análise dos relatórios de sustentabilidade publicados pelas empresas e baseados nas diretivas de relato propostas pelo Global Reporting Initiative. A amostra para o estudo abrangeu um total de 85 empresas de diferentes dimensões de 36 sectores económicos e representando 36 países de 5 continentes. A análise dos resultados foi feita utilizando diversos métodos de análise de dados (de frequência e de conteúdo) e análises estatísticas (análise de contingência, variância e de correspondências múltiplas) que permitiram observar as relações entre as dimensões do Triple Bottom Line, dando lugar à construção de uma matriz de relações híbridas. Seguidamente foi realizada uma análise longitudinal de uma das empresas da amostra tendo como referência a matriz híbrida obtida, assim como a tipificação da empresa no âmbito da sustentabilidade. Os resultados alcançados nas diferentes fases indicam que o enquadramento teórico que foi utilizado é útil para a análise das interseções entre as dimensões e permite uma avaliação dirigida a fatos ocorridos entre pares dimensionais, bem como projetar análises e posicionamentos futuros. Os resultados obtidos sugerem que a proposta apresentada é útil e deverá ser utilizada e desenvolvida noutros contextos. Esta tese contribui para a ideia de que a responsabilidade corporativa não deve ser só vista e operacionalizada como uma realidade de dimensões segmentadas mas também deve ser observada como um conjunto possível de interações que se manifestam nas interseções das suas diferentes dimensões.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O galgamento oceânico é um fenómeno associado à interação de ondas com estruturas marítimas. Nesta dissertação estudou-se o galgamento em estruturas marítimas verticais através da aplicação do modelo numérico AMAZON, que é um modelo bidimensional, baseado na resolução das equações não lineares de águas pouco profundas. Para validar a sua aplicação a estruturas marítimas verticais impermeáveis, os resultados de caudal médio galgado obtidos com o modelo AMAZON foram comparados com os resultados de ensaios em modelo físico bidimensional realizados anteriormente e disponíveis na base de dados do projeto europeu CLASH. Os resultados foram ainda comparados com os das fórmulas empíricas e semi-empíricas de Van der Meer & Bruce de 2014, de Goda de 2008 e de Hedges & Reis de 2015. Antes da sua validação, o modelo foi calibrado utilizando um dos ensaios do CLASH. Para tal, realizou-se uma análise de sensibilidade a alguns parâmetros do modelo, concretamente da dimensão mínima da malha, da escala de aplicação do AMAZOM (à escala reduzida ou à do protótipo), da forma de modelação da parede vertical, já que, dado este modelo ser integrado na vertical, não é possível considerar paredes verticais sem utilizar um artifício de cálculo, dos valores de alguns dos parâmetros de entrada do modelo (profundidade mínima molhada e a profundidade mínima de fricção) e da dimensão do domínio de cálculo. Os resultados da calibração do AMAZON mostram que, por causa da precisão do modelo para os menores caudais médios de galgamento, se deve aplicar o modelo à escala do protótipo. Para estruturas verticais, a aproximação que o modelo faz, por defeito, para a secção vertical da estrutura através de um talude fictício a 10:1 apresenta melhores resultados que a utilização de um talude a 20:1. Contudo, ambos requerem a adoção de uma dimensão da malha bastante reduzida nesta zona e na sua vizinhança (0.03 m). No caso em estudo, os dois parâmetros de entrada do modelo não têm impacto significativo nos resultados, ao contrário do domínio de cálculo que, tal como recomendado na literatura de referência, se deve iniciar (fronteira de entrada) a aproximadamente um comprimento de onda do pé da estrutura. Os resultados obtidos mostram que, em geral, o AMAZON subestima o valor medido do caudal médio galgado com erros relativos variáveis entre -91% e -49%; apenas para um caso o modelo sobrestima o caudal médio, com um erro relativo de 43%. Quando comparado com as formulações empíricas e semi-empíricas, a fórmula de Van der Meer & Bruce apresenta melhores aproximações aos caudais médios medidos que constam na base de dados do CLASH, seguida da fórmula de Goda e dos resultados do modelo AMAZON, embora estes dois últimos apresentem valores bastante próximos. Assim, uma vez que o modelo está em constante desenvolvimento, espera-se que no futuro seja uma ferramenta mais poderosa. Contudo, enquanto não se fizerem melhorias no modelo e/ou não se estender a outros ensaios a análise feita no âmbito desta dissertação, os resultados sugerem que não há vantagem na sua utilização face às formulações empíricas e semi-empíricas disponíveis, tendo também em conta o significativo tempo computacional exigido para executar o AMAZON com a dimensão da malha escolhida.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El manejo sostenible de pesquerías es todavía un problema abierto y la teoría de viabilidad ofrece una alternativa para determinar políticas de manejo de los recursos que garanticen la sostenibilidad, una vez definidas las restricciones que determinan los estados sostenibles del sistema. La dinámica poblacional de la anchoveta peruana se modeló usando un modelo estructurado por edades tipo Thomson–Bell con capturas discretas acoplado con el modelo de reclutamiento de Ricker, con pasos semestrales entre los años 1963–1984. Se definió además un conjunto deseable de estados sostenibles, asociado a los niveles del stock y capturas que satisfacen restricciones ecológicas, económicas y sociales previamente definidas. En base a esto se calculó el conjunto de los estados del stock para los que existe un sucesión de capturas que permiten mantenerlo en un estado sostenible (conjunto denominado núcleo de viabilidad) y una familia de conjuntos de capturas viables, que corresponden a todos los niveles de captura que se puedan aplicar sobre cada estado del stock de manera tal que éste se mantenga dentro del núcleo de viabilidad, es decir, permanezca en un estado sostenible. Se encontró una condición suficiente para la existencia de un núcleo de viabilidad no vacío: que la cuota social (captura mínima para mantener en funcionamiento la pesquería) sea menor a un desembarque de 915 800 t semestrales. Se comparó la serie histórica de capturas con las obtenidas a partir de la teoría de viabilidad para el periodo 1963 - 1984, encontrándose que hubo sobrepesca desde finales de 1968, lo que conllevó al colapso de la pesquería durante El Niño de 1972-1973. A partir de los resultados de viabilidad, se definieron 5 estrategias de manejo pesquero (E1–E5) para la anchoveta peruana, concluyéndose que la estrategia precautoria viable media (E5) hubiera podido evitar el colapso de la pesquería de anchoveta, manteniendo además niveles aceptables de pesca. Además, la estrategia precautoria del ICES (E2) no aseguró la sostenibilidad del stock durante los periodos El Niño. Además, se concluye que hubiera sido necesaria una veda de un año después del colapso de la pesquería para que el stock regresara al núcleo de viabilidad, posibilitando un manejo sostenible en adelante. La teoría de la viabilidad, con el núcleo de viabilidad y las capturas viables asociadas, resultaron ser herramientas útiles para el diseño de estrategias de manejo que aseguran la sostenibilidad de los recursos pesqueros.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Buscar información referente a ciertos problemas de conducta y aprendizaje. Estudio sobre la disfunción cerebral mínima destacando la importancia de la labor pedagógica que se debe realizar en el sujeto, previo conocimiento del problema subyacente. Divide el trabajo en cinco apartados. En el primero de ellos aborda la problemática de la Disfunción Cerebral Mínima, el confusionismo terminológico del concepto y las características propias de este síndrome, en especial las referentes a problemas conductuales y de aprendizaje. En el segundo apartado esclarece la ingente cantidad de terminología y de definiciones sobre el problema y cómo cada autor le pone nombres y apellidos haciendo hincapié en el síntoma que le parece más importante. En el tercer apartado se refiere a aquellos síntomas que aparecen con más frecuencia y como cada uno de ellos puede dar lugar a un síndrome o cuadro clínico distinto, llegándose a contabilizar tantos como síntomas aparecen descritos. El cuarto apartado aborda el tema del pronóstico y la terapia. El último aparatado esta dedicado a un caso concreto de una niña de seis años con este problema, en el que realiza un breve análisis de la situación familiar así como una valoración general de la niña. Para finalizar expone una parte del trabajo de rehabilitación realizado con la niña. Estudio teórico. 1) Las conductas que se manifiestan como anormales en algunos niños, sirven de pautas para su catalogación como niños con DCM 2) Si la educación es el máximo potencial de una nación ¿no puede llegar a pensarse que las clasificaciones de 'niños torpes' o cualquier otro símil, como DCM, pueden muy bien ser, en muchas ocasiones, una forma de dominio de unas clases sociales sobre otras?3) Los autores que tratan el tema de la DCM pueden dividirse en dos grupos: organicistas (modelo médico) y no-organicistas(se preocupan del comportamiento centrándose fundamentalmente en el tratamiento de la conducta). 4) La palabra puede remplazar con éxito el refuerzo incondicionado y, mediante el refuerzo constante de una señal condicionada a través de una instrucción verbal, es posible establecer una nueva conexión temporal, tan eficazmente como el reflejo incondicionado (alimenticio o defensivo). 5) La escuela normal no suele ofrecer una educación como para hacerse cargo de niños con estos déficits, pero tampoco se cree conveniente la inclusión de estos niños en un centro para deficientes ya que esto les privaría de estímulos de superación. 6) De toda persona siempre se puede esperar y conseguir un poco más de lo que los CI nos presentan. 7) Ante un posible diagnóstico de DCM será necesario hacer un profundo análisis de Todo el contexto que rodea al sujeto clasificado como tal; es decir, procurar deslindar y aclarar aquello que realmente tienen 'desajustado' o 'disfuncionado' y todo aquello que resulta de una dispedagogía, de un contexto socio-económico adverso, de un tipo de educación no adecuado al individuo. 8) Este concepto se sitúa dentro de los límites de la psiquiatría infantil, recibiendo cooperaciones de neurólogos que, para su desgracia, pretenden aportar su granito de arena al desconcertado campo de la psiquiatría, al que si algo le sobra es precisamente arena.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Verificar experimentalmente la utilidad diagnóstica del test guestaltico visomotor para niños en sujetos afectados de disfunción cerebral mínima. Analizar la fundamentación diagnóstica del mismo, detallando los procesos psicológicos y los mecanismos neurológicos implicados en su ejecución por un niño. El trabajo se realizó con una muestra reducida; 84 sujetos afectados por diversos desórdenes cerebrales; dividida en dos grupos: 1. Niños de 6 a 11 años con lesiones o desórdenes graves. 2. Niños de 6 a 11 años con disfunción cerebral mínima, pacientes de la Residencia Ntra. Sra. Del Rosell (Cartagena). Se revalidó el test en niños afectados por desórdenes cerebrales graves (recomprobación de los resultados de Koppitz en sus diferentes investigaciones con niños de Educación Especial desde el año 1963). Los criterios diagnósticos del TGVM se trasladaron al campo de los niños afectados con disfunciones cerebrales mínimas para validarlos en este tipo de poblaciones. Desde el punto de vista neuropsicológico se realizó un estudio minucioso de los procesos y mecanismos neurológicos y psicológicos implicados en la ejecución del test, utilizando el metodo del análisis sistemático de tareas para deducir las implicaciones de aquellos en cada paso o fase de ejecución de la prueba. Electroencefalogramas. Test guestáltico visomotor para niños (versión E.M. Koppitz). Protocolo 'ad hoc' de diagnóstico de la disfunción cerebral mínima en niños según modelos de Crukshank (1980) y Vallet (1979). Análisis sistemático de tareas (modelo Riviére). Test Factor G de Catell (nivel I). Se emplearon dos metodologías: 1. Empírico-cuantitativa. 2. Cualitativa. Para el primero se empleó: A) Técnicas estadísticas bivariantes (recuento de frecuencias; Chi-square). B) Técnicas estadísticas multivariantes (análisis factoriales de correspondencias (modelo Benzecri). Para el método cualitativo se empleó: A) Análisis de tareas de ejecución. B) Observación sistemática de las ejecuciones. El primer método utilizado revela la buena disposición del TGVM en el diagnóstico neuropsicológico de la disfunción cerebral mínima. La aparición en el test de 4 o más de 4 indicadores de desorden cerebral es suficientemente predictiva de la existencia de DCM. El análisis de tareas, como eje central del segundo método, permitió descubrir la cadena procesal a que da lugar la ejecución del test y las funciones neuropsicológicas de la percepción visomotriz más afectadas por causa de la DCM. El TGVM es un buen predictor de las disfunciones cerebrales mínimas no aparentes en los estudios electroencefalográficos o aparentes sólo en términos dudosos e inespecíficos. Es un adecuado evaluador de la madurez en la percepción visomotriz en niños con DCM.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O processo de regeneração neural do modelo experimental em nervo mediano foi estudado em 34 ratos da raça Wistar, os quais foram submetidos à micro-neurorrafia término-terminal, sendo analisada a força de preensão do membro anterior e realizada a biópsia para análise morfométrica dos pós-operatórios 10° (8 ratos), 20° (5), 30° (5), 45° (8) e grupo controle não operado (8). Foi aferida a força negativa de preensão com o membro anterior e morfometricamente analisadas a contagem do número de fibras mielinizadas, seu diâmetro, períme-tro e área bem como espessura da bainha de mielina. O teste paramétrico de análise de variância foi utilizado para avaliação do número de fibras, diâmetro, perímetro e área bem como para as comparações de força e espessura da bainha de mielina entre os diferentes grupos. Uma média de 16,62 g (10°); 45,80 g (20°); 91,20 g (30°) e 106,75 g (45°) demonstrou haver um aumento progres-sivo da força de preensão em cada grupo paralelamente à evolução no tempo (p < 0,05), exceto entre o 45° e grupo controle com média de 116,25 g, o que denota regeneração com resultados similares à normalidade no final do período considerado. Não foram detectadas fibras regeneradas no coto distal do 10o dia pós-operatório e a totalidade das fibras mielinizadas presentes foi desconsiderada por apresentar sinais degenerativos. Embora sem significância, o número de fibras aumentou progressivamente até o 30° dia, reduzindo-se no 45°. Quanto à espessura, diâmetro, perímetro e área, verificou-se diminuição sig-nificativa no 20o dia e progressivo aumento nos grupos posteriores. Embora a força e o número de fibras tenham apresentado correlação fortemente negativa pelo coeficiente de Spearman (r = − 0,87) no grupo controle, não foi possível obter correlação entre os dados morfométricos e teste funcional nos demais gru-pos. Conclui-se que o modelo experimental do nervo mediano é válido para o estudo evolutivo da regeneração neural, no período considerado de 45 dias pós-operatórios, porém os dados morfométricos apenas refletem a evolução morfológica e cronológica do processo de regeneração do modelo experimental, não apresentando correlação direta com a função.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo tem o objetivo de comparar várias técnicas que podem ser empregadas para proteger posições à vista usando mercados futuros. Partindo de uma posição na qual o investidor está à mercê do mercado, adota-se as técnicas mais simples de proteção até chegar a estimação da razão ótima de hedge ou de risco mínimo utilizando o modelo condicional, modelo no qual a variância é dependente do tempo. Para justificar a utilização da razão ótima de hedge dinâmica é introduzida a possibilidade de haver custo de transação. Os dados utilizados neste estudo são o preço à vista e preço de ajuste futuro do IBOVESPA do período 13/07/90 à 14/12/95.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

o presente trabalho versa, fundamentalmente, sobre o entendimento da volatilidade, sua modelagem e estimação. Como objeto mais específico, tem-se a comparação de dois métodos de estimação da razão de hedge para uma carteira com dois ativos: dólar spot e dólar futuro. Usando dados para dois períodos - abril de 1995 a março de 2004 e janeiro de 1999 a 30 de março de 2004 -, a análise pelo método MGARCH-BEKK-Diagonal se mostrou superior ao MQO, no sentido de que, com o primeiro, conseguiu-se uma variação percentual negativa da variância da carteira em relação à carteira sem hedge - resultado oposto ao obtido, usando-se a outra abordagem. Sugere-se aqui que a explicação do sucesso de um modelo multivariado - extensão do modelo ARCH inicialmente proposto por Engle (1982) - deve-se a sua melhor adequação a um fato estilizado em Finanças: a concentração de volatilidade durante certos períodos, bem como ao uso de uma covariância em cuja estrutura se consideram seu caráter autoregressivo e o efeito de choques passados. A redução percentual da variância obtida indica ainda a importância do mercado futuro de dólar para a atividade de hedge e para a diminuição da incerteza.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A proposta desta dissertação de mestrado é retratar a trajetória das políticas de renda mínima e bolsa escola no sistema de proteção social brasileiro. Além de resgatar os debates teórico e histórico que envolvem o tema, temos como maior preocupação mostrar como algumas questões federativas têm afetado decisivamente a implementação destes programas, desde as primeiras iniciativas subnacionais até a adoção de programas nacionais com clara interface intergovernamental. Duas grandes questões conduzem a discussão. A primeira diz respeito à eficácia da renda mínima como política de combate à pobreza e à desigualdade. A outra se refere ao estudo do impacto do arranjo institucional sobre estes programas. Para resgatar a dívida social brasileira não basta apenas identificarmos a melhor política (mais eficiente, eficaz e efetiva); é igualmente fundamental criar condições institucionais para o seu êxito. O argumento central do trabalho é que o modelo federativo e o processo de descentralização influenciaram diretamente o desenvolvimento dos programas de renda mínima no Brasil, sendo determinantes para o seu bom desempenho. Este trabalho visa a enriquecer a atual discussão sobre o melhor caminho para a reestruturação do nosso sistema de proteção social, tendo em vista que a redução da pobreza, além de fundamental para a democracia, é estratégica para a obtenção de desenvolvimento real e sustentado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O impacto da adoção de modelos de excelência em gestão com foco na qualidade sobre o desempenho de empresas é um tema recorrente em estratégia de operações. Segundo a teoria sobre o tema, as empresas que adotam estes modelos deveriam observar taxas de lucratividade ou crescimento superiores a outras empresas. Esta dissertação buscou evidenciar, empiricamente, estes impactos para empresas brasileiras que passaram para a segunda fase ou foram finalistas do Prêmio Nacional da Qualidade de 2000 a 2004. O estudo foi feito sobre uma amostra de 1727 observações de 426 empresas de 15 setores, das quais 23 haviam participado do Prêmio Nacional da Qualidade, e 13 haviam passado para sua segunda fase e 6 foram finalistas. Os dados foram obtidos das edições do Balanço Anual da Gazeta Mercantil de 2000 a 2004 e da Fundação Nacional da Qualidade. A técnica de análise incluiu análises de distribuições, testes de média, testes não paramétricos e regressões lineares. O estudo encontrou grande variância de resultados de lucratividade e crescimento, o que ressalta sua importância gerencial. O principal achado do estudo foi que empresas brasileiras que adotam o modelo apresentaram lucratividade acima da média, como foi encontrado por diversos estudos em outros países. No entanto, as empresas brasileiras que adotam o modelo apresentaram crescimento em linha com a média de seus setores. Enquanto a maior parte dos estudos empíricos de outros países mostra uma relação positiva entre a adoção do modelo e o crescimento de empresas, existem teorias que mostram possíveis efeitos adversos da adoção deste modelo de gerenciamento sobre a capacidade de empresas gerarem inovações radicais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é propor um modelo de gestão de desempenho voltado para a criação de valor para atitudes de curto e longo prazo na empresa, em um ambiente com incertezas. Tal modelo está embasado por três teorias: criação de valor para o acionista, teoria das restrições e opções reais. Quanto ao horizonte de decisões, o emprego das teorias acima é dividido da seguinte forma no modelo de gestão: curto e longo prazo. Para a gestão de curto prazo, o modelo proposto associa e ajusta o conceito de criação de valor para o acionista, por meio da idéia de lucro econômico, à teoria das restrições. Como são as restrições que limitam a criação de valor, todas as decisões para gerar valor deveriam estar associadas às restrições do sistema. Por outro lado, a teoria das restrições não aborda a questão da remuneração mínima esperada pelos proprietários, o que é feito pelos modelos de gestão baseada em valor. Ao juntarmos e adaptarmos os dois conceitos teremos o maior valor possível para a empresa em curto prazo. O modelo lida com o longo prazo primeiramente pelo reconhecimento e tratamento das incertezas presentes no mercado e depois pela aplicação da gestão de curto prazo resumida anteriormente. Devido às flexibilidades exigidas pela teoria das restrições utilizamos a teoria de opções reais para avaliar tanto a empresa quanto as flexibilidades presentes e potenciais para antecipar decisões estratégicas de médio e longo prazo. A avaliação das flexibilidades permite tanto decidir se o investimento deve ou não ser realizado como determinar um valor máximo a ser pago em uma negociação para aquisição da flexibilidade. O uso de modelos de avaliação de opções reais – como o de árvore binomial – permite ao modelo de gestão proposto avaliar e visualizar as possíveis atitudes e decisões a serem tomadas no futuro assim que as incertezas forem resolvidas. Dessa forma, temos um modelo de gestão a ser aplicado em um ambiente com incertezas de mercado, que é voltado à criação de valor para o acionista – considerando que a empresa tem o desempenho limitado pela restrição do sistema – e avalia as flexibilidades presentes e potenciais, bem como o valor da empresa em médio e longo prazo. Por meio da agregação e adaptação das teorias das restrições, opções reais e criação de valor, o modelo proposto fornece os passos para maximizar o valor em curto e longo prazo no ambiente empresarial.