999 resultados para Função custo translog
Resumo:
RESUMO - Perante o actual contexto de contenção de gastos no sector da saúde e consequente preocupação com a eficiência do sistema, tem‐se assistido a mudanças várias no modelo de gestão e organizacional do sistema de saúde. Destaca‐se a alteração da estrutura hospitalar, com vista à racionalização dos seus recursos internos, onde as fusões hospitalares têm assumido um papel determinante. Em Portugal, nos últimos 10 anos, assistiu‐se a uma significativa redução do número de hospitais (de sensivelmente 90 para 50 unidades), exclusivamente através das fusões e sem quaisquer alterações no número de estruturas físicas existentes. Não obstante os argumentos justificativos desta reforma, a avaliação dos objectivos implícitos é insuficiente. Neste âmbito, pretendeu‐se com este estudo contribuir para a análise do impacte da criação de centros hospitalares na redução de gastos, isto é, verificar se a consolidação e consequente reengenharia dos processos produtivos teve consequencias ao nível da obtenção de economias de escala. Para esta análise usou‐se uma base de dados em painel, onde se consideraram 75 hospitais durante 7 anos (2003‐2009), número que foi reduzindo ao longo do período em análise devido às inúmeras fusões já referidas. Para avaliar os ganhos relativos às fusões hospitalares, ao nível da eficiência técnica e das economias de escala, recorreu‐se à fronteira estocástica especificada função custo translog. Estimada a fronteira, foi possível analisar três centros hospitalares específicos, onde se comparou o período pré‐fusão (2005‐2006) com o período após a fusão (2008‐2009). Como variáveis explicativas, relativas à produção hospitalar, considerou‐se o número de casos tratados e os dias de internamento (Vita, 1990; Schuffham et al., 1996), o número de consultas e o número de urgências, sendo estas variáveis as mais comuns na literatura (Vita, 1990; Fournier e Mitchell, 1992; Carreira, 1999). Quanto à variável dependente usou‐se o custo variável total, que compreende o total de custos anuais dos hospitais excepto de imobilizado. Como principais conclusões da investigação, em consequência da criação dos centros hospitalares, são de referir os ganhos de escala na fusão de hospitais de reduzida dimensão e com mais serviços complementares. --------ABSTRACT - Driven by the current pressure on resources induced by budgetary cuts, the Portuguese Ministry of Health is imposing changes in the management model and organization of NHS hospitals. The most recent change is based on the creation of Hospital Centres that are a result of administrative mergers of existing hospitals. In less than 10 years the number of hospitals passed from around 90 to around 50, only due to the mergers and without any change in the existing number of physical institutions. According to the political discourse, one of the main goals expected from this measure is the creation of synergies and more efficiency in the use of available resources. However, the merger of the hospitals has been a political decision without support or evaluation of the first experiments. The aim of this study is to measure the results of this policy by looking at economies of scale namely through reductions in the expenditures, as expected and sought by the MoH. Data used covers 7 years (2003‐2009) and 75 hospitals, number that has been reduced my the enoumerous mergers during the last decade. This work uses a stochastic frontier analysis through the translog cost function to examine the gains from mergers, which were decomposed into technical efficiency and economies of scale. It was analised these effects by the creation of three specific hospital centers, using a longitudinal approach to compare the period pre‐merger (2003‐2006) with the post‐merger period (2007‐09). To measure changes in inpatient hospital production volume and length of stay are going to be considered as done by Vita (1990) and Schuffham et al. (1996). For outpatient services the number of consultations and emergencies are going to be considered (Vita, 1990; Fournier e Mitchell, 1992; Carreira, 1999). Total variable cost is considered as the dependent variable explained the aforementioned ones. After a review of the literature results expected point to benefits from the mergers, namely a reduction in total expenditures and in the number of duplicated services. Results extracted from our data point in the same direction, and thus for the existence of some economies of scale only for small hospitals.
Resumo:
Este artigo expõe detalhada mente as principais propriedades da função de custo translog, que em seguiria é utilizada, na forma falar-aumentativa (factor-augmenting), para estimar mudanças tecnológicas na pecuária leiteira numa região paulista
Resumo:
Diante da importância que o tema da imigração adquiriu no país nos últimos anos, gerou-se uma necessidade de melhor entendimento dos efeitos econômicos causados por influxos populacionais dessa natureza. Todavia, sob o conhecimento dos autores, inexistem estudos para história recente brasileira acerca dos impactos dos imigrantes no mercado de trabalho, em especial, sobre o salário e o nível de emprego dos nativos. Com esse panorama em mente, os estudos realizados nesta tese visam dar os primeiros passos na investigação desse tema. O presente trabalho é composto por quatro capítulos, os quais examinam diferentes questões associadas aos efeitos da imigração no mercado de trabalho brasileiro. O primeiro capítulo motiva o tema da imigração no Brasil e, através de uma metodologia estrutural baseada no arcabouço da função CES multi-nível, simula o efeito na estrutura salarial em resposta a influxos imigratórios estipulados para o ano de 2010, data do último Censo Demográfico. Em particular, calcula-se que o impacto salarial médio decorrente de um influxo estipulado de 549 mil imigrantes, mesma magnitude do observado entre dezembro de 2010 e dezembro de 2011, estaria situado em torno de -0.25%. O segundo capítulo estima o grau de substituição entre imigrantes e nativos do mesmo grupo de habilidade e testa a hipótese de substituição perfeita suportada empiricamente por Borjas et al. (2012, 2008) e adotada no capítulo anterior. A metodologia empregada fundamenta-se no arcabouço estrutural desenvolvido em Manacorda et al. (2012) e Ottaviano & Peri (2012), o qual acrescenta um nível extra na função de produção CES multi-nível de Borjas (2003). As elasticidades de substituição estimadas sob diversas especificações variam entre 9 e 23, resultados que fortalecem a tese de substituição imperfeita preconizada por Card (2012). O terceiro capítulo estima dois tipos de elasticidades relacionadas ao impacto dos imigrantes sobre o rendimento do trabalho nativo através de uma metodologia alternativa baseada numa função de produção mais flexível e que não está sujeita a restrições tão austeras quanto a CES. As estimativas computadas para as elasticidades de substituição de Hicks subjacentes se situam entre 1.3 e 4.9, o que reforça as evidências de substituição imperfeita obtidas no Capítulo 2. Adicionalmente, os valores estimados para as elasticidades brutas dos salários dos nativos em relação às quantidades de imigrantes na produção são da ordem máxima de +-0.01. O quarto e último capítulo, por meio de uma metodologia fundamentada no arcabouço da função de custo Translog, examina como o nível de emprego dos nativos reage a alterações no custo do trabalho imigrante, uma questão que até o momento recebeu pouca atenção da literatura, conquanto apresente relevância para formulação de políticas imigratórias. Para todas as especificações de modelo e grupos de educação considerados, nossos resultados apontam que uma variação exógena no salário do imigrante produz apenas diminutos efeitos sobre o nível de emprego dos trabalhadores nativos brasileiros. Na maioria dos casos, não se pode rejeitar a hipótese de que nativo e imigrante não são nem p-complementares nem p-substitutos líquidos.
Resumo:
O objectivo deste trabalho é a análise da eficiência produtiva e dos efeitos da concentração sobre os custos bancários, tendo por base a indústria bancária portuguesa. O carácter multiproduto da empresa bancária sugere a necessidade de se adoptar formas multiproduto da função custo (tipo Fourier). Introduzimos variáveis de homogeneidade e de estrutura que permitem o recurso a formas funcionais uniproduto (Cobb-Douglas) à banca. A amostra corresponde a 22 bancos que operavam em Portugal entre 1995-2001, base não consolidada e dados em painel. Para o estudo da ineficiência recorreu-se ao modelo estocástico da curva fronteira (SFA), para as duas especificações. Na análise da concentração, introduziram-se variáveis binárias que pretendem captar os efeitos durante quatro anos após a concentração. Tanto no caso da SFA como no da concentração, os resultados encontrados são sensíveis à especificação funcional adoptada. Concluindo, o processo de concentração bancário parece justificar-se pela possibilidade da diminuição da ineficiência-X. This study addresses the productive efficiency and the effects of concentration over the banking costs, stressing its focus on the Portuguese banking market. The multiproduct character of the banking firm suggests the use of functional forms as Fourier. The introduction of variables of structure and of homogeneity allows the association of the banking activity (multiproduct) with a single product function (Cobb-Douglas type). The sample covers 22 banks which operated in Portugal from 1995-2001, non consolidated base with a panel data structure. The study about inefficiency is elaborated through the stochastic frontier model (SFA), for the two specifications selected. As a methodology to analyze the concentration, we introduced binary variables, which intend to catch the effects through four years after the concentration process. The results obtained, through SFA and concentration approach, are influenced by the kind of specifications selected. Summing up, the concentration process of the Banking Industry sounds to be justified by the possibility of the X-inefficiency.
Resumo:
Com as variações e instabilidade dos preços do petróleo, assim como as políticas europeias para adoção de estratégias para o desenvolvimento sustentável, têm levado à procura de forma crescente de novas tecnologias e fontes de energia alternativas. Neste contexto, tem-se assistido a políticas energéticas que estimulam o aumento da produção e a utilização do gás natural, visto que é considerado uma fonte de energia limpa. O crescimento do mercado do gás natural implica um reforço significativo das redes de transporte deste combustível, quer ao nível do armazenamento e fornecimento, quer ao nível dos gasodutos e da sua gestão. O investimento em gasodutos de transporte implica grandes investimentos, que poderiam não ser remunerados da forma esperada, sendo um dos motivos para que exista em Portugal cinco distritos se veem privados deste tipo de infraestruturas. O transporte de gás natural acarreta custos elevados para os consumidores, tanto maiores quanto maior forem as quantidades de gás transacionadas e quanto maior for o percurso pelo gás natural percorrido. Assim assume especial importância a realização de um despacho de gás natural: quais as cargas que cada unidade de fornecimento de gás irá alimentar, qual a quantidade de gás natural que cada UFGs deve injetar na rede, qual o menor percurso possível para o fazer, o tipo de transporte que será utilizado? Estas questões são abordadas na presente dissertação, por forma a minimizar a função custo de transporte, diminuindo assim as perdas na rede de alta pressão e os custos de transporte que serão suportados pelos consumidores. A rede de testes adotada foi a rede nacional de transporte, constituída por 18 nós de consumos, e os tipos de transporte considerados, foram o transporte por gasoduto físico e o transporte através de gasoduto virtual – rotas de transporte rodoviário de gás natural liquefeito. Foram criados diversos cenários, baseados em períodos de inverno e verão, os diferentes cenários abrangeram de forma distinta as variáveis de forma a analisar os impactos que estas variáveis teriam no custo relativo ao transporte de gás natural. Para dar suporte ao modelo de despacho económico, foi desenvolvida uma aplicação computacional – Despacho_GN com o objetivo de despachar as quantidades de gás natural que cada UFG deveria injetar na rede, assim como apresentar os custos acumulados relativos ao transporte. Com o apoio desta aplicação foram testados diversos cenários, sendo apresentados os respectivos resultados. A metodologia elaborada para a criação de um despacho através da aplicação “Despacho_GN” demonstrou ser eficiente na obtenção das soluções, mostrando ser suficientemente rápida para realizar as simulações em poucos segundos. A dissertação proporciona uma contribuição para a exploração de problemas relacionados com o despacho de gás natural, e sugere perspectivas futuras de investigação e desenvolvimento.
Resumo:
O objectivo deste trabalho é a análise da eficiência produtiva e dos efeitos da concentração sobre os custos bancários, tendo por base a indústria bancária portuguesa. O carácter multiproduto da empresa bancária sugere a necessidade de se adoptar formas multiproduto da função custo (tipo Fourier). Introduzimos variáveis de homogeneidade e de estrutura que permitem o recurso a formas funcionais uniproduto (Cobb-Douglas) à banca. A amostra corresponde a 22 bancos que operavam em Portugal entre 1995-2001, base não consolidada e dados em painel. Para o estudo da ineficiência recorreu-se ao modelo estocástico da curva fronteira (SFA), para as duas especificações. Na análise da concentração, introduziram-se variáveis binárias que pretendem captar os efeitos durante quatro anos após a concentração. Tanto no caso da SFA como no da concentração, os resultados encontrados são sensíveis à especificação funcional adoptada. Concluindo, o processo de concentração bancário parece justificar-se pela possibilidade da diminuição da ineficiência-X.
Resumo:
Na tentativa de se otimizar o processo de fabrico associado a uma tinta base aquosa (TBA), para minimizar os desvios de viscosidade final verificados, e de desenvolver um novo adjuvante plastificante para betão, recorreu-se a métodos e ferramentas estatísticas para a concretização do projeto. Relativamente à TBA, procedeu-se numa primeira fase a um acompanhamento do processo de fabrico, a fim de se obter todos os dados mais relevantes que poderiam influenciar a viscosidade final da tinta. Através de uma análise de capacidade ao parâmetro viscosidade, verificou-se que esta não estava sempre dentro das especificações do cliente, sendo o cpk do processo inferior a 1. O acompanhamento do processo resultou na escolha de 4 fatores, que culminou na realização de um plano fatorial 24. Após a realização dos ensaios, efetuou-se uma análise de regressão a um modelo de primeira ordem, não tendo sido esta significativa, o que implicou a realização de mais 8 ensaios nos pontos axiais. Com arealização de uma regressão passo-a-passo, obteve-se uma aproximação viável a um modelo de segunda ordem, que culminou na obtenção dos melhores níveis para os 4 fatores que garantem que a resposta viscosidade se situa no ponto médio do intervalo de especificação (1400 mPa.s). Quanto ao adjuvante para betão, o objetivo é o uso de polímeros SIKA ao invés da matériaprima comum neste tipo de produtos, tendo em conta o custo final da formulação. Escolheram-se 3 fatores importantes na formulação do produto (mistura de polímeros, mistura de hidrocarbonetos e % de sólidos), que resultou numa matriz fatorial 23. Os ensaios foram realizados em triplicado, em pasta de cimento, um para cada tipo de cimento mais utilizado em Portugal. Ao efetuar-se a análise estatística de dados obtiveram-se modelos de primeira ordem para cada tipo de cimento. O processo de otimização consistiu em otimizar uma função custo associada à formulação, garantindo sempre uma resposta superior à observada pelo produto considerado padrão. Os resultados foram animadores uma vez que se obteve para os 3 tipos de cimentocustos abaixo do requerido e espalhamento acima do observado pelo padrão.
Resumo:
o exame para o diagnóstico de doenças da laringe é usualmente realizado através da videolaringoscopia e videoestroboscopia. A maioria das doenças na laringe provoca mudanças na voz do paciente. Diversos índices têm sido propostos para avaliar quantitativamente a qualidade da voz. Também foram propostos vários métodos para classificação automática de patologias da laringe utilizando apenas a voz do paciente. Este trabalho apresenta a aplicação da Transformada Wavelet Packet e do algoritmo Best Basis [COI92] para a classificação automática de vozes em patológicas ou normais. Os resultados obtidos mostraram que é possível classificar a voz utilizando esta Transformada. Tem-se como principal conclusão que um classificador linear pode ser obtido ao se empregar a Transformada Wavelet Packet como extrator de características. O classificador é linear baseado na existência ou não de nós na decomposição da Transformada Wavelet Packet. A função Wavelet que apresentou os melhores resultados foi a sym1et5 e a melhor função custo foi a entropia. Este classificador linear separa vozes normais de vozes patológicas com um erro de classificação de 23,07% para falsos positivos e de 14,58%para falsos negativos.
Resumo:
O objetivo deste trabalho é responder a questão: até que ponto a acumulação de dívida externa é compatível com a capacidade de pagamento do Brasil? Fazendo uma simulação do mesmo modelo macroeconômico utilizado por Blanchard em 1983, com alterações na função custo de instalação do capital e nos demais parâmetros utilizados, e verificando também de que forma possíveis mudanças no cenário interno e externo que impliquem em alterações nos parâmetros do modelo, como taxa de juros, taxa de depreciação do capital e participação do capital na produção, alteram os resultados encontrados.
Resumo:
Este trabalho apresenta um sistema de classificação de voz disfônica utilizando a Transformada Wavelet Packet (WPT) e o algoritmo Best Basis (BBA) como redutor de dimensionalidade e seis Redes Neurais Artificiais (ANN) atuando como um conjunto de sistemas denominados “especialistas”. O banco de vozes utilizado está separado em seis grupos de acordo com as similaridades patológicas (onde o 6o grupo é o dos pacientes com voz normal). O conjunto de seis ANN foi treinado, com cada rede especializando-se em um determinado grupo. A base de decomposição utilizada na WPT foi a Symlet 5 e a função custo utilizada na Best Basis Tree (BBT) gerada com o BBA, foi a entropia de Shannon. Cada ANN é alimentada pelos valores de entropia dos nós da BBT. O sistema apresentou uma taxa de sucesso de 87,5%, 95,31%, 87,5%, 100%, 96,87% e 89,06% para os grupos 1 ao 6 respectivamente, utilizando o método de Validação Cruzada Múltipla (MCV). O poder de generalização foi medido utilizando o método de MCV com a variação Leave-One-Out (LOO), obtendo erros em média de 38.52%, apontando a necessidade de aumentar o banco de vozes disponível.
Resumo:
This thesis describes design methodologies for frequency selective surfaces (FSSs) composed of periodic arrays of pre-fractals metallic patches on single-layer dielectrics (FR4, RT/duroid). Shapes presented by Sierpinski island and T fractal geometries are exploited to the simple design of efficient band-stop spatial filters with applications in the range of microwaves. Initial results are discussed in terms of the electromagnetic effect resulting from the variation of parameters such as, fractal iteration number (or fractal level), fractal iteration factor, and periodicity of FSS, depending on the used pre-fractal element (Sierpinski island or T fractal). The transmission properties of these proposed periodic arrays are investigated through simulations performed by Ansoft DesignerTM and Ansoft HFSSTM commercial softwares that run full-wave methods. To validate the employed methodology, FSS prototypes are selected for fabrication and measurement. The obtained results point to interesting features for FSS spatial filters: compactness, with high values of frequency compression factor; as well as stable frequency responses at oblique incidence of plane waves. This thesis also approaches, as it main focus, the application of an alternative electromagnetic (EM) optimization technique for analysis and synthesis of FSSs with fractal motifs. In application examples of this technique, Vicsek and Sierpinski pre-fractal elements are used in the optimal design of FSS structures. Based on computational intelligence tools, the proposed technique overcomes the high computational cost associated to the full-wave parametric analyzes. To this end, fast and accurate multilayer perceptron (MLP) neural network models are developed using different parameters as design input variables. These neural network models aim to calculate the cost function in the iterations of population-based search algorithms. Continuous genetic algorithm (GA), particle swarm optimization (PSO), and bees algorithm (BA) are used for FSSs optimization with specific resonant frequency and bandwidth. The performance of these algorithms is compared in terms of computational cost and numerical convergence. Consistent results can be verified by the excellent agreement obtained between simulations and measurements related to FSS prototypes built with a given fractal iteration
Resumo:
Conventional methods to solve the problem of blind source separation nonlinear, in general, using series of restrictions to obtain the solution, often leading to an imperfect separation of the original sources and high computational cost. In this paper, we propose an alternative measure of independence based on information theory and uses the tools of artificial intelligence to solve problems of blind source separation linear and nonlinear later. In the linear model applies genetic algorithms and Rényi of negentropy as a measure of independence to find a separation matrix from linear mixtures of signals using linear form of waves, audio and images. A comparison with two types of algorithms for Independent Component Analysis widespread in the literature. Subsequently, we use the same measure of independence, as the cost function in the genetic algorithm to recover source signals were mixed by nonlinear functions from an artificial neural network of radial base type. Genetic algorithms are powerful tools for global search, and therefore well suited for use in problems of blind source separation. Tests and analysis are through computer simulations
Resumo:
Técnicas de otimização numérica são úteis na solução de problemas de determinação da melhor entrada para sistemas descritos por modelos matemáticos e cujos objetivos podem ser expressos de uma maneira quantitativa. Este trabalho aborda o problema de otimizar as dosagens dos medicamentos no tratamento da AIDS em termos de um balanço entre a resposta terapêutica e os efeitos colaterais. Um modelo matemático para descrever a dinâmica do vírus HIV e células CD4 é utilizado para calcular a dosagem ótima do medicamento no tratamento a curto prazo de pacientes com AIDS por um método de otimização direta utilizando uma função custo do tipo Bolza. Os parâmetros do modelo foram ajustados com dados reais obtidos da literatura. Com o objetivo de simplificar os procedimentos numéricos, a lei de controle foi expressa em termos de uma expansão em séries que, após truncamento, permite obter controles sub-ótimos. Quando os pacientes atingem um estado clínico satisfatório, a técnica do Regulador Linear Quadrático (RLQ) é utilizada para determinar a dosagem permanente de longo período para os medicamentos. As dosagens calculadas utilizando a técnica RLQ , tendem a ser menores do que a equivalente terapia de dose constante em termos do expressivo aumento na contagem das células T+ CD4 e da redução da densidade de vírus livre durante um intervalo fixo de tempo.
Resumo:
Pós-graduação em Ciências Cartográficas - FCT
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)