925 resultados para Convergência (Estatística)
Resumo:
Se explica el creciente interés del mundo universitario por integrar al alumnado en el ámbito profesional a través de los convenios de cooperación educativa entre universidad y empresa.
Resumo:
Monográfico con el título: 'Convergencia tecnológica: la producción de pedagogías high tech'. Resumen basado en el de la publicación
Resumo:
This article aims to reveal some essential legal aspects in common of French and Spanish medical liability systems, and to highlight the key points that separate them, and the current trend of both legal and administrative regimes is approaching. Indeed, these medical liability systems, French and Spanish, reveal a pincers movement, so it is curial to say that medical liability models are now more mixed, failing to make sense to strive for "pure systems" relating with "malpractice", applying this idea mutatis mutandis to other European countries, including Portugal
Resumo:
Numa era de globalização, de liberalização do comércio e de desregulação de indústrias específicas, as autoridades da concorrência confrontam-se com novos desafios de forma a proteger a concorrência nacional assim como a concorrência internacional. Com empresas a operar em vários países, esvanecendo-se as fronteiras e aumentado o comércio transfronteiras, novas estratégias devem ser desenvolvidas por forma a ultrapassar as ameaças aos mercados internos resultantes de comportamentos anticoncorrenciais ocorridas no estrangeiro. Embora soluções como a "Doutrina dos Efeitos" ou acordos bilaterais permitam, embora imperfeitamente, os países protegerem o seu mercado interno, não existem leis salvaguardando a economia global e a concorrência internacional. Impõe-se então o estabelecimento de um regime de direito internacional da concorrência dos países, com o objetivo de dirimir os conflitos originados pelo comportamento anticoncorrencial através das fronteiras e ajudar os países em desenvolvimento a alcançar os padrões dos países Ocidentais.
Resumo:
A estatística nos dias de hoje está incorporada de uma forma generalizada no currículo da matemática no ensino básico e secundário e em diferentes cursos do ensino superior.Este interesse, não é exclusivo da comunidade de educação matemática, mas sim da sociedade em geral, pois a sua apropriação permite contribuir para um melhor espirito crítico sobre a informação e logo um exercicio de melhor cidadania. Esta experiência realizou-se no âmbito da Unidade Curricular de Introdução à Estatística da licenciatura em Educação Básica da Escola Superior de Educação Paula Frassinetti , a qual contou com a participação de 74 estudantes inscritos na unidade curricular.Tendo como referência as diretrizes para o ensino superior impulsionadas por o processo de Bolonha que apontam para a centralidade do estudante no processo autónomo de aprendizagem ao longo da vida implementamos uma metodologia de b-learning alicerçada na plataforma moodle usando o fórum de forma a potenciar o pensamento crítico.Do ponto de vista pedagógico, utilizamos o modelo Community of Inquiry desenvolvido por Garrison, Anderson e Archer.Os posts que lançamos para a discussão, eram notícias dos meios de comunicação fazendo um pequeno comentário de forma a fomentar o sentido crítico face ao modo como a informação é apresentada e a aptidão para ler e interpretar tabelas e gráficos à luz das situações a que dizem respeito, com o objetivo de desenvolver skills interpretativos e a literacia estatística, desenvolver a capacidade para comunicar estatisticamente e desenvolver disposições estatísticas úteis.Neste trabalho, apresentamos uma análise qualitativa e quantitativa dos vários indicadores que caracterizam a formação de futuros professores da educação básica em estatística,recolhendo os dados das interações do fórum, monitorizados com o software SNAPP e a análise dos mesmos com o Netdraw e SPSS.E ainda, a interpretabilidade de diversos fatores, de acordo com a estrutura e conceção do instrumento a respeito de como o estudante perceciona a presença cognitiva relativamente à construção do significado e compreensão da matéria da unidade curricular.Concluímos que a maioria dos estudantes apesar de saber calcular medidas de localização e dispersão, tem dificuldade em apresentar argumentos em que as explicite, pois ainda não conseguiu interpretar, interiorizar as medidas, para que possa inseri-los e articulá-los numa argumentação.
Resumo:
Usando a técnica de Retroespalhamento Rutherford (RBS). no presente trabalho medimos a perda de energia e a flutuação estatística da perda de energia (straggling) como função da energia para íons de Li em alvos de silicio amorfo. Através do método dos marcadores. com amostras produzidas por implantação iônica e por epitaxia de feixe molecular,o poder de freamento foi medido em um intervalo de energia entre 250keV e 9MeV enquanto que o straggling foi determinado em um intervalo que foi de 450keV a 3MeV. Os resultados experimentais foram comparados com medidas prévias e com cálculos semi-empiricos realizados por Ziegler. Biersack e Littmark e por Konac et el., sendo encontrado um razoável acordo teórico-experimental. Foram também realizados cálculos baseados nos modelos teóricos de Aproximação por Convolução Perturbativa (PCA) e Aproximação por Convolução Unitária (UCA) propostos por Grande e Schiwielz O modelo PCA apresentou resultados aceitáveis para energias acima de 6MeV enquanto que os valores apresentados pelo divergem dos valores experimentais para energias abaixo de 2MeV. As medidas de straggling quando comparados com as predições da teoria de Bohr mostraram discrepâncias que foram entre 20% e 60%. Cálculos feitos com a aproximação para encontros binários (BEA) usando-se a secção de choque de Thompsom e a secção de choque proposta no trabalho de Vriens foram comparados com as medidas experimentais. Os resultados usando-se a secção de choque de Thompsom divergem por até 50%, enquanto que os valores calculados a secção de choque proposta por Vriens mostram uma concordância razoável para energias abaixo de 1MeV.
Resumo:
Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
O objetivo principal da tese medir a velocidade de convergência entre renda per-capita dos estados brasileiros. Para atingir este intento tese foi dividida em dois capítulos, um para situar discussão realizada na literatura relacionada ao crescimento econômico, outro para realizar tarefa que se propunha trabalho. No primeiro capitulo é feita uma revisão de todos os principais modelos de crescimento desenvolvidos partir da tradição neoclássica de funções de produção com rendimentos decrescentes para os fatores de produção. Nesta revisão são destacados duas importantes conclusões destes modelos, a existência de convergência entre renda per-capita de todos os países ao esgotamento do crescimento. Logo em seguida são apresentadas tentativas de construção de modelos que não levem estes resultados. Por fim, são feitas considerações respeito de convergência entre renda per-capita de países com características semelhantes, culminando no tema de convergência entre estados de um mesmo pais. No segundo capitulo principal objetivo verificar existência de um processo de convergência entre renda per-capita para caso dos estados brasileiros e, uma vez verificada existência deste processo, calcular velocidade de convergência. Para alcançar este objetivo utiliza-se da metodologia usada por Barro Sala-i-Martin Convergence, Journal of Political Economy, 1992) para os estados americanos. No desenvolver do trabalho também foi feita uma tentativa para estimar os PIB's dos estados brasileiros para ano de 1990. conclusão obtida de que os estados brasileiros estão convergindo em termos de renda per-capita, porem uma velocidade menor que a dos estados americanos.
Resumo:
Esta tese de doutorado está composta por quatro ensaios em macroeconometria e finanças com aplicações nas áreas de abertura comercial, custo de bem estar do ciclo de negócios e taxas de juros. No primeiro ensaio analisamos o comportamento da indústria de transformação após as reformas implantadas na década de noventa. Verificamos se o processo de abertura gerou aumentos da produtividade média da indústria de transformação. Adicionalmente, estimamos o mark-up de diferentes setores industriais e testamos se este se modifica após a abertura comercial. Os resultados das estimações indicam a existência de um significativo aumento na produtividade industrial na maior parte dos setores estudados. O canal para este aumento de produtividade, aparentemente, não é o aumento da concorrência, já que não há evidência estatística de redução de mark-up. Este é talvez o resultado mais surpreendente do artigo, o fato de que o mark-up não se modificar significativamente após a abertura comercial. Os setores estimados como não concorrenciais antes da abertura continuaram a ser depois dela. Acesso a insumo importados e uso de novas tecnologias podem ser possíveis canais de aumento de produtividade. Este resultado está em desacordo com Moreira (1999) que constrói diretamente dos dados medidas de mark-up. No segundo ensaio testamos a Hipótese das Expectativas Racionais (HER) para a estrutura a termo brasileira. Examinamos várias combinações de prazos entre 1 dia e 1 ano, seguindo a metodologia adotada pelo Banco Central do Brasil, para o período de Julho de 1996 a Dezembro de 2001. Mostramos que: (i) os coeficientes estimados dos diferenciais de rendimento entre as taxas longa e curta (yield spreads) nas equações de mudança de curto prazo da taxa longa e nas equações de mudança de longo prazo da taxa curta são imprecisos e incapazes de rejeitarem a HER; e (ii) diferenciais de rendimento altamente correlacionados com as previsões de expectativas racionais das futuras mudanças das taxas curtas, mas significativamente mais voláteis que estas últimas, sugerem a rejeição da HER. A hipótese alternativa de reação exagerada (overreaction) do diferencial de rendimento em relação à expectativa das futuras variações da taxa curta parece uma explicação razoável para as evidências, com implicações para a política monetária e para a gestão de investimentos. No terceiro ensaio estudamos o custo de bem-estar dos ciclos de negócios. Robert Lucas (1987) mostrou um resultado surpreendente para a literatura de ciclos de negócios, o custo de bem-estar, por ele calculado, é muito pequeno (US$ 8,50 por ano). Modelamos as preferências por funções com elasticidade de substituição constante e uma forma reduzida para o consumo razoável. Construímos dados seculares para a economia americana e computamos o custo de bem-estar para dois períodos distintos, pré e pós-segunda guerra mundial, usando três formas alternativas de decomposição tendência-ciclo, com foco na decomposição de Beveridge-Nelson. O período pós-guerra foi calmo, com um custo de bem-estar que raramente ultrapassa 1% do consumo per-capita (US$ 200,00 por ano). Para o período pré-guerra há uma alteração drástica nos resultados, se utilizamos a decomposição de Beveridge-Nelson encontramos uma compensação de 5% do consumo per-capita (US$ 1.000,00 por ano) com parâmetros de preferências e desconto intertemporal razoáveis. Mesmo para métodos alternativos, como o modelo com tendência linear, encontramos um custo de bem estar de 2% do consumo per-capita (US$ 400,00 por ano). Deste estudo podemos concluir: (i) olhando para dados pós-guerra, o custo de bem-estar dos ciclos de negócios marginal é pequeno, o que depõe contra a intensificação de políticas anticíclicas, sendo que do ponto de vista do consumidor pré-segunda guerra este custo é considerável; e (ii) o custo de bem-estar dos ciclos de negócios caiu de 5% para 0.3% do consumo per-capita, do período pré para o período pós-guerra, se esta redução é resultado de políticas anticíclicas, estas políticas foram muito bem sucedidas. Por último, no quarto ensaio analisamos o comportamento da taxa de juros livre de risco - cupom cambial - na economia brasileira para o período de 20 de janeiro de 1999 a 30 de julho de 2003. Identificamos os componentes de curto e longo prazo de três medidas de taxa de retorno, as quais foram submetidas aos tratamentos econométricos propostos em Vahid e Engle (1993) e Proietti (1997). Os resultados sugerem a convergência das taxas de retorno para um equilíbrio de longo prazo. Identificamos a dominância do componente de longo prazo na determinação da trajetória do Prêmio do C-BOND e do componente de curto prazo no caso do Prêmio do Swap Cambial. Já para o Prêmio Descoberto de Juros não conseguimos identificar o domínio de qualquer componente. Associando o componente de longo prazo aos fundamentos da economia e os componentes de curto prazo a choques nominais, poderíamos dizer que, em termos relativos, o Prêmio do C-BOND estaria mais fortemente ligado aos fundamentos e o Prêmio do Swap Cambial a choques nominais.
Resumo:
Este artigo apresenta, inicialmente, por meio de um modelo teórico e econométrico, os detemúnantes do crescimento econômico. Então, trata da distribuição internacional da renda no período 1960/90, para uma amostra de 88 países em todo o mundo, e das medidas de desigualdade. Por fim, relaciona o crescimento econômico com a distribuição da renda no mundo, discutindo em que medida essa evolução pode ser explicada pelas diferenças nos fundamentos e nas dinâmicas de crescimento dos diferentes países.