999 resultados para Desenvolvimento Orientado a Modelos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta investigação, de natureza qualitativa, visou conhecer as concepções e práticas de professores dos anos iniciais sobre o ensino de ciências e promover reflexões sobre tal ensino. O trabalho teve como base o Processo de Reflexão Orientada (PRO), uma estratégia para o desenvolvimento profissional a partir do enfoque de questões da prática docente. As questões de investigação foram: Como professores dos anos iniciais concebem, refletem, planejam e realizam o ensino de Ciências? E como refletem e realizam o ensino de Ciências a partir de um Processo de Reflexão Orientado (PRO)? E, ainda, como, a partir de um Processo de Reflexão Orientado (PRO) para professores dos anos iniciais do Ensino Fundamental avaliam o seu próprio desenvolvimento profissional? Os dados foram obtidos a partir de questionários, entrevistas, planejamentos escritos e de vídeogravações dos encontros e de aulas ministradas. A análise dos dados foi feita a partir da análise de conteúdo. As ideias manifestadas pelas professoras sobre ensino de ciências foram classificadas dentro de uma abordagem oscilando entre cognitivista e sócio-cultural. Seus modelos didáticos revelaram ideias pouco consistentes sobre o processo de ensino e aprendizagem, com pouca coerência em relação a modelos de orientação construtivista. Cada professora propôs uma sequência de ensino visando alcançar graus mais complexos. As sequências foram discutidas, novas reflexões foram realizadas e reelaborações foram propostas. As aulas desenvolvidas evidenciaram um progresso de Lívia com relação à participação dos alunos, com a proposição de uma situação-problema, da consideração das ideias prévias dos alunos, embora apresentasse ainda dificuldade de promover uma discussão orientada, que pudesse favorecer a argumentação dos alunos e a compreensão do fenômeno. Já, nas aulas de Roberta observaram-se atividades que privilegiaram a participação dos alunos. Nas aulas das duas professoras ficaram evidentes a proposição de um problema e a sistematização do conhecimento, a partir da elaboração de sínteses orais e escritas e da apresentação para outras classes. Embora as professoras valorizassem o ensino de ciências e a participação ativa das crianças, havia dificuldades para a realização de aulas de ciências por investigação, pois não consideravam a problematização, a exploração das ideias dos alunos, a sistematização do conhecimento e as explicações científicas. O processo de reflexão orientada (PRO) mostrou ser uma estratégia importante para o desenvolvimento profissional dessas professoras, possibilitando reflexões significativas sobre a própria prática, bem como a tomada de consciência de uma nova sistematização das ações docentes, com vistas a uma atuação mais eficaz para promover o ensino de Ciências por investigação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo do presente trabalho é a investigação e o desenvolvimento de estratégias de otimização contínua e discreta para problemas de Fluxo de Potência Ótimo (FPO), onde existe a necessidade de se considerar as variáveis de controle associadas aos taps de transformadores em-fase e chaveamentos de bancos de capacitores e reatores shunt como variáveis discretas e existe a necessidade da limitação, e/ou até mesmo a minimização do número de ações de controle. Neste trabalho, o problema de FPO será abordado por meio de três estratégias. Na primeira proposta, o problema de FPO é modelado como um problema de Programação Não Linear com Variáveis Contínuas e Discretas (PNLCD) para a minimização de perdas ativas na transmissão; são propostas três abordagens utilizando funções de discretização para o tratamento das variáveis discretas. Na segunda proposta, considera-se que o problema de FPO, com os taps de transformadores discretos e bancos de capacitores e reatores shunts fixos, possui uma limitação no número de ações de controles; variáveis binárias associadas ao número de ações de controles são tratadas por uma função quadrática. Na terceira proposta, o problema de FPO é modelado como um problema de Otimização Multiobjetivo. O método da soma ponderada e o método ε-restrito são utilizados para modificar os problemas multiobjetivos propostos em problemas mono-objetivos. As variáveis binárias associadas às ações de controles são tratadas por duas funções, uma sigmoidal e uma polinomial. Para verificar a eficácia e a robustez dos modelos e algoritmos desenvolvidos serão realizados testes com os sistemas elétricos IEEE de 14, 30, 57, 118 e 300 barras. Todos os algoritmos e modelos foram implementados em General Algebraic Modeling System (GAMS) e os solvers CONOPT, IPOPT, KNITRO e DICOPT foram utilizados na resolução dos problemas. Os resultados obtidos confirmam que as estratégias de discretização são eficientes e as propostas de modelagem para variáveis binárias permitem encontrar soluções factíveis para os problemas envolvendo as ações de controles enquanto os solvers DICOPT e KNITRO utilizados para modelar variáveis binárias não encontram soluções.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa investiga o contexto social do desenvolvimento da produção científica contábil brasileira, defendendo a tese de que os agentes, no decorrer do processo de divulgação de suas investigações, estão priorizando aspectos produtivistas e quantitativos e, consequentemente, deixando em segundo plano a preocupação qualitativa e epistemológica [vigilância crítica] de tal produção. Fundamentado na Teoria de Campos de Pierre Bourdieu, este estudo busca relacionar a socialização acadêmica, o habitus dos agentes imbricados no campo, a distribuição do capital científico na área contábil e as características epistemológicas das publicações científicas da área, para obtenção das evidências sobre a problemática levantada. Trata-se de um levantamento operacionalizado por meio de entrevista semiestruturada, com uma amostra de 9 respondentes e estudo documental, com uma amostra de 43 artigos. Os dados foram analisados com emprego da técnica de análise de conteúdo. Apoiando-se em Bourdieu (2004, 2008, 2009, 2011, 2013) foram encontradas evidências de que as teorias, conceitos, metodologias, técnicas e demais escolhas realizadas pelos pesquisadores da área contábil, na maioria das vezes, não passam de manobras estratégicas que visam conquistar, reforçar, assegurar ou derrubar o monopólio da autoridade científica, visando a obtenção de maior poder simbólico no campo. Com relação ao habitus dos agentes pertencentes ao campo científico contábil, constatou-se uma tendência ao produtivismo em consequência das determinações dos órgãos reguladores da pesquisa em contabilidade (CAPES) e das lutas simbólicas travadas no campo para obtenção da autoridade científica. No tocante à socialização acadêmica, reforçou-se a presença de condutas produtivistas, por meio dos programas de pós-graduação stricto sensu, que repassam aos agentes as regras do jogo científico, doutrinando-os na maneira de publicar grande quantidade de comunicações em pouco tempo e com menos custos. As análises epistemológicas puderam triangular os dois últimos constructos, a fim de lhes dar validade, e evidenciaram uma preferência por temáticas que envolvem a contabilidade destinada aos usuários externos e procedimentos contábeis destinados ao mercado financeiro, privilegiando a utilização de dados secundários, por meio de pesquisas documentais. Em termos metodológicos, constatou-se a presença unânime de estudos positivistas, com alguns aspectos empiristas, mostrando uma ausência de inovação em termos de pesquisas norteadas por abordagens metodológicas alternativas e utilização de modelos econométricos para explicar a realidade observada sem teoria para embasar e explicar esses modelos. Por fim, a distribuição do capital simbólico no campo, mostrou que individualmente nenhum agente desponta com maior capital científico, mas, institucionalmente, a FEA/USP ocupa essa posição de destaque. Por conseguinte, pôde-se concluir que o campo científico contábil permanece estagnado e sem grandes modificações teóricas, pelo fato do produtivismo e das lutas simbólicas no interior do campo; fatos esses que, de certa maneira, motivaram a criação de uma espécie de \"receita mágica para publicar\" ou \"formato ideal\" legitimado, institucionalizado e difícil de ser modificado, a não ser que ocorra uma revolução científica que mude o paradigma existente

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho trata do projeto e do desenvolvimento de um processador de baixo consumo de potência, de forma simplificada, explorando técnicas de microarquitetura, para atingir menor consumo de potência. É apresentada uma sequência lógica de desenvolvimento, a partir de conceitos e estruturas básicas, até chegar a estruturas mais complexas e, por fim, mostrar a microarquitetura completa do processador. Esse novo modelo de processador é comparado com estudos prévios de três processadores, sendo o primeiro modelo síncrono, o segundo assíncrono e o terceiro uma versão melhorada do primeiro modelo, que inclui minimizações de registradores e circuitos. Uma nova metodologia de criação de padring de microcontroladores, baseada em reuso de informações de projetos anteriores, é apresentada. Essa nova metodologia foi criada para a rápida prototipagem e para diminuir possíveis erros na geração do código do padring. Comparações de resultados de consumo de potência e área são apresentadas para o processador desenvolvido e resultados obtidos com a nova metodologia de geração de padring também são apresentados. Para o processador, um modelo, no qual se utilizam múltiplos barramentos para minimizar o número de ciclos de máquina por instrução, é apresentado. Também foram ressaltadas estruturas que podem ser otimizadas e circuitos que podem ser reaproveitados para diminuir a quantidade de circuito necessário na implementação. Por fim, a nova implementação é comparada com os três modelos anteriores; os ganhos obtidos de desempenho com a implementação dessas estruturas foram de 18% que, convertidos em consumo de potência, representam economia de 13% em relação ao melhor caso dos processadores comparados. A tecnologia utilizada no desenvolvimento dos processadores foi CMOS 250nm da TSMC.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O sucesso de estratégias de controle preditivo baseado em modelo (MPC, na sigla em inglês) tanto em ambiente industrial quanto acadêmico tem sido marcante. No entanto, ainda há diversas questões em aberto na área, especialmente quando a hipótese simplificadora de modelo perfeito é abandonada. A consideração explícita de incertezas levou a importantes progressos na área de controle robusto, mas esta ainda apresenta alguns problemas: a alta demanda computacional e o excesso de conservadorismo são questões que podem ter prejudicado a aplicação de estratégias de controle robusto na prática. A abordagem de controle preditivo estocástico (SMPC, na sigla em inglês) busca a redução do conservadorismo através da incorporação de informação estatística dos ruídos. Como processos na indústria química sempre estão sujeito a distúrbios, seja devido a diferenças entre planta e modelo ou a distúrbios não medidos, está técnica surge como uma interessante alternativa para o futuro. O principal objetivo desta tese é o desenvolvimento de algoritmos de SMPC que levem em conta algumas das especificidades de tais processos, as quais não foram adequadamente tratadas na literatura até o presente. A contribuição mais importante é a inclusão de ação integral no controlador através de uma descrição do modelo em termos de velocidade. Além disso, restrições obrigatórias (hard) nas entradas associadas a limites físicos ou de segurança e restrições probabilísticas nos estados normalmente advindas de especificações de produtos também são consideradas na formulação. Duas abordagens foram seguidas neste trabalho, a primeira é mais direta enquanto a segunda fornece garantias de estabilidade em malha fechada, contudo aumenta o conservadorismo. Outro ponto interessante desenvolvido nesta tese é o controle por zonas de sistemas sujeitos a distúrbios. Essa forma de controle é comum na indústria devido à falta de graus de liberdade, sendo a abordagem proposta a primeira contribuição da literatura a unir controle por zonas e SMPC. Diversas simulações de todos os controladores propostos e comparações com modelos da literatura são exibidas para demonstrar o potencial de aplicação das técnicas desenvolvidas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em um mercado de comércio internacional cada vez mais competitivo existe a necessidade de a infraestrutura do sistema portuário brasileiro modernizar-se, tornando-se mais eficiente do ponto de vista operacional e com capacidade para receber navios de maior porte. Neste cenário, as técnicas de projeto de espaços náuticos precisam ser revistas, utilizando-se de ferramentas mais sofisticadas que permitam otimizar os dimensionamentos sem deixar de lado as questões da eficiência e, principalmente, da segurança operacional. O presente trabalho apresenta uma abordagem experimental para análise do projeto das dimensões de canais de acesso e bacias portuárias, fundamentada no desenvolvimento de um simulador de manobras de navios em modelo físico de escala reduzida, denominado Simulador Analógico de Manobras SIAMA 2014. Além disso, é proposto um sistema completo para avaliação das condições de manobrabilidade de espaços náuticos portuários, desde a calibração da ferramenta de simulação, até a verificação de cenários complexos e situações de emergência. O SIAMA 2014 e o sistema desenvolvido foram aplicados em um estudo de caso, que contou com a participação de práticos e autoridades portuárias na realização de simulações de manobras para verificação das condições de atracação no novo berço do Terminal Portuário Marítimo de Ponta da Madeira, em São Luís do Maranhão. Os resultados deste estudo foram apresentados e discutidos, de forma a mostrar a importância da utilização de modelos físicos reduzidos na simulação de manobra de navios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A teoria de Jean Piaget sobre o desenvolvimento da inteligência tem sido utilizada na área de inteligência computacional como inspiração para a proposição de modelos de agentes cognitivos. Embora os modelos propostos implementem aspectos básicos importantes da teoria de Piaget, como a estrutura do esquema cognitivo, não consideram o problema da fundamentação simbólica e, portanto, não se preocupam com os aspectos da teoria que levam à aquisição autônoma da semântica básica para a organização cognitiva do mundo externo, como é o caso da aquisição da noção de objeto. Neste trabalho apresentamos um modelo computacional de esquema cognitivo inspirado na teoria de Piaget sobre a inteligência sensório-motora que se desenvolve autonomamente construindo mecanismos por meio de princípios computacionais pautados pelo problema da fundamentação simbólica. O modelo de esquema proposto tem como base a classificação de situações sensório-motoras utilizadas para a percepção, captação e armazenamento das relações causais determiníscas de menor granularidade. Estas causalidades são então expandidas espaço-temporalmente por estruturas mais complexas que se utilizam das anteriores e que também são projetadas de forma a possibilitar que outras estruturas computacionais autônomas mais complexas se utilizem delas. O modelo proposto é implementado por uma rede neural artificial feed-forward cujos elementos da camada de saída se auto-organizam para gerar um grafo sensóriomotor objetivado. Alguns mecanismos computacionais já existentes na área de inteligência computacional foram modificados para se enquadrarem aos paradigmas de semântica nula e do desenvolvimento mental autônomo, tomados como base para lidar com o problema da fundamentação simbólica. O grafo sensório-motor auto-organizável que implementa um modelo de esquema inspirado na teoria de Piaget proposto neste trabalho, conjuntamente com os princípios computacionais utilizados para sua concepção caminha na direção da busca pelo desenvolvimento cognitivo artificial autônomo da noção de objeto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em organizações que operam segundo a lógica de serviço há uma mudança estratégica, com o deslocamento da produção de um produto para um valor. Seguindo esta dinâmica, surgiram na Saúde Pública propostas de modelos de atenção alternativos ao hegemônico, centrado em procedimentos e equipamentos. O presente estudo analisou o modelo da Estratégia de Saúde da Família, cuja proposta centra-se nas necessidades do usuário e no vínculo usuário-equipe multiprofissional, tendo como objetivo investigar como a organização e as condições do trabalho influenciam na utilização de recursos imateriais pelas equipes. Consistiu em um estudo de caso realizado junto a oito equipes de saúde da família do município de Caraguatatuba/SP. A metodologia compreendeu observação direta e realização de grupos focais com os profissionais das equipes. A análise abrangeu a categorização dos temas mais relevantes, em especial aqueles que se relacionavam ao uso e desenvolvimento dos recursos imateriais. Os resultados indicaram que, embora os profissionais valorizassem os aspectos relacionais, o processo de trabalho das equipes encontrava-se centrado na produção de procedimentos e informações quantitativos dos atendimentos, não incorporadas às práticas do cuidado. Os recursos imateriais, bem como seus resultados, não encontravam uma forma sistematizada de avaliação. E, dessa forma, enfrentavam desafios para serem apropriados e desenvolvidos como conhecimento pela organização.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese apresenta o desenvolvimento e aplicação de modelos de turbulência, transição laminar-turbulenta e de interações fluido-estrutura ao escoamento externo em cilindro rígido estacionário e em vibrações induzidas por vórtices. Tais desenvolvimentos foram realizados no código ReFRESCO, baseado em técnicas de dinâmica de fluidos computacional (CFD). Realizou-se um estudo quanto ao desempenho do modelo k- SST em extensa faixa de números de Reynolds, segundo o qual se identificaram as deficiências de modelagem para este escoamento. A modelagem adaptativa das escalas (SAS) e o modelo de transição por correlações locais (LCTM), ambos combinados ao SST, melhoraram a aderência aos resultados experimentais para este escoamento, em uma contribuição original deste trabalho. A aplicação de técnicas de verificação e validação possibilitou a estimação de incertezas e erros para os modelos e números de Reynolds e também de identificada como outra contribuição deste trabalho. A combinação da modelagem em SST, SAS e LCTM com movimentos impostos de realizada para números de Reynolds moderados, diferentes frequências e amplitudes de vibração, algo que poucas publicações abordam em detalhes. Com relação aos movimentos livres, este trabalho traz contribuições com a aplicação dos modelos SST e SAS ao estudo de vibrações induzidas por vórtices em dois graus de liberdade, baixa razão de massa e números de Reynolds moderados, mais altos do que normalmente observados na literatura. Por fim, a investigação da importância relativa de efeitos da turbulência aos casos de movimentos livres e impostos, com relação ao caso de cilindro estacionário, comprovou a conjetura formulada na parte inicial deste trabalho, no que tange à escolha do modelo de turbulência em determinadas aplicações. Tal escolha mostrou-se menos decisiva no caso do cilindro em movimento imposto e ainda menos nos movimentos livres, em comparação ao caso estacionário, uma vez que a resposta em movimentos do corpo filtra grande parte dos efeitos turbulentos de ordem superior. Esta observação mostra-se relevante, uma vez que pode permitir simplificações na modelagem e aplicação de ferramentas de CFD em uma classe importante de projetos de engenharia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O Teste Baseado em Modelos (TBM) emergiu como uma estratégia promissora para minimizar problemas relacionados à falta de tempo e recursos em teste de software e visa verificar se a implementação sob teste está em conformidade com sua especificação. Casos de teste são gerados automaticamente a partir de modelos comportamentais produzidos durante o ciclo de desenvolvimento de software. Entre as técnicas de modelagem existentes, Sistemas de Transição com Entrada/Saída (do inglês, Input/Output Transition Systems - IOTSs), são modelos amplamente utilizados no TBM por serem mais expressivos do que Máquinas de Estado Finito (MEFs). Apesar dos métodos existentes para geração de testes a partir de IOTSs, o problema da seleção de casos de testes é um tópico difícil e importante. Os métodos existentes para IOTS são não-determinísticos, ao contrário da teoria existente para MEFs, que fornece garantia de cobertura completa com base em um modelo de defeitos. Esta tese investiga a aplicação de modelos de defeitos em métodos determinísticos de geração de testes a partir de IOTSs. Foi proposto um método para geração de conjuntos de teste com base no método W para MEFs. O método gera conjuntos de teste de forma determinística além de satisfazer condições de suficiência de cobertura da especificação e de todos os defeitos do domínio de defeitos definido. Estudos empíricos avaliaram a aplicabilidade e eficácia do método proposto: resultados experimentais para analisar o custo de geração de conjuntos de teste utilizando IOTSs gerados aleatoriamente e um estudo de caso com especificações da indústria mostram a efetividade dos conjuntos gerados em relação ao método tradicional de Tretmans.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nas Pequenas e Médias Empresas (PMEs) industriais em que o seu produto é essencialmente metal mecânico e o desenvolvimento de produtos é estratégico, surgem questões sobre quais são as metodologias mais adequadas para as diferentes fases de projeto de produto e como implantá-las em um modelo de Processo de Desenvolvimento de Produto (PDP) adequado às necessidades dessas empresas, de modo a aumentar a probabilidade de sucesso do produto. O presente trabalho propõe um modelo de referência do PDP aplicado a PMEs industriais do setor metal mecânico que desenvolvem móveis hospitalares. O modelo é baseado em propostas de PDP da grande área mecânica, especificidades do produto, a saber, móveis hospitalares e dispositivos médicos e em fatores da realidade das PMEs. O trabalho divide-se nas seguintes fases principais: revisão bibliográfica sobre propostas de modelos de gestão do PDP da grande área mecânica e do setor específico de móveis e dispositivos médicos, revisão de normas e regulamentações que tenham influência no PDP, realização de estudos de casos múltiplos de PMEs industriais metal mecânicas que desenvolvem móveis hospitalares, no Brasil e na Colômbia e, por último, síntese de uma proposta final do modelo de referência de PDP, específico para as PMEs industriais do setor metal mecânico que desenvolvem móveis hospitalares, aplicado à realidade do Brasil e da Colômbia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No presente estudo pretendeu-se compreender o efeito da variação do número de pontos da suavização espectral (ou filtro digital) no desenvolvimento de modelos de calibração por FTIR-ATR utilizando técnicas PLS-R para determinações rápidas do teor em metanol e do teor alcoólico em aguardentes. De acordo com o descrito em ANJOS et al. (2016) as zonas espectrais identificadas foram 1607-977 cm-1 e 3057-2864 + 1292-663 cm-1 respetivamente para o teor em metanol e teor alcoólico, com coeficientes de determinação superiores a 96,3 %. O valor de RPD apresenta qualidade suficiente para utilização em laboratório de controlo de qualidade. Foi avaliada a robustez dos modelos para 5, 9, 13, 17, 21 e 25 pontos de suavização para o pré-processamento usando a Primeira Derivada (1stDer), aplicando o algoritmo de Savitzky-Golay.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la actualidad, museos y galerías de todo el mundo realizan exposiciones de un arte que tiene sus orígenes en el espacio urbano. El presente estudio muestra las estrategias posibles que tanto los artistas como las instituciones museológicas y comisarios han adoptado para mostrar el arte urbano en el espacio expositivo. Los objetivos son analizar a través de seis exposiciones llevadas a cabo en Europa, en el transcurso del siglo XXI, las características conceptuales, técnicas y formales para realizar una exposición de arte urbano, buscando la interconexión existente entre el lenguaje artístico propio de este arte y el lenguaje expositivo. Para ello se muestra un contexto histórico en el que se abordan los principales casos desarrollados a lo largo de la historia, orientado a crear una base a un movimiento que actualmente está en pleno auge. Se analiza también el papel adyacente del graffiti con el arte urbano, encontrando tanto grandes similitudes como diferencias, que han coexistido a lo largo de los años complementándose unas con otras, sea entre los artistas, en el espacio urbano y en el espacio expositivo. Bajo la emergencia de muestras de arte urbano en la actualidad, este estudio selecciona seis exposiciones que tuvieron lugar en instituciones europeas desde el 2008. La variedad entre ellas permite realizar un análisis rico en posibilidades, como en Street Art en la Tate Modern, una institución de gran relevancia a nivel internacional y con artistas referentes dentro del movimiento; en Banksy versus Bristol Museum, en la que el mediático y anónimo Banksy crea una muestra heterogénea; con Os Gêmeos en el Museu Berardo en Lisboa se presenta una exposición de uno de los grandes referentes del arte urbano en el mundo, o el Palais de Tokyo que presenta unos espacios propicios para la muestra de este tipo de arte bajo una serie de eventos desarrollados en una amplia línea temporal con una gran variedad de artistas; Lisboa, ciudad distinguida por su implicación con el arte urbano, presenta dos muestras importantes, una en la Fundação EDP-Museu da Electricidade con la figura emergente de Alexandre Farto, y otra en el MUDE con el significativo André Saraiva. Bajo la premisa de que todos estos artistas han desenvuelto o desenvuelven su trabajo en la calle, se estudia su relación con el lenguaje adaptado para el espacio expositivo. El objetivo desarrollado es la búsqueda de una esencia que permita sentir y apreciar el arte urbano en todos sus contenidos, sea formal, técnica o conceptualmente, reflexionando acerca de la naturaleza del mismo para así realizar la complicada descontextualización de presentar un arte en un espacio ajeno a sus raíces. Tras el análisis de las exposiciones, se observan varias formas de abordar la inclusión en el museo, categorizándolas en exposiciones individuales, colectivas, históricas y temáticas, creando cuatro líneas curatoriales. Desde la perspectiva de las estrategias creativas analizadas en las exposiciones, se observan diferentes recursos tanto por parte de los artistas como de las instituciones para introducir el arte urbano en el contexto museológico, encontrando aspectos que coexisten dentro y fuera del espacio expositivo. Además, el estudio examina cómo a lo largo de la historia hubo un intento de aproximación e inclusión del arte popular al espacio expositivo, lo cual desenvolvió un camino para la institución museológica actual, que debe defender un servicio y un compromiso con la sociedad bajo la actual demanda de un público interesado en el arte urbano

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trabalho de projecto de mestrado, Bioestatística, Universidade de Lisboa, Faculdade de Ciências, 2016

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O crescimento económico de um país depende dos fundos disponíveis, quer para o financiamento da formação de capital quer para a sua reposição. Fundos obtidos pelas empresas e organismos públicos através de diversas formas, entre as quais, se destaca a emissão de valores mobiliários. Os aforradores, detentores de recursos, ao comprarem valores mobiliários, aliam uma alta rentabilidade a uma elevada liquidez na remuneração dos seus investimentos. As bolsas de valores são o meio onde as empresas, os organismos públicos e os aforradores, têm a possibilidade de verem esses interesses conciliados de uma maneira eficiente, eficaz e transparente, garantindo assim, uma maior liquidez aos títulos financeiros transaccionados em bolsa de valores. As empresas possuem várias alternativas de financiamento, o mercado de capitais é considerado pelos gestores, a fonte onde o rendimento ou o retorno obtido pode ser maior, perante a contrapartida de se incorrer um maior risco. Este mercado surge como alternativa aos empréstimos bancários, as empresas podem, dessa forma, adquirir financiamento de terceiros, os quais se tornarão accionistas dessa empresa. Podem emitir novas acções no mercado accionista de forma a atrair investidores externos que garantam a sustentabilidade do negócio. As acções possuem diversas caracteristicas e modalidades e fazem com que o capital da empresa seja partilhado por todos os seus accionistas, tendo em conta a proporção por eles adquirida individualmente. Esta dissertação investiga a dinâmica de compra e de venda das acções no mercado bolsista, os factores que determinam o seu preço, assim como os modelos que permitem a avaliação das mesmas e a inferência da taxa de retorno esperada por um investidor. A avaliação das acções é o tema de maior importância para esta análise, mais concretamente, a determinação e previsão do preço, e não apenas o preço propriamente dito, pois este é facultado diáriamente por vários jornais e também na internet. Perante o estudo da determinação de preços de uma acção num horizonte temporal, um investidor pode inferir se as suas acções estão a ser avaliadas sob um preço justo, e mais importante, pode apurar a sua previsão consoante dados e análises de factores. Outro ponto importante abordado nesta investigação tem que ver com a possibilidade das empresas em conhecer o modo como o mercado faz a sua avaliação a fim de tomar decisões certas acerca do orçamento de capital. Apenas se deve julgar a atractividade de um negócio se se souber como são avaliadas as acções. Nos mercados financeiros existe a tendência, por parte dos agentes económicos, de relacionarem o preço com o valor dos títulos financeiros. As decisões para a transacção de títulos financeiros são tomadas segundo a sua comparação. O preço ou cotação de mercado é formado em mercados organizados, pelo que depende das regras de funcionamento do mercado, tais como, os mínimos para transacção ou a variação máxima e mínima permitida. Estão associados a uma transação dependendo assim da procura e oferta dos títulos e incorporam ainda os custos de transacção. A ideia subjacente ao modelo Capital Asset Pricing Model é a de que, os investidores esperam uma recompensa pela preocupação dos investimentos realizados com risco ou com um retorno incerto. Quando se investe em títulos com risco, espera-se um retorno extra (comparando com os Bilhetes do Tesouro sem risco, recebe-se apenas os juros) ou um prémio de risco pela preocupação. A incerteza no retorno dos títulos provem de duas fontes, nomeadamente os factores macroeconómicos, pode-se chamar também, um factor comum, e os factores específicos inerentes à actividade da empresa. O facto comum é assumido como tendo um valor esperado zero pois é medido por nova informação respeitante à macroeconomia. O modelo assume duas ideias fundamentais: em primeiro lugar, existe consenso em relação ao facto dos investidores exigirem um retorno adicional por correrem riscos, e em segundo lugar, os investidores preocupam-se geralmente com o risco de mercado geral que não pode ser eliminado através de diversificação da carteira de investimentos. Este modelo pode ser bastante eficaz pois apenas considera um único factor para o cálculo da rendibilidade esperada de um título financeiro, que é a volatilidade do mercado no geral, a qual pode ser estudada. Ao contrário dos modelos multifactoriais, que incluem vários factores macroeconómicos tornando o objectivo da análise pouco intuitivo e complexo. Existem vários modelos para avaliação dos títulos de uma empresa cotada em bolsa de valores, geralmente estes modelos utilizam taxas de juro sem risco para equilibrar carteiras diversificadas, embora seja necessário analisar o retorno de um título ou carteira sob a influência de diversas variáveis macroeconómicas. Por exemplo outro modelo aplicado neste dissertação é o modelo Arbitrage Pricing Theory que perante o seu resultado comparado com o primeiro modelo, se pode definir qual dos modelos tem uma aplicação mais conclusiva para o mercado accionista português. Este modelo de avaliação por arbitragem estabelece uma relação linear entre o excedente do retorno esperado dos activos face à taxa de juro certa (sem risco) e um conjunto de variáveis. Pressupõe que a taxa de rentabilidade de um activo com risco é uma função linear de um conjunto de factores comuns a todos os activos financeiros. Tem como ideia subjacente, a constituição de uma carteira de não arbitragem, ou seja, uma carteira que não envolve qualquer risco (sistemático ou específico) e não requer investimento inicial pois a venda de certos activos gera fundos para adquirir novos. A metodologia implementada abrange o mercado financeiro e modelos possíveis para esta questão. Para responder às hipóteses de investigação efectuou-se a aplicação efectiva do modelo CAPM e do modelo APT, com a captação de dados oficiais em instituições financeiras e na Bolsa de Valores NYSE Euronext Lisbon. Considerou-se um período temporal num passado próximo de forma a poder obter-se conclusões concretas e indicadores precisos para a sua implementação e desenvolvimento no futuro. A principal conclusão desta dissertação relaciona-se com o facto de não se verificar a total validação da aplicação dos modelos, contudo o modelo CAPM é mais conclusivo do que o modelo APT, pois pode-se afirmar que tem aplicação prática em empresas que se conheça à priori a sua capitalização bolsista e beta anual. Por exemplo, aos títulos financeiros de empresas com capitalizações bolsistas inferiores a cinco mil milhões de euros e com um beta anual inferior a 1 poderá aplicar-se o modelo, assim como a títulos de empresas com capitalizações bolsistas superiores a dez mil milhões de euros e beta anual superior 1,5. Os sectores da Banca e do Papel também poderão ter potencial de aplicação do modelo.