46 resultados para difusão Fickiana


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em Portugal, as décadas de 1930 e 1940 constituem um período importante, quer pela introdução/consolidação tecnológica do cinema sonoro, quer pela acção do Secretariado da Propaganda Nacional. Dentre a multitude de meios de que este organismo se serviu para a difusão da mensagem política do regime do Estado Novo, o cinema desperta em particular a atenção do seu director, António Ferro, como meio privilegiado de comunicação com as massas. Neste artigo procura-se averiguar o papel desempenhado por António Ferro no panorama cinematográfico nacional, a nível da sua acção política sobre o cinema português.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na segunda metade do século XIX foram fundados nas duas maiores cidades do país, Lisboa e Porto, nos anos de 1869 e 1886, respectivamente, dois estabelecimentos de ensino público de contabilidade: o Instituto Comercial de Lisboa e o Instituto Industrial e Comercial do Porto. ...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de Projeto apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Tradução e Interpretação Especializadas, sob orientação da Mestre Graça Chorão

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho destina-se às provas para obtenção do Estatuto de Especialista na Escola Superior de Música, Artes e Espectáculo do Instituto Politécnico do Porto. Com ele pretendo abordar a música portuguesa para clarinete e electrónica, com a qual gravei o meu último disco que acaba de ser editado pela Miso Records. O propósito não é falar apenas sobre o disco em si mas, sobretudo, da música que lhe dá corpo. Descrever um pouco esta música, que envolve um instrumento com 300 anos, que é o clarinete, e uma tecnologia que evolui todos os dias, centrado nos seus aspectos performativos. Este disco acabou por ser uma consequência de um processo que é, fundamentalmente, de performance e de tudo o que a precede e envolve. É isso que tentarei explorar aqui. Há mais de 10 anos que tinha o objectivo de explorar, enquanto intérprete, o repertório para clarinete solo e electrónica. No entanto, esse desejo foi sendo sucessivamente adiado por diversas razões que se prendem fundamentalmente com a especificidade de um projeto desta natureza e com as necessidades de vária ordem que exige. As condições para a realização desse projeto pessoal começaram a criar-se em 2007, com o aparecimento do Sond’Ar-te Electric Ensemble e com a minha integração nesse grupo. Sendo um agrupamento criado no seio da Miso Music Portugal com o propósito de fazer fundamentalmente música mista, estava encontrado o parceiro ideal para que pudesse fazer música para clarinete e electrónica com regularidade. Por se tratar de uma instituição que privilegia sobretudo a criação e divulgação da música e dos músicos portugueses, o repertório a trabalhar começou por ser, naturalmente, o de compositores portugueses que já tivessem obras ou que estivessem a compor para clarinete e electrónica. Com a realização de vários concertos, bem como a estreia e rodagem de algumas obras, em 2009 decidimos fazer a gravação de 6 dessas obras para posterior edição em disco. Essa gravação, realizada em Dezembro de 2009, acaba de ser editado pela Miso Records e são essas obras que decidi explorar neste trabalho. Escolhi este repertório por várias razões, sendo as mais importantes o conhecimento das obras e da sua história enquanto intérprete, tendo mesmo estado envolvido em algumas delas desde o seu início, e a proximidade pessoal e musical que mantenho com os compositores. Para este trabalho procurei fazer uma resenha da história das obras e explorar dois aspectos que me parecem pertinentes neste tipo de repertório: por um lado, a relação que é absolutamente necessária entre intérprete e compositor para a criação desta música e por outro, um novo paradigma que surge, naturalmente, da relação dos compositores com o público, pelo seu envolvimento direto com o som que é produzido. Para isso, para além da experiência pessoal, contei com o envolvimento dos compositores na resposta a um questionário que lhes enviei. Esse questionário foi elaborado com o objectivo de explorar dois aspectos: as diferenças entre a electrónica em tempo real e em tempo diferido e também o do papel dos intérpretes na motivação para a composição e como catalisadores e fontes de informação técnica para o trabalho dos compositores. Começarei por abordar a música mista, na sua envolvente performativa. Antes de mais, importa delimitar conceitos e compreender o que é este tipo de música. Poderemos, neste caso concreto, considerar a música que foi, e continua a ser, composta para clarinete e electrónica. No entanto, entendo por música mista toda a música que relaciona a electrónica com instrumentos ditos acústicos. Embora reconhecendo que esta é uma forma um pouco ambígua de definir o conceito, será porventura a que se explicará por poucas palavras e de uma forma simples. Digo ambígua porque se considerarmos que a música electrónica, para ser escutada, tem de passar por processos acústicos de difusão, teríamos aqui um problema para definir o que é e o que não é acústico. Consideremos então os instrumentos tradicionais, sem qualquer processo eléctrico ou electrónico na sua origem sonora, como acústicos, ainda que para efeitos de difusão conjunta com a electrónica sejam, em muitos casos, amplificados e/ou equalizados de forma a poder obter-se uma interpretação coesa e optimizar-se uma sonoridade conjunta. Neste caso, que é o da música mista para clarinete de compositores portugueses, começaria por abordar os aspectos performativos dividindo-os em duas classes importantes que se prendem com a forma como a electrónica é apresentada: em tempo real ou em tempo diferido. Se a música com electrónica em tempo real depende do sinal emitido pelo instrumento, e a partir daí a electrónica é processada e gerada através de programas como Max/MSP, o mais utilizado hoje em dia, a música electrónica em tempo diferido está toda predefinida à partida e é apresentada em suporte físico, sob a forma de um ou vários ficheiros áudio que são difundidos ao longo da performance. Há também quem utilize os dois processos de forma concorrente e complementar na mesma obra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O movimento de afirmação eXtensible Business Reporting Language (XBRL), como padrão para a preparação e difusão dos relatórios financeiros e outras publicações empresariais, foi encabeçado pelo American lnstitute of Certified Public Accountants (AICPA) em conjunto com aproximadatnente outras 30 organizações. Desde o primeiro encontro internacional sobre a especificação XBRL, realizado em Nova York no mês de Outubro de 1999, que a lista de participantes se tem alargado incluindo proeminentes instituições financeiras, organizações profissionais de serviços, organizações profissionais de contabilidade e fornecedores de tecnologia sobrevindo, ao mesmo tempo, um incontável número de alianças e ligações. A XBRL é uma linguagem standard utilizada no ambiente da Internet cujo desenvolvimento permitirá obter uma informação de melhor qualidade, mais rápida, mais económica e mais eficaz, para o processo de criação e publicação de relatórios financeiros e empresariais. Neste artigo os autores apresentam, resumidamente, as vantagens referidas pela literatura para esta nova tecnologia, descrevem sumariamente as características técnicas da XBRL, traçam o seu percurso desde 1999 e analisam o potencial deste standard para Portugal, bem como a sua aplicação em diferentes áreas de investigação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a expansão da Televisão Digital e a convergência entre os meios de difusão convencionais e a televisão sobre IP, o número de canais disponíveis tem aumentado de forma gradual colocando o espectador numa situação de difícil escolha quanto ao programa a visionar. Sobrecarregados com uma grande quantidade de programas e informação associada, muitos espectadores desistem sistematicamente de ver um programa e tendem a efectuar zapping entre diversos canais ou a assistir sempre aos mesmos programas ou canais. Diante deste problema de sobrecarga de informação, os sistemas de recomendação apresentam-se como uma solução. Nesta tese pretende estudar-se algumas das soluções existentes dos sistemas de recomendação de televisão e desenvolver uma aplicação que permita a recomendação de um conjunto de programas que representem potencial interesse ao espectador. São abordados os principais conceitos da área dos algoritmos de recomendação e apresentados alguns dos sistemas de recomendação de programas de televisão desenvolvidos até à data. Para realizar as recomendações foram desenvolvidos dois algoritmos baseados respectivamente em técnicas de filtragem colaborativa e de filtragem de conteúdo. Estes algoritmos permitem através do cálculo da similaridade entre itens ou utilizadores realizar a predição da classificação que um utilizador atribuiria a um determinado item (programa de televisão, filme, etc.). Desta forma é possível avaliar o nível de potencial interesse que o utilizador terá em relação ao respectivo item. Os conjuntos de dados que descrevem as características dos programas (título, género, actores, etc.) são armazenados de acordo com a norma TV-Anytime. Esta norma de descrição de conteúdo multimédia apresenta a vantagem de ser especificamente vocacionada para conteúdo audiovisual e está disponível livremente. O conjunto de recomendações obtidas é apresentado ao utilizador através da interacção com uma aplicação Web que permite a integração de todos os componentes do sistema. Para validação do trabalho foi considerado um dataset de teste designado de htrec2011-movielens-2k e cujo conteúdo corresponde a um conjunto de filmes classificados por diversos utilizadores num ambiente real. Este conjunto de filmes possui, para além da classificações atribuídas pelos utilizadores, um conjunto de dados que descrevem o género, directores, realizadores e país de origem. Para validação final do trabalho foram realizados diversos testes dos quais o mais relevante correspondeu à avaliação da distância entre predições e valores reais e cujo objectivo é classificar a capacidade dos algoritmos desenvolvidos preverem com precisão as classificações que os utilizadores atribuiriam aos itens analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objectivo da Realidade Virtual é simples de entender mas muito difícil de implementar: criar ambientes completamente indiferenciáveis do mundo real com os quais se possa interagir de um modo natural. Desde a criação do Sensorama por Morton Heiling em 1962, passando pela difusão do conceito pelo público geral na década de 90 até os dias de hoje, a evolução da Realidade Virtual tem sido constante. Este conjunto de tecnologias tem estado envolvido por uma certa descrença por parte da sociedade, motivada pelas grandes expectativas que lhe foram atribuídas e pelo estado de desenvolvimento do hardware aquando do seu auge. No entanto, actualmente assiste-se a um ressurgimento do seu interesse no público geral com a introdução de imagem estereoscópica no cinema ou o sucesso dos controladores da consola Nintendo Wii. Hoje em dia as suas aplicações são muito variadas: desde o treino de pilotos de avião ao tratamento de fobias, passando pela industria do entretenimento e a visita virtual de locais com interesse histórico ou turístico. O objectivo desta tese de mestrado é explorar uma área que ainda não tem sido muito abrangida pela Realidade Virtual e que cobre também aspectos educacionais e lúdicos de modo a ser um factor de atracção para os estudantes do ensino secundário: a simulação de instrumentos musicais. Para tal foi implementado um sistema capaz de simular instrumentos musicais de percussão (uma bateria) utilizando imagem estereoscópica, som posicional e interfaces com o utilizador realistas. Os resultados obtidos nas sessões de avaliação efectuadas por alunos recentemente ingressados no ensino superior demonstram que o sistema desenvolvido, bem como a inovação em interfaces do utilizador com os dispositivos electrónicos de uma forma geral, constituem um meio efectivo na sua motivação para a escolha de um curso na área da engenharia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho de pesquisa e desenvolvimento tem como fundamento principal o Conceito de Controlo por Lógica Difusa. Utilizando as ferramentas do software Matlab, foi possível desenvolver um controlador com base na inferência difusa que permitisse controlar qualquer tipo de sistema físico real, independentemente das suas características. O Controlo Lógico Difuso, do inglês “Fuzzy Control”, é um tipo de controlo muito particular, pois permite o uso simultâneo de dados numéricos com variáveis linguísticas que tem por base o conhecimento heurístico dos sistemas a controlar. Desta forma, consegue-se quantificar, por exemplo, se um copo está “meio cheio” ou “meio vazio”, se uma pessoa é “alta” ou “baixa”, se está “frio” ou “muito frio”. O controlo PID é, sem dúvida alguma, o controlador mais amplamente utilizado no controlo de sistemas. Devido à sua simplicidade de construção, aos reduzidos custos de aplicação e manutenção e aos resultados que se obtêm, este controlador torna-se a primeira opção quando se pretende implementar uma malha de controlo num determinado sistema. Caracterizado por três parâmetros de ajuste, a saber componente proporcional, integral e derivativa, as três em conjunto permitem uma sintonia eficaz de qualquer tipo de sistema. De forma a automatizar o processo de sintonia de controladores e, aproveitando o que melhor oferece o Controlo Difuso e o Controlo PID, agrupou-se os dois controladores, onde em conjunto, como poderemos constatar mais adiante, foram obtidos resultados que vão de encontro com os objectivos traçados. Com o auxílio do simulink do Matlab, foi desenvolvido o diagrama de blocos do sistema de controlo, onde o controlador difuso tem a tarefa de supervisionar a resposta do controlador PID, corrigindo-a ao longo do tempo de simulação. O controlador desenvolvido é denominado por Controlador FuzzyPID. Durante o desenvolvimento prático do trabalho, foi simulada a resposta de diversos sistemas à entrada em degrau unitário. Os sistemas estudados são na sua maioria sistemas físicos reais, que representam sistemas mecânicos, térmicos, pneumáticos, eléctricos, etc., e que podem ser facilmente descritos por funções de transferência de primeira, segunda e de ordem superior, com e sem atraso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento do mercado electrónico e o aumento das comunicações além-fronteiras, resultante sobretudo da difusão da Internet, repercutiu-se, de modo intenso, na indústria de tradução, particularmente, na exigência crescente da tradução de websites, e, sobretudo, na localização de software. Para melhor perceber esta realidade e, de modo a contribuir para uma maior sistematização do conhecimento nesta área, o presente artigo inicia-se com uma breve análise sobre a evolução dos conceitos e dos mercados da tradução e da localização. Procura distinguir entre os diferentes prestadores de serviços de tradução, nomeadamente, empresas e agências e descreve o processo seguido na elaboração de projectos de localização, reconhecendo a tradução como elemento integrante do projecto de localização. Com base na interpretação dos conceitos de projecto e de gestão de projectos descreve-se o processo de gestão de projectos de tradução. Sendo o gestor de projectos o elemento essencial deste processo, analisam-se as funções e competências do mesmo e descrevem-se as tarefas e processos usados por este profissional, tendo em conta o ciclo de vida e os elementos que compõem o processo de gestão de projectos. A partir desta análise propõe-se um modelo de gestão de projectos de tradução/localização baseado na conjugação dos diferentes elementos afectos à gestão e ao gestor de projectos e que procura sintetizar todo o processo inerente à gestão de projectos de tradução/localização. O modelo resulta de dois pontos de vista que se interligam: o da análise e reflexão sobre o estado-da-arte e o da análise empírica dos dados recolhidos no dia-a-dia no universo de trabalho de uma empresa de tradução. Com este modelo, que retrata um processo cíclico e dinâmico, pretende-se, por um lado, ilustrar a complexidade do processo da gestão de projectos e demonstrar a importância das funções do gestor de projectos no vasto universo que é o da tradução e, por outro, desenvolver e propor um modelo de gestão de projectos aplicável a empresas de tradução e de localização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Gestão das Organizações, Ramo de Gestão de Empresas. Orientada por Prof. Doutor Manuel Salvador Gomes de Araújo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado em História Contemporânea

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos começaram a ser vulgares os computadores dotados de multiprocessadores e multi-cores. De modo a aproveitar eficientemente as novas características desse hardware começaram a surgir ferramentas para facilitar o desenvolvimento de software paralelo, através de linguagens e frameworks, adaptadas a diferentes linguagens. Com a grande difusão de redes de alta velocidade, tal como Gigabit Ethernet e a última geração de redes Wi-Fi, abre-se a oportunidade de, além de paralelizar o processamento entre processadores e cores, poder em simultâneo paralelizá-lo entre máquinas diferentes. Ao modelo que permite paralelizar processamento localmente e em simultâneo distribuí-lo para máquinas que também têm capacidade de o paralelizar, chamou-se “modelo paralelo distribuído”. Nesta dissertação foram analisadas técnicas e ferramentas utilizadas para fazer programação paralela e o trabalho que está feito dentro da área de programação paralela e distribuída. Tendo estes dois factores em consideração foi proposta uma framework que tenta aplicar a simplicidade da programação paralela ao conceito paralelo distribuído. A proposta baseia-se na disponibilização de uma framework em Java com uma interface de programação simples, de fácil aprendizagem e legibilidade que, de forma transparente, é capaz de paralelizar e distribuir o processamento. Apesar de simples, existiu um esforço para a tornar configurável de forma a adaptar-se ao máximo de situações possível. Nesta dissertação serão exploradas especialmente as questões relativas à execução e distribuição de trabalho, e a forma como o código é enviado de forma automática pela rede, para outros nós cooperantes, evitando assim a instalação manual das aplicações em todos os nós da rede. Para confirmar a validade deste conceito e das ideias defendidas nesta dissertação foi implementada esta framework à qual se chamou DPF4j (Distributed Parallel Framework for JAVA) e foram feitos testes e retiradas métricas para verificar a existência de ganhos de performance em relação às soluções já existentes.