985 resultados para Auto-modelos
Resumo:
Significant reduction of inherent large divergence of the laser driven MeV proton beams is achieved by strong (of the order of 10^9 V/m ) electrostatic focussing field generated in the confined region of a suitably shaped structure attached to the proton generating foil. The scheme exploits the positively charging of the target following an intense laser interaction. Reduction in the proton beam divergence, and commensurate increase in proton flux is observed while preserving the beam laminarity. The underlying mechanism has been established by the help of particle tracing simulations. Dynamic focussing power of the lens, mainly due to the target discharging, can also be exploited in order to bring up the desired chromaticity of the lens for the proton beams of broad energy range.
Resumo:
A IC constitui-se como um grande problema de saúde associado a uma elevada morbilidade e mortalidade do doente, e a prevalência e incidência continuam a aumentar, devido sobretudo à isquemia aguda ou crónica, à maior resistência vascular derivada da hipertensão, ou ao desenvolvimento de taquiarritmias, como a fibrilação auricular. Trata-se de uma alteração de saúde grave que necessita de abordagens terapêuticas farmacológicas e não farmacológicas. No que respeita ao tratamento não farmacológico o enfermeiro tem uma intervenção determinante, que os enunciados descritivos da Ordem dos Enfermeiros descrevem como a promoção e monitorização do autocuidado do doente. O autocuidado pode ser definido por um conjunto de ações destinadas a manter a estabilidade física e a evitar comportamentos conducentes ao agravamento da situação e à deteção o mais precoce possível de sintomas de descompensação (European Society of Cardiology, 2008). Neste sentido considerámos pertinente validar a SCHFI V 6.2, Escala de avaliação do autocuidado do doente com Insuficiência Cardíaca, na população Portuguesa. A amostra do estudo é composta por 90 participantes de dois hospitais que tem consulta de enfermagem à pessoa com insuficiência cardíaca. A idade média dos participantes foi de 69,0 anos com desvio padrão de 10,5 anos, sendo 63 do sexo masculino e 26 do sexo feminino. No que respeita aos valores da escala para a população Portuguesa, estes apresentam nas três subescalas valores maioritariamente superiores a 50%, com alguma similitude aos valores apresentados na escala original. Consideramos que a Escala de Auto-Cuidado para A Pessoa Com Insuficiência Cardíaca é uma importante ferramenta de trabalho. Pois permite fazer o levantamento de informação pertinente que ajuda a centrar as intervenções e a promover as intervenções mais adequadas no que respeita à promoção e monitorização do autocuidado do doente com insuficiência cardíaca.
Resumo:
Processos e Modelos de Raciocínio na Tomada de Decisão: contributos concetuais e interrogações Dulce Magalhães - Departamento de Enfermagem, Universidade de Évora Manuel Lopes - Departamento de Enfermagem, Universidade de Évora Ana Fonseca - Departamento de Enfermagem, Universidade de Évora Os enfermeiros que integram as equipas de unidades de cuidados hospitalares têm que prevenir, minimizar e corrigir situações clínicas instáveis. Em consequência disso defrontam-se diária e sistematicamente com a obrigatoriedade de tomar decisões no contexto da ação (Thompson & Dowding, 2005) e agir em conformidade. Eles têm que tomar decisões num espaço que não é reservado e que está confinado a uma teia de relações que acontecem entre o doente, a família e os restantes membros da equipa de saúde (Benner et al, 2011; Tanner, 2006, Lopes, 2006). Um espaço onde acontecem múltiplas interrupções que provêm de procedimentos de trabalho e exigências constantes de atenção a cada doente (Hedberg & Larsson, 2004; Potter et al, 2005; Wolf et al, 2006). São decisões processuais e multidimensionais que têm que considerar em simultâneo, o que deve ser feito, como deve ser feito e quando deve ser feito, no respeito da singularidade do doente e do seu contexto circundante (Gillespie, 2009). Esta dinâmica também está interligada com os dados clínicos que recorrentemente emergem, bem como à acessibilidade, multiplicidade e ambiguidade dos dados clínicos (Junnola et al, 2002; Carnevali &Thomas, 1993 Simmons, 2010), ao tempo de decisão e às decisões conflituosas (Thompson, 2004). São ambientes clínicos onde acontecem contingências, algumas delas aleatórias, que exigem que os enfermeiros independentemente dos níveis de proficiência sejam obrigados a tomar decisões complexas de forma rápida e precisa, para optimizar os resultados esperados (Curry & Botti, 2006). O conhecimento e o raciocínio que os enfermeiros usam na tomada de decisão são elementos, entre outros, que definem muito da prática profissional (Cody, 2006). Por isso, conscientes da realidade enunciada através da investigação que tem vindo a ser desenvolvida, foi nossa intenção analisar criticamente os modelos de decisão que têm expressão na literatura de enfermagem e que têm sido desenvolvidos em diferentes áreas do conhecimento (Concoran-Perry et al, 1999), no sentido de reconhecer o seu poder explicativo para a tomada de decisão dos enfermeiros. Alguns deles são apresentados numa estrutura normativa, outros numa descritiva e em função disso, podem dividir-se em duas categorias teóricas, sistemático-positivista e intuitivo-humanista (Thompson, 1999; Aitken, Marshall, Elliott & McKinley, 2007). As abordagens sistemático-positivistas sugerem que a tomada de decisão acontece num processo sequencial previamente definido e explicitado. Assentam no pressuposto que existe alguma atividade de análise ou de resolução de problemas em curso, para o enfermeiro tomar uma decisão. Nas abordagens intuitivo-humanistas a decisão é entendida no seio de um processo como um todo e no contexto de uma abordagem naturalista (Benner, 1984; Thompson, 1999). Elas podem ser diferenciadas, desde logo, a partir dos seus centros de interesse. Enquanto a primeira se interessa pelo número de dados e pelos processos de análise cognitiva para uma melhor decisão. A segunda dá primazia aos contextos relacionais e de comunicação com os doentes e serve-se da performance clínica para eleger as melhores ações.
Resumo:
Os Modelos de Equações Simultâneas (SEM) são modelos estatísticos com muita tradição em estudos de Econometria, uma vez que permitem representar e estudar uma vasta gama de processos económicos. Os estimadores mais usados em SEM resultam da aplicação do Método dos Mínimos Quadrados ou do Método da Máxima Verosimilhança, os quais não são robustos. Em Maronna e Yohai (1997), os autores propõem formas de “robustificar” esses estimadores. Um outro método de estimação com interesse nestes modelos é o Método dos Momentos Generalizado (GMM), o qual também conduz a estimadores não robustos. Estimadores que sofrem de falta de robustez são muito inconvenientes uma vez que podem conduzir a resultados enganadores quando são violadas as hipóteses subjacentes ao modelo assumido. Os estimadores robustos são de grande valor, em particular quando os modelos em estudo são complexos, como é o caso dos SEM. O principal objectivo desta investigação foi o de procurar tais estimadores tendo-se construído um estimador robusto a que se deu o nome de GMMOGK. Trata-se de uma versão robusta do estimador GMM. Para avaliar o desempenho do novo estimador foi feito um adequado estudo de simulação e foi também feita a aplicação do estimador a um conjunto de dados reais. O estimador robusto tem um bom desempenho nos modelos heterocedásticos considerados e, nessas condições, comporta-se melhor do que os estimadores não robustos usados no estudo. Contudo, quando a análise é feita em cada equação separadamente, a especificidade de cada equação individual e a estrutura de dependência do sistema são dois aspectos que influenciam o desempenho do estimador, tal como acontece com os estimadores usuais. Para enquadrar a investigação, o texto inclui uma revisão de aspectos essenciais dos SEM, o seu papel em Econometria, os principais métodos de estimação, com particular ênfase no GMM, e uma curta introdução à estimação robusta.
Resumo:
A análise das séries temporais de valores inteiros tornou-se, nos últimos anos, uma área de investigação importante, não só devido à sua aplicação a dados de contagem provenientes de diversos campos da ciência, mas também pelo facto de ser uma área pouco explorada, em contraste com a análise séries temporais de valores contínuos. Uma classe que tem obtido especial relevo é a dos modelos baseados no operador binomial thinning, da qual se destaca o modelo auto-regressivo de valores inteiros de ordem p. Esta classe é muito vasta, pelo que este trabalho tem como objectivo dar um contributo para a análise estatística de processos de contagem que lhe pertencem. Esta análise é realizada do ponto de vista da predição de acontecimentos, aos quais estão associados mecanismos de alarme, e também da introdução de novos modelos que se baseiam no referido operador. Em muitos fenómenos descritos por processos estocásticos a implementação de um sistema de alarmes pode ser fundamental para prever a ocorrência de um acontecimento futuro. Neste trabalho abordam-se, nas perspectivas clássica e bayesiana, os sistemas de alarme óptimos para processos de contagem, cujos parâmetros dependem de covariáveis de interesse e que variam no tempo, mais concretamente para o modelo auto-regressivo de valores inteiros não negativos com coeficientes estocásticos, DSINAR(1). A introdução de novos modelos que pertencem à classe dos modelos baseados no operador binomial thinning é feita quando se propõem os modelos PINAR(1)T e o modelo SETINAR(2;1). O modelo PINAR(1)T tem estrutura periódica, cujas inovações são uma sucessão periódica de variáveis aleatórias independentes com distribuição de Poisson, o qual foi estudado com detalhe ao nível das suas propriedades probabilísticas, métodos de estimação e previsão. O modelo SETINAR(2;1) é um processo auto-regressivo de valores inteiros, definido por limiares auto-induzidos e cujas inovações formam uma sucessão de variáveis independentes e identicamente distribuídas com distribuição de Poisson. Para este modelo estudam-se as suas propriedades probabilísticas e métodos para estimar os seus parâmetros. Para cada modelo introduzido, foram realizados estudos de simulação para comparar os métodos de estimação que foram usados.
Resumo:
A violência sexual contra mulheres e crianças é um fenómeno social e de saúde pública, transversal a diferentes culturas e épocas históricas. A consciencialização deste fenómeno ocorre porém num milénio em que a auto-determinação das mulheres e os direitos fundamentais das crianças passaram a ser considerados pelas principais estâncias políticas. Paralelamente, também a ciência tem dado o seu contributo para a compreensão e resolução destes crimes. Os estudos acerca dos mecanismos de predisposição para a agressão sexual visam a reabilitação dos indivíduos que cometeram ofensas sexuais, prevenindo a reincidência destes comportamentos. O objectivo é diminuir o número de vítimas, intervindo no agressor. O trabalho que apresentamos teve por finalidade investigar potenciais factores de predisposição para a agressão sexual em sujeitos do sexo masculino condenados por crime de violação e abuso sexual de menores, mas também em estudantes universitários com história de violência sexual. Pretendeu-se avaliar de que forma os esquemas precoces mal adaptativos, os mecanismos de inibição/excitação sexual e a personalidade intervêm nestas diferentes formas de violência sexual. Os resultados deste trabalho indicaram que as dimensões avaliadas poderão contribuir para a predisposição e/ou manutenção dos comportamentos de agressão sexual. Adicionalmente, verificou-se que as diferentes formas de violência sexual (violação, abuso sexual de menores e violência sexual em estudantes universitários) são caracterizadas por perfis distintos, e que esta especificidade poderá ser determinante na elaboração de modelos de conceptualização da agressão sexual.
Resumo:
Um dos objetivos centrais da escola atual é o de desenvolver nos alunos competências que lhes permitam adaptar-se à sociedade em constante transformação e não apenas a veiculação de conteúdos académicos. No entanto, vários estudos mostram que existem dificuldades na transferência das aprendizagens da sala de aula para o mundo real. Uma das razões apontadas é o facto de os conhecimentos de sala de aula não serem bem integrados com os conhecimentos anteriores do aluno. Para que ocorram aprendizagens significativas, torna-se, portanto, necessário que o professor leve em consideração, no planeamento de estratégias de ensino, os conhecimentos anteriores e expectativas dos alunos, as suas questões e ideias. Para que tal aconteça, é essencial que os alunos interajam com o professor, agindo como parceiros no processo de ensino e de aprendizagem, exprimindo as suas ideias, dúvidas e expectativas. Assim sendo, nesta investigação procurou-se aumentar a participação dos alunos através da criação de momentos que lhes permitissem explorar as suas ideias e escrever as suas questões. As ‘produções’ orais e escritas dos alunos foram objeto de reflexão e análise pela professora-investigadora, e levadas em consideração no planeamento das aulas subsequentes. Os dados foram recolhidos através de observação participante e não-participante, de anotações do investigador, de questões e respostas escritas pelos alunos, e da gravação áudio das interações orais das aulas. O método de investigação adotado foi o estudo de caso, sendo a investigação de carácter qualitativo. Pese as limitações do estudo no que diz respeito à dimensão da amostra, os resultados apontam no sentido de que as estratégias aplicadas estimularam a participação dos alunos. A comparação entre o número de questões escritas pelos alunos e o número de intervenções orais em algumas das aulas lecionadas revelou que o número de alunos que escreveram questões foi superior ao número de alunos que intervieram oralmente. Constatou-se, ainda, que nas aulas em que não existiu um momento exclusivamente dedicado a esta atividade, o número de questões escritas pelos alunos foi menor do que o obtido nas aulas em que aquele tempo foi disponibilizado. Estes dados sugerem que a criação de momentos de escrita de questões permite aumentar a participação dos alunos, o que foi já anteriormente defendido por vários autores. Também os momentos de trabalho em grupo constituíram um espaço importante para a exploração das ideias dos alunos, o que se tornou visível pela grande atividade dentro dos grupos, com apresentação de argumentos, construção conjunta de conhecimentos e, sobretudo, pela variedade de propostas que surgiram como forma de dar resposta a questões idênticas das fichas de trabalho. De facto, constatou-se que um maior número de alunos participava nas discussões em turma, quando estas se seguiam aos momentos de trabalho em grupo, do que quando eram realizadas após a exposição dos temas programáticos. Em suma, o que estas constatações sugerem é que a inclusão de momentos de trabalho autónomo, com a possibilidade de trocar ideias com os colegas, pode contribuir para aumentar a motivação dos alunos para intervir na aula. A recolha de questões forneceu informação acerca de falhas no conhecimento e dúvidas implícitas e explicitas na expressão escrita dos alunos, o que corrobora os resultados encontrados por outros estudos. Da mesma forma, a análise do discurso oral dos alunos e das suas respostas escritas constituiu uma fonte de informação importante relativamente àqueles aspetos. A reflexão sobre estas permitiu à professora-investigadora fazer ajustes e planear estratégias adequadas à melhoraria dos aspetos em que foram identificados problemas. O uso das ‘produções’ escritas e orais dos alunos para discussão em aulas posteriores constituiu uma forma de promover interações aluno-aluno, permitiu aceder às dúvidas de outros alunos, que se identificaram com as ideias expressas nas questões escritas, respostas escritas e manifestações orais dos seus colegas, e ajudou a integrar os alunos na gestão do processo de ensino e aprendizagem. No que diz respeito à tentativa de estimular os alunos a reformularem as suas respostas, o pedido explícito de reformulação parece aumentar a predisposição dos alunos para fazerem alterações, quando comparado com os casos em que esse pedido não existiu. Estes resultados sugerem que esta estratégia tem a potencialidade de favorecer a reflexão dos alunos sobre as suas próprias ideias. No final da dissertação, apresentam-se as limitações deste estudo e propõem-se sugestões para melhorar e aprofundar as estratégias implementadas.
Resumo:
Traduzir Macau é uma proposta de trabalho que tem por base o auto-referencial como exercício de produção e de auto-reflexão. É um projeto que tem como estratégia o uso do relacionamento do processo criativo com a vivência, nomeadamente as expectativas e consequências da passagem pelo território de Macau a pretexto de uma exposição na Livraria Portuguesa. Ao investigar na arte o padrão auto-referencial, pretendeuse abrir uma perspectiva crítica e sensível de observação e análise da arte contemporânea.
Resumo:
Portugal é um dos países europeus com melhor cobertura espacial e populacional de rede de autoestradas (5º entre os 27 da UE). O acentuado crescimento desta rede nos últimos anos leva a que seja necessária a utilização de metodologias de análise e avaliação da qualidade do serviço que é prestado nestas infraestruturas, relativamente às condições de circulação. Usualmente, a avaliação da qualidade de serviço é efetuada por intermédio de metodologias internacionalmente aceites, das quais se destaca a preconizada no Highway Capacity Manual (HCM). É com esta última metodologia que são habitualmente determinados em Portugal, os níveis de serviço nas diversas componentes de uma autoestrada (secções correntes, ramos de ligação e segmentos de entrecruzamento). No entanto, a sua transposição direta para a realidade portuguesa levanta algumas reservas, uma vez que os elementos que compõem o ambiente rodoviário (infraestrutura, veículo e condutor) são distintos dos da realidade norte-americana para a qual foi desenvolvida. Assim, seria útil para os atores envolvidos no setor rodoviário dispor de metodologias desenvolvidas para as condições portuguesas, que possibilitassem uma caracterização mais realista da qualidade de serviço ao nível da operação em autoestradas. No entanto, importa referir que o desenvolvimento de metodologias deste género requer uma quantidade muito significativa de dados geométricos e de tráfego, o que acarreta uma enorme necessidade de meios, quer humanos, quer materiais. Esta abordagem é assim de difícil execução, sendo por isso necessário recorrer a metodologias alternativas para a persecução deste objetivo. Ultimamente tem-se verificado o uso cada vez mais generalizado de modelos de simulação microscópica de tráfego, que simulando o movimento individual dos veículos num ambiente virtual permitem realizar análises de tráfego. A presente dissertação apresenta os resultados obtidos no desenvolvimento de uma metodologia que procura recriar, através de simuladores microscópicos de tráfego, o comportamento das correntes de tráfego em secções correntes de autoestradas com o intuito de, posteriormente, se proceder à adaptação da metodologia preconizada no HCM (na sua edição de 2000) à realidade portuguesa. Para tal, com os simuladores microscópicos utilizados (AIMSUN e VISSIM) procurou-se reproduzir as condições de circulação numa autoestrada portuguesa, de modo a que fosse possível analisar as alterações sofridas no comportamento das correntes de tráfego após a modificação dos principais fatores geométricos e de tráfego envolvidos na metodologia do HCM 2000. Para o efeito, realizou-se uma análise de sensibilidade aos simuladores de forma a avaliar a sua capacidade para representar a influência desses fatores, com vista a, numa fase posterior, se quantificar o seu efeito para a realidade nacional e dessa forma se proceder à adequação da referida metodologia ao contexto português. Em resumo, o presente trabalho apresenta as principais vantagens e limitações dos microssimuladores AIMSUN e VISSIM na modelação do tráfego de uma autoestrada portuguesa, tendo-se concluído que estes simuladores não são capazes de representar de forma explícita alguns dos fatores considerados na metodologia do HCM 2000, o que impossibilita a sua utilização como ferramenta de quantificação dos seus efeitos e consequentemente inviabiliza a adaptação dessa metodologia à realidade nacional. São, no entanto, referidas algumas indicações de como essas limitações poderão vir a ser ultrapassadas, com vista à consecução futura dessa adequação.
Resumo:
É extensa a bibliografia dedicada a potenciais aplicações de materiais com mudança de fase na regulação térmica e no armazenamento de calor ou de frio. No entanto, a baixa condutividade térmica impõe limitações numa grande diversidade de aplicações com exigências críticas em termos de tempo de resposta curto ou com requisitos de elevada potência em ciclos de carga/descarga de calor latente. Foram desenvolvidos códigos numéricos no sentido de obter soluções precisas para descrever a cinética da transferência de calor com mudança de fase, com base em geometrias representativas, i.e. planar e esférica. Foram igualmente propostas soluções aproximadas, sendo identificados correspondentes critérios de validação em função das propriedades dos materiais de mudança de fase e de outros parâmetros relevantes tais como as escalas de tamanho e de tempo, etc. As referidas soluções permitiram identificar com rigor os fatores determinantes daquelas limitações, quantificar os correspondentes efeitos e estabelecer critérios de qualidade adequados para diferentes tipologias de potenciais aplicações. Os referidos critérios foram sistematizados de acordo com metodologias de seleção propostas por Ashby e co-autores, tendo em vista o melhor desempenho dos materiais em aplicações representativas, designadamente com requisitos ao nível de densidade energética, tempo de resposta, potência de carga/descarga e gama de temperaturas de operação. Nesta sistematização foram incluídos alguns dos compósitos desenvolvidos durante o presente trabalho. A avaliação das limitações acima mencionadas deu origem ao desenvolvimento de materiais compósitos para acumulação de calor ou frio, com acentuada melhoria de resposta térmica, mediante incorporação de uma fase com condutividade térmica muito superior à da matriz. Para este efeito, foram desenvolvidos modelos para otimizar a distribuição espacial da fase condutora, de modo a superar os limites de percolação previstos por modelos clássicos de condução em compósitos com distribuição aleatória, visando melhorias de desempenho térmico com reduzidas frações de fase condutora e garantindo que a densidade energética não é significativamente afetada. Os modelos elaborados correspondem a compósitos de tipo core-shell, baseados em microestruturas celulares da fase de elevada condutividade térmica, impregnadas com o material de mudança de fase propriamente dito. Além de visarem a minimização da fração de fase condutora e correspondentes custos, os modelos de compósitos propostos tiveram em conta a adequação a métodos de processamento versáteis, reprodutíveis, preferencialmente com base na emulsificação de líquidos orgânicos em suspensões aquosas ou outros processos de reduzidas complexidade e com base em materiais de baixo custo (material de mudança de fase e fase condutora). O design da distribuição microestrutural também considerou a possibilidade de orientação preferencial de fases condutoras com elevada anisotropia (p.e. grafite), mediante auto-organização. Outros estágios do projeto foram subordinados a esses objetivos de desenvolvimento de compósitos com resposta térmica otimizada, em conformidade com previsões dos modelos de compósitos de tipo core-shell, acima mencionadas. Neste enquadramento, foram preparados 3 tipos de compósitos com organização celular da fase condutora, com as seguintes características e metodologias: i) compósitos celulares parafina-grafite para acumulação de calor, preparados in-situ por emulsificação de uma suspensão de grafite em parafina fundida; ii) compósitos celulares parafina-Al2O3 para acumulação de calor, preparados por impregnação de parafina em esqueleto cerâmico celular de Al2O3; iii) compósitos celulares para acumulação de frio, obtidos mediante impregnação de matrizes celulares de grafite com solução de colagénio, após preparação prévia das matrizes de grafite celular. Os compósitos com esqueleto cerâmico (ii) requereram o desenvolvimento prévio de um método para o seu processamento, baseado na emulsificação de suspensões de Al2O3 em parafina fundida, com adequados aditivos dispersantes, tensioactivos e consolidantes do esqueleto cerâmico, tornando-o auto-suportável durante as fases posteriores de eliminação da parafina, até à queima a alta temperatura, originando cerâmicos celulares com adequada resistência mecânica. Os compósitos desenvolvidos apresentam melhorias significativos de condutividade térmica, atingindo ganhos superiores a 1 ordem de grandeza com frações de fase condutora inferior a 10 % vol. (4 W m-1 K-1), em virtude da organização core-shell e com o contributo adicional da anisotropia da grafite, mediante orientação preferencial. Foram ainda preparados compósitos de armazenamento de frio (iii), com orientação aleatória da fase condutora, obtidos mediante gelificação de suspensões de partículas de grafite em solução aquosa de colagénio. Apesar da estabilidade microestrutural e de forma, conferida por gelificação, estes compósitos confirmaram a esperada limitação dos compósitos com distribuição aleatória, em confronto com os ganhos alcançados com a organização de tipo core-shell.
Resumo:
A modelação e análise de séries temporais de valores inteiros têm sido alvo de grande investigação e desenvolvimento nos últimos anos, com aplicações várias em diversas áreas da ciência. Nesta tese a atenção centrar-se-á no estudo na classe de modelos basedos no operador thinning binomial. Tendo como base o operador thinning binomial, esta tese focou-se na construção e estudo de modelos SETINAR(2; p(1); p(2)) e PSETINAR(2; 1; 1)T , modelos autorregressivos de valores inteiros com limiares autoinduzidos e dois regimes, admitindo que as inovações formam uma sucessão de variáveis independentes com distribuição de Poisson. Relativamente ao primeiro modelo analisado, o modelo SETINAR(2; p(1); p(2)), além do estudo das suas propriedades probabilísticas e de métodos, clássicos e bayesianos, para estimar os parâmetros, analisou-se a questão da seleção das ordens, no caso de elas serem desconhecidas. Com este objetivo consideraram-se algoritmos de Monte Carlo via cadeias de Markov, em particular o algoritmo Reversible Jump, abordando-se também o problema da seleção de modelos, usando metodologias clássica e bayesiana. Complementou-se a análise através de um estudo de simulação e uma aplicação a dois conjuntos de dados reais. O modelo PSETINAR(2; 1; 1)T proposto, é também um modelo autorregressivo com limiares autoinduzidos e dois regimes, de ordem unitária em cada um deles, mas apresentando uma estrutura periódica. Estudaram-se as suas propriedades probabilísticas, analisaram-se os problemas de inferência e predição de futuras observações e realizaram-se estudos de simulação.
Resumo:
O presente trabalho propõe-se a conceptualizar os modelos e a criar novas ferramentas para a espacialização da música electroacústica, bem como a explorar formas de integração deste parâmetro na composição musical. É proposta uma taxonomia da espacialização na música electroacústica, com base no levantamento de fontes realizado. O conjunto de aplicações informáticas concebido utiliza o conhecimento actual sobre a audição espacial, implementa duas propostas de desenvolvimento sobre as técnicas de espacialização e incorpora os modelos de espacialização conceptualizados. Por fim, as obras musicais compostas propõem e exploram formas para a utilização da espacialização enquanto elemento gerador do material musical na composição de música electroacústica.
Resumo:
As últimas décadas do séc. XX assistiram a um crescente protagonismo do Design de Informação que, desde então, tem sofrido inúmeras formas e designações, num processo de afirmação e auto descoberta. A proliferação de dados disponíveis deu ao design e em particular a este ramo do desenho para a compreensão, uma visibilidade crescente e a responsabilidade de encontrar, a partir da informação, novos meios para a construção de sentido. Do design à engenharia informática, são várias as disciplinas que convergem hoje nesse desígnio ainda que sob diferentes modelos e ferramentas. Esta convergência promove uma comparação entre modelos, que tendem a ser tanto mais valorizados quanto mais objectivas as representações. De Playfair a Bertin, as representações gráficas dos últimos duzentos anos têm-se situado no âmbito de disciplinas como a Economia, Sociologia ou a Gestão, explorando metáforas funcionais com vista à evidência da tradução numérica. O Design, enquanto mediador cultural e através do Desenho, tende a acrescentar ao mesmo exercício uma dimensão narrativa ou ilustrativa, convocando a própria existência do autor na interpretação dos mesmos dados numéricos. Com esta investigação, novos processos de semiose se oferecem, associando à objectividade dos dados quantitativos, a subjectividade da cultura formulada a partir do indivíduo enquanto intérprete. Na procura do conhecimento, reconhece-se assim que o desenho da informação ganha competências pela mediação da experiência, religando ética, técnica e estética.
Resumo:
The high dependence of Portugal from foreign energy sources (mainly fossil fuels), together with the international commitments assumed by Portugal and the national strategy in terms of energy policy, as well as resources sustainability and climate change issues, inevitably force Portugal to invest in its energetic self-sufficiency. The 20/20/20 Strategy defined by the European Union defines that in 2020 60% of the total electricity consumption must come from renewable energy sources. Wind energy is currently a major source of electricity generation in Portugal, producing about 23% of the national total electricity consumption in 2013. The National Energy Strategy 2020 (ENE2020), which aims to ensure the national compliance of the European Strategy 20/20/20, states that about half of this 60% target will be provided by wind energy. This work aims to implement and optimise a numerical weather prediction model in the simulation and modelling of the wind energy resource in Portugal, both in offshore and onshore areas. The numerical model optimisation consisted in the determination of which initial and boundary conditions and planetary boundary layer physical parameterizations options provide wind power flux (or energy density), wind speed and direction simulations closest to in situ measured wind data. Specifically for offshore areas, it is also intended to evaluate if the numerical model, once optimised, is able to produce power flux, wind speed and direction simulations more consistent with in situ measured data than wind measurements collected by satellites. This work also aims to study and analyse possible impacts that anthropogenic climate changes may have on the future wind energetic resource in Europe. The results show that the ECMWF reanalysis ERA-Interim are those that, among all the forcing databases currently available to drive numerical weather prediction models, allow wind power flux, wind speed and direction simulations more consistent with in situ wind measurements. It was also found that the Pleim-Xiu and ACM2 planetary boundary layer parameterizations are the ones that showed the best performance in terms of wind power flux, wind speed and direction simulations. This model optimisation allowed a significant reduction of the wind power flux, wind speed and direction simulations errors and, specifically for offshore areas, wind power flux, wind speed and direction simulations more consistent with in situ wind measurements than data obtained from satellites, which is a very valuable and interesting achievement. This work also revealed that future anthropogenic climate changes can negatively impact future European wind energy resource, due to tendencies towards a reduction in future wind speeds especially by the end of the current century and under stronger radiative forcing conditions.
Resumo:
Communication and cooperation between billions of neurons underlie the power of the brain. How do complex functions of the brain arise from its cellular constituents? How do groups of neurons self-organize into patterns of activity? These are crucial questions in neuroscience. In order to answer them, it is necessary to have solid theoretical understanding of how single neurons communicate at the microscopic level, and how cooperative activity emerges. In this thesis we aim to understand how complex collective phenomena can arise in a simple model of neuronal networks. We use a model with balanced excitation and inhibition and complex network architecture, and we develop analytical and numerical methods for describing its neuronal dynamics. We study how interaction between neurons generates various collective phenomena, such as spontaneous appearance of network oscillations and seizures, and early warnings of these transitions in neuronal networks. Within our model, we show that phase transitions separate various dynamical regimes, and we investigate the corresponding bifurcations and critical phenomena. It permits us to suggest a qualitative explanation of the Berger effect, and to investigate phenomena such as avalanches, band-pass filter, and stochastic resonance. The role of modular structure in the detection of weak signals is also discussed. Moreover, we find nonlinear excitations that can describe paroxysmal spikes observed in electroencephalograms from epileptic brains. It allows us to propose a method to predict epileptic seizures. Memory and learning are key functions of the brain. There are evidences that these processes result from dynamical changes in the structure of the brain. At the microscopic level, synaptic connections are plastic and are modified according to the dynamics of neurons. Thus, we generalize our cortical model to take into account synaptic plasticity and we show that the repertoire of dynamical regimes becomes richer. In particular, we find mixed-mode oscillations and a chaotic regime in neuronal network dynamics.