42 resultados para Modelo Novo-Keynesiano
Resumo:
A expressão “Piano Funcional” designa a instrução, em grupo reduzido, em diversas competências funcionais – não incluídas no ensino tradicional europeu, mais orientado para a execução virtuosista. O estudo funcional do piano activa no estudante processos de relacionamento, síntese e generalização sobre diversos aspectos da actividade musical, contribuindo para uma consciência aprofundada da linguagem e alimentando a flexibilidade e autonomia dos educandos. O objectivo do Piano Funcional é o de permitir a aquisição de uma funcionalidade musical plena, através da apropriação e controlo da linguagem musical. O objectivo do presente trabalho é o de propor um Modelo Generativo de Piano Funcional. O modelo generativo proposto parte de um levantamento e análise crítica das dinâmicas que limitam a eficácia do sistema de ensino, nomeadamente: a predominância da descodificação simbólica em detrimento da oralidade e do movimento, o favorecimento do mecanicismo e a valorização excessiva da prática interpretativa. Tais dinâmicas conduzem frequentemente ao sacrifício das competências criativas na formação dos músicos. Propõe-se assim a adopção de um grupo de “novos paradigmas”, tais como: a promoção de valores funcionais; a integração de competências, e a (re)valorização do som, da criatividade, da audição e da sensorialidade como motores das aquisições musicais do aluno. O modelo articula três processos generativos, cada um deles agrupando experiências nos domínios da (i) leitura, (ii) harmonia e (iii) experimentação. O modelo de Piano Funcional é generativo, também, porque promove uma aprendizagem como construção pessoal e criativa. Adicionalmente, realizou-se um trabalho empírico que consistiu na aplicação de conceitos de Piano Funcional na aprendizagem pianística de três sujeitos, ao longo de seis meses. O objectivo deste trabalho empírico foi o de desenvolver actividades que ilustram o âmbito do Piano Funcional e o de aferir a aplicabilidade pedagógica do modelo proposto.
Resumo:
A avaliação do desempenho docente tem vindo a adquirir uma centralidade crescente nos contextos educativos. Para além de razões mais abrangentes que têm a ver com a importância gradual que a avaliação adquire nas políticas educativas, considera-se que a avaliação do desempenho docente contribui para a melhoria da qualidade do trabalho docente, das aprendizagens e dos resultados escolares dos alunos. As alterações do Estatuto da Carreira Docente introduziram, a partir de 2007, a par com um novo e mais exigente sistema de avaliação, a divisão da carreira em duas categorias – professor e professor titular. Os professores titulares passaram a desempenhar funções de avaliação e coordenação dos seus colegas. Estas mudanças trouxeram alterações significativas na carreira, na profissão e no trabalho docente. O propósito deste estudo foi pesquisar, do ponto de vista da análise organizacional, o modo como foi percecionado pelos docentes o processo de avaliação do desempenho (relativo ao ciclo 2007-2009), centrando-nos, em particular, no papel desempenhado pelos professores titulares num modelo de avaliação por pares e num quadro legal de verticalização da carreira docente. Desenvolvemos este estudo num agrupamento de escolas da zona centro do território continental português seguindo uma metodologia de estudo de caso. Como principais conclusões, e tendo em conta as lógicas organizacionais de que partimos, ressalta-se: i) ao nível da lógica burocrática, a burocratização e morosidade do concurso dos professores titulares, a complexidade dos procedimentos conducentes à implementação do sistema de avaliação e o formalismo na construção dos respetivos instrumentos; ii) dentro da lógica conflitual, as tensões decorrentes da discordância com a divisão da carreira entre professor e professor titular, a atribuição aos professores titulares da função avaliativa, não tendo estes sido reconhecidos pelos seus pares com legitimidade para os avaliar, e a existência de conflitos entre os diversos intervenientes; iii) na lógica artificial, o facto de este sistema de avaliação não ter implicado alterações significativas nas práticas, tendo em conta a exígua adesão dos professores à avaliação da componente cientifico-pedagógica, a ritualização de processos e o restringir-se ao cumprimento dos requisitos mínimos.
Resumo:
O presente trabalho teve por objetivos a identificação de uma estratégia e o desenvolvimento de um modelo que permita às operadoras de telecomunicações a sua sustentabilidade, bem como a identificação de caminhos para a adaptação a uma realidade sempre em mudança como é a da indústria das telecomunicações. Numa primeira parte do trabalho elaborou-se uma revisão de literatura do atual estado da arte das principais estratégias relevantes e com aplicação à indústria de telecomunicações. A pesquisa realizada investigou a estrutura atual da indústria de telecomunicações e o estado da competitividade das operadoras de telecomunicações. Dos resultados desta foi possível constatar uma evolução constante da tecnologia e dos modelos de negócio neste ecossistema, assim como a presença de uma pressão concorrencial significativa exercida sobre as operadoras, quer por parte das empresas já existentes no mercado quer por parte das emergentes. As operadoras têm de transformar o seu modelo de rede e de negócios para se adaptarem às mudanças e às tendências da indústria e do mercado. Com base na revisão de literatura, elegeu-se a metodologia baseada num inquérito de pesquisa empírica para aferir o estado da indústria e derivar as estratégias possíveis. Este inquérito foi efetuado a especialistas da área de telecomunicações de diferentes subsectores e países para abordar todos os elementos estratégicos do modelo de negócio futuro. Os resultados da pesquisa revelaram que as empresas que operam no mercado da Internet (Over The Top - OTT) representam a maior ameaça sobre o futuro dos operadores de telecomunicações. Os operadores só vão conseguir responder através da modernização de sua rede, melhorando a qualidade, reduzindo o custo global, e investindo em produtos inovadores e diferenciados e em serviços. Os resultados do inquérito revelam-se de acordo com os pressupostos da Blue Ocean Strategy. A aplicabilidade da Blue Ocean Strategy foi aprofundada permitindo concluir que o valor inovador obtido simultaneamente através da redução de custos e da diferenciação permitem aumentar as vantagens dos operadores existentes em termos das infra-estruturas físicas detidas e das relações estabelecidas com os clientes. O caso particular da fibra óptica até casa (FTTH) foi considerado como aplicação da Blue Ocean Strategy a uma nova tecnologia que as operadoras podem implementar para criar novas soluções e abrir segmentos de mercado inexplorados. Os resultados do inquérito e da investigação realizada à aplicação da Blue Ocean Strategy foram combinados para propor um novo modelo de negócio para as operadoras de telecomunicações que lhes permite, não só responder aos desafios existentes, mas, também, ter uma melhor posição competitiva no futuro. Foi, ainda, realizado um estudo de caso que destacou como a Verizon Communications foi capaz de transformar a sua rede e o modelo de negócio em resposta ao aumento da pressão competitiva. Através do valor da inovação transferida aos seus clientes, a Verizon foi capaz de aumentar significativamente as suas receitas e satisfação do cliente.
Resumo:
Nas empresas desportivas o principal ativo é o direito desportivo sobre o jogador profissional. O nosso estudo debruça-se no resultante da formação. Começámos por verificar que o direito desportivo preenche os requisitos para ser reconhecido como ativo intangível. Posteriormente analisámos os relatórios e contas de clubes europeus e de clubes brasileiros de modo a identificarmos semelhanças e diferenças ao nível contabilístico dos ativos intangíveis resultantes da formação, um dos nossos objetivos. Verificámos que a principal diferença reside no não reconhecimento do direito desportivo resultante da formação pelos primeiros, contrariamente à prática verificada nos clubes brasileiros. No cenário atual, pelo menos, os clubes europeus não proporcionam informação plena e a comparabilidade entre clubes encontra-se comprometida. Por conseguinte, outro dos nossos objetivos é propor um modelo que permita valorizar com fiabilidade o direito desportivo resultante da formação. A conceção do modelo teve o auxílio dos clubes portugueses e brasileiros, através da resposta a um inquérito dirigido a clubes europeus e brasileiros. Esta metodologia possibilitou, igualmente, confirmar conclusões resultantes da análise da informação contabilística elaborada pelos clubes e identificar outros pontos de contacto e de afastamento entre os clubes relativamente a jogadores formados internamente e ao reconhecimento inicial do direito desportivo. Concluímos que em Portugal existe informação contabilística incompleta sobre os jogadores formados internamente, dado os clubes portugueses considerarem não existir um critério de valorização fiável, e sobre os jogadores que chegam em fim de contrato. Por outro lado, todos os clubes brasileiros respondentes valorizam e reconhecem o direito desportivo resultante da formação como ativo intangível com base nos encargos com a formação do jogador. Por fim, apresentamos a nossa proposta de modelo assente no custo de formação, com a aplicação do método dos centros de gastos. Os componentes incluídos tiveram em conta a opinião dos clubes, tendo posteriormente sido efetuada a análise de clusters e a seleção final de acordo com a IAS 38 da UE. A nossa proposta foi validada junto de agentes com conhecimento e experiência sobre o fenómeno em estudo através de entrevista.
Resumo:
A informação digitalizada e nado digital, fruto do avanço tecnológico proporcionado pelas Tecnologias da Informação e Comunicação (TIC), bem como da filosofia participativa da Web 2.0, conduziu à necessidade de reflexão sobre a capacidade de os modelos atuais, para a organização e representação da informação, de responder às necessidades info-comunicacionais assim como o acesso à informação eletrónica pelos utilizadores em Instituições de Memória. O presente trabalho de investigação tem como objetivo a conceção e avaliação de um modelo genérico normativo e harmonizador para a organização e representação da informação eletrónica, num sistema de informação para o uso de utilizadores e profissionais da informação, no contexto atual colaborativo e participativo. A definição dos objetivos propostos teve por base o estudo e análise qualitativa das normas adotadas pelas instituições de memória, para os registos de autoridade, bibliográfico e formatos de representação. Após a concetualização, foi desenvolvido e avaliado o protótipo, essencialmente, pela análise qualitativa dos dados obtidos a partir de testes à recuperação da informação. A experiência decorreu num ambiente laboratorial onde foram realizados testes, entrevistas e inquéritos por questionário. A análise cruzada dos resultados, obtida pela triangulação dos dados recolhidos através das várias fontes, permitiu concluir que tanto os utilizadores como os profissionais da informação consideraram muito interessante a integração da harmonização normativa refletida nos vários módulos, a integração de serviços/ferramentas comunicacionais e a utilização da componente participativa/colaborativa da plataforma privilegiando a Wiki, seguida dos Comentários, Tags, Forum de discussão e E-mail.
Resumo:
Esta tese apresenta um estudo sobre alguns dos protocolos de cooperação MAC para redes sem fios utilizando o sistema IEEE 802.11 multi-débito. É proposto um novo modelo de arquitetura para a categorização e análise da cooperação em redes sem fios, tendo este modelo sido aplicado a protocolos cooperativos existentes para camada MAC. É investigado como as características do meio físico, assim como os requisitos de níveis superiores podem ser aplicados ao processo de cooperação, com vista a melhorar as características de funcionamento da rede de comunicações. Para este propósito são exploradas as métricas mais relevantes para o processo de cooperação. São igualmente estudados os limites impostos pelos protocolos da camada MAC e as limitações práticas impostas por protocolos da família de normas que compõem o IEEE 802.11. Neste trabalho foi criada uma métrica multicamada, que permite considerar os requisitos aplicacionais de performance e o tipo de tráfego, assim como a mobilidade dos dispositivos, no funcionamento dos mecanismos de cooperação. Como forma de validação, e para corretamente avaliar o impacto da métrica, um novo protocolo de cooperação foi desenvolvido e implementado. O seu funcionamento é descrito de forma analítica assim como validado através de a um ambiente de simulação. Os resultados obtidos mostram que a utilização de uma métrica multicamada é uma técnica robusta, fornecendo melhorias consistentes no contexto de redes IEEE 802.11. São igualmente demonstradas várias outras características de funcionamento com impacto para as comunicações. Estes dados fornecem uma visão real e encorajadora para a realização de mais pesquisas para a melhoria da performance dos protocolos cooperativos, assim como a sua utilização num variado número de aplicações futuras. No final do documento são apresentados alguns desafios para a continuação da investigação deste tópico.
Resumo:
Este trabalho de investigação teve como principais objetivos, por um lado, procurar as relações existentes entre a Instituição Ensino Superior de Design (IES-D) e as empresas, por outro, configurar um modelo que permitisse criar uma plataforma de inovação para o desenvolvimento de novos produtos na IES-D num contexto globalizado. Nos últimos anos, o setor “ensino superior” na Europa e em várias partes do mundo passou por grandes mudanças, o que acentuou o ambiente competitivo entre as IES, incluindo as de Design. Neste âmbito, procurou-se demonstrar o novo posicionamento estratégico da IES-D perante o mercado, e quais as ações a desenvolver que possibilitam alcançar uma vantagem competitiva sustentável. Primeiro, considerou-se fundamental identificar a importância do design perante o ensino, a situação mundial e a mudança da cultura económica. Depois, assinalaram-se as iniciativas de promoção do design e as políticas de inovação europeias. E por fim, reuniram-se os aspetos que obrigam as IES-D a assumir novos papéis de interação com o mercado. Por análise comparativa internacional procedeu-se à seleção de uma amostra de dezoito (18) IES-D – dez europeias, quatro norte americanas e quatro asiáticas. Instituições de ensino com tipologias diversas e pertencentes a distintos contextos socioeconómicos. A caracterização da amostra através de análise estrutural permitiu identificar aspetos comuns às IES-D – ações estratégicas que servem para promover a inovação. Para explicitar a interação do sistema formado por esses elementos comuns, configurou-se um modelo concetual – Hexágono da Inovação (HI). O modelo, enquanto instrumento de análise, permite criar um padrão da inovação da IES-D e posicioná-la perante o setor - ensino superior de design. Foi também realizado um ensaio da aplicabilidade do modelo concetual HI na ESAD.cr/IPL. Através da implementação da plataforma de inovação - ESAD Design Studio - Centro de Estudos e Investigação em Design (EDS/CEID), foram ensaiadas as ações necessárias para promover o design estratégico e o design de inovação.
Resumo:
A linha de investigação deste estudo é a ‘articulação da Investigação em Didáctica das Ciências e Práticas de Ensino dos Professores de Ciências’. O seu enquadramento teórico e metodológico inicial assentou nos estudos das áreas ‘Relações entre Investigação e as Práticas’ e ‘Avaliação da Formação Pós-Graduada – vertente impacte/articulação’. Inicialmente, fez-se uma análise histórico-epistemológica da Didáctica desde a sua génese até aos dias de hoje, para se compreender quer as raízes do gap entre académicos e práticos em geral, quer a crescente necessidade de articulação. Posteriormente, avançou-se para a primeira área, partindo da polémica despoletada por Hargreaves, ao defender que o ensino deveria ser uma profissão baseada na investigação. Em seguida, partiu-se de uma análise mais geral sobre a Investigação e as Práticas no contexto educacional em vários países antes se centrar especificamente no contexto da Didáctica das Ciências (impacte da IDC nas Práticas e constrangimentos na articulação). Analisou-se também brevemente as relações entre a IDC e Práticas no contexto da Formação de Professores, e não a área da Formação de Professores, para mantermos sempre o foco nas questões inerentes à articulação. Culminou-se na análise das culturas e epistemologias da acção e da investigação, com especial destaque para o conceito de professorinvestigador na actualidade e para a descrição das barreiras epistemológicas e ontológicas. Concluiu-se que as comunidades da investigação e da acção utilizavam o conceito ‘articulação’ indiscriminadamente como sinónimo de interacções, contacto, aproximação, impacte, etc., o que acabou esvaziando-o do seu verdadeiro significado. No que diz respeito à segunda área, a sua análise partiu da descrição da evolução de dez anos (1997-2007) de estudos sobre a Avaliação do Impacte dos CM nas práticas por ser considerada uma forma eficaz de articular as dimensões da Didáctica em direcção a um novo olhar sobre o conceito ‘articulação’. Além disso, apontou a dificuldade de se avaliar o impacte ao nível macro, por um lado, por não se tratar de uma prática investigativa institucionalizada no estatuto da carreira dos professores dos EB e ES e, por outro, por ainda colidir com diferentes concepções da natureza das investigações realizadas por Professores encontradas em ambas as comunidades, entendida ora como processo cognitivo (para o desenvolvimento profissional dos professores), ora como prática social (para construção de conhecimento no campo da Didáctica). Foram compiladas ainda as sugestões para se potenciar o impacte da IDC nas Práticas e/ou a articulação entre a IDC-Práticas em contexto formativo de diversos estudos avaliativos. Finalizou-se a análise chamando a atenção para cinco aspectos que ainda carecem de maior aprofundamento nesta área. Este longo enquadramento evidenciou a complexidade da problemática ‘articulação’ decorrente da interdependência das várias dimensões (epistemológica, política, ontológica, psicológica, ética, entre outras). Por exemplo, a ausência de consenso sobre critérios para a avaliação da qualidade da investigação produzida por professores (dimensões política e epistemológica) acaba, por vezes, por não conferir legitimidade às mesmas e por influenciar a legitimação pela comunidade académica, o que resulta na necessidade de diferenciação dos contributos e no maior afastamento entre as comunidades (dimensão ontológica), entre outros. Assim, optou-se por iniciar a análise do fenómeno ‘articulação entre IDCPráticas’ através dos primeiros modelos de articulação investigação-ensino, os quais visavam, contudo, fundamentalmente o impacte da IDC nas Práticas de Ensino das Ciências. Posteriormente, foram apresentadas as potencialidades da Avaliação ↔ Feedback, TIC e Colaboração (estratégias/métodos) para potenciar a articulação entre Investigação- Práticas. No que diz respeito à investigação empírica, realizou-se um estudo de caso descritivo e explorativo de natureza mista. O caso único, crítico e instrumental foi o fenómeno “articulação entre a IDC-Práticas na Formação Didáctica Pós- Graduada” no contexto da unidade curricular ‘Metodologia do Ensino da Física’ (MEF) do Curso de Mestrado em Ensino de Física. A técnica de análise geral utilizada foi a “descrição do caso” pelo facto de não se ter um referencial teórico especificamente sobre o caso. O caso contemplou três unidades de análise, a saber: Caracterização dos Professores-Formandos; Funcionamento da Unidade Curricular e Dinâmica dos currículos dos módulos articuladores. Estas unidades de análises permitiram evidenciar de que forma as características e/ou alterações implementadas na disciplina MEF contribuíram (ou podem contribuir) para a articulação da IDC-Práticas e descrever as dinâmicas do currículo (intencional – negociado – acção), evidenciando em que medida promoveram (ou inibiram) a articulação IDC – práticas. O estudo de caso aqui descrito revelou, ainda, a existência de dois níveis de articulação entre a Investigação e as Práticas no contexto formativo. O primeiro nível foi a articulação entre a Investigação sobre o Ensino Superior/Formação de Professores de Ciências (patente nas estratégias/métodos utilizados na disciplina) e a prática formativa dos IF no contexto da disciplina. O segundo nível centrou-se na articulação entre a Investigação sobre o Ensino não-Superior/Didáctica das Ciências e as práticas de Ensino das Ciências, base orientadora do currículo da disciplina aqui analisada, concretizado nos dois módulos articuladores descritos. Destacam-se algumas dimensões de análise descritas na presente investigação empírica, a saber: Utilização das TIC; Avaliação do Ensino baseada no feedback dos alunos; Avaliação Formativa das Aprendizagens e feedback; Trabalho de grupo realizado nos módulos articuladores; Currículo centrado na IDC; Currículo centrado na articulação da IDC-Práticas de Ensino das Ciências; Currículo centrado nas Práticas de Ensino das Ciências; Currículo centrado na articulação da Investigação-Práticas formativas e Currículo centrado nas Políticas Educativas. Relativamente a dinâmica dos currículos (intencional - negociado - acção) dos dois módulos articuladores, foram definidos quatro construtos (objectos de ensino, objectos de aprendizagem, objectivos de ensino e objectivos de aprendizagem) que culminaram na discussão de vários aspectos a serem considerados nos próximos cursos como, por exemplo: 1) Importância de o contrato didáctico prever a inclusão de objectos de aprendizagem; 2) Incompatibilidade do objectivo de aprendizagem ‘compreender a importância da IDC e a sua relevância para as práticas lectivas em contextos específicos’ num quadro formativo articulador; e 3) Importância de os cursos de formação de professores explicitarem quais ferramentas investigativas são necessárias à produção autónoma de conhecimento no contexto escolar e académico (mesmo que não sejam mobilizadas), de forma a que os professores possam delinear previamente planos individuais de formação/investigação. O estudo termina com a apropriação do modelo de articulação entre a Investigação Educacional e Práticas de McIntyre (2005) ao contexto da Didáctica das Ciências evidenciando uma relação dialógica com a investigação empírica. Apesar de este modelo priorizar a dimensão epistemológica (que aceita o gap pela impossibilidade epistemológica do seu total desaparecimento), na sua apropriação foi considerada a influência das outras dimensões. Esta apropriação assentou, portanto, numa visão moderada de articulação e na complexidade inerente à interdependência das dimensões. Foram propostos três caminhos epistemológicos complementares para a articulação entre a IDC-Práticas: 1º) Interacções entre Didáctica Investigativa – Didáctica Profissional; 2º) Utilização de estratégias na IDC especialmente desenhadas para informar as práticas de ensino; e 3º) Realização de IDC pela escola. Em cada um destes caminhos procurou-se enquadrar algumas sugestões e iniciativas já levadas a cabo para potenciar o impacte e/ou articulação e que se encontravam referenciadas na literatura em geral e no contexto português em particular. O primeiro caminho (composto por cinco etapas) evidenciou-se como aquele que leva a maior vantagem pelas inúmeras intervenções possíveis. A investigação empírica aqui apresentada enquadrou-se inclusivamente neste primeiro caminho pelo facto de ter sido uma iniciativa com a intencionalidade explícita de articular a Didáctica Investigativa e Profissional e por ter sido realizada no contexto da Formação Pós-Graduada (cenário considerado privilegiado para a promoção de interacções). Esta iniciativa foi realizada exclusivamente no âmbito curricular da Formação Pós-Graduada (Didáctica Curricular) e procurou articular as dimensões epistemológicas da Didáctica através da utilização de ‘mecanismos potencialmente articuladores’ (Avaliação - feedback, TIC e Colaboração). Foram descritas as quatro etapas deste primeiro caminho percorridas empiricamente com variações no grau de concretização, com excepção da quinta etapa ‘Investigação sobre a prática de ensino com generalização situada’ porque a vertente dissertativa do respectivo curso não fez parte do corpus. Assim, a articulação ocorreu fundamentalmente no nível epistemológico (currículo da disciplina). No que diz respeito ao 2º caminho, é aquele em que a comunidade académica mais tem investido, quer pelas críticas voltadas especificamente para a investigação, quer pelo sucesso na potenciação do impacte nas propostas até agora implementadas. Deve ser utilizado de forma complementar ao 1º, envolvendo, de preferência, os Professores que percorrem frequentemente o 1º caminho na sua prática diária. Esta condição justifica-se pela necessidade de se integrar legitimamente os professores nas equipas de investigação, aumentando concomitantemente a contribuição das Práticas para a construção de conhecimento no campo educacional. Finalmente, o 3º caminho é aquele que ainda não pode ser concretizado porque, para as Escolas serem diferentes das actuais na dimensão epistemológica (tornando-se produtoras de conhecimento didáctico), seriam necessárias medidas estruturais e articuladas nas várias dimensões anteriormente referidas. Entretanto, foram apontadas algumas soluções como, por exemplo, a utilização de investigações de generalização situada nas Escolas e a ligação das Escolas em redes. Estas investigações locais não substituiriam, mas mobilizariam a IDC produzida nas Universidades (centradas na construção do campo Didáctica das Ciências). Este caminho visionário culmina por um lado, com uma análise prospectiva assente na relação de complementaridade entre as evidências científicas e experienciais porque uma prática sem suporte investigativo é imprudente e uma investigação sem suporte experiencial é imatura. Por outro com uma constatação tardia (deveras reconfortante) que os estudos centrados na relação entre a Investigação e Práticas são estudos voltados para a Formação de Investigadores-Seniores por exigirem uma meta-reflexão da prática investigativa e do processo investigativo. As implicações do estudo são: (i) futuras iniciativas de articulação entre IDCPráticas; (ii) implementar e avaliar as sugestões advindas em novos contextos formativos; e (iii) na Educação a distância na área da Didáctica e Formação Didáctica de Professores. Assume-se a limitação estrutural da investigação resultante da alteração do projecto inicial que o restringiu a uma única etapa. Faz-se ainda uma reflexão do processo formativo-investigativo mediante a descrição dos constrangimentos de natureza interna e externa. Explicitam-se as limitações de carácter geral e específico e algumas tentativas de minimização dos respectivos efeitos no estudo. Finaliza-se o estudo com algumas sugestões de trabalhos futuros, a saber: (i) Continuidade dos estudos centrados na articulação entre IDC-Práticas; (ii) Continuidade dos estudos de Avaliação da Formação Pós-Graduada em termos de eficiência, eficácia, impacte e articulação; (iii) Análise da Epistemologia da Prática Docente em comunidades de práticas escolares; (iv) Articulação entre a Investigação sobre a Formação de Professores e as práticas dos formadores e futuros-formadores; e (v) Constituição de “Scholarship of teaching” na Formação de Professores.
Resumo:
As técnicas estatísticas são fundamentais em ciência e a análise de regressão linear é, quiçá, uma das metodologias mais usadas. É bem conhecido da literatura que, sob determinadas condições, a regressão linear é uma ferramenta estatística poderosíssima. Infelizmente, na prática, algumas dessas condições raramente são satisfeitas e os modelos de regressão tornam-se mal-postos, inviabilizando, assim, a aplicação dos tradicionais métodos de estimação. Este trabalho apresenta algumas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, em particular na estimação de modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. A investigação é desenvolvida em três vertentes, nomeadamente na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, na estimação do parâmetro ridge em regressão ridge e, por último, em novos desenvolvimentos na estimação com máxima entropia. Na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, o trabalho desenvolvido evidencia um melhor desempenho dos estimadores de máxima entropia em relação ao estimador de máxima verosimilhança. Este bom desempenho é notório em modelos com poucas observações por estado e em modelos com um grande número de estados, os quais são comummente afetados por colinearidade. Espera-se que a utilização de estimadores de máxima entropia contribua para o tão desejado aumento de trabalho empírico com estas fronteiras de produção. Em regressão ridge o maior desafio é a estimação do parâmetro ridge. Embora existam inúmeros procedimentos disponíveis na literatura, a verdade é que não existe nenhum que supere todos os outros. Neste trabalho é proposto um novo estimador do parâmetro ridge, que combina a análise do traço ridge e a estimação com máxima entropia. Os resultados obtidos nos estudos de simulação sugerem que este novo estimador é um dos melhores procedimentos existentes na literatura para a estimação do parâmetro ridge. O estimador de máxima entropia de Leuven é baseado no método dos mínimos quadrados, na entropia de Shannon e em conceitos da eletrodinâmica quântica. Este estimador suplanta a principal crítica apontada ao estimador de máxima entropia generalizada, uma vez que prescinde dos suportes para os parâmetros e erros do modelo de regressão. Neste trabalho são apresentadas novas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, tendo por base o estimador de máxima entropia de Leuven, a teoria da informação e a regressão robusta. Os estimadores desenvolvidos revelam um bom desempenho em modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. Por último, são apresentados alguns códigos computacionais para estimação com máxima entropia, contribuindo, deste modo, para um aumento dos escassos recursos computacionais atualmente disponíveis.
Resumo:
Dado o aumento acelerado dos preços dos combustíveis fósseis e as incertezas quanto à sua disponibilidade futura, tem surgido um novo interesse nas tecnologias da biomassa aplicadas à produção de calor, eletricidade ou combustíveis sintéticos. Não obstante, para a conversão termoquímica de uma partícula de biomassa sólida concorrem fenómenos bastante complexos que levam, em primeiro lugar, à secagem do combustível, depois à pirólise e finalmente à combustão ou gasificação propriamente ditas. Uma descrição relativamente incompleta de alguns desses estágios de conversão constitui ainda um obstáculo ao desenvolvimento das tecnologias que importa ultrapassar. Em particular, a presença de elevados conteúdos de matéria volátil na biomassa põe em evidência o interesse prático do estudo da pirólise. A importância da pirólise durante a combustão de biomassa foi evidenciada neste trabalho através de ensaios realizados num reator piloto de leito fluidizado borbulhante. Verificou-se que o processo ocorre em grande parte à superfície do leito com chamas de difusão devido à libertação de voláteis, o que dificulta o controlo da temperatura do reator acima do leito. No caso da gasificação de biomassa a pirólise pode inclusivamente determinar a eficiência química do processo. Isso foi mostrado neste trabalho durante ensaios de gasificação num reator de leito fluidizado de 2MWth, onde um novo método de medição permitiu fechar o balanço de massa ao gasificador e monitorizar o grau de conversão da biomassa. A partir destes resultados tornou-se clara a necessidade de descrever adequadamente a pirólise de biomassa com vista ao projeto e controlo dos processos. Em aplicações de engenharia há particular interesse na estequiometria e propriedades dos principais produtos pirolíticos. Neste trabalho procurou-se responder a esta necessidade, inicialmente através da estruturação de dados bibliográficos sobre rendimentos de carbonizado, líquidos pirolíticos e gases, assim como composições elementares e poderes caloríficos. O resultado traduziu-se num conjunto de parâmetros empíricos de interesse prático que permitiram elucidar o comportamento geral da pirólise de biomassa numa gama ampla de condições operatórias. Para além disso, propôs-se um modelo empírico para a composição dos voláteis que pode ser integrado em modelos compreensivos de reatores desde que os parâmetros usados sejam adequados ao combustível ensaiado. Esta abordagem despoletou um conjunto de ensaios de pirólise com várias biomassas, lenhina e celulose, e temperaturas entre os 600 e 975ºC. Elevadas taxas de aquecimento do combustível foram alcançadas em reatores laboratoriais de leito fluidizado borbulhante e leito fixo, ao passo que um sistema termo-gravimétrico permitiu estudar o efeito de taxas de aquecimento mais baixas. Os resultados mostram que, em condições típicas de processos de combustão e gasificação, a quantidade de voláteis libertada da biomassa é pouco influenciada pela temperatura do reator mas varia bastante entre combustíveis. Uma análise mais aprofundada deste assunto permitiu mostrar que o rendimento de carbonizado está intimamente relacionado com o rácio O/C do combustível original, sendo proposto um modelo simples para descrever esta relação. Embora a quantidade total de voláteis libertada seja estabelecida pela composição da biomassa, a respetiva composição química depende bastante da temperatura do reator. Rendimentos de espécies condensáveis (água e espécies orgânicas), CO2 e hidrocarbonetos leves descrevem um máximo relativamente à temperatura para dar lugar a CO e H2 às temperaturas mais altas. Não obstante, em certas gamas de temperatura, os rendimentos de algumas das principais espécies gasosas (e.g. CO, H2, CH4) estão bem correlacionados entre si, o que permitiu desenvolver modelos empíricos que minimizam o efeito das condições operatórias e, ao mesmo tempo, realçam o efeito do combustível na composição do gás. Em suma, os ensaios de pirólise realizados neste trabalho permitiram constatar que a estequiometria da pirólise de biomassa se relaciona de várias formas com a composição elementar do combustível original o que levanta várias possibilidades para a avaliação e projeto de processos de combustão e gasificação de biomassa.
Resumo:
Atualmente, a poluição atmosférica constitui uma das principais causas ambientais de mortalidade. Cerca de 30% da população europeia residente em áreas urbanas encontra-se exposta a níveis de poluição atmosférica superiores aos valores- limite de qualidade do ar legislados para proteção da saúde humana, representando o tráfego rodoviário uma das principais fontes de poluição urbana. Além dos poluentes tradicionais avaliados em áreas urbanas, os poluentes classificados como perigosos para a saúde (Hazard Air Pollutants - HAPs) têm particular relevância devido aos seus conhecidos efeitos tóxicos e cancerígenos. Neste sentido, a avaliação da exposição tornase primordial para a determinação da relação entre a poluição atmosférica urbana e efeitos na saúde. O presente estudo tem como principal objetivo o desenvolvimento e implementação de uma metodologia para avaliação da exposição individual à poluição atmosférica urbana relacionada com o tráfego rodoviário. De modo a atingir este objetivo, foram identificados os parâmetros relevantes para a quantificação de exposição e analisados os atuais e futuros potenciais impactos na saúde associados com a exposição à poluição urbana. Neste âmbito, o modelo ExPOSITION (EXPOSure model to traffIc-relaTed aIr pOllutioN) foi desenvolvido baseado numa abordagem inovadora que envolve a análise da trajetória dos indivíduos recolhidas por telemóveis com tecnologia GPS e processadas através da abordagem de data mining e análise geoespacial. O modelo ExPOSITION considera também uma abordagem probabilística para caracterizar a variabilidade dos parâmetros microambientais e a sua contribuição para exposição individual. Adicionalmente, de forma a atingir os objetivos do estudo foi desenvolvido um novo módulo de cálculo de emissões de HAPs provenientes do transporte rodoviário. Neste estudo, um sistema de modelação, incluindo os modelos de transporteemissões- dispersão-exposição, foi aplicado na área urbana de Leiria para quantificação de exposição individual a PM2.5 e benzeno. Os resultados de modelação foram validados com base em medições obtidas por monitorização pessoal e monitorização biológica verificando-se uma boa concordância entre os resultados do modelo e dados de medições. A metodologia desenvolvida e implementada no âmbito deste trabalho permite analisar e estimar a magnitude, frequência e inter e intra-variabilidade dos níveis de exposição individual, bem como a contribuição de diferentes microambientes, considerando claramente a sequência de eventos de exposição e relação fonte-recetor, que é fundamental para avaliação dos efeitos na saúde e estudos epidemiológicos. O presente trabalho contribui para uma melhor compreensão da exposição individual em áreas urbanas, proporcionando novas perspetivas sobre a exposição individual, essenciais na seleção de estratégias de redução da exposição à poluição atmosférica urbana, e consequentes efeitos na saúde.
Resumo:
Esta tese descreve diversas estratégias preparativas assim como estudos de caracterização de nanocompósitos e outras nanoestruturas, para a análise em espectroscopia de Raman com intensificação por superfície (SERS). Em particular foi estudada a incorporação de nanopartículas (NPs) metálicas de Ag e Au em matrizes poliméricas visando avaliar o potencial destes materiais como novos substratos para SERS na deteção de moléculas. O primeiro capítulo consiste numa revisão bibliográfica, onde é destacado o desenvolvimento de novos substratos para SERS utilizando nomeadamente nanopartículas de Ag, Au e Cu. Numa primeira fase, esta secção apresenta uma breve descrição sobre as propriedades plasmónicas dos metais utilizados e alguns conceitos básicos de espectroscopia de difusão de Raman. Posteriormente, descreve-se em mais detalhe o efeito de SERS, revendo-se sobretudo a química de materiais descrita em trabalhos recentes tendo em conta a sua utilização como novas plataformas para análise química por SERS. O capítulo 2 descreve a síntese e caracterização de nanocompósitos de poli(acrilato de butilo) obtidos através de polimerização in situ por miniemulsão na presença de nanopartículas de Ag. Os nanocompósitos Ag/PtBA foram investigados como novos substratos de SERS visando o desenvolvimento de novas plataformas versáteis para deteção molecular. Estudos como o efeito da temperatura, pH e pressão foram investigados, visando a compreensão do efeito da matriz polimérica na difusão/adsorção do analito (ácido tiossalicílico) na superfície metálica. No capítulo 3, os nanocompósitos de Ag/PtBA descritos anteriormente foram investigados detalhadamente como substratos para bio-deteção em SERS, usando a adenina como analito modelo. Os nanocompósitos foram submetidos a vários tratamentos pré-analíticos para a bio-deteção da adenina. Foram realizadas experiências nos sistemas Ag/PtBA de modo a obter informação sobre o efeito do pH na deteção deste analito em soluções aquosas diluídas. Os nanocompósitos poliméricos obtidos apresentam a vantagem de poderem ser processados utilizando tecnologia disponível. Pelo que o estudo das suas propriedades térmicas é especialmente relevante. Assim, a influência da incorporação de NPs inorgânicas na temperatura de transição vítrea (Tg) do polímero PtBA foi investigada por meio de calorimetria diferencial de varrimento (DSC) e os resultados são apresentados no capítulo 4. Estes estudos descrevem efeitos na Tg do PtBA quando analisado em nanocompósitos obtidos por diferentes métodos (métodos ex situ e in situ), contendo nanopartículas metálicas com diferentes distribuições de tamanho e presentes em quantidade variável na matriz polimérica. Estes estudos possibilitaram relacionar a influência das NPs metálicas na mobilidade das cadeias poliméricas com as propriedades térmicas observadas. O capítulo 5 descreve a preparação e caracterização de materiais compósitos de base polimérica (PtBA) e NPs de Au com morfologia de bastonetes (NRs). Estes materiais foram investigados como substratos para SERS tendo originado um bom sinal de SERS na análise de 2-2’-ditiodipiridina. Investigouse igualmente o efeito da variação da morfologia das NPs metálicas (esferas e bastonetes), a razão de aspecto (R.A.) dos bastonetes e o tipo de matriz polimérica (PtBA e PnBA) no sinal de SERS. No capítulo 6 é descrita a utilização da técnica de SERS como método alternativo para a monitorização de alterações morfológicas de coloides de NRs de Au. Os NRs de Au foram recolhidos em diferentes fases de oxidação promovida pela presença de K2S2O8 e a sua sensibilidade como substratos de SERS foi avaliada utilizando o anião dietilditiocarbamato (DTC) como analito modelo. Os estudos foram realizados utilizando as linhas de excitação a 1064 nm e 633 nm. Este estudo demonstrou que a sensibilidade dos NRs de Au como substratos de SERS diminui à medida que a sua R.A. diminui devido à competitividade do CTAB (estabilizante) e o DTC pela superfície dos NRs. É de salientar que este processo é acompanhado por um diferente comportamento em termos de adsorção dos dois tautómeros do DTC à superfície do metal. O capítulo 7 introduz um novo tipo de compósitos para SERS, utilizando matrizes biopoliméricas. Assim, descreve-se a preparação e caracterização de nanocompósitos de carragenano e NPs de Ag. Nesta secção é avaliada a utilização destes materiais como novos substratos para a análise em SERS, utilizando a 2-2’-ditiodipiridina como molécula modelo. Descrevem-se estudos pioneiros que procuram relacionar a dependência do sinal de SERS com a força do gel. Para tal, realizou-se um estudo sistemático aos nanobiocompósitos usados como substratos de SERS em diferentes condições analíticas e investigaram-se as suas propriedades reológicas. No capitulo 8 é descrita a investigação de nanocompósitos de Ag/Gelatina como substratos para SERS, utilizando o anião dietilditiocarbamato como analito modelo. Realizaram-se várias experiências para correlacionar a variação da força do gel com o aumento do sinal de SERS bem como a diferente adsorção dos dois tautómeros do DTC à superfície do metal. Ao longo desta dissertação são apresentados metodologias distintas para a preparação e obtenção de nanocompósitos com base em polímeros (sintéticos ou naturais) e NPs metálicas (Ag e Au). Esta investigação não só permitiu a síntese e estudo de novos substratos para SERS mas também a compreensão do efeito matriz/NPs metálicas no sinal de SERS e na formação de “hot spots”. Este trabalho contribui para o enriquecimento na área da Nanociência e Nanotecnologia demonstrando a eficácia e reprodutibilidade de nanocompósitos com base em polímeros como novos substratos para SERS. Embora as propriedades óticas apresentadas por estes materiais serem aqui direcionadas para a deteção molecular pela técnica de SERS, estes materiais podem ser investigados em outras área tecnológicas.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.
Resumo:
Esta tese descreve uma framework de trabalho assente no paradigma multi-camada para analisar, modelar, projectar e optimizar sistemas de comunicação. Nela se explora uma nova perspectiva acerca da camada física que nasce das relações entre a teoria de informação, estimação, métodos probabilísticos, teoria da comunicação e codificação. Esta framework conduz a métodos de projecto para a próxima geração de sistemas de comunicação de alto débito. Além disso, a tese explora várias técnicas de camada de acesso com base na relação entre atraso e débito para o projeto de redes sem fio tolerantes a atrasos. Alguns resultados fundamentais sobre a interação entre a teoria da informação e teoria da estimação conduzem a propostas de um paradigma alternativo para a análise, projecto e optimização de sistemas de comunicação. Com base em estudos sobre a relação entre a informação recíproca e MMSE, a abordagem descrita na tese permite ultrapassar, de forma inovadora, as dificuldades inerentes à optimização das taxas de transmissão de informação confiáveis em sistemas de comunicação, e permite a exploração da atribuição óptima de potência e estruturas óptimas de pre-codificação para diferentes modelos de canal: com fios, sem fios e ópticos. A tese aborda também o problema do atraso, numa tentativa de responder a questões levantadas pela enorme procura de débitos elevados em sistemas de comunicação. Isso é feito através da proposta de novos modelos para sistemas com codificação de rede (network coding) em camadas acima da sua camada física. Em particular, aborda-se a utilização de sistemas de codificação em rede para canais que variam no tempo e são sensíveis a atrasos. Isso foi demonstrado através da proposta de um novo modelo e esquema adaptativo, cujos algoritmos foram aplicados a sistemas sem fios com desvanecimento (fading) complexo, de que são exemplos os sistemas de comunicação via satélite. A tese aborda ainda o uso de sistemas de codificação de rede em cenários de transferência (handover) exigentes. Isso é feito através da proposta de novos modelos de transmissão WiFi IEEE 801.11 MAC, que são comparados com codificação de rede, e que se demonstram possibilitar transferência sem descontinuidades. Pode assim dizer-se que esta tese, através de trabalho de análise e de propostas suportadas por simulações, defende que na concepção de sistemas de comunicação se devem considerar estratégias de transmissão e codificação que sejam não só próximas da capacidade dos canais, mas também tolerantes a atrasos, e que tais estratégias têm de ser concebidas tendo em vista características do canal e a camada física.
Resumo:
O turismo costeiro é a atividade turística mais relevante em Portugal. Este facto deve-se essencialmente à extensa e diversificada linha de costa e à crescente procura destas áreas pelas suas características paisagísticas, que levou a um forte desenvolvimento da atividade turísticas ao longo das últimas décadas. No entanto, o turismo que se tem vindo a praticar nas áreas costeiras portuguesas não responde às questões da sustentabilidade que cada vez mais estão na base da competitividade dos destinos turísticos. A garantia de sustentabilidade e a atração pelo novo e pelo diferente são fatores essenciais à capacidade de atração e competitividade de um determinado território. O sector turístico não foge à regra. Como tal é necessário inverter o modelo massificado que caracteriza o turismo costeiro e inovar nos métodos e nos modelos de desenvolvimento deste turismo A região da Ria de Aveiro, composta por 11 municípios, é uma região com fortes potencialidades turísticas, mas que se encontram subaproveitadas ou incorretamente geridas. Esta região apresenta um forte potencial para a prática de um turismo sustentável, valorizando os recursos naturais e culturais que possui. É uma região que tem como ponto de conexão a “Ria de Aveiro”, sendo uma das principais zonas húmidas do território português. Além da Ria, possui variadíssimos recursos turísticos tais como praias marítimas e fluviais, frentes ribeirinhas, marinhas de sal, florestas, áreas de interesse conservacionista, aldeias serranas, património arquitetónico, nomeadamente religioso, casas de interesse (arte nova, palheiros), museus, azulejaria, estações arqueológicas, entre outros. A proximidade entre o mar e a serra cria condições para a diversificação da paisagem, surgindo áreas tipicamente serranas que contrastam com a planície costeira e lagunar. Esta variedade de recursos constitui uma excelente oportunidade para os municípios que compõem a região, porque podem ajudar a definir e a sustentar estratégias de desenvolvimento turístico mais competitivas e associadas ao quadro de recursos naturais disponíveis. É necessário, assim, uma aposta nas singularidades e especificidades da região, oferecendo o que outros destinos não conseguem oferecer, através da exploração sustentável dos recursos endógenos. No entanto, é fundamental existir vontade política para que se possam promover e aplicar estratégias de turismo sustentável neste território. Pretende-se com este trabalho apresentar um modelo estratégico para o sector do turismo da região da Ria de Aveiro, através de uma abordagem diferenciadora, que promova e potencie, de forma integrada o quadro de recursos existentes. Esta abordagem baseia-se em quatro premissas que pretendem estruturar e orientar o modelo estratégico apresentado, sendo elas a identidade da região, a sustentabilidade e competitividade, a construção de redes e a coesão sociocultural.