42 resultados para Eficiência e desempenho econômicos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A avaliação do desempenho docente tem vindo a adquirir uma centralidade crescente nos contextos educativos. Para além de razões mais abrangentes que têm a ver com a importância gradual que a avaliação adquire nas políticas educativas, considera-se que a avaliação do desempenho docente contribui para a melhoria da qualidade do trabalho docente, das aprendizagens e dos resultados escolares dos alunos. As alterações do Estatuto da Carreira Docente introduziram, a partir de 2007, a par com um novo e mais exigente sistema de avaliação, a divisão da carreira em duas categorias – professor e professor titular. Os professores titulares passaram a desempenhar funções de avaliação e coordenação dos seus colegas. Estas mudanças trouxeram alterações significativas na carreira, na profissão e no trabalho docente. O propósito deste estudo foi pesquisar, do ponto de vista da análise organizacional, o modo como foi percecionado pelos docentes o processo de avaliação do desempenho (relativo ao ciclo 2007-2009), centrando-nos, em particular, no papel desempenhado pelos professores titulares num modelo de avaliação por pares e num quadro legal de verticalização da carreira docente. Desenvolvemos este estudo num agrupamento de escolas da zona centro do território continental português seguindo uma metodologia de estudo de caso. Como principais conclusões, e tendo em conta as lógicas organizacionais de que partimos, ressalta-se: i) ao nível da lógica burocrática, a burocratização e morosidade do concurso dos professores titulares, a complexidade dos procedimentos conducentes à implementação do sistema de avaliação e o formalismo na construção dos respetivos instrumentos; ii) dentro da lógica conflitual, as tensões decorrentes da discordância com a divisão da carreira entre professor e professor titular, a atribuição aos professores titulares da função avaliativa, não tendo estes sido reconhecidos pelos seus pares com legitimidade para os avaliar, e a existência de conflitos entre os diversos intervenientes; iii) na lógica artificial, o facto de este sistema de avaliação não ter implicado alterações significativas nas práticas, tendo em conta a exígua adesão dos professores à avaliação da componente cientifico-pedagógica, a ritualização de processos e o restringir-se ao cumprimento dos requisitos mínimos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No contexto econômico competitivo e globalizado no qual as corporações estão inseridas, emerge a necessidade de evolução constante para acompanhar as mudanças que o ambiente lhes impõe, visando a sustentabilidade e a perpetuidade. A evolução econômica e financeira das corporações pode promover o desenvolvimento de uma nação, mesmo que o aumento da concorrência no mercado obrigue-as a investirem em novas relações com o seu universo, buscando melhorar os seus níveis de desempenho mensurados por meio de novos instrumentos economicos e financeiros. Desta forma, o grau de investimento corporativo passa a ser relevante, pois pode gerar confiança em novos investimentos, sendo visto como sinônimo de economia forte. No concernente ao objetivo, esta tese teve como escopo o desenvolvimento de um indicador econômico e financeiro visando balizar o grau de credibilidade rating que as corporações apresentam em sua estrutura corporativa, por meio de um conjunto de índices econômicos e financeiros ligados à liquidez, à lucratividade, ao endividamento e à rentabilidade, provindos das demonstrações econômicas e financeiras das corporações estudadas. Este estudo caracteriza-se no contexto da tipologia aplicada, de objetivo descritivo com delineamento bibliográfico, na amplitude da problemática, caracteriza-se como quantitativo, compreendendo a população de 70 corporações brasileiras reconhecidas pelas certificadoras internacionais, Standard & Poor's, Moody's e Fitch Ratings, as quais detinham o grau de investimento corporativo no ano de 2008. Quanto aos métodos e procedimentos estatísticos, primeiramente utilizou-se a análise descritiva com vistas ao resumo dos dados, posteriormente foi feita a análise de correlação por meio do Coeficiente de Correlação Linear de Pearson, aplicando-se em seguida a análise de regressão. Em seguida para a confecção do modelo utilizou-se a análise fatorial e para testificar sua confiabilidade o Alfa de Cronbach, utilizou-se também a análise discriminante, para classificação dos quartis. As conclusões do estudo baseiamse nos resultados apresentados pela evolução do tratamento estatístico, que inicialmente apresentam uma correlação predominantemente fraca, no entanto isto não invalida a correlação de Pearson, pois todos os coeficientes apresentaram uma significância de (p<0,05). Na aplicação da análise de regressão, todos os modelos apresentaram resultados satisfatórios sendo perceptível a existência de uma forte correlação. A confiabilidade do modelo de grau de investimento corporativo provindo da análise fatorial foi testificada pelo coeficiente do Alpha de Cronbach, que apresentou valor de 0,768, o que indica consistência interna satisfatória ao estudo. O grau de investimento na base longitudinal de 2008 a 2010 apresenta variabilidade de 95,72% a 98,33% de acertividade. Portanto, conclui-se que o indicador criado por este estudo, possui condições de ser utilizado como base de definição do grau de investimento de corporações empresariais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Electrocerâmicos são uma classe de materiais avançados com propriedades eléctricas valiosas para aplicações. Estas propriedades são geralmente muito dependentes da microestrutura dos materiais. Portanto, o objectivo geral deste trabalho é investigar o desenho da resposta dieléctrica de filmes espessos obtidos por Deposição Electroforética (EPD) e cerâmicos monolíticos, através do controlo da evolução da microestrutura durante a sinterização de electrocerâmicos à base de titanatos. Aplicações sem fios na indústria microelectrónica e de comunicações, em rápido crescimento, tornaram-se um importante mercado para os fabricantes de semicondutores. Devido à constante necessidade de miniaturização, redução de custos e maior funcionalidade e integração, a tecnologia de filmes espessos está a tornar-se uma abordagem de processamento de materiais funcionais cada vez mais importante. Uma técnica adequada neste contexto é EPD. Os filmes espessos resultantes necessitam de um passo subsequente de sinterização que é afectada pelo substrato subjacente, tendo este um forte efeito sobre a evolução da microestrutura. Relacionado com a miniaturização e a discriminação do sinal, materiais dieléctricos usados como componentes operando a frequências das microondas em aplicações na industria microelectrónica de comunicações devem apresentar baixas perdas dieléctricas e elevadas permitividade dieléctrica e estabilidade com a temperatura. Materiais do sistema BaO-Ln2O3- TiO2 (BLnT: Ln = La ou Nd), como BaLa4Ti4O15 (BLT) e Ba4.5Nd9Ti18O54 (BNT), cumprem esses requisitos e são interessantes para aplicações, por exemplo, em estações de base para comunicações móveis ou em ressonadores para telefones móveis, onde a miniaturização dos dispositivos é muito importante. Por sua vez, o titanato de estrôncio (SrTiO3, STO) é um ferroeléctrico incipiente com constante dieléctrica elevada e baixas perdas, que encontra aplicação em, por exemplo, condensadores de camada interna, tirando partido de fronteiras de grão altamente resistivas. A dependência da permitividade dieléctrica do campo eléctrico aplicado torna este material muito interessante para aplicações em dispositivos de microondas sintonizáveis. Materiais à base de STO são também interessantes para aplicações termoeléctricas, que podem contribuir para a redução da actual dependência de combustíveis fósseis por meio da geração de energia a partir de calor desaproveitado. No entanto, as mesmas fronteiras de grão resistivas são um obstáculo relativamente à eficiência do STO para aplicações termoeléctricas. Para além do efeito do substrato durante a sinterização constrangida, outros factores, como a presença de fase líquida, a não-estequiometria ou a temperatura de sinterização, afectam significativamente não apenas a microestrutura dos materiais funcionais, mas também a sua resposta dieléctrica. Se adequadamente compreendidos, estes factores podem ser intencionalmente usados para desenhar a microestrutura dos electrocerâmicos e, desta forma, as suas propriedades dieléctricas. O efeito da não-estequiometria (razão Sr/Ti 0.995-1.02) no crescimento de grão e resposta dieléctrica de cerâmicos de STO foi investigado neste trabalho. A mobilidade das fronteiras de grão aumenta com a diminuição da razão Sr/Ti. A resistividade do interior dos grãos e das fronteiras de grão é sistematicamente diminuída em amostras não-estequiométricas de STO, em comparação com o material estequiométrico. O efeito é muito mais forte para as fronteiras de grão do que para o seu interior. Dependências sistemáticas da não-estequiometria foram também observadas relativamente à dependência da condutividade da temperatura (muito mais afectada no caso da contribuição das fronteiras de grão), à capacitância do interior e fronteiras de grão e à espessura das fronteiras de grão. Uma anomalia no crescimento de grão em cerâmicos de STO ricos em Ti foi também observada e sistematicamente analisada. Foram detectadas três descontinuidades na dependência do tipo Arrhenius do crescimento de grão relativamente à temperatura com diminuições no tamanho de grão a temperaturas em torno de 1500, 1550 e 1605 °C. Além disso, descontinuidades semelhantes foram também observadas na dependência da energia de activação relativamente à condutividade das fronteiras de grão e na espessura das fronteiras de grão, avaliadas por Espectroscopia de Impedância. Estas notáveis coincidências suportam fortemente a formação de diferentes complexos de fronteira de grão com transições entre os regimes de crescimento de grão observados, que podem ser correlacionados com diferentes mobilidades de fronteira de grão e propriedades dieléctricas. Um modelo é sugerido, que se baseia na diminuição da fase líquida localizada nas fronteiras de grão, como o aumento da temperatura de sinterização, um cenário compatível com um fenómeno de solubilidade retrógrada, observado anteriormente em metais e semicondutores, mas não em cerâmicos. A EPD de filmes espessos de STO em substratos de folha de Pt e a sinterização constrangida dos filmes fabricados foram também preliminarmente tratadas. Filmes espessos de STO foram depositados com êxito por EPD sobre substratos de Pt e, depois de sinterizados, atingiram densidades elevadas. Um aumento da densificação e do tamanho de grão assim como o alargamento da distribuição de tamanho do grão foram observados com a diminuição da razão Sr/Ti, tal como anteriormente observado em amostras cerâmicas. Grãos equiaxiados foram observados para todas as composições, mas um certo grau de anisotropia na orientação dos poros foi detectado: os poros revelaram uma orientação vertical preferencial. Este trabalho focou-se também na sinterização constrangida do sistema BLnT (Ln = La ou Nd), nomeadamente de filmes espessos de BLT e BNT sobre substratos de folha de platina, e na relação do desenvolvimento de anisotropia microestrutural com as propriedades dieléctricas. As observações durante a sinterização constrangida foram comparadas com cerâmicos monolíticos equivalentes sinterizados livremente. Filmes espessos de BLnT (Ln = La ou Nd) com elevada densidade foram obtidos por EPD e subsequente sinterização constrangida. A anisometria cristalográfica do material em conjunto com um passo de sinterização constrangida resultou em grãos alongados e microestruturas anisotrópicas. O efeito do stress do substrato durante a sinterização constrangida originou graus mais elevados de anisotropia (grãos e poros alongados e orientação preferencial, bem como textura cristalográfica) nos filmes sinterizados relativamente aos cerâmicos equivalentes sinterizados livremente, não obstante o estado equivalente das amostras em verde. A densificação dos filmes de BLnT (Ln = La ou Nd) é retardada em comparação com os cerâmicos, mas depois de longos tempos de sinterização densidades semelhantes são obtidas. No entanto, em oposição a observações na sinterização constrangida de outros sistemas, o crescimento do grão em filmes de BLnT (Ln = La ou Nd) é favorecido pelo constrangimento causado pelo substrato. Além disso, grãos e poros alongados orientados paralelamente ao substrato foram desenvolvidos durante a sinterização constrangida de filmes espessos. Verificou-se uma forte correlação entre a evolução de grãos e poros, que começou assim que o crescimento do grão se iniciou. Um efeito da tensão do substrato no aumento do crescimento de grão, bem como um forte “Zener pinning”, origina microestruturas altamente texturizadas, o que também é observado a nível cristalográfico. Efeitos marcantes da anisotropia microestrutural foram também detectados nas propriedades dieléctricas dos filmes de BLnT (Ln = La ou Nd). Juntamente com o aumento da razão de aspecto dos grãos, do factor de orientação e do grau de textura cristalográfica, a permitividade relativa é ligeiramente diminuída e o coeficiente de temperatura da permitividade evolui de negativo para positivo com o aumento do tempo isotérmico de sinterização. Este trabalho mostra que a não-estequiometria pode ser usada para controlar a mobilidade das fronteiras de grão e, portanto, desenhar a microestrutura e as propriedades dieléctricas de electrocerâmicos à base de STO, com ênfase nas propriedades das fronteiras de grão. O papel da não-estequiometria no STO e dos complexos de fronteira de grão no desenvolvimento microestrutural é discutido e novas oportunidades para desenhar as propriedades de materiais funcionais são abertas. As observações relativamente à sinterização constrangida apontam para o efeito de tensões mecânicas desenvolvidas devido ao substrato subjacente no desenvolvimento da microestrutura de materiais funcionais. É assim esperado que a escolha adequada de substrato permitia desenhar a microestrutura de filmes espessos funcionais com desempenho optimizado. “Stress Assisted Grain Growth” (SAGG) é então proposto como uma técnica potencial para desenhar a microestrutura de materiais funcionais, originando microestruturas anisotrópicas texturizadas com propriedades desejadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho descreve um projeto de implementação da metodologia de Manutenção Produtiva Total (TPM) desenvolvido na Simoldes Plásticos, unidade industrial de injeção de plásticos que opera no setor automóvel. A metodologia TPM salienta o papel fundamental que o trabalho em equipa e, em particular, a participação do pessoal, podem desempenhar na identificação de oportunidades de melhoria e na sua implementação. A sua aplicação visa a diminuição dos desperdícios, acidentes, defeitos, paragens e falhas ao longo de um processo produtivo. De uma forma geral, a TPM utiliza uma ideia base elementar que passa pela sensibilização, formação e treino dos operadores para que estes consigam realizar a manutenção autónoma dos equipamentos e melhorar continuamente o seu desempenho. Este trabalho apresenta em primeiro lugar uma revisão dos conceitos de Gestão da Qualidade Total, particularmente da Melhoria Contínua e da Metodologia TPM. De seguida, é descrita a aplicação da TPM na empresa Simoldes Plásticos, que inclui uma descrição dos principais problemas encontrados e das medidas aplicadas para a sua correção. Finalmente é feita uma análise do impacto das melhorias implementadas, a partir da análise de um indicador de eficiência específico, desenvolvido na empresa - o RUTPM - Rendimento de Utilização TPM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os incêndios florestais são uma importante fonte de emissão de compostos gasosos e de aerossóis. Em Portugal, onde a maioria dos incêndios ocorre no norte e centro do país, os incêndios destroem todos os anos milhares de hectares, com importantes perdas em termos económicos, de vidas humanas e qualidade ambiental. As emissões podem alterar consideravelmente a química da atmosfera, degradar a qualidade do ar e alterar o clima. Contudo, a informação sobre as caraterísticas das emissões dos incêndios florestais nos países do Mediterrâneo é limitada. Tanto a nível nacional como internacional, existe um interesse crescente na elaboração de inventários de emissões e de regulamentos sobre as emissões de carbono para a atmosfera. Do ponto de vista atmosférico da monitorização atmosférica, os incêndios são considerados um desafio, dada a sua variabilidade temporal e espacial, sendo de esperar um aumento da sua frequência, dimensão e severidade, e também porque as estimativas de emissões dependem das caraterísticas dos biocombustíveis e da fase de combustão. O objetivo deste estudo foi quantificar e caraterizar as emissões de gases e aerossóis de alguns dos mais representativos incêndios florestais que ocorreram no centro de Portugal nos verões de 2009 e de 2010. Efetuou-se a colheita de amostras de gases e de duas frações de partículas (PM2.5 e PM2.5-10) nas plumas de fumo em sacos Tedlar e em filtros de quartzo acoplados a um amostrador de elevado volume, respetivamente. Os hidrocarbonetos totais (THC) e óxidos de carbono (CO e CO2) nas amostras gasosas foram analisados em instrumentos automáticos de ionização de chama e detetores não dispersivos de infravermelhos, respetivamente. Para algumas amostras, foram também quantificados alguns compostos de carbonilo após reamostragem do gás dos sacos Tedlar em cartuchos de sílica gel revestidos com 2,4-dinitrofenilhidrazina (DNPH), seguida de análise por cromatografia líquida de alta resolução. Nas partículas, analisou-se o carbono orgânico e elementar (técnica termo-óptica), iões solúveis em água (cromatografia iónica) e elementos (espectrometria de massa com plasma acoplado por indução ou análise instrumental por ativação com neutrões). A especiação orgânica foi obtida por cromatografia gasosa acoplada a espectrometria de massa após extração com recurso a vários solventes e separação dos extratos orgânicos em diversas classes de diferentes polaridades através do fracionamento com sílica gel. Os fatores de emissão do CO e do CO2 situaram-se nas gamas 52-482 e 822-1690 g kg-1 (base seca), mostrando, respetivamente, correlação negativa e positiva com a eficiência de combustão. Os fatores de emissão dos THC apresentaram valores mais elevados durante a fase de combustão latente sem chama, oscilando entre 0.33 e 334 g kg-1 (base seca). O composto orgânico volátil oxigenado mais abundante foi o acetaldeído com fatores de emissão que variaram desde 1.0 até 3.2 g kg-1 (base seca), seguido pelo formaldeído e o propionaldeído. Observou-se que as emissões destes compostos são promovidas durante a fase de combustão latente sem chama. Os fatores de emissão de PM2.5 e PM10 registaram valores entre 0.50-68 e 0.86-72 g kg-1 (base seca), respetivamente. A emissão de partículas finas e grosseiras é também promovida em condições de combustão lenta. As PM2.5 representaram cerca de 90% da massa de partículas PM10. A fração carbonosa das partículas amostradas em qualquer dos incêndios foi claramente dominada pelo carbono orgânico. Foi obtida uma ampla gama de rácios entre o carbono orgânico e o carbono elementar, dependendo das condições de combustão. Contudo, todos os rácios refletiram uma maior proporção de carbono orgânico em relação ao carbono elementar, típica das emissões de queima de biomassa. Os iões solúveis em água obtidos nas partículas da pluma de fumo contribuíram com valores até 3.9% da massa de partículas PM2.5 e 2.8% da massa de partículas de PM2.5-10. O potássio contribuiu com valores até 15 g mg-1 PM2.5 e 22 g mg-1 PM2.5-10, embora em massa absoluta estivesse maioritariamente presente nas partículas finas. Os rácios entre potássio e carbono elementar e entre potássio e carbono orgânico obtidos nas partículas da pluma de fumo enquadram-se na gama de valores relatados na literatura para emissões de queima de biomassa. Os elementos detetados nas amostras representaram, em média, valores até 1.2% e 12% da massa de PM2.5 e PM2.5-10, respetivamente. Partículas resultantes de uma combustão mais completa (valores elevados de CO2 e baixos de CO) foram caraterizadas por um elevado teor de constituintes inorgânicos e um menor conteúdo de matéria orgânica. Observou-se que a matéria orgânica particulada é composta principalmente por componentes fenólicos e produtos derivados, séries de compostos homólogos (alcanos, alcenos, ácidos alcanóicos e alcanóis), açúcares, biomarcadores esteróides e terpenóides, e hidrocarbonetos aromáticos policíclicos. O reteno, um biomarcador das emissões da queima de coníferas, foi o hidrocarboneto aromático dominante nas amostras das plumas de fumo amostradas durante a campanha que decorreu em 2009, devido ao predomínio de amostras colhidas em incêndios em florestas de pinheiros. O principal açúcar anidro, e sempre um dos compostos mais abundantes, foi o levoglucosano. O rácio levoglucosano/OC obtido nas partículas das plumas de fumo, em média, registaram valores desde 5.8 a 23 mg g-1 OC. Os rácios levoglucosano/manosano e levoglucosano/(manosano+galactosano) revelaram o predomínio de amostras provenientes da queima de coníferas. Tendo em conta que a estimativa das emissões dos incêndios florestais requer um conhecimento de fatores de emissão apropriados para cada biocombustível, a base de dados abrangente obtida neste estudo é potencialmente útil para atualizar os inventários de emissões. Tem vindo a ser observado que a fase de combustão latente sem chama, a qual pode ocorrer simultaneamente com a fase de chama e durar várias horas ou dias, pode contribuir para uma quantidade considerável de poluentes atmosféricos, pelo que os fatores de emissão correspondentes devem ser considerados no cálculo das emissões globais de incêndios florestais. Devido à falta de informação detalhada sobre perfis químicos de emissão, a base de dados obtida neste estudo pode também ser útil para a aplicação de modelos no recetor no sul da Europa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As técnicas estatísticas são fundamentais em ciência e a análise de regressão linear é, quiçá, uma das metodologias mais usadas. É bem conhecido da literatura que, sob determinadas condições, a regressão linear é uma ferramenta estatística poderosíssima. Infelizmente, na prática, algumas dessas condições raramente são satisfeitas e os modelos de regressão tornam-se mal-postos, inviabilizando, assim, a aplicação dos tradicionais métodos de estimação. Este trabalho apresenta algumas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, em particular na estimação de modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. A investigação é desenvolvida em três vertentes, nomeadamente na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, na estimação do parâmetro ridge em regressão ridge e, por último, em novos desenvolvimentos na estimação com máxima entropia. Na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, o trabalho desenvolvido evidencia um melhor desempenho dos estimadores de máxima entropia em relação ao estimador de máxima verosimilhança. Este bom desempenho é notório em modelos com poucas observações por estado e em modelos com um grande número de estados, os quais são comummente afetados por colinearidade. Espera-se que a utilização de estimadores de máxima entropia contribua para o tão desejado aumento de trabalho empírico com estas fronteiras de produção. Em regressão ridge o maior desafio é a estimação do parâmetro ridge. Embora existam inúmeros procedimentos disponíveis na literatura, a verdade é que não existe nenhum que supere todos os outros. Neste trabalho é proposto um novo estimador do parâmetro ridge, que combina a análise do traço ridge e a estimação com máxima entropia. Os resultados obtidos nos estudos de simulação sugerem que este novo estimador é um dos melhores procedimentos existentes na literatura para a estimação do parâmetro ridge. O estimador de máxima entropia de Leuven é baseado no método dos mínimos quadrados, na entropia de Shannon e em conceitos da eletrodinâmica quântica. Este estimador suplanta a principal crítica apontada ao estimador de máxima entropia generalizada, uma vez que prescinde dos suportes para os parâmetros e erros do modelo de regressão. Neste trabalho são apresentadas novas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, tendo por base o estimador de máxima entropia de Leuven, a teoria da informação e a regressão robusta. Os estimadores desenvolvidos revelam um bom desempenho em modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. Por último, são apresentados alguns códigos computacionais para estimação com máxima entropia, contribuindo, deste modo, para um aumento dos escassos recursos computacionais atualmente disponíveis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A introdução de novas exigências na Avaliação do Desempenho Docente (ADD) em Portugal (Decretos-Lei 15/2007 e 75/2010; Decretos Regulamentares 2/2008 e 2/2010) tem gerado nas escolas e nos professores, desde 2008, situações organizacionais complexas, que urge analisar e compreender. As políticas educativas têm vindo a apontar para a necessidade de um maior investimento nos processos de avaliação de professores, dando relevância ao papel a desempenhar pela supervisão pedagógica nesse contexto. A supervisão da prática letiva passou a ser considerada procedimento fundamental, na medida em que se tornou difícil conceber uma avaliação dos docentes que não incluísse sessões de observação em sala de aula. Fruto destas novas políticas de avaliação de professores, a ADD apresentou-se, do ponto de vista normativo, com base em duas funções: sumativa e formativa. Estas funções exigem maiores investimentos, novas práticas e uma reflexão sobre o papel do professor ancorada numa perspetiva holística, transformadora e emancipatória do seu desenvolvimento profissional. O principal objetivo do nosso estudo consiste em compreender as perceções e práticas desenvolvidas pelos docentes face às alterações introduzidas no sistema da ADD no geral, e, em particular, o papel desempenhado pela supervisão pedagógica (SP) na avaliação entre pares, no segundo ciclo avaliativo (2009-2011). A investigação empírica tem por base um estudo de caso desenvolvido num Agrupamento de escolas do Distrito de Aveiro. A recolha de dados foi concretizada através da administração de um questionário a todos os docentes do Agrupamento e da condução de entrevistas a 26 informadores privilegiados do processo avaliativo. Os principais resultados do estudo de caso apontam para: i) a opinião desfavorável dos professores face ao atual modelo de ADD, dada a sua natureza burocrática, complexa, injusta e a sua escassa utilidade prática, preenchendo apenas requisitos legais e de controlo; ii) um processo de SP, concretamente, a observação de aulas, que não contribui para o desenvolvimento profissional dos professores e tem impacte negativo no trabalho docente, acentuando a artificialidade dos procedimentos e aumentando o clima de competição e de conflito; iii) a sensação de desconforto entre os intervenientes, fazendo emergir sentimentos de injustiça, insegurança e ansiedade que, em seu entender, constituem constrangimentos à melhoria das aprendizagens dos alunos e à qualidade da escola; iv) uma escassa implicação na melhoria das práticas futuras e do desenvolvimento profissional dos docentes. Estes resultados constituem um desafio colocado aos investigadores no sentido de identificarem alternativas de ação para poderem lidar com a complexidade inerente ao processo de avaliação na sua relação com a supervisão pedagógica, com vista à melhoria de desempenho das escolas e dos professores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In recent years, a new paradigm for communication called cooperative communications has been proposed for which initial information theoretic studies have shown the potential for improvements in capacity over traditional multi-hop wireless networks. Extensive research has been done to mitigate the impact of fading in wireless networks, being mostly focused on Multiple-Input Multiple-Output (MIMO) systems. Recently, cooperative relaying techniques have been investigated to increase the performance of wireless systems by using diversity created by different single antenna devices, aiming to reach the same level of performance of MIMO systems with low cost devices. Cooperative communication is a promising method to achieve high spectrum efficiency and improve transmission capacity for wireless networks. Cooperative communications is the general idea of pooling the resources of distributed nodes to improve the overall performance of a wireless network. In cooperative networks the nodes cooperate to help each other. A cooperative node offering help is acting like a middle man or proxy and can convey messages from source to destination. Cooperative communication involves exploiting the broadcast nature of the wireless medium to form virtual antenna arrays out of independent singleantenna network nodes for transmission. This research aims at contributing to the field of cooperative wireless networks. The focus of this research is on the relay-based Medium Access Control (MAC) protocol. Specifically, I provide a framework for cooperative relaying called RelaySpot which comprises on opportunistic relay selection, cooperative relay scheduling and relay switching. RelaySpot-based solutions are expected to minimize signaling exchange, remove estimation of channel conditions, and improve the utilization of spatial diversity, minimizing outage and increasing reliability.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The increasing interest in coral culture for biotechnological applications, to supply the marine aquarium trade, or for reef restoration programs, has prompted researchers to optimize coral culture protocols, with emphasis to ex situ production. When cultured ex situ, the growth performance of corals can be influenced by several physical, chemical and biological parameters. For corals harbouring zooxanthellae, light is one of such key factors, as it can influence the photosynthetic performance of these endosymbionts, as well as coral physiology, survival and growth. The economic feasibility of ex situ coral aquaculture is strongly dependent on production costs, namely those associated with the energetic needs directly resulting from the use of artificial lighting systems. In the present study we developed a versatile modular culture system for experimental coral production ex situ, assembled solely using materials and equipment readily available from suppliers all over the world; this approach allows researchers from different institutions to perform truly replicated experimental set-ups, with the possibility to directly compare experimental results. Afterwards, we aimed to evaluate the effect of contrasting Photosynthetically Active Radiation (PAR) levels, and light spectra emission on zooxanthellae photochemical performance, through the evaluation of the maximum quantum yield of PSII (Fv/Fm) (monitored non-invasively and non-destructively through Pulse Amplitude Modulation fluorometry, PAM), chlorophyll a content (also determined non-destructively by using the spectral reflectance index Normalized Difference Vegetation Index, NDVI), photosynthetic and accessory pigments, number of zooxanthellae, coral survival and growth. We studied two soft coral species, Sarcophyton cf. glaucum and Sinularia flexibilis, as they are good representatives of two of the most specious genera in family Alcyoniidae, which include several species with interest for biotechnological applications, as well as for the marine aquarium trade; we also studied two commercially important scleractinian corals: Acropora formosa and Stylophora pistillata. We used different light sources: hydrargyrum quartz iodide (HQI) lamps with different light color temperatures, T5 fluorescent lamps, Light Emitting Plasma (LEP) and Light Emitting Diode (LED). The results achieved revealed that keeping S. flexibilis fragments under the same light conditions as their mother colonies seems to be photobiologically acceptable for a short-term husbandry, notwithstanding the fact that they can be successfully stocked at lower PAR intensities. We also proved that low PAR intensities are suitable to support the ex situ culture S. cf. glaucum in captivity at lower production costs, since the survival recorded during the experiment was 100%, the physiological wellness of coral fragments was evidenced, and we did not detect significant differences in coral growth. Finally, we concluded that blue light sources, such as LED lighting, allow a higher growth for A. formosa and S. pistillata, and promote significant differences on microstructure organization and macrostructure morphometry in coral skeletons; these findings may have potential applications as bone graft substitutes for veterinary and/or other medical uses. Thus, LED technology seems to be a promising option for scleractinian corals aquaculture ex situ.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Flexible radio transmitters based on the Software-Defined Radio (SDR) concept are gaining an increased research importance due to the unparalleled proliferation of new wireless standards operating at different frequencies, using dissimilar coding and modulation schemes, and targeted for different ends. In this new wireless communications paradigm, the physical layer of the radio transmitter must be able to support the simultaneous transmission of multi-band, multi-rate, multi-standard signals, which in practice is very hard or very inefficient to implement using conventional approaches. Nevertheless, the last developments in this field include novel all-digital transmitter architectures where the radio datapath is digital from the baseband up to the RF stage. Such concept has inherent high flexibility and poses an important step towards the development of SDR-based transmitters. However, the truth is that implementing such radio for a real world communications scenario is a challenging task, where a few key limitations are still preventing a wider adoption of this concept. This thesis aims exactly to address some of these limitations by proposing and implementing innovative all-digital transmitter architectures with inherent higher flexibility and integration, and where improving important figures of merit, such as coding efficiency, signal-to-noise ratio, usable bandwidth and in-band and out-of-band noise will also be addressed. In the first part of this thesis, the concept of transmitting RF data using an entirely digital approach based on pulsed modulation is introduced. A comparison between several implementation technologies is also presented, allowing to state that FPGAs provide an interesting compromise between performance, power efficiency and flexibility, thus making them an interesting choice as an enabling technology for pulse-based all-digital transmitters. Following this discussion, the fundamental concepts inherent to pulsed modulators, its key advantages, main limitations and typical enhancements suitable for all-digital transmitters are also presented. The recent advances regarding the two most common classes of pulse modulated transmitters, namely the RF and the baseband-level are introduced, along with several examples of state-of-the-art architectures found on the literature. The core of this dissertation containing the main developments achieved during this PhD work is then presented and discussed. The first key contribution to the state-of-the-art presented here consists in the development of a novel ΣΔ-based all-digital transmitter architecture capable of multiband and multi-standard data transmission in a very flexible and integrated way, where the pulsed RF output operating in the microwave frequency range is generated inside a single FPGA device. A fundamental contribution regarding the simultaneous transmission of multiple RF signals is then introduced by presenting and describing novel all-digital transmitter architectures that take advantage of multi-gigabit data serializers available on current high-end FPGAs in order to transmit in a time-interleaved approach multiple independent RF carriers. Further improvements in this design approach allowed to provide a two-stage up-conversion transmitter architecture enabling the fine frequency tuning of concurrent multichannel multi-standard signals. Finally, further improvements regarding two key limitations inherent to current all-digital transmitter approaches are then addressed, namely the poor coding efficiency and the combined high quality factor and tunability requirements of the RF output filter. The followed design approach based on poliphase multipath circuits allowed to create a new FPGA-embedded agile transmitter architecture that significantly improves important figures of merit, such as coding efficiency and SNR, while maintains the high flexibility that is required for supporting multichannel multimode data transmission.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar das recentes inovações tecnológicas, o setor dos transportes continua a exercer impactes significativos sobre a economia e o ambiente. Com efeito, o sucesso na redução das emissões neste setor tem sido inferior ao desejável. Isto deve-se a diferentes fatores como a dispersão urbana e a existência de diversos obstáculos à penetração no mercado de tecnologias mais limpas. Consequentemente, a estratégia “Europa 2020” evidencia a necessidade de melhorar a eficiência no uso das atuais infraestruturas rodoviárias. Neste contexto, surge como principal objetivo deste trabalho, a melhoria da compreensão de como uma escolha de rota adequada pode contribuir para a redução de emissões sob diferentes circunstâncias espaciais e temporais. Simultaneamente, pretende-se avaliar diferentes estratégias de gestão de tráfego, nomeadamente o seu potencial ao nível do desempenho e da eficiência energética e ambiental. A integração de métodos empíricos e analíticos para avaliação do impacto de diferentes estratégias de otimização de tráfego nas emissões de CO2 e de poluentes locais constitui uma das principais contribuições deste trabalho. Esta tese divide-se em duas componentes principais. A primeira, predominantemente empírica, baseou-se na utilização de veículos equipados com um dispositivo GPS data logger para recolha de dados de dinâmica de circulação necessários ao cálculo de emissões. Foram percorridos aproximadamente 13200 km em várias rotas com escalas e características distintas: área urbana (Aveiro), área metropolitana (Hampton Roads, VA) e um corredor interurbano (Porto-Aveiro). A segunda parte, predominantemente analítica, baseou-se na aplicação de uma plataforma integrada de simulação de tráfego e emissões. Com base nesta plataforma, foram desenvolvidas funções de desempenho associadas a vários segmentos das redes estudadas, que por sua vez foram aplicadas em modelos de alocação de tráfego. Os resultados de ambas as perspetivas demonstraram que o consumo de combustível e emissões podem ser significativamente minimizados através de escolhas apropriadas de rota e sistemas avançados de gestão de tráfego. Empiricamente demonstrou-se que a seleção de uma rota adequada pode contribuir para uma redução significativa de emissões. Foram identificadas reduções potenciais de emissões de CO2 até 25% e de poluentes locais até 60%. Através da aplicação de modelos de tráfego demonstrou-se que é possível reduzir significativamente os custos ambientais relacionados com o tráfego (até 30%), através da alteração da distribuição dos fluxos ao longo de um corredor com quatro rotas alternativas. Contudo, apesar dos resultados positivos relativamente ao potencial para a redução de emissões com base em seleções de rotas adequadas, foram identificadas algumas situações de compromisso e/ou condicionantes que devem ser consideradas em futuros sistemas de eco navegação. Entre essas condicionantes importa salientar que: i) a minimização de diferentes poluentes pode implicar diferentes estratégias de navegação, ii) a minimização da emissão de poluentes, frequentemente envolve a escolha de rotas urbanas (em áreas densamente povoadas), iii) para níveis mais elevados de penetração de dispositivos de eco-navegação, os impactos ambientais em todo o sistema podem ser maiores do que se os condutores fossem orientados por dispositivos tradicionais focados na minimização do tempo de viagem. Com este trabalho demonstrou-se que as estratégias de gestão de tráfego com o intuito da minimização das emissões de CO2 são compatíveis com a minimização do tempo de viagem. Por outro lado, a minimização de poluentes locais pode levar a um aumento considerável do tempo de viagem. No entanto, dada a tendência de redução nos fatores de emissão dos poluentes locais, é expectável que estes objetivos contraditórios tendam a ser minimizados a médio prazo. Afigura-se um elevado potencial de aplicação da metodologia desenvolvida, seja através da utilização de dispositivos móveis, sistemas de comunicação entre infraestruturas e veículos e outros sistemas avançados de gestão de tráfego.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho é o resultado duma investigação heurística sobre os efeitos do estudo da Técnica Alexander (TA) na prática e no ensino da flauta. Submeti-me a uma centena de aulas de Técnica Alexander e procedi a uma análise reflexiva da minha aprendizagem e prática individual e pedagógica, registando a sua evolução através da progressiva incorporação dos princípios e metodologias daquela técnica. A primeira parte descreve os princípios e procedimentos da TA enquadrando-a na problemática das relações entre conhecimento tácito e explícito, nos processos de controlo motor voluntário e involuntário, e na eficácia e eficiência dos automatismos neuromusculares. A segunda parte constitui a descrição e análise do processo transformador catalisado pelo estudo da TA: modificações na coordenação muscular; na técnica respiratória; no empunhar da flauta e na preparação para a emissão da primeira nota, e na relação entre o equilíbrio do instrumento e o movimento dos dedos. Vários procedimentos e exercícios desenvolvidos para a resolução de problemas pessoais são apresentados justificando a sua eficácia. A TA não proporciona apenas alterações na coordenação muscular mas pode modificar os processos mentais. Por isso alguns princípios para uma organização eficiente da prática são discutidos e concretizados nalguns exercícios que promovem maior variabilidade, alternância entre análise e integração e clareza na concepção do gesto técnico-musical. Por último, a evolução da minha abordagem pedagógica, incorporando procedimentos inspirados na TA e desenvolvidos ao longo da investigação são ilustrados com alguns alunos. A tese argumenta que a TA pode desempenhar um papel fundamental na melhoria do desempenho dum músico e revela-se uma ferramenta pedagógica que merece ser explorada mais sistematicamente num ensino mais baseado numa experimentação guiada que promova uma maior autoconsciência dos processos neuromusculares do que na instrução prescritiva e explícita.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O conceito de bioatividade surgiu com a descoberta, no início década de 70, de que algumas composições vítreas (ex.: 45S5 Bioglass®), tinham a capacidade de estabelecer uma ligação direta e estável com os tecidos vivos. Desde então, este grupo de biomateriais tem vindo a receber uma atenção cada vez maior por parte dos investigadores, tendo como motivação principal a busca de novas composições com propriedades mais adequadas para a regeneração óssea do que as composições comercialmente disponíveis. Na presente tese, avaliou-se o desempenho in vivo de duas composições de biovidro do sistema diopsite (CaMgSi2O6) - fluorapatite (Ca5(PO4)3F) - fosfato tricálcico (3CaO•P2O5) aplicados em defeitos ósseos de tamanho não crítico em carneiros, tendo também sido avaliada a biocompatibilidade dos biomateriais através da aplicação subcutânea de placas dos mesmos vidros. O trabalho realizado também incluiu a avaliação dos materiais in vitro, através de estudos de biomineralização em fluido corporal simulado e estudos de degradação. Os biomateriais foram comparados com o biovidro 45S5 Bioglass®, sendo que em termos de bioatividade in vitro, as duas composições investigadas apresentaram um maior potencial bioativo, levando à formação de uma camada superficial de hidroxiapatite carbonatada, em contraste com a formação de calcite na composição comercial, sob condições idênticas. Os testes de degradação in vitro também apresentaram resultados melhores para as duas novas composições, traduzidos por variações de pH e taxas de degradação menores do que os observados no caso do 45S5 Bioglass®. A avaliação in vivo dos implantes subcutâneos permitiu apurar a biocompatibilidade dos biovidros testados, tendo sido considerados ligeiramente irritantes. Os resultados relativos à aplicação dos pós de vidro bioativo nos defeitos ósseos não foram obtidos em tempo útil de modo a poderem ser incluídos na presente tese. Considerando o desempenho in vitro e a biocompatibilidade dos materiais estudados, estes podem apontar-se como materiais promissores para aplicações em engenharia de tecidos, particularmente na regeneração do tecido ósseo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Portugal é um dos países europeus com melhor cobertura espacial e populacional de rede de autoestradas (5º entre os 27 da UE). O acentuado crescimento desta rede nos últimos anos leva a que seja necessária a utilização de metodologias de análise e avaliação da qualidade do serviço que é prestado nestas infraestruturas, relativamente às condições de circulação. Usualmente, a avaliação da qualidade de serviço é efetuada por intermédio de metodologias internacionalmente aceites, das quais se destaca a preconizada no Highway Capacity Manual (HCM). É com esta última metodologia que são habitualmente determinados em Portugal, os níveis de serviço nas diversas componentes de uma autoestrada (secções correntes, ramos de ligação e segmentos de entrecruzamento). No entanto, a sua transposição direta para a realidade portuguesa levanta algumas reservas, uma vez que os elementos que compõem o ambiente rodoviário (infraestrutura, veículo e condutor) são distintos dos da realidade norte-americana para a qual foi desenvolvida. Assim, seria útil para os atores envolvidos no setor rodoviário dispor de metodologias desenvolvidas para as condições portuguesas, que possibilitassem uma caracterização mais realista da qualidade de serviço ao nível da operação em autoestradas. No entanto, importa referir que o desenvolvimento de metodologias deste género requer uma quantidade muito significativa de dados geométricos e de tráfego, o que acarreta uma enorme necessidade de meios, quer humanos, quer materiais. Esta abordagem é assim de difícil execução, sendo por isso necessário recorrer a metodologias alternativas para a persecução deste objetivo. Ultimamente tem-se verificado o uso cada vez mais generalizado de modelos de simulação microscópica de tráfego, que simulando o movimento individual dos veículos num ambiente virtual permitem realizar análises de tráfego. A presente dissertação apresenta os resultados obtidos no desenvolvimento de uma metodologia que procura recriar, através de simuladores microscópicos de tráfego, o comportamento das correntes de tráfego em secções correntes de autoestradas com o intuito de, posteriormente, se proceder à adaptação da metodologia preconizada no HCM (na sua edição de 2000) à realidade portuguesa. Para tal, com os simuladores microscópicos utilizados (AIMSUN e VISSIM) procurou-se reproduzir as condições de circulação numa autoestrada portuguesa, de modo a que fosse possível analisar as alterações sofridas no comportamento das correntes de tráfego após a modificação dos principais fatores geométricos e de tráfego envolvidos na metodologia do HCM 2000. Para o efeito, realizou-se uma análise de sensibilidade aos simuladores de forma a avaliar a sua capacidade para representar a influência desses fatores, com vista a, numa fase posterior, se quantificar o seu efeito para a realidade nacional e dessa forma se proceder à adequação da referida metodologia ao contexto português. Em resumo, o presente trabalho apresenta as principais vantagens e limitações dos microssimuladores AIMSUN e VISSIM na modelação do tráfego de uma autoestrada portuguesa, tendo-se concluído que estes simuladores não são capazes de representar de forma explícita alguns dos fatores considerados na metodologia do HCM 2000, o que impossibilita a sua utilização como ferramenta de quantificação dos seus efeitos e consequentemente inviabiliza a adaptação dessa metodologia à realidade nacional. São, no entanto, referidas algumas indicações de como essas limitações poderão vir a ser ultrapassadas, com vista à consecução futura dessa adequação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.